next up previous contents index
suivant: Distribution de Poisson monter: Quelques distributions importantes précédent: Quelques distributions importantes   Table des matières   Index

Distribution binomiale

La distribution binomiale est très classique en physique statistique, par ses applications dans les phénomènes de marche au hasard. De façon très générale, nous considérons un événement quelconque dont la probabilité de réalisation est $ p$ et celle de non-réalisation $ q$. Nous avons bien entendu $ p+q =1$.
[4]Nous effectuons $ N$ mesures de cet événement et cherchons la probabilité $ P(n)$ d'obtenir $ n$ réalisations parmi $ N$:

$\displaystyle P(n) = {\rm C}_N^n ~p^n ~q^{N-n} ~=~ \frac{N!}{n! ~(N-n)!} ~p^n ~q^{N-n}$ (2.17)

Remarquons que: $ \displaystyle \sum_{n=0}^N {P(n)} = \sum_{n=0}^N {{\rm C}_N^n ~p^n ~q^{N-n}} = \left(p+q\right)^N = 1$.

Valeur moyenne de la distribution:

Notons à présent $ n_r$ le nombre de réalisations et $ n_{\overline{r}}$ son complémentaire ( $ n_r + n_{\overline{r}} = N$); calculons $ <n_r>$:

$\displaystyle <n_r> ~= \sum_{{n_r}=0}^N {n_r ~{\rm C}_N^{n_r} ~p^{n_r} ~q^{N-{n_r}}}$

L'astuce consiste à assimiler $ p$ et $ q$ à des variables indépendantes et continues, de sorte que $ \displaystyle n_r ~p^{n_r} = p\times\frac{\partial p^{n_r}}{\partial p}$. D'où:

$\displaystyle \left. <n_r>
\right.$ $\displaystyle =~$ $\displaystyle \sum_{{n_r} = 0}^N {\rm C}_N^{n_r} \left(p\frac{\partial p^{n_r}}{\partial p}\right) ~q^{N - n_r}$  
  $\displaystyle =$ $\displaystyle p\frac{\partial}{\partial p}\sum_{{n_r}=0}^N {{\rm C}_N^{n_r} ~p^{n_r} ~q^{N-{n_r}}}$  
  $\displaystyle =$ $\displaystyle p\frac{\partial}{\partial p}\left(p+q\right)^N$  
  $\displaystyle =$ $\displaystyle Np\left(p+q\right)^{N-1}$  

Finalement, le nombre moyen de réalisations de notre événement sur un total de $ N$ mesures est:

$\displaystyle \fbox{$\displaystyle <n_r> ~= Np$}$ (2.18)

un résultat somme toute cohérent.

De même, étant donné que $ \displaystyle <n_r> + <n_{\overline{r}}>~ = N$, on a $ \displaystyle <n_{\overline{r}}>~ = N(1 - p) = Nq$.

Variance de la distribution:

La variance $ {\sigma_{n_r}}^2$ de la distribution est définie par $ \displaystyle {\sigma_{n_r}}^2 = ~<\left(n_r - <n_r>\right)^2>~$ i.e.

$\displaystyle {\sigma_{n_r}}^2 =~ <n_r^2>~ - <n_r>^2$

Or $ \displaystyle <n_r^2>~ = \sum_{{n_r}=0}^N {n_r^2 ~{\rm C}_N^{n_r} ~p^{n_r} ~q^{N-{n_r}}}$. Comme précédemment, on utilise l'astuce suivante: si $ p$ et $ q$ sont des variables indépendantes et continues, nous avons: $ \displaystyle n_r^2 ~p^{n_r} = n_r \times p\frac{\partial p^{n_r}}{\partial p} = \left(p\frac{\partial}{\partial p}\right)^2 p^{n_r}$. Ainsi,

$\displaystyle \left. <n_r^2>
\right.$ $\displaystyle =$ $\displaystyle \left(p\frac{\partial}{\partial p}\right)^2 \sum_{{n_r}=0}^N {{\rm C}_N^{n_r} ~p^{n_r} ~q^{N-{n_r}}}$  
  $\displaystyle =$ $\displaystyle \left(p\frac{\partial}{\partial p}\right)^2 \left(p+q\right)^N$  
  $\displaystyle =$ $\displaystyle p\frac{\partial}{\partial p}\left[Np (p+q)^{N-1}\right]$  
  $\displaystyle =$ $\displaystyle Np\left\{(p+q)^{N-1} + p(N-1)(p+q)^{N-2}\right\}$  
  $\displaystyle =$ $\displaystyle Np\left(1 + (N-1)p\right) = Np\left(Np + q\right)$  
  $\displaystyle =$ $\displaystyle \underbrace{N^2 p^2}_{<n_r>^2} + Npq$  

Donc:

$\displaystyle \fbox{$\displaystyle {\sigma_{n_r}}^2 =~ <n_r^2>~ - <n_r>^2 ~= Npq$}$ (2.19)

L'amplitude relative des fluctuations de $ n_r$ autour de sa valeur de moyenne est alors:

$\displaystyle \displaystyle \frac{\sigma_{n_r}}{<n_r>} = \frac{\sqrt{Npq}}{Np} \propto \frac{1}{\sqrt{N}}$


next up previous contents index
suivant: Distribution de Poisson monter: Quelques distributions importantes précédent: Quelques distributions importantes   Table des matières   Index
Clément Baruteau 2003-04-30