Nous donnons quelques propriétés de la fonction génératrice des moments. cette fonction est utile pour plusieurs raisons, dont l’une est son application à l’analyse de sommes de variables aléatoires. Découvrons ensemble cette fonction. La fonction génératrice de moment joue presque le même rôle que la fonction caractéristique d’une variable aléatoire. Cependant le champs d’application des fonctions génératrices des moments est restreint comparant a celui de des fonctions caractéristiques. parfois la fonctions caractéristique. En fait la la fonction génératrice des moments n’est définie pour la variable aléatoire qui suit la loi de Cauchy.
Généralités sur la fonction génératrice des moments
Dans ce qui suit, toutes les variables aléatoires sont définies sur un espace probabilisée $(\Omega,\mathscr{A},\mathbb{P})$.
Définition: Soit $k\in\mathbb{N}^\ast$. Le moment d’ordre $k$ d’une variable aléatoire $X$, s’il existe, est le nombre reel $\mathbb{E}(X^k),$ (i.e. c’est l’espérance de la variable aleatore $X^k$). On définit le moment centré d’ordre $k$ par $$\mu_k=\mathbb{E}\left((X-E(X))^k\right).$$
Donc le moment d’ordre $1$ est tout simplement l’espérance de $X,$ i.e. $\mathbb{E}(X)$. D’autre part, le moment d’ordre $2$ de $X$ est exactement la variance $V(X)$.
Définition: La fonction génératrice des moments d’une variable aleatoire $X$ est la fonction \begin{align*} M_X(s)=\mathbb{E}(e^{sX}).\end{align*} On dit que fonction génératrice des moments de $X$ existe s’il existe un réel $R>0$ tel que $\mathbb{E}(e^{sX})<\infty$ pour tout $s\in [-R,R]$.
Méthode de calcul des moments
Une des propriétés fondamentales de la fonction génératrice des moments c’est qu’elle permet de calculer les moments d’une variable aléatoire. En effet, on suppose qu’il existe $a>0$ tel que $M_X(s)<+\infty$ pour tout $t\in ]-a,a[$. Alors on a $$ M_X(s)=\sum_{k=0}^{+\infty} \mathbb{E}(X^k)\frac{s^k}{k!}.$$ En deduit que \begin{align*} \mathbb{E}(X^k)=M^{(k)}_X(0).\end{align*} (pour bien comprendre ce calcul pense a la série exponentielle et ses coefficients).
Exercice: On suppose que la variable aléatoire $X$ suit la loi uniforme $\mathscr{U}(0,1)$. Montrer que les moments de $X$ sont donnés par $\mathbb{E}(X^k)=\frac{1}{1+k}$ pour tout $k\in \mathbb{N}^\ast$.
Solution: Tout d’abord nous allons calculer la fonction $M_X$. Par hypothèse, la variable admet la fonction $f=1_{[0,1]}$ comme densité. Donc d’après le théorème de transfert on a \begin{align*} M_X(s)=\int^1_0 e^{sx}dx=\frac{e^s-1}{s},\quad s\in\mathbb{R}^\ast.\end{align*} D’autre part, on sais que $\mathbb{E}(e^{0 X})=1,$ donc $M_X(0)=1$. Ainsi $M_X$ est définie sur $\mathbb{R}$. On a alors \begin{align*} M_x(s)&=\frac{1}{s}\left( \sum_{k=0}^{\infty} \frac{s^k}{k!}-1\right)=\frac{1}{s} \sum_{k=1}^{\infty} \frac{s^{k-1}}{k!}\cr & = \sum_{k=0}^{\infty} \frac{1}{k+1} \frac{s^{k}}{k!}.\end{align*} Ainsi $\mathbb{E}(X^k)=\frac{1}{k+1}$.
Le cas d’une somme de variables aléatoires
Soit $X_1,\cdots,X_n$ des variables aléatoires indépendantes. Alors on a \begin{align*} M_{X_1+\cdots+X_n}(s)=M_{X_1}(s)\cdots M_{X_n}(s)=\prod_{i=1}^n M_{X_i}(s).\end{align*}
Exercice: On suppose qu’une variable aleatoire $X$ suit la binomiale de parametres $n\in \mathbb{N}^\ast$ et $p\in [0,1]$ ($X\sim\mathcal{B}(n,p)$). Calculer $M_X(\cdot)$.
Solution: Nous pouvons résoudre cette question directement en utilisant la définition. Cependant, une façon plus simple de la résoudre consiste à utiliser le fait qu’une variable aléatoire binomiale peut être considérée comme la somme de n variables aléatoires de Bernoulli indépendantes et identiquement distribuées (i.i.d.). Alors on peut écrire \begin{align*} X=X_1+\cdots+X_n,\end{align*} avec $X_i\sim \mathcal{B}(p)$ (loi de Bernoulli de paramètre $p$). On a alors \begin{align*} M_X(s)=\prod_{i=1}^n M_{X_i}(s)=\left(M_{X_1}(s)\right)^n.\end{align*} Mais il est facile de voir que $M_X(s)=pe^s+1-p$. Donc $M_X(s)=(pe^s+1-p)^n$.