2.3 Dépendance ou indépendance de variables aléatoires

2.3.1 Introduction

Considérons par exemple 2 v.a. discrètes:
Notons \(p_{ij}\) la probabilité qu'une réalisation de \(X\) et donne \(X=x_{i}\) et \(Y=y_{i}\):
\[p_{ij}=P\left(X=x_{i},Y=y_{j}\right)\]
\(X\) et \(Y\) sont indépendantes si:
\[p_{ij}=P\left(X=x_{i}\right)P\left(Y=y_{j}\right)\]
Autrement dit, la probabilité d'une rélaisation de \(X\) (resp. \(Y\)) est indépendante de celle d'une réalisation de \(Y\) (resp. \(X\)).

2.3.2 Indépendance de \(2\) v.a.

2.3.3 \(2\) v.a. discrètes indépendantes sont décorrélées

Si 2 v.a. \(X\) et \(Y\) sont indépendantes, alors:
\[\boxed{Cov\left(X,Y\right)=0}\]
Le coefficient de corrélation est nul:
\[r=0\]
On dit qu'elles sont décorrélées.
Preuve:
Soient \(X\) et \(Y\) sont 2 v.a. discrètes.
Dans ces conditions:
\[Cov\left(X,Y\right)=\sum_{i=1}^{m}\sum_{j=1}^{n}\left[x_{i}-E\left(X\right)\right]\left[y_{j}-E\left(Y\right)\right]p_{ij}\]
Si \(X\) et \(Y\) sont indépendantes:
\[Cov\left(X,Y\right)=\sum_{i=1}^{m}\sum_{j=1}^{n}\left[y_{j}-E\left(Y\right)\right]P\left(X=x_{i}\right)P\left(Y=y_{j}\right)\]
qui se factorise en:
\[Cov\left(X,Y\right)=\sum_{i=1}^{m}\left[x_{i}-E\left(X\right)\right]P\left(X=x_{i}\right)\sum_{j=1}^{n}\left[y_{j}-E\left(Y\right)\right]P\left(Y=y_{j}\right)\]
qui est le produit de l'espérance de 2 v.a. centrés \(X_{c}=X-E\left[X\right]\) et \(Y_{c}=Y-E\left[Y\right]\) donc:
\[Cov\left(X,Y\right)=E\left(X_{c}\right)E\left(Y_{c}\right)=0\times0=0\]
i.e.:
\[Cov\left(X,Y\right)=0\]

2.3.4 \(2\) v.a. décorrélées ne sont pas nécessairement indépendantes

ON a vu que si \(2\) v.a. \(X\) et \(Y\) sont indépendantes, alors elles sont de covariance nulle.
La réciproque est fausse.
\(2\) v.a. de covariance nulle ne sont pas nécessairement indépendantes.
En effet, on peut avoir \(2\) v.a. dépendantes qui sont de covariance nulle.
Exemple 1:
Soit \(X\) et \(Y\) \(2\) v.a. discrètes d'univers \(\Omega_{X}=\left\{ -2,-1,0,1,2\right\} \) et \(\Omega_{Y}=\left\{ -2,-1,2\right\} \).
On donne le tableau donnant \(p_{ij}=P\left(X=x_{j},Y=y_{j}\right)\):
\[\begin{array}{c|ccccc|c}Y\downarrow|X\rightarrow & -2 & -1 & 0 & 1 & 2 & P\left(Y\right)\\\hline -2 & 0 & 0 & 0.2 & 0 & 0 & 0.2\\-1 & 0 & 0.2 & 0 & 0.2 & 0 & 0.4\\2 & 0.2 & 0 & 0 & 0 & 0.2 & 0.4\\\hline P\left(X\right) & 0.2 & 0.2 & 0.2 & 0.2 & 0.2 & 1\end{array}\]
Ainsi, par exemple:
\[\left\{ \begin{array}{l}P\left(X=-2\right)=\sum_{j=1}^{3}P\left(X=-1|Y=y_{j}\right)=0+0+0.2=0.2\\P\left(Y=-2\right)=\sum_{i=1}^{5}P\left(X=x_{i}|Y=-2\right)=0+0+0.2+0+0=0.2\end{array}\right.\]
On voit tout de suite que \(X\) et \(Y\) ne sont pas indépendantes car:
\[P\left(X=-2|Y=-2\right)=0\]
et n'est donc pas le produit de \(P\left(X=-2\right)=0.2\) et \(P\left(Y=-2\right)=0.2\).
Par ailleurs:
\[\left\{ \begin{array}{l}E\left(X\right)=\sum_{i=1}^{5}P\left(X=x_{i}\right)x_{i}=0.2\times\left(-2\right)+0.2\times\left(-1\right)+0.2\times\left(0\right)+0.2\times\left(1\right)+0.2\times\left(2\right)=0\\E\left(Y\right)=\sum_{j=1}^{3}P\left(Y=y_{j}\right)y_{j}=0.2\times\left(-2\right)+0.4\times\left(-1\right)+0.4\times\left(2\right)=0\end{array}\right.\]
et:
\[E\left(XY\right)=\sum_{i=1}^{5}\sum_{j=1}^{3}P\left(X=x_{i}|Y=y_{j}\right)x_{i}y_{j}=0\times\left(-2\right)\times\left(-2\right)+...+0.2\times\left(2\right)\times\left(2\right)=0\]
On a donc:
\[Cov\left(X,Y\right)=E\left[\left(X-E\left(X\right)\right)\left(Y-E\left(Y\right)\right)\right]=E\left(XY\right)-E\left(X\right)E\left(Y\right)=0-0\times0=0\]
\(X\) et \(Y\) sont décorrélées et pourtant elles ne sont pas indépendantes.
Exemple 2:
Soit \(X\) et \(Y\) \(2\) v.a. discrètes où \(\Omega_{X}=\left\{ -1,0,1\right\} \) et \(\Omega_{Y}=\left\{ 0,1\right\} \).
Supposons que l'on puisse exprimer \(Y\) en fonction de \(X\):
\[Y=\left\{ \begin{array}{lcc}0 & \textrm{si} & X=0\\1 & {\normalcolor \textrm{si}} & X\neq0\end{array}\right.\]
\(X\) et \(Y\) ne sont donc pas indépendantes.
Ainsi par exemple, l'événement \(X=-1\) et \(Y=0\) est impossible donc \(P\left(Y=0|X=-1\right)=0\).
On suppose que \(P\left(X=-1\right)=P\left(X=0\right)=P\left(X=1\right)=\frac{1}{3}\) par conséquent:
On peut alors former le tableau donnant \(p_{ij}=P\left(X=x_{j},Y=y_{j}\right)\):
\[\begin{array}{c|ccc|c}Y\downarrow|X\rightarrow & -1 & 0 & 1 & P\left(Y\right)\\\hline 0 & 0 & \frac{1}{3} & 0 & \frac{1}{3}\\1 & \frac{1}{3} & 0 & \frac{1}{3} & \frac{2}{3}\\\hline P\left(X\right) & \frac{1}{3} & \frac{1}{3} & \frac{1}{3} & 1\end{array}\]
Là aussi, on lit que \(X\) et \(Y\) ne sont pas indépendantes puisque \(P\left(X=-1|Y=0\right)=0\) n'est pas égal au produit de \(P\left(X=-1\right)=\frac{1}{3}\) et \(P\left(Y=0\right)=\frac{1}{3}\).
Par ailleurs:
\[\left\{ \begin{array}{l}E\left(X\right)=\sum_{i=3}^{3}P\left(X=x_{i}\right)x_{i}=\frac{1}{3}\times\left(-1\right)+\frac{1}{3}\times\left(0\right)+\frac{1}{3}\times\left(1\right)=0\\E\left(Y\right)=\sum_{j=1}^{2}P\left(Y=y_{j}\right)y_{j}=\frac{1}{3}\times\left(0\right)+\frac{2}{3}\times\left(1\right)=\frac{2}{3}\end{array}\right.\]
et:
\[E\left(XY\right)=\sum_{i=1}^{3}\sum_{j=1}^{2}P\left(X=x_{i}|Y=y_{j}\right)x_{i}y_{j}=0\times\left(-1\right)\times\left(0\right)+...+\frac{1}{3}\times\left(1\right)\times\left(1\right)=0\]
On a donc:
\[Cov\left(X,Y\right)=E\left[\left(X-E\left(X\right)\right)\left(Y-E\left(Y\right)\right)\right]=E\left(XY\right)-E\left(X\right)E\left(Y\right)=0-0\times\frac{2}{3}=0\]
\(X\) et \(Y\) sont décorrélées et pourtant elles ne sont pas indépendantes.

2.3.5 Variance d'une combinaison linéaire de deux v.a.

Soient \(\alpha\) et \(\beta\) \(2\) réels.
Soient \(X\) et \(Y\) \(2\) v.a. définies sur le même univers \(\Omega\).
On a alors:
\[\boxed{V\left(\alpha X+\beta Y\right)=\alpha^{2}V\left(X\right)+\beta^{2}V\left(Y\right)+2\alpha\beta Cov\left(X,Y\right)}\]
Ce résultat sera notamment utilisé pour des v.a. continues sur \(\mathbb{R}\).
Cas de \(2\) v.a. indépendantes:
Si \(X\) et \(Y\) sont \(2\) v.a indépendantes, alors:
\[Cov\left(X,Y\right)=0\]
donc:
\[\boxed{V\left(\alpha X+\beta Y\right)=\alpha^{2}V\left(X\right)+\beta^{2}V\left(Y\right)}\]

2.3.6 Lemme des coalitions

Soient \(X_{1}\),...,\(X_{n}\) une famille de variables aléatoires indépendantes, avec \(n>1\) et soit \(k\in\left[1,n-1\right]\)⟧.
Si \(Y=\Phi\left(X_{1},...,X_{k}\right)\) est une variable aléatoire fonction de \(X_{1}\),...,\(X_{k}\) , alors les variables \(Y\), \(X_{k+1}\), … , \(X_{n}\) sont mutuellement indépendantes.
Exemple:
Plaçons-nous dans le cas où \(n=2\).
Soient les nouvelles variables:
\[\left\{ \begin{array}{l}X_{\alpha}=f\left(X_{1}\right)\\X_{\beta}=g\left(X_{2}\right)\end{array}\right.\]
D'après le lemme des coalitions, \(X_{\alpha}\) et \(X_{\beta}\) sont indépendantes.