2.2 Covariance de \(2\) variables aléatoires

2.2.1 Covariance entre deux v.a.

On appelle convariance l'application \(\left(X,Y\right)\longmapsto Cov\left(X,Y\right)\) définie par:
\[\boxed{Cov\left(X,Y\right)=E\left\{ \left[X-E\left(X\right)\right]\left[Y-E\left(Y\right)\right]\right\} =E\left(XY\right)-E\left(X\right)E\left(Y\right)}\]
Si X et Y sont \(2\) v.a. discrètes:
\[Cov\left(X,Y\right)=\sum_{i=1}^{m}\sum_{j=1}^{n}\left[x_{i}-E\left(X\right)\right]\left[y_{j}-E\left(Y\right)\right]p_{ij}\]
où \(p_{ij}\) est la probabilité de la réalisation de l'événement \(X\) retourne \(x_{i}\) et \(Y\) retourne \(y_{i}\) .
Si X et Y sont \(2\) v.a. dénombrables:
\[Cov\left(X,Y\right)=\sum_{i=1}^{+\infty}\sum_{j=1}^{+\infty}\left[x_{i}-E\left(X\right)\right]\left[y_{j}-E\left(Y\right)\right]p_{ij}\]
où \(p_{ij}\) est la probabilité de la réalisation de l'événement \(X\) retourne \(x_{i}\) et \(Y\) retourne \(y_{i}\) .
Si \(X\) et \(Y\) sont \(2\) v.a. continues:
\[Cov\left(X,Y\right)=\int_{-\infty}^{+\infty}\int_{-\infty}^{+\infty}\left[x-E\left(X\right)\right]\left[y-E\left(Y\right)\right]f\left(x,y\right)dxdy\]
où \(d^{2}P=f\left(x,y\right)dxdy\) est la probabilité de la réalisation de l'événement \(X\) retourne une valeur dans \(\left[x,x+dx\right]\) et \(Y\) retourne une valeur dans \(\left[y,y+dy\right]\).

2.2.2 Matrice de covariance entre deux v.a.

La matrice:
\[Var\left(X,Y\right)=\left(\begin{array}{cc}V\left(X\right) & Cov\left(X,Y\right)\\Cov\left(Y,X\right) & V\left(Y\right)\end{array}\right)\]
est appelée matrice de covariance.
Remarquons simplement qu'elle est symétrique et donc diagonalisable.

2.2.3 Coefficient de corrélation entre deux v.a. non constantes

Soient \(2\) v.a. aléatoires \(X\) et \(Y\) non constantes.
Remarquons alors que:
\[\left\{ \begin{array}{l}V\left(X\right)=\sigma^{2}\left(X\right)=Cov\left(X,X\right)\neq0\\V\left(Y\right)=\sigma^{2}\left(Y\right)=Cov\left(Y,Y\right)\neq0\end{array}\right.\]
On définit alors l'application \(\left(X,Y\right)\longmapsto\rho\left(X,Y\right)\) avec:
\[\boxed{r\left(X,Y\right)=\frac{Cov\left(X,Y\right)}{\sigma\left(X\right)\sigma\left(Y\right)}}\]
qui définit le coefficient de corrélation entre les v.a. \(X\) et \(Y\).
On a alors:
\[\boxed{-1\leq r\left(X,Y\right)\leq+1}\]
Si:
Cas particuliers:
Preuve:
En effet, par exemple dans le cas discret, intéressons-nous au polynôme de degré \(2\):
\[\mathcal{P}:\:\lambda\longmapsto V\left(X_{cr}+\lambda Y_{cr}\right)=E\left[\left(X_{cr}+\lambda Y_{cr}\right)^{2}\right]-0^{2}=1+2\lambda E\left(X_{cr}X_{cr}\right)+\lambda^{2}\]
où \(\lambda\) est un réel et \(X_{cr}\), \(Y_{cr}\) sont \(2\) v.a. centrées réduites associées aux \(2\) v.a. non constantes \(X\) et \(Y\):
\[\left\{ \begin{array}{l}X_{cr}=\frac{X-E\left(X\right)}{\sigma\left(X\right)}\\Y_{cr}=\frac{Y-E\left(Y\right)}{\sigma\left(Y\right)}\end{array}\right.\]
La positivité de \(\mathcal{P}\) exige donc:
\[\Delta^{\prime}=E^{2}\left(X_{cr}Y_{cr}\right)-1\leq0\]
soit:
\[-1\leq E\left(X_{cr}Y_{cr}\right)\leq-1\]
ce qui conduit bien à:
\[-1\leq r\left(X,Y\right)\leq+1\]