5.1 Modèle linéaire simple avec variables explicatives données
5.1.1 Echantillon
On s'intéresse à une grandeur physique \(\mathcal{Y}\) qui est causalement fonction de \(\mathcal{X}\).
On dispose d'un échantillon \(Ech\) constitué d'une série de \(n\) mesures retournant les couples \(\left\{ \left(x_{1},y_{1}\right),...,\left(x_{n},y_{n}\right)\right\} \).
- Les abscisses sont alors interprétées comme des réalisations des v.a. \(X_{1},..,X_{n}\) supposées indépendantes et sans erreurs (\(\sigma_{X}=0\)): elles sont appelées variables expliquées
- Les ordonnées sont alors interprétées comme des réalisations des v.a. \(Y_{1},..,Y_{n}\) que l'on va préciser, appelées variables explicatives
A chaque abscisse \(x_{i}\), on associe donc une v.a. \(Y_{i}=\left(Y|X_{i}=x_{i}\right)\).
5.1.2 Hypothèse d'une loi linéaire théorique
On envisage une loi linéaire théorique simple (i.e. \(Y\) ne dépend que d'une seule variable réelle \(X\)) de la forme:
\[\boxed{Y_{i}=a_{0}+a_{1}x_{i}+\varepsilon_{i}}\]
- \(a_{0}\) et \(a_{1}\) sont \(2\) paramètres réels non aléatoires mais non observables, que l'on va chercher à estimer
- \(\varepsilon_{i}\) est une v.a appelée erreur: c'est l'écart non observable au modèle linéaire théorique sur la mesure de \(Y_{i}\)
La droite \(\left(D\right)\) d'équation:
\[Y_{th}=a_{0}+a_{1}X\]
est appelée droite théorique du modèle linéaire.
5.1.3 Hypothèses sur les erreurs
On suppose que:
- les erreurs \(\varepsilon_{1},..,\varepsilon_{n}\) sont:
- centrées i.e. \(E\left(\varepsilon_{i}\right)=0\)
- de même variance \(V\left(\varepsilon_{i}\right)=\sigma^{2}\) (homoscédasticité)
- indépendantes
- décorrelées de \(x_{i}\)
5.1.4 Notations
On s'intéresse à \(n\) mesures retournant l'échantillon \(ech=\left[\left(x_{1},y_{1}\right),...,\left(x_{n},y_{n}\right)\right]\) où:
- \(x_{i}\) est déterminée
- \(y_{i}\) est une réalisation de la v.a. \(Y_{i}\) d'écart-type \(\sigma_{Y}\)supposée indépendante de \(i\)
On pose:
\[\boxed{\left\{ \begin{array}{l}\overline{x}=\frac{1}{n}\sum_{i=1}^{n}x_{i}\\\overline{y}=\frac{1}{n}\sum_{i=1}^{n}y_{i}\\s_{x}^{2}=\frac{1}{n-1}\sum_{i=1}^{n}\left(x_{i}-\overline{x}\right)^{2}\\s_{y}^{2}=\frac{1}{n-1}\sum_{i=1}^{n}\left(y_{i}-\overline{y}\right)^{2}\\s_{xy}=\frac{1}{n-1}\sum_{i=1}^{n}\left(x_{i}-\overline{x}\right)\left(y_{i}-\overline{y}\right)\end{array}\right.}\]
et:
\[\boxed{\left\{ \begin{array}{l}r=\frac{s_{xy}}{\sqrt{s_{x}^{2}}\sqrt{s_{y}^{2}}}\\R=r^{2}\end{array}\right.}\]
en ayant omis l'indice \(n\) dans les moyennes géométriques et les écarts-type corrigés.