5.4 Gestion de valeurs nominales des abscisses

5.4.1 Cas de Berkson

On peut proposer une approche plus simple proposée par Berkson.
Remarquons que les absc isses n'ont pas la même fonction que les ordonnées.
Généralement, les abscisses sont sont destinées à approcher des valeurs nominales \(\left(\widetilde{x}_{1},...,\widetilde{x}_{n}\right)\) données, qui sont donc fixées et par conséquent non aléatoires.
Néanmoins, les vraies valeurs des abscisses sont \(\left(x_{1},...,x_{n}\right)\) diffèrent des valeurs nominales, lorsqu'on les mesure.
Posons, pour \(k\in\left[1,n\right]\):
\[x_{k}=\widetilde{x}_{k}+\delta_{X,k}\]
On a donc:
\[y_{k}=a_{0}+a_{1}x_{k}+\varepsilon_{i,Y}\]
où \(a_{0}\) et \(a_{1}\) sont les coefficients inconnus de la droite théorique.
On obtient alors:
\[y_{k}=a_{0}+a_{1}\widetilde{x}_{k}+\varepsilon_{k,Y}+a_{1}\delta_{X,k}\]
Notons \(d_{k}\) le résidu associé à la droite théorique nominale:
\[\hat{d}_{k}=y_{k}-\left(\hat{a}_{0}+\hat{a}_{1}\widetilde{x}_{k}\right)=a_{0}-\hat{a}_{0}+\left(a_{1}-\hat{a}_{1}\right)\widetilde{x}_{k}+\widetilde{x}_{k}\varepsilon_{i,Y}+a_{1}\delta_{X,k}\]
où \(\widetilde{x}_{k}\) est donnée (ce n'est pas une v.a.).
On est alors ramené à une relation du type de celle obtenue pour la méthode des MCO à abscisses expliquées déterminées en faisant:
\[\boxed{\left\{ \begin{array}{l}x_{k}\longleftarrow\widetilde{x}_{k}\\\varepsilon_{k}\longleftarrow\eta_{k}=\varepsilon_{Y,k}+a_{1}\delta_{X,k}\\\hat{\varepsilon}_{k}\longleftarrow\hat{d}_{k}\end{array}\right.}\]
sachant que \(a_{1}\) est non aléatoire mais inconnue.
Dans la suite, on se placera dans le cas où:
ce qui entraîne:

5.4.2 Principe de la méthode

La méthode des moindres carrés ordinaires (MCO) retourne donc des estimateurs \(\hat{A}_{1}\) et \(\hat{A}_{0}\) minimisant maintenant la fonction:
\[S:\left(a_{0},a_{1}\right)\longmapsto\frac{1}{\sigma_{\eta}^{2}}\sum_{i=1}^{n}d_{i}^{2}=\frac{1}{\sigma^{2}}\sum_{i=1}^{n}\left(Y_{i}-a_{0}-a_{1}\widetilde{x}_{k}\right)^{2}\]
à abscisses nominales \(\left(\widetilde{x}_{1},...,\widetilde{x}_{n}\right)\) données.
Elle s'inspire de la méthode du maximum de vraisemblance qui conduit à la même minimisation dans le cas de v.a. \(\varepsilon_{Y}\) et \(\delta_{X}\) sont indépendantes et suivant une loi resp. \(\mathcal{N}\left(0,\sigma_{Y}^{2}\right)\) et \(\mathcal{N}\left(0,\sigma_{X}^{2}\right)\).

5.4.3 Estimateurs par la méthode “moindres carrés ordinaires”

Les estimateurs \(\hat{a}_{1}\) et \(\hat{a}_{0}\) donnés par la méthode des moindres carrés ordinaires (MCO) valident nécessairement les conditions:
\[\left\{ \begin{array}{l}\frac{\partial S}{\partial a_{0}}=-\frac{2}{\sigma^{2}}\sum_{i=1}^{n}\left(y_{i}-a_{0}-a_{1}\widetilde{x}_{i}\right)=0\\ \frac{\partial S}{\partial a_{1}}=-\frac{2}{\sigma^{2}}\sum_{i=1}^{n}\widetilde{x}_{i}\left(y_{i}-a_{0}-a_{1}\widetilde{x}_{i}\right)=0\end{array}\right.\]
On obtient ainsi \(2\) estimateurs linéaires \(\hat{a}_{0}\) et \(\hat{a}_{1}\) des coefficients \(a_{0}\) et \(a_{1}\) appelés estimateurs des ceofficients de la droite de régression linéaire par la méthode des MCO:
\[\boxed{\hat{a}_{1}=\frac{s_{\tilde{x}y}}{s_{\tilde{x}}^{2}}=\frac{\sum_{i=1}^{n}\left(\widetilde{x}_{i}-\overline{\widetilde{x}}\right)\left(y_{i}-\overline{y}\right)}{\sum_{i=1}^{n}\left(\widetilde{x}_{i}-\overline{\widetilde{x}}\right)^{2}}}\]
et:
\[\boxed{\bar{y}=\hat{a}_{0}+\hat{a}_{1}\overline{\widetilde{x}}}\]
qui détermine \(\hat{a}_{0}\).

5.4.4 Espérance de \(\hat{A}_{1}\) et \(\hat{A}_{0}\)

On a donc:
\[\left\{ \begin{array}{l}\hat{A}_{1}=\frac{\sum_{i=1}^{n}\left(\widetilde{x}_{i}-\overline{\widetilde{x}}\right)\left(Y_{i}-\bar{Y}\right)}{\sum_{k=1}^{n}\left(\widetilde{x}_{k}-\overline{\widetilde{x}}\right)^{2}}=a_{1}+\sum_{i=1}^{n}\tilde{\eta}_{i}\left[\varepsilon_{Y}-\bar{\varepsilon}_{Y}-a_{1}\left(\delta_{X,i}-\bar{\delta}_{X,i}\right)\right]\\\hat{A}_{0}=\bar{Y}-\hat{A}_{1}\bar{x}=a_{0}+\left(a_{1}-\hat{A}_{1}\right)\overline{\widetilde{x}}+\bar{\varepsilon}_{Y}+a_{1}\bar{\delta}_{X}\end{array}\right.\]
\(\delta_{X,i}\) et \(\varepsilon_{Y,j}\) étant des v.a. centrées,l es estimateurs \(\hat{A}_{1}\) et \(\hat{A}_{0}\) donnés par la méthode des moindres carrés sont des estimateurs linéaires sans biais et on admet qu'ils sont convergents:
\[\boxed{\left\{ \begin{array}{l}E\left(\hat{A}_{1}\right)=a_{1}\\E\left(\hat{A}_{0}\right)=a_{0}\end{array}\right.}\]

5.4.5 Variance de \(\hat{A}_{1}\) et \(\hat{A}_{0}\)

Les estimateurs \(V\left(\hat{A}_{1}\right)\) et \(V\left(\hat{A}_{0}\right)\) donnés par la méthode des moindres carrés sont donc donnés par:
\[\boxed{\left\{ \begin{array}{l}V\left(\hat{A}_{1}\right)=\frac{\sigma_{\eta}^{2}}{\left(n-1\right)s_{\widetilde{x}}^{2}}=\frac{\sigma_{\eta}^{2}}{\sum_{k=1}^{n}\left(\widetilde{x}_{k}-\bar{\widetilde{x}}\right)^{2}}\\V\left(\hat{A}_{0}\right)=\sigma_{\eta}^{2}\left(\frac{1}{n}+\frac{\bar{x}^{2}}{\left(n-1\right)s_{\widetilde{x}}^{2}}\right)=\sigma_{\eta}^{2}\left(\frac{1}{n}+\frac{\bar{\widetilde{x}}^{2}}{\sum_{k=1}^{n}\left(\widetilde{x}_{k}-\bar{\widetilde{x}}\right)^{2}}\right)\end{array}\right.}\]
où:
\[\eta=\varepsilon_{Y}+a_{1}\delta_{X}\]
soit:
\[V\left(\eta\right)=\sigma_{\eta}^{2}=V\left(\varepsilon_{Y}\right)+a_{1}^{2}V\left(\delta_{X}\right)\]
est la variance des erreurs \(\eta_{i}\), indépendante de \(i\).
Ces expressions ne sont manipulables que si \(\sigma_{\eta}\) est connue.
Or au moins \(a_{1}\) ne l'est pas: on dispose seulement d'un estimateur \(\hat{a}_{1}\) sans biais.

5.4.6 Estimateur \(\hat{\sigma}_{\eta}^{2}\) de \(\sigma_{\eta}^{2}\), \(\hat{V}\left(\hat{a}_{1}\right)\) de \(\hat{a}_{1}\)

On se place dans l'hypothèse où \(\sigma^{2}\) est inconnue: faute de mieux, on va alors chercher à l'estimer à partir de l'échantillon.
Introduisons les résidus:
\[\hat{d}_{i}=y_{i}-\hat{y}_{i}\]
On rappelle que la variance des erreurs (notamment indépendantes et centrées) est définie par:
\[\sigma_{\eta}^{2}=E\left(\eta_{i}^{2}\right)\]
et supposée indépendante de \(i\).
Alors:
\[\boxed{\Sigma_{\eta}^{2}=\frac{1}{n-2}\sum_{i=1}^{n}\hat{d}_{i}^{2}}\]
est un estimateur sans biais convergent de la variance des erreurs \(\sigma^{2}\):
\[E\left(\Sigma_{\eta}^{2}\right)=\sigma_{\eta}^{2}\]
On en déduit un estimateur sans biais convergent noté \(\hat{V}\left(\hat{A}_{1}\right)\) de la variance de la pente \(\hat{A}_{1}\) de la droite de régression avec etimation de la variance des erreurs:
\[\boxed{\hat{V}\left(\hat{A}_{1}\right)=\frac{\hat{\sigma}_{\eta}^{2}}{\sum_{l=1}^{n}\left(\widetilde{x}_{l}-\bar{\widetilde{x}}\right)^{2}}=\frac{1}{n-2}\frac{\sum_{i=1}^{n}\hat{d}_{i}^{2}}{\sum_{l=1}^{n}\left(\widetilde{x}_{l}-\bar{\widetilde{x}}\right)^{2}}}\]
en gardant à l'esprit que les résidus possèdent \(k=n-2\) ddl.

5.4.7 Estimateur approché \(\hat{\sigma}_{\eta,app}^{2}\) de \(\sigma_{\eta}^{2}\)

Si on connaît:
et que, pour l'échantillon considéré:
\[\hat{\sigma}\left(\hat{a}_{1}\right)\ll\left|\hat{a}_{1}\right|\]
on pourra adopter l'estimateur approché de la variance:
\[\boxed{\sigma_{app}^{2}\left(\hat{a}_{1}\right)\cong V\left(\varepsilon_{Y}\right)+\hat{a}_{1}^{2}V\left(\delta_{X}\right)}\]
où:
\[\boxed{\hat{a}_{1}=\frac{s_{\tilde{x}y}}{s_{\tilde{x}}^{2}}=\frac{\sum_{i=1}^{n}\left(\widetilde{x}_{i}-\overline{\widetilde{x}}\right)\left(y_{i}-\overline{y}\right)}{\sum_{i=1}^{n}\left(\widetilde{x}_{i}-\overline{\widetilde{x}}\right)^{2}}}\]