7.5 Incertitude-type de type \(A\)
7.5.1 Définition
Si on suppose que l'on a corrigé toutes les erreurs systématiques, elles ne donnent toujours pas le même résultat à cause des erreurs aléatoires.
L'incertitude liée aux erreurs aléatoires est appelée incertitude de type \(A\).
7.5.2 Echantillon de \(n\) mesures (\(n>1\))
Soit une grandeur \(\mathcal{X}\) de grandeur exacte inconnue \(x_{exacte}\).
Supposons que l'on effectue \(n>1\) mesures dans les conditions requises de répétabilité définies plus haut.
Elles retournent un n-uplet \(\left\{ x_{1},...,x_{n}\right\} \), dont les résultats des mesures ont été classées par ordre croissant:
\[x_{1}\leq...\leq x_{n}\]
- \(x_{n}-x_{1}\) est l'étendue de l'échantillon
- \(\frac{x_{n}-x_{1}}{2}\) est la demi-étendue de l'échantillon
7.5.3 Approche statistique
On suppose alors qu'il existe une loi de probabilité du résultat d'une mesure de \(\mathcal{X}\).
On associe à \(\mathcal{X}\) une v.a. \(X\):
- d'espérance \(\mu_{X}\) inconnue
- de variance \(V_{X}=\sigma_{X}^{2}\) inconnue
- de densité \(f_{X}\) inconnue
telle que qu'une mesure retourne une réalisation de la v.a. \(X\).
Par définition:
\[dP=f_{X}\left(x\right)dx\]
est la probabilité que le résultat d'une mesure retourne un résultat dans \(\left[x,x+dx\right]\).
Les conditions de répétabilité des \(n\) mesures étant réalisées, on interprète \(\left\{ x_{1},...,x_{n}\right\} \) comme la réalisation de de n variables aléatoires \(\left\{ X_{1},...,X_{n}\right\} \) supposées:
- indépendantes
- de même densité \(f_{X_{i}}=f_{X}\) inconnue
On recherche alors:
- un estimateur \(\hat{\mu}_{X}\) de \(\mu_{X}\)
- un estimateur \(\hat{V}_{X}\) de \(V_{X}\)
qui sont des fonctions choisies de manière optimale de l'échantillon \(\left\{ x_{1},...,x_{n}\right\} \).
7.5.4 Meilleur estimateur \(\hat{\mu}_{X}\) sans biais de l'espérance
Le meilleur estimateur (linéaire) \(\hat{\mu}_{X}\) sans biais de l'espérance \(\mu_{X}=E\left(X\right)\) est:
\[\boxed{\hat{\mu}_{X}=\bar{x}_{n}}\]
où:
\[\boxed{\bar{x}_{n}=\frac{1}{n}\sum_{i=1}^{n}x_{i}}\]
est appelée moyenne empirique de l'échantillon.
Connaissant \(f_{X}\), il est possible de construire la densité de probabilité \(f_{\overline{X}}\) associée à la v.a.:
\[\bar{X}_{n}=\frac{1}{n}\sum_{i=1}^{n}X_{i}\]
sachant que les n v.a. \(X_{i}\) sont indépendantes et de même densité \(f_{X_{i}}=f_{X}\).
7.5.5 Meilleur estimateur \(\hat{V}_{X}\) sans biais de la variance
On adopte l'estimateur \(\hat{V}_{X}\) sans biais de la variance \(V_{X}=E\left[\left(X-\bar{X}\right)^{2}\right]\):
\[\boxed{\hat{V}_{X}=\hat{\sigma}_{X}^{2}=\frac{1}{n}s_{n-1}^{2}}\]
où:
\[\boxed{s_{n}^{2}=\frac{1}{n-1}\sum_{i=1}^{n}\left(x_{i}-\bar{x}\right)^{2}}\]
est appelée variance empirique de l'échantillon.
\(s_{n}\) est l'écart-type empirique de l'échantillon.
7.5.6 Incertitude-type \(\triangle x_{A,n}\) de type \(A\) associée à l'échantillon
Ainsi, l'incertitude-type de type \(A\) s'écrit:
\[\boxed{\triangle x_{A,n}=\frac{s_{n}}{\sqrt{n}}}\]
Le résultat du mesurage sera alors écrit sous la forme:
\[\boxed{\left[\bar{x}_{n}-\triangle x_{A,n},\bar{x}_{n}+\triangle x_{A,n}\right]}\]
7.5.7 Comportement asymptotique de \(f_{\bar{X}_{n}}\)
Introduisons la v.a.:
\[\boxed{\overline{Z}_{n}=\frac{\bar{X}_{n}-\mu_{X}}{\frac{\sigma_{X}}{\sqrt{n}}}}\]
où:
\[\bar{X}_{n}=\frac{X_{1}+...+X_{n}}{n}\]
dont on vérifie qu'elle est centrée réduite.
Le théorème central limite (T.C.L) stipule que, indépendamment de \(f_{X}\), \(\mu_{X}\) et \(\sigma_{X}\), la densité de probabilité \(f_{\bar{Z}_{n}}\) tend vers une distribution normale centrée réduite si \(n\longrightarrow+\infty\):
\[\boxed{\overline{Z}_{n}\underset{\scriptsize{n\longrightarrow+\infty}}{\sim}\mathcal{N}_{0,1}}\]
En d'autre termes, la densité de la v.a. \(f_{\bar{Z}_{n}}\) tend vers la distribution normale centrée réduite:
\[f_{\mathcal{N}_{0,1}}:\left\{ \begin{array}{l}\mathbb{R}\longrightarrow\mathbb{R}^{+}\\z\longmapsto\frac{1}{\sqrt{2\pi}}\exp\left(-\frac{z^{2}}{2\sigma_{X}^{2}}\right)\end{array}\right.\]
On peut également affirmer que:
\[\boxed{\overline{X}_{n}\underset{\scriptsize{n\longrightarrow+\infty}}{\sim}\mathcal{N}_{\mu_{X},\sigma_{X}^{2}}}\]
ou \(f_{\bar{X}_{n}}\) tend vers la distribution normale:
\[f_{\mathcal{N}_{\mu_{X},\sigma_{X}^{2}}}:\left\{ \begin{array}{l}\mathbb{R}\longrightarrow\mathbb{R}^{+}\\x\longmapsto\frac{1}{\sqrt{2\pi\sigma_{X}}}\exp\left[-\frac{\left(x-\mu_{X}\right)^{2}}{2\sigma_{X}^{2}}\right]\end{array}\right.\]
7.5.8 Critère numérique approché de convergence vers la loi normale
Le TCL donne une convergence vers la loi \(n\) normale, ce qui confère à cette dernière une importance considérable.
Cependant, il est essentiel de s'intéresser à la “vitesse” de convergence i.e.pour quelle valeur typique de \(n\) il est possible, à \(f_{X}\) donnée, de valider corretement l'approxiamtion:
\[f_{\overline{X}_{n}}\cong f_{\mathcal{N}_{\mu,\frac{\sigma^{2}}{n}}}\]
On montre qu'il existe une constante \(C\) telle que, si le moment d'ordre \(3\) \(\mu_{3}=E\left(X^{3}\right)\) existe:
\[\left|f_{\overline{X}_{n}}-f_{\mathcal{N}_{\mu,\frac{\sigma^{2}}{n}}}\right|\leq\frac{C\mu_{3}}{\sigma^{3}}\frac{1}{\sqrt{n}}\]
Cela signifie que la convergence vers la loi normale \(\mathcal{N}_{\mu,\frac{\sigma^{2}}{n}}\) lorsque \(n\) croît est “lente” car le majorant est en \(\frac{1}{\sqrt{n}}\).
Qualitativement, en ordre de grandeur, on peut adopter le critère:
- si \(f_{X}\) est proche d'une loi normale, \(f_{\overline{X}_{n}}\) approche \(\mathcal{N}_{\mu,\frac{\sigma^{2}}{n}}\) à partir de:\[\boxed{n\gtrsim4}\]
- si \(f_{X}\) est “moyennement” proche d'une loi normale, \(f_{\overline{X}_{n}}\) approche \(\mathcal{N}_{\mu,\frac{\sigma^{2}}{n}}\) à partir de:\[\boxed{n\gtrsim12}\]
- si \(f_{X}\) est “éloignée” d'une loi normale, \(f_{\overline{X}_{n}}\) approche \(\mathcal{N}_{\mu,\frac{\sigma^{2}}{n}}\) à partir de:\[\boxed{n\gtrsim100}\]