9.2 Mesure d'une résistance
9.2.1 Données
On s'intéresse à la mesure d'une résistance par la mesure simultanée:
- de la tension réglée à l'aide d'une alimentation stabilisée graduée en Volts
- de l'intensité du courant mesurée par un ampèremètre numérique
Les mesures ont donné les résultats suivants:
\[\begin{array}{c|c|c|c|c|c|c|c|c|c|c|}
U_{\left[V\right]} & 0.0 & 1.0 & 2.0 & 3.0 & 4.0 & 5.0 & 6.0 & 7.0 & 8.0 & 9.0\\\hline I_{\left[mA\right]} & 0.000 & 0.039 & 0.079 & 0.118 & 0.160 & 0.198 & 0.238 & 0.277 & 0.318 & 0.355\end{array}\]
On adopte les incertitudes de type \(B\):
\[\left\{ \begin{array}{l}\triangle U_{B}=0.1\:V\\\triangle I_{B}=0.003\:mA\end{array}\right.\]
Le lien théorique académique est la relation linéaire (loi d'Ohm):
\[I=GU\]
où \(G\) est la condutance (en Siemens), dont le lien causal privilégié est le mouvement collectif des électrons de conduction d'intensité \(I\) du fait d'un champ électrique appliqué, via la tension \(U\).
Dans la perspective d'une utilisation avec le langage python:
- l'abscisse \(x\) se rapportera à la tension (en \(V\))
- l'abscisse \(y\) se rapportera à l'intensité (en \(A\))
Pour se prémunir ainsi d'un biais qui pourrait résulter d'un dérive, en particulier des ordonnées, on adoptera une droite théorique affine:
\[y=a_{0}+a_{1}x\]
On dispose donc d'un échantillon \(Ech=\left\{ \left(x_{i},y_{i}\right)\right\} _{1\leq i\leq9}\) dont on ne précisera plus les unités.
On va évaluer numériquement les estimateurs au-delà des chiffres significatifs: leur choix fera l'objet d'une décision ultérieure.
On donnera donc les résultats bruts obtenus par python.
9.2.2 Paramètres issus de la méthode des MCO appliqué au seul échantillon de référence
On obtient alors:
\[\left\{ \begin{array}{l}\hat{a}_{1}=0.03961212121212122\\\hat{a}_{0}=-5.4545454545446015e-05\end{array}\right.\]
puis:
\[\hat{\sigma}\cong0.0009478844067104775\]
On en déduit les écart-types estimés à partir du seul échantillon:
\[\left\{ \begin{array}{l}\hat{\sigma}_{1}=\hat{\sigma}\left(\hat{a}_{1}\right)\cong0.0001043586385316534\\\hat{\sigma}_{0}=\hat{\sigma}\left(\hat{a}_{0}\right)\cong0.0005571226749389567\end{array}\right.\]
On peut visualiser les résidus:

qui apparaissent sensiblement plus dispersés que l'ordre de grandeur de \(\hat{\sigma}\).
9.2.3 Approximation \(\sigma_{app}\) de \(\sigma\) à partir des incertitudes de type \(B\) et résulats associés
Ce paragraphe sert surtout à disposer d'une comparaison des méthodes avec une MCO classique, avec abscisses explquées données.
On s'appuie sur les incertitudes de type-B et on adopte:
\[\sigma_{Y}=0.003\]
- si on ne prend pas en compte les fluctuations des abscisses:\[\left\{ \begin{array}{l}\sigma_{X}\longleftarrow0\\\sigma_{Y}\longleftarrow0.003\end{array}\right.\]donc:\[\boxed{\sigma\longleftarrow\sigma_{Y}=0.003}\]Les coefficients de la droite de régression subsistent (ils ne dépendent que de l'échantillon) et évalue alors leur écart-type approché:\[\left\{ \begin{array}{l}\hat{\sigma}_{1,app}=\frac{\sigma_{Y}}{\sqrt{\sum_{i=1}^{n}\left(x_{i}-\bar{x}\right)^{2}}}\cong0.00033028912953790817\\\hat{\sigma}_{0,app}=\sigma_{Y}\sqrt{\frac{1}{n}+\frac{\bar{x}^{2}}{\sum_{i=1}^{n}\left(x_{i}-\bar{x}\right)^{2}}}\cong0.001763261440935776\end{array}\right.\]

- si on prend en compte les fluctuations de abscisses:\[\left\{ \begin{array}{l}\sigma_{X}\longleftarrow0.1\\\sigma_{Y}\longleftarrow0.003\end{array}\right.\]et on évalue de façon appprochée \(a_{1}\sigma_{X}\) par \(\hat{a}_{1}\sigma_{X}\simeq0.0396\times0.1=0.00396\) qui devient comparable à \(\sigma_{Y}=0.003\).\[\boxed{\sigma\longleftarrow\sigma_{app}=\sqrt{\sigma_{Y}^{2}+\hat{a}_{1}^{2}\sigma_{X}^{2}}\cong0.0049690241968859275}\]Soulignons que \(\sigma_{app}^{2}\) n'est pas un estimteur de \(\sigma^{2}\) mais une approximation aux contours discutables.On évalue alors leur écart-type approché:\[\left\{ \begin{array}{l}\hat{\sigma}_{1,app}=\frac{\sigma_{app}}{\sqrt{\sum_{i=1}^{n}\left(x_{i}-\bar{x}\right)^{2}}}\cong0.0005470715588807521\\\hat{\sigma}_{0,app}=\sigma_{app}\sqrt{\frac{1}{n}+\frac{\bar{x}^{2}}{\sum_{i=1}^{n}\left(x_{i}-\bar{x}\right)^{2}}}\cong0.0029205629218152724\end{array}\right.\]

9.2.4 Mise en oeuvre d'une méthode de Monte-Carlo à partir de l'échantillon
On a réalisé \(M=2000\) tirages aléatoires \(\left\{ Ech_{p}=\left\{ \left(x_{i,p}y_{i,p}\right)\right\} _{i\in\left[1,9\right]}\right\} _{p\in\left[1,2000\right]}\)d'échantillons où:
- \(x_{i,p}\) est une réalisation de la loi \(\mathcal{N}\left(x_{i},\sigma_{X}^{2}\right)\)
- \(y_{i,p}\) est une réalisation de la loi \(\mathcal{N}\left(y_{i},\sigma_{Y}^{2}\right)\)
à \(\sigma_{X}=0.1\) et \(\sigma_{Y}=0.003\) donnés.
Ensuite on retourne:
- les estimateurs sans biais \(\hat{a}_{1,rand,}\) et \(\hat{a}_{0,rand}\) associés aux \(M\) échantillons randomisés:\[\left\{ \begin{array}{l}\overline{\hat{a}}_{1,rand}\cong0.03961212121212121\\\overline{\hat{a}}_{0,rand}\cong-5.4545454545425415e-05\end{array}\right.\]
- les estimateurs sans biais \(\hat{V}\left(\hat{a}_{1,rand}\right)\) et \(\hat{V}\left(\hat{a}_{0,rand}\right)\) associés aux \(M\) échantillons randomisés sont donnés par les variances empiriques:\[\left\{ \begin{array}{l}\hat{\sigma}_{1,rand}\simeq0.0005332728356574939\\\hat{\sigma}_{0,rand}\simeq0.002908727406928964\end{array}\right.\]

9.2.5 Comparaison des méthodes
Il s'agit d'abord de prendre une décision sur les chiffres significatifs.
A partir du modèle théorique académique:
\[G=\frac{I}{U}=\frac{y}{x}\]
la formule de propagation des incertitudes appliquée au voisinage du point \(\left(U_{i},I_{i}\right)\) s'écrit, les erreurs étant indépendantes:
\[\frac{\triangle G}{G_{i}}=\sqrt{\left(\frac{\triangle y}{x_{i}}\right)^{2}+\left(\frac{\triangle y}{y_{i}}\right)^{2}}\]
Intéressons-nous aux écart relatifs donnés par les différentes méthodes, dans le seul cas de la pente.
- si on ne prend pas en compte les fluctuations des abscisses:\[\begin{array}{c|cccc}m\acute{e}thode & a_{1} & \sigma_{a_{1}} & \frac{\sigma_{a_{1}}}{a_{1}} & \textrm{\%}\\\hline 1 & 3.9612\:10^{-2} & 3.259\:10^{-4} & 0.00823 & 0.82\\2 & 3.9608\:10^{-2} & 3.286\:10^{-4} & 0.00830 & 0.83\\3 & 3.9612\:10^{-2} & 1.044\:10^{-4} & 0.00263 & 0.26\end{array}\]On s'attend à une bonne convergence des \(2\) premières méthodes, car elles utilisent explicitement le paramètres \(\sigma_{X}\), sachant que le nombre de tirages aléatoires fournissant les échantillons est ici égal à \(M=2000\).En revanche, la 3ème méthode conduit à une dispersion plus faible, bien que du même ordre de grandeur, étant par construction insensible à \(\sigma_{X}\), la convergence n'étant assurée que si \(n\) est suffisamment grand.On va donc proposer un résultat final à \(1\)%.Les méthodes sont alors comparables sauf que la 1ère est immédiate et ne demande pas les ressources requises pour la méthode de Monte-Carlo.
- si on prend en compte les fluctuations des abscisses:En ordre de grandeur, les écarts relatifs sont donnés ci-dessous:\[\begin{array}{c|cccc}m\acute{e}thode & a_{1} & \sigma_{a_{1}} & \frac{\sigma_{a_{1}}}{a_{1}} & \%\\\hline 1 & 3.9612\:10^{-2} & 5.471\:10^{-4} & 0.00138 & 1.4\\2 & 3.9612\:10^{-2} & 5.333\:10^{-4} & 0.00134 & 1.3\\3 & 3.9612\:10^{-2} & 1.044\:10^{-4} & 0.00263 & 0.26\end{array}\]On peut s'interroger sur la convergence des \(2\) premières méthodes, car elles utilisent certes explicitement les paramètres \(\sigma_{X}\) et \(\sigma_{Y}\), mais la valeur \(\sigma_{app}\) attribuée à \(\sigma\) est approchée et n'est le résultat rigoureux d'aucun estimateur.En revanche, la 3ème méthode conduit à une dispersion plus faible, bien que du même ordre de grandeur, étant par construction insensible à \(\sigma_{X}\) et \(\sigma_{Y}\), la convergence n'étant assurée que si \(n\) est suffisamment grand.On va donc proposer un résultat final à \(1.5\)%.Là aussi, les méthodes sont alors comparables sauf que la 1ère est immédiate et ne demande pas les ressources requises pour la méthode de Monte-Carlo.Toutefois la méthode de Monte-Carlo prend en compte plus rigoureusement la dispersion de la mesure des abscisses et on l'adoptera en cas de désaccord avec la 1ère méthode.
9.2.6 Résultat final proposé
On part du principe que l'on fait confiance à a randomisation proposée par le module random() de python.
Comme les \(2\) premières méthodes donnent des résultats proches, on adopte ceux de la 1ère méthode, celle dont la variance de la pente est donnée par:
\[\Delta a_{1}=\hat{\sigma}_{1,app}=\frac{\sigma_{app}}{\sqrt{\sum_{i=1}^{n}\left(x_{i}-\bar{x}\right)^{2}}}\cong5.471\:10^{-4}\]
(basée sur la varience stsimée de la pente avec \(\sigma\) à \(1.5\)% ):
\[G_{\left[S\right]}\in\left[3.956\:10^{-2}-0.055\:10^{-4},3.956\:10^{-2}-0.055\:10^{-4}\right]\]
L'unité d'incertitude est donc prise à \(0.4\Omega\) et on propose et on va donc adopter \(\overline{R}=25.3\Omega\) donc le résultat suivant:
\[\boxed{R_{\left[\Omega\right]}\in\left[25.3-0.4,25.3+0.4\right]}\]
ou:
\[\boxed{24.9\Omega\leq R\leq25.7\Omega}\]