9.2 Mesure d'une résistance

9.2.1 Données

On s'intéresse à la mesure d'une résistance par la mesure simultanée:
Les mesures ont donné les résultats suivants:
\[\begin{array}{c|c|c|c|c|c|c|c|c|c|c|} U_{\left[V\right]} & 0.0 & 1.0 & 2.0 & 3.0 & 4.0 & 5.0 & 6.0 & 7.0 & 8.0 & 9.0\\\hline I_{\left[mA\right]} & 0.000 & 0.039 & 0.079 & 0.118 & 0.160 & 0.198 & 0.238 & 0.277 & 0.318 & 0.355\end{array}\]
On adopte les incertitudes de type \(B\):
\[\left\{ \begin{array}{l}\triangle U_{B}=0.1\:V\\\triangle I_{B}=0.003\:mA\end{array}\right.\]
Le lien théorique académique est la relation linéaire (loi d'Ohm):
\[I=GU\]
où \(G\) est la condutance (en Siemens), dont le lien causal privilégié est le mouvement collectif des électrons de conduction d'intensité \(I\) du fait d'un champ électrique appliqué, via la tension \(U\).
Dans la perspective d'une utilisation avec le langage python:
Pour se prémunir ainsi d'un biais qui pourrait résulter d'un dérive, en particulier des ordonnées, on adoptera une droite théorique affine:
\[y=a_{0}+a_{1}x\]
On dispose donc d'un échantillon \(Ech=\left\{ \left(x_{i},y_{i}\right)\right\} _{1\leq i\leq9}\) dont on ne précisera plus les unités.
On va évaluer numériquement les estimateurs au-delà des chiffres significatifs: leur choix fera l'objet d'une décision ultérieure.
On donnera donc les résultats bruts obtenus par python.

9.2.2 Paramètres issus de la méthode des MCO appliqué au seul échantillon de référence

On obtient alors:
\[\left\{ \begin{array}{l}\hat{a}_{1}=0.03961212121212122\\\hat{a}_{0}=-5.4545454545446015e-05\end{array}\right.\]
puis:
\[\hat{\sigma}\cong0.0009478844067104775\]
On en déduit les écart-types estimés à partir du seul échantillon:
\[\left\{ \begin{array}{l}\hat{\sigma}_{1}=\hat{\sigma}\left(\hat{a}_{1}\right)\cong0.0001043586385316534\\\hat{\sigma}_{0}=\hat{\sigma}\left(\hat{a}_{0}\right)\cong0.0005571226749389567\end{array}\right.\]
On peut visualiser les résidus:
qui apparaissent sensiblement plus dispersés que l'ordre de grandeur de \(\hat{\sigma}\).

9.2.3 Approximation \(\sigma_{app}\) de \(\sigma\) à partir des incertitudes de type \(B\) et résulats associés

Ce paragraphe sert surtout à disposer d'une comparaison des méthodes avec une MCO classique, avec abscisses explquées données.
On s'appuie sur les incertitudes de type-B et on adopte:
\[\sigma_{Y}=0.003\]

9.2.4 Mise en oeuvre d'une méthode de Monte-Carlo à partir de l'échantillon

On a réalisé \(M=2000\) tirages aléatoires \(\left\{ Ech_{p}=\left\{ \left(x_{i,p}y_{i,p}\right)\right\} _{i\in\left[1,9\right]}\right\} _{p\in\left[1,2000\right]}\)d'échantillons où:
à \(\sigma_{X}=0.1\) et \(\sigma_{Y}=0.003\) donnés.
Ensuite on retourne:

9.2.5 Comparaison des méthodes

Il s'agit d'abord de prendre une décision sur les chiffres significatifs.
A partir du modèle théorique académique:
\[G=\frac{I}{U}=\frac{y}{x}\]
la formule de propagation des incertitudes appliquée au voisinage du point \(\left(U_{i},I_{i}\right)\) s'écrit, les erreurs étant indépendantes:
\[\frac{\triangle G}{G_{i}}=\sqrt{\left(\frac{\triangle y}{x_{i}}\right)^{2}+\left(\frac{\triangle y}{y_{i}}\right)^{2}}\]
Intéressons-nous aux écart relatifs donnés par les différentes méthodes, dans le seul cas de la pente.

9.2.6 Résultat final proposé

On part du principe que l'on fait confiance à a randomisation proposée par le module random() de python.
Comme les \(2\) premières méthodes donnent des résultats proches, on adopte ceux de la 1ère méthode, celle dont la variance de la pente est donnée par:
\[\Delta a_{1}=\hat{\sigma}_{1,app}=\frac{\sigma_{app}}{\sqrt{\sum_{i=1}^{n}\left(x_{i}-\bar{x}\right)^{2}}}\cong5.471\:10^{-4}\]
(basée sur la varience stsimée de la pente avec \(\sigma\) à \(1.5\)% ):
\[G_{\left[S\right]}\in\left[3.956\:10^{-2}-0.055\:10^{-4},3.956\:10^{-2}-0.055\:10^{-4}\right]\]
L'unité d'incertitude est donc prise à \(0.4\Omega\) et on propose et on va donc adopter \(\overline{R}=25.3\Omega\) donc le résultat suivant:
\[\boxed{R_{\left[\Omega\right]}\in\left[25.3-0.4,25.3+0.4\right]}\]
ou:
\[\boxed{24.9\Omega\leq R\leq25.7\Omega}\]