estimation : chapitre 10
TRANSCRIPT
![Page 1: Estimation : chapitre 10](https://reader035.vdocuments.site/reader035/viewer/2022062411/62acdbf4fb8ad111ae1d7815/html5/thumbnails/1.jpg)
1
ESTIMATION PONCTUELLE ………………….……………… 7 méthode de vraisemblance maximale ………………………….. méthode de moments ………………………………………………
FORMULAIRE ..…. 9-10ESTIMATION: INTERVALLES CONFIANCE ….…………………….. 11-12
FORMULAIRE …… 13-15
Intervalle de confiance pour la moyenne μ …..…………….....16 Calcul de la taille échantillonnale n ………………………….. 17 Interprétation intervalle confiance : simulation ……………….. 18
Estimation : différence entre 2 moyennes μ1 - μ2 …………… 22
Estimation : variance σ2 / écart type σ ………………………... 27
Estimation du paramètre θ (ou p) : distribution binomiale … 30
Différence θ1 - θ2 entre 2 distributions binomiales (10,3,5) : hors programme
Estimation : chapitre 10 (ed2 HMGB)
Bernard CLÉMENT, PhD
Intervalle de prévision pour une observation future ………. 34 Intervalle de tolérance pour un pourcentage distribution …… 35
Rappel : terminologie statistique - résultats…………………… 2-6
![Page 2: Estimation : chapitre 10](https://reader035.vdocuments.site/reader035/viewer/2022062411/62acdbf4fb8ad111ae1d7815/html5/thumbnails/2.jpg)
2Bernard CLÉMENT, PhD
Méthodes statistiques- description / visualisation : données Y (ch8)- estimation : paramètres distribution (ch9-10)- tests statistiques : prise de décision (ch11-12)- modélisation Y = f(X) f = fonction de transfert (ch13)
processussystème
Y : variable de réponse
X : variablesexplicatives
Variable Y - plusieurs cas- mesure : variable continue - distribution normale N(μ, σ2) … autre
- classement 0 ou 1 : variable qualitative - distribution Bernoulli Ber(θ)
- comptage 0,1,2,.. : variable entière - distribution Poisson Poi (λ)
Variables X - catégoriques / continues / une ou plusieurs
![Page 3: Estimation : chapitre 10](https://reader035.vdocuments.site/reader035/viewer/2022062411/62acdbf4fb8ad111ae1d7815/html5/thumbnails/3.jpg)
• les populations statistiques sont modélisées par des lois de probabilitésdont les paramètres sont toujours inconnus;
• le mieux que l’on puisse faire: estimer les paramètres avec desdonnées (observations ) provenant de la distribution (population)
• données (Y1, Y2, …) sont transformées en statistique W par une fonction hW = h (Y1, Y2 ,…. ) W est une variable aléatoire
choix de h : dépend de l’application envisagée (ESTIMATION ou TEST)loi de probabilité de W s’appelle distribution d’échantillonnageexemple : 2 échantillons de taille n provenant de la même population
(Y1, Y2, …,Yn) et (Y1’, Y2’ , ….., Yn’) auront une moyenne (Ybar),différente, un écart type s différent, un histogramme différent : c’est l’influence de la variabilité de l’échantillonnage
• on dispose toujours que d’un seul échantillon de taille n pour mettreen œuvre une procédure statistique : ESTIMATION ou TEST
• paramètre statistique ξ : toute quantité associée à une loi de probabilitéex. ξ = μ : moyenne distribution normale
ξ = σ : écart type distribution quelconqueξ = θ : moyenne distribution Bernoulli ( θ)
3
Terminologie statistique
Bernard CLÉMENT, PhD
![Page 4: Estimation : chapitre 10](https://reader035.vdocuments.site/reader035/viewer/2022062411/62acdbf4fb8ad111ae1d7815/html5/thumbnails/4.jpg)
4
terminologie statistique
Échantillon aléatoire : un ensemble de variables aléatoires Y 1 , Y 2 , , Y ntelles que (a) les variables sont soumises à une même distribution f(y)
(b) les variables sont indépendantesloi conjointe : g (Y1, Y2, …, Yn) = f(Y1)* f(Y2) * …* f(Yn)
Statistique : toute fonction W calculée sur les données de l’échantillonW = h (Y1 , Y2 , …., Y n ) remarque : W est une variable aléatoire
Estimateur : une statistique particulière conçue de façon à fournirune estimation d’un paramètre d’une loi de probabilité
Estimation ponctuelle d’un paramètre ξ : est la valeur numérique ξprise par un estimateur sur la base d’un échantillon (y1, y2,…, yn)
ξ = h(y1, y2, … , yn ) Estimation par intervalle d’un paramètre statistique ξ est un intervalle
(a, b) dont les valeurs a et b dépendent de l’échantillon (Y1, Y2,…, Yn)et une probabilité spécifiée 1 - α = coefficient de confiancede telle sorte que : P ( a ≤ ξ ≤ b) = 1- α
a = h1(Y1, Y2,.., Yn) = ? b = h2(Y1, Y2,.., Yn) = ?
Bernard CLÉMENT, PhD
![Page 5: Estimation : chapitre 10](https://reader035.vdocuments.site/reader035/viewer/2022062411/62acdbf4fb8ad111ae1d7815/html5/thumbnails/5.jpg)
5
Distribution d’échantillonnage : concept fondamentaltout estimateur ξ possède une distribution de probabilité appelée distribution d’échantillonnage ; l’étude des propriétés de l’estimateurrepose sur l’étude des propriétés de cette distribution.
Estimateur sans biais (sans erreur systématique) : estimateur dont la moyenne est égale au paramètre à estimer : E( ξ ) = ξ
ξ
ξ
distribution d’échantillonnage
E( ξ )n1
n2 > n1n2
Résultat : sous certaines conditions très générales : la distribution d’échantillonnage est approximativement en forme de cloche
(normale) et sa dispersion (variance) diminue lorsque n augmente ET ( ξ ) = constante / √ n
Erreur Quadratique Moyenne = EQM = Var ( ξ ) + ( E( ξ ) – ξ )2
« meilleur » estimateur : EQM minimumsi ξ sans biais ……. minimum EQM = minimum Var ( ξ )
Bernard CLÉMENT, PhD
![Page 6: Estimation : chapitre 10](https://reader035.vdocuments.site/reader035/viewer/2022062411/62acdbf4fb8ad111ae1d7815/html5/thumbnails/6.jpg)
6
Résultat 1 Soit Y 1 , Y 2,, ….. , Y n des v. a. indépendantes telles que E(Yi ) = μi et Var (Yi ) = σi
2 i = 1, 2, …, nsoient a 1, a 2,, …. , a n des constantes etW = ∑ ai Yi une combinaison linéaire des Yi
Alors E(W) = μW = ∑ ai μi et Var (W) = σw2 = ∑ ai
2 σi2
remarque 1 : aucune hypothèse est nécessaire sur les lois des Yiremarque 2 : si les Y sont normales alors W est normale
Résultat 3 Si les Xi sont gaussiennes Xi ~ N (μ , σ2 )
alors X est gaussienne N (μ , σ2 / n )
Résultat 2 Soit ai = 1 / n E(Yi) = μ Var(Yi) = σ2 alors i = n
W = Y = Ybar = ∑ (1/n ) Yi vérifie E(Y) = μ et Var(Y) = σ2 / ni = 1
Bernard CLÉMENT, PhD
R A P P E L S (chapitre vecteurs aléatoires)
Résultat 3 Si les Yi sont normales Yi ~ N (μ , σ2 )
alors Y est normale N (μ , σ2 / n )
Résultat 4 Si les Yi sont distribuées quelconques E(Yi ) = μ Var(Yi) = σ2
alors Y est approximativement normale N (μ , σ2 / n )
![Page 7: Estimation : chapitre 10](https://reader035.vdocuments.site/reader035/viewer/2022062411/62acdbf4fb8ad111ae1d7815/html5/thumbnails/7.jpg)
7Bernard CLÉMENT, PhD
méthode 2
moments
méthode 1
vraisemblance
maximale
méthode: vraisemblance maximaleEstimation ponctuelle
fonction de vraisemblance L
L(θ1, θ2, θ3,…, θk) = π f Y (y i ; θ1, θ2, θ3,…, θk)
f Y (y i ; θ1, θ2, θ3,…, θk) : distribution de Y
θ1, θ2, θ3,…, θk : paramètres inconnus
déterminer les valeurs de θ1, θ2, θ3,…, θk
qui maximise L(θ1, θ2, θ3,…, θk)
résoudre les k équations ∂ L ∂ θ i
solutions θ i = h i ( y1, y2,…, y n ) estimateurs à VM
remarqueen général, il plus facile de d’utiliser le log de Lpour trouver les estimateurs
log(L(θ1, θ2, θ3,…, θk)) = ∑ log f Y (y i ; θ1, θ2, θ3,…, θk)
= 0
i = 1
n
i = 1, 2,.., k
![Page 8: Estimation : chapitre 10](https://reader035.vdocuments.site/reader035/viewer/2022062411/62acdbf4fb8ad111ae1d7815/html5/thumbnails/8.jpg)
8Bernard CLÉMENT, PhD
Estimation à vraisemblance maximale : étapes
Dans certains cas, l’estimateur à vraisemblance maximal n’est pas obtenu par dérivation.Par exemple, lorsque la fonction de vraisemblance est maximale à la frontière de l’espace.
NOTATION
dans l’encadré
la variable X
représente
une variable
de réponse
![Page 9: Estimation : chapitre 10](https://reader035.vdocuments.site/reader035/viewer/2022062411/62acdbf4fb8ad111ae1d7815/html5/thumbnails/9.jpg)
9
estimateurs à vraisemblance maximale
![Page 10: Estimation : chapitre 10](https://reader035.vdocuments.site/reader035/viewer/2022062411/62acdbf4fb8ad111ae1d7815/html5/thumbnails/10.jpg)
10
estimateurs à vraisemblance maximale
![Page 11: Estimation : chapitre 10](https://reader035.vdocuments.site/reader035/viewer/2022062411/62acdbf4fb8ad111ae1d7815/html5/thumbnails/11.jpg)
11Bernard CLÉMENT, PhD
Estimation méthode des moments: étapes
![Page 12: Estimation : chapitre 10](https://reader035.vdocuments.site/reader035/viewer/2022062411/62acdbf4fb8ad111ae1d7815/html5/thumbnails/12.jpg)
12
Estimation méthode des moments: exemple
![Page 13: Estimation : chapitre 10](https://reader035.vdocuments.site/reader035/viewer/2022062411/62acdbf4fb8ad111ae1d7815/html5/thumbnails/13.jpg)
13Bernard CLÉMENT, PhD
TABLEAU - différents cas d’intervalle de confianceCAS PARAMÈTRE CONDITIONS NOMBRE ÉCHANT.A moyenne μ normale N(μ, σ2) σ2 connu 1B moyenne μ normale N(μ,σ2) σ2 inconnu 1C moyenne μ quelconque n > 30 σ2 inconnu 1D μ1 - μ2 normales variances σ2
1 σ22 connues 2
E μ1 - μ2 normales variances σ21 σ2
2 inconnues 2σ1
2 = σ22 = σ2
F μ1 - μ2 normales variances σ21 σ2
2 inconnues 2et inégales
G σ2 normale N(μ, σ2) μ inconnue 1H σ1
2 / σ22 normales moyennes μ1 μ2 inconnues 2
I θ Bernoulli 1J θ1 – θ2 Bernoulli 2
![Page 14: Estimation : chapitre 10](https://reader035.vdocuments.site/reader035/viewer/2022062411/62acdbf4fb8ad111ae1d7815/html5/thumbnails/14.jpg)
14Bernard CLÉMENT, PhD
Tableau intervalles de confiance
![Page 15: Estimation : chapitre 10](https://reader035.vdocuments.site/reader035/viewer/2022062411/62acdbf4fb8ad111ae1d7815/html5/thumbnails/15.jpg)
15Bernard CLÉMENT, PhD
Tableau intervalles de confiance : suite
![Page 16: Estimation : chapitre 10](https://reader035.vdocuments.site/reader035/viewer/2022062411/62acdbf4fb8ad111ae1d7815/html5/thumbnails/16.jpg)
16
Estimation de la moyenne μ d’une population : méthode de l’intervalle de confiance
Cas A : population normale et variance σ 2 connue Y ~ N ( μ , σ 2 )
soit Y 1 , Y 2, …, Y n un échantillon de Y alors ( Y - μ ) / ( σ / √ n ) ~ N ( 0, 1 )
alors P ( - z 1 – α / 2 ≤ ( Y - μ ) / ( σ / √ n ) ≤ z 1 – α / 2 ) = 1 - α ( * )
-2 0 2 4 6 8 10 12 14 16 18 20 22 24 26
U
-0.02
0.00
0.02
0.04
0.06
0.08
0.10
0.12
0.14
GAUS
S
N ( 0, 1) :
normale
centrée – réduite
1 - α : coefficient
de confiance
- z 1 – α / 2 0 z 1 – α / 2
α/ 21 - α
Z = ( Y – μ ) / (σ /√ n )
On isole le paramètre μ de l’équation ( * ) pour obtenir l’intervalle de confiance
de μ Y - z 1 – α / 2 σ ≤ μ ≤ Y + z 1 – α / 2 σ
√ n √ n
Bernard CLÉMENT, PhD
![Page 17: Estimation : chapitre 10](https://reader035.vdocuments.site/reader035/viewer/2022062411/62acdbf4fb8ad111ae1d7815/html5/thumbnails/17.jpg)
17
Exemple : supposons que la durée ( heures) de vie X d’ampoules électriques d’unecertaine marque est une loi gaussienne de moyenne μ ( inconnue) et écart type σ = 100 (a) Déterminer un intervalle de confiance avec coefficient de confiance de 0.95 pour μ si
un échantillon de n = 20 ampoules a donné les durées de vie : 1076.2 - 989.2 - 1013.91152.5 - 1076.8 - …… 1028.7 - 946.2 - 1111.8 - 1060.5 de moyenne X = 1028.5 h
(b) Refaire (a) avec une coefficient de confiance de 0.99(c) Combien d’ampoules n doit –on échantillonnées si on veut un intervalle de confiance
à 0.95 de longueur égale à 30 ?Solution : (a) 1028.5 - ( 1.96 * 100 / √ 20 ) ≤ μ ≤ 1028.5 + ( 1.96 * 100 ) / √ 20 )
1028.5 – 43.8 ≤ μ ≤ 1028.5 + 43.8984.7 ≤ μ ≤ 1072.3
(b) avec un coefficient de confiance de 0.99 le percentile 1.96 change pour 2.576et l’intervalle de confiance devient 970.9 ≤ μ ≤ 1086.1
(c) la longueur de l’intervalle en (a) est de 2*43.8 = 87.6 avec n = 20on veut 2 * 1.96 * 100 / √ n = 30 donc n = 171
Détermination de la taille de l’échantillon : calcul de n ( avec σ connu )
on spécifie : coefficient de confiance = 1 - α longueur de l’intervalle = 2Δon connaît σ
n = (z 1 – α / 2 σ / Δ) 2
Bernard CLÉMENT, PhD
Estimation de la moyenne μ d’une population : méthode de l’intervalle de confiance
![Page 18: Estimation : chapitre 10](https://reader035.vdocuments.site/reader035/viewer/2022062411/62acdbf4fb8ad111ae1d7815/html5/thumbnails/18.jpg)
18
Exemple : suite de l’exemple - Un deuxième échantillon de 20 ampoules a donné une viemoyenne de 981 h. L’intervalle de confiance à 0.95 est : 937.2 ≤ μ ≤1024.8
Remarque : dans toute étude statistique on a toujours qu’un seul échantillon de taille nqui est prélevé. Toute décision à prendre repose sur cet échantillon uniquement.Dans l’exemple, on a prélevé un deuxième échantillon pour des fins d’illustrationmais si c’était le cas réel, on aurait combiné les deux en un seul échantillon de taille 40.
Interprétation d’un intervalle de confianceLe coefficient de confiance se rapporte à la procédure à long terme : ( 1 - α ) 100% des intervalles calculés avec la formule génèrent des intervalles qui contiendront μ. On ne sait jamais si l’intervalle calculé avec l’échantillon observé contient μ mais notre degré de confiance est de ( 1 - α ) 100% qu’il fait partie de ceux qui contienne μ( les ‘ bons ‘ )L’interprétation peut être comprise et illustrée seulement avec des données simulées provenant d’une population gaussienne dont la moyenne est connue : exemple suivant
Exemple : simulation de 100 échantillons de taille n = 5
provenant d’une population gaussienne μ = 1000 et σ = 1007 échantillons : # 14 – 23 – 25 – 49 – 71 – 73 – 79 ne contiennent pas 1000
graphique: page suivantes
Bernard CLÉMENT, PhD
Estimation de la moyenne μ d’une population : méthode de l’intervalle de confiance
![Page 19: Estimation : chapitre 10](https://reader035.vdocuments.site/reader035/viewer/2022062411/62acdbf4fb8ad111ae1d7815/html5/thumbnails/19.jpg)
19
intervalles de confiance : échantillons 1-50 de 5 obs.
moy-de-5750
800
850
900
950
1000
1050
1100
1150
1200
1250
#14 – 23 - 25 – 49 - 71 – 73 - 79 : 7 intervalles sur les 100 calculés
ne contiennent pas 1000
μ =1000
Bernard CLÉMENT, PhD
échantillons 51 à 100 : groupe de 5 obs
moy-de-5750
800
850
900
950
1000
1050
1100
1150
1200
1250
Simulation interprétation intervalle confiance
![Page 20: Estimation : chapitre 10](https://reader035.vdocuments.site/reader035/viewer/2022062411/62acdbf4fb8ad111ae1d7815/html5/thumbnails/20.jpg)
20
Cas B : population normale et variance σ 2 inconnue Y ~ N ( μ , σ 2 = ? )
intervalle de confiance de la moyenne coeff. Conf. = 1 - α
Y - t 1 – α / 2, n - 1 s ≤ μ ≤ Y + t 1 – α / 2, n - 1 s√ n √ n
Exemple : 6 observations de la durée de vie d’ampoules a donné
863.0 - 1016.2 - 945.8 - 992.5 - 943.8 - 1006.4
Y = 961.3 et s = 57.0
Int. confiance avec coeff. conf. = 0.90 = 1 – α pour μ :
t 0,95 , 5 = 2.015 selon table Student avec 5 ddl
961.3 ± 2.015 * 57 / √ 6 = ( 914.4 , 1008.2 )
Bernard CLÉMENT, PhD
Estimation de la moyenne μ d’une population : méthode de l’intervalle de confiance
![Page 21: Estimation : chapitre 10](https://reader035.vdocuments.site/reader035/viewer/2022062411/62acdbf4fb8ad111ae1d7815/html5/thumbnails/21.jpg)
21
Estimation de la moyenne μ d’une population : méthode de l’intervalle de confiance
Cas C : population quelconque et n au moins 30 intervalle de confiance approximatif pour la moyenne
Y - z1 – α / 2 s ≤ μ ≤ Y + z1 – α / 2 s√ n √ n
Remarque : la formule repose sur le théorème central - limite
Exemple : la durée de vie de 50 ampoules électriques d’une
certaine marque a donné
Y = 1014 et s = 98.7
Intervalle de confiance à 0.90 pour μ est
1014 ± 1.64 * 98.7 / √ 50
1014 ± 22,9
992.1 à 1036.9
Bernard CLÉMENT, PhD
![Page 22: Estimation : chapitre 10](https://reader035.vdocuments.site/reader035/viewer/2022062411/62acdbf4fb8ad111ae1d7815/html5/thumbnails/22.jpg)
22
-2 0 2 4 6 8 10 12 14 16 18 20 22 24 26
U
-0.02
0.00
0.02
0.04
0.06
0.08
0.10
0.12
0.14
GAUS
S
Résultat : (a) E (Y1 - Y2 ) = μ1 - μ2(b) Var ( Y1 - Y2 ) = σ1
2 / n1 + σ22 / n2
(c) Y1 - Y2 ~ N (μ1 - μ2 , σ12 / n1 + σ2
2 / n2 )(d) (Y1 – Y2) – (μ1 - μ2 ) / (σ1
2 / n1 + σ22 / n2 )0,5 ~ N(0,1)
le résultat (d) est approximatif si n1 et n2 sont plus grands que 30
-2 0 2 4 6 8 10 12 14 16 18 20 22 24 26
U
-0.02
0.00
0.02
0.04
0.06
0.08
0.10
0.12
0.14
GAUS
S
Y11, Y12, … , Y1n1
Y1 ~ N ( μ1, σ12) Y2 ~ N ( μ2, σ2
2)
σ1 σ2
μ1 μ2
Y21, Y22, … , Y2n2
Loi d’échantillonnage de la différence entre 2 moyennes : variances connues
échantillonsindépendants
Y1 = ∑ Y1i / n1 Y2 = ∑ Y2i / n2moyennes
vrai sans aucune hypothèse sur les lois
Bernard CLÉMENT, PhD
X : cas 1 X : cas 2X : facteurcomparaison
![Page 23: Estimation : chapitre 10](https://reader035.vdocuments.site/reader035/viewer/2022062411/62acdbf4fb8ad111ae1d7815/html5/thumbnails/23.jpg)
23
Cas D : intervalle de confiance - différence de 2 moyennes μ1 - μ2variances connues (conséquence de (d) page précédente)
μ1 - μ2 : ( Y1 - Y2 ) ± Z 1 – α /2 [σ12 / n1 + σ2
2 / n2 ] 0.5
Exemple : calculer un intervalle de confiance avec coefficient de confiance 0.95pour la différence de vie ( heures ) moyenne de deux types ( 1 et 2 )
d’ampoules électriques à l’aide des informations suivantes :
type1 : n = 16 σ = 128 Y1 = 1050
type2 : n = 9 σ = 81 Y2 = 970solution selon la formule ci haut et la table de la gaussienne centrée réduite
1 - α = 0.95 donc 1- α/2 = 0.975 et z 0.975 = 1.96
μ1 - μ2 : (1050 – 970) ± 1.96 ( 1282 / 16 + 812 / 9 )0.5 = 80 ± 82.1 = - 2.1 à 162.9
question les ampoules de type1 durent elles ( en moyenne ) plus longtemps
que les ampoules de type2 ?
Réponse = ?
Bernard CLÉMENT, PhD
![Page 24: Estimation : chapitre 10](https://reader035.vdocuments.site/reader035/viewer/2022062411/62acdbf4fb8ad111ae1d7815/html5/thumbnails/24.jpg)
24
-2 0 2 4 6 8 10 12 14 16 18 20 22 24 26
U
-0.02
0.00
0.02
0.04
0.06
0.08
0.10
0.12
0.14
GAUS
S
Résultat : ( Y1 – Y2 ) - ( μ1 - μ2 )
Sp √ 1/ n1 + 1 / n2
-2 0 2 4 6 8 10 12 14 16 18 20 22 24 26
U
-0.02
0.00
0.02
0.04
0.06
0.08
0.10
0.12
0.14
GAUS
S
Y11, Y12, … , Y1n1
Y1 ~ N ( μ1, σ2) Y2 ~ N ( μ2, σ2)
σ σ
μ1 μ2
Y21, Y22, … , Y2n2
Loi d’échantillonnage différence entre 2 moyennes: variances inconnues égales
échantillons indépendants
Y1 = ∑ Y1i / n1 Y2 = ∑ Yi / n2moyennes
S12 = ∑ Y1i – Y1 ) 2 / ( n1 - 1 ) S2
2 = ∑ (Y2i – Y2 ) 2 / ( n2 - 1 )variances
Sp2 = [ ( n1 -1 ) S1
2 + ( n2 – 1) S22 ] / ( n1 + n2 - 2) « pooled »
= T ~ Student avec n1 + n2 - 2 ddl
Bernard CLÉMENT, PhD MTH2302 Probabilités et méthodes statistiques
Xcas 1 cas 2
![Page 25: Estimation : chapitre 10](https://reader035.vdocuments.site/reader035/viewer/2022062411/62acdbf4fb8ad111ae1d7815/html5/thumbnails/25.jpg)
25
Cas E : intervalle de confiance - différence de 2 moyennes μ1 - μ2variances inconnues mais égalesμ1 - μ2 : ( Y1 – Y2 ) ± t1 – α/2, n1 + n2 - 2 Sp [ 1/ n1 + 1/ n2 ]0.5
Exemple : on a modifié la séquence d’opération pour faire l’assemblage de
plusieurs composants. Les données suivantes furent obtenues pour comparer la
la méthode actuelle et la méthode nouvelle. On croit que la nouvelle méthode
n’affecte pas sensiblement la variabilité (sigma). Déterminer un intervalle de confiance
à 95 % pour la différence de temps moyen d’assemblage entre les 2 méthodes.
données : Y1 méthode actuelle : n1 = 10 Y1 = 55 s1 = 10
Y2 méthode nouvelle : n2 = 12 Y2 = 40 s2 = 7
Solution Sp2 = (9 x 102 + 11 x 72) / 20 = 8.482
t 0.975, 20 = 2.08 selon la table de Student avec 20 ddl
μ1 - μ2 : ( 55 – 40 ) ± 2.08 * 8.48 ( 1 / 10 + 1 / 12 ) 0.5 = 15 ± 3.63 = 11.37 à 18.63
question : la nouvelle méthode réduit- elle le temps moyen d’assemblage ?
Réponse = ?
Bernard CLÉMENT, PhD
![Page 26: Estimation : chapitre 10](https://reader035.vdocuments.site/reader035/viewer/2022062411/62acdbf4fb8ad111ae1d7815/html5/thumbnails/26.jpg)
26
Résultat : si les variances sont inconnues et inégales alors( Y1 – Y2 ) - ( μ1 - μ2 )
√s12 / n1 + s2
2 / n2= T ~ Student avec ν ddl
ν = min (n1-1, n2 -1)
Cas F : intervalle de confiance - différence de 2 moyennes μ1 - μ2variances inconnues et inégales - ν = min ( n1-1, n2 -1)
μ1 - μ2 : ( Y1 – Y2 ) ± t 1 – α/2, ν [ s12 / n1 + s2
2 / n2 ] 0.5
Exemple : comparaison de la force de tension de rupture
( psi x1000) de 2 types d’acier
données acier 1 : n1 = 16 Y1 = 74.6 s12 = 3.5
acier 2 : n2 = 13 Y2 = 70.2 s22 = 19.2
intervalle de confiance à 90% - ν = min ( 15, 12) = 12 t 0.95, 12 = 1.78
μ1 - μ2 : ( 74.6 – 70.2 ) ± 1.78 ( 3.5 / 16 + 19.2 / 13 ) 0.5 = 4.4 ± 2.3 = 2.1 à 6.7
intervalle de confiance à 99% - ν = min ( 15, 12) = 12 t 0.995, 12 = 3.05
μ1 – μ2 : ( 74.6 – 70.2 ) ± 3.05 ( 3.5 / 16 + 19.2 / 13 ) 0.5 = 4.4 ± 4.0 = 0.4 à 8.4
Bernard CLÉMENT, PhD
![Page 27: Estimation : chapitre 10](https://reader035.vdocuments.site/reader035/viewer/2022062411/62acdbf4fb8ad111ae1d7815/html5/thumbnails/27.jpg)
27
Résultat : soit Yi i = 1, 2,…, n un échantillon aléatoire d’une population N( μ, σ2 )
soit S 2 = 1 /( n – 1 ) ∑ ( Y i – Y ) 2 la variance échantillonnale
alors (n-1) S 2 / σ2 = ∑ ( Y i – Y ) 2 / σ2 suit une loi Khi-deux avec (n – 1) ddl
Résultat : E ( S2 ) = σ2 c’est - à- dire S2 est une estimation sans biais de σ2
remarque: ce résultat est la justification du diviseur n – 1 employé
dans la définition de S2
Cas G : intervalle de confiance pour σ2 / coefficient de confiance = 1 - αsoit Y i i = 1, 2,…, n un échantillon aléatoire d’une population N( μ, σ2 )Alors ( n – 1 ) s 2 ≤ σ2 ≤ (n – 1 ) s 2
χ21- α /2, n-1 χ2
α /2, n-1
remarque : cette formule fournit un intervalle de confiance pour σ en prenant les racines carrées
Exemple : un échantillon de 20 ampoules électriques a donné une durée moyenne
de 1014 et une variance échantillonnale de 625. Un intervalle de confiance pour
σ2 et σ avec un coefficient de confiance de 95% est donné par
19 * 625 / 32.85 ≤ σ2 ≤ 19 * 625 / 8.91361.49 ≤ σ2 ≤ 1332.77
19.01 ≤ σ ≤ 36.51
Bernard CLÉMENT, PhD
![Page 28: Estimation : chapitre 10](https://reader035.vdocuments.site/reader035/viewer/2022062411/62acdbf4fb8ad111ae1d7815/html5/thumbnails/28.jpg)
28
-2 0 2 4 6 8 10 12 14 16 18 20 22 24 26
U
-0.02
0.00
0.02
0.04
0.06
0.08
0.10
0.12
0.14
GAUS
S
Résultat ( S12 / σ1
2 ) / (S22 / σ2
2) suit une loi F n1-1 , n2-1
-2 0 2 4 6 8 10 12 14 16 18 20 22 24 26
U
-0.02
0.00
0.02
0.04
0.06
0.08
0.10
0.12
0.14
GAUS
S
Y11, Y12 , … , Y1n1
Y1 ~ N ( μ1, σ12) Y2 ~ N ( μ2, σ1
2)
σ1 σ2
μ1μ2
Y21, Y22 , … , Y2n2
loi d’échantillonnage du quotient de 2 variances
échantillonsindépendants
Y1 = ∑ Y1i / n1 Y2 = ∑ Y2i / n2moyennes
S12 = 1/( n1 – 1 ) ∑ (Y1i – Y1 )2 variances SY
2 = 1/( n2 – 1 ) ∑ ( Y2i – Y2 )2
Bernard CLÉMENT, PhD
xcas 1 Cas 2
![Page 29: Estimation : chapitre 10](https://reader035.vdocuments.site/reader035/viewer/2022062411/62acdbf4fb8ad111ae1d7815/html5/thumbnails/29.jpg)
29
cas H : intervalle de confiance pour le quotient de 2 variances
coeff. conf. = 1 - α
(S12 / S2
2 ) Fα /2, n1 -1, n2 -1 ≤ σ12 / σ2
2 ≤ (S12/S2
2 ) F1 – α /2, n1-1 , n2 -1
remarque : ce résultat fournit l’intervalle de confiance pour le quotient des écart
types σ1 / σ2 en prenant les racines carrées
Exemple : échantillon 1 : n1 = 25 S12 = 0.012
échantillon 2 : n2 = 25 S22 = 0.020
coefficient de confiance = 0.95 F 0.025 , 24 , 24 = 0.44 F 0.975 , 24 , 24 = 2.27
0.60 x 0.44 ≤ σ12 / σ2
2 ≤ 0.6 x 2.27
0.26 ≤ σ12 / σ2
2 ≤ 1.36
0.51 ≤ σ1 / σ2 ≤ 1.17
question : les variances ( ou les écart types ) sont – elles différentes (différents) ?
réponse = ?
Bernard CLÉMENT, PhD
![Page 30: Estimation : chapitre 10](https://reader035.vdocuments.site/reader035/viewer/2022062411/62acdbf4fb8ad111ae1d7815/html5/thumbnails/30.jpg)
30Bernard CLÉMENT, PhD
Cas I : Estimation de θ (p) : population Bernouilli
![Page 31: Estimation : chapitre 10](https://reader035.vdocuments.site/reader035/viewer/2022062411/62acdbf4fb8ad111ae1d7815/html5/thumbnails/31.jpg)
31Bernard CLÉMENT, PhD
Cas I : Estimation de θ : population Bernoulli
![Page 32: Estimation : chapitre 10](https://reader035.vdocuments.site/reader035/viewer/2022062411/62acdbf4fb8ad111ae1d7815/html5/thumbnails/32.jpg)
32Bernard CLÉMENT, PhD
Cas I : Estimation de θ (aussi noté p) : population Bernoulli
Exemple 10.12 et 10.13 p.247 (manuel 1988)
test de n = 75 arbres d’essieu
12 surface trop rugueuse
θ = 12/75 = 0,16
Int. confiance à 95% pour fraction θ population d’essieux
θ : 0,16 ± 1,96 [ 0,16*0,84 / 75 ]0,5 = 0,16 ± 0,08
0,08 ≤ θ ≤ 0,24
n = ? pour avoir erreur 0,05 au lieu de 0,08 avec coef. conf. = 0,95
n = (1,96/0,05)2 * (0,16*0,84) = 207
si pas d’estimation préalable de θ = 0,16 comme cas précédent
n = (1,96/0,05)2 * (0,5*0,5) = 385
![Page 33: Estimation : chapitre 10](https://reader035.vdocuments.site/reader035/viewer/2022062411/62acdbf4fb8ad111ae1d7815/html5/thumbnails/33.jpg)
33Bernard CLÉMENT, PhD
cas J : différence θ1 - θ2 différence 2 populations Bernoulli
section 9.3.6 livre HMGB édition 3 – hors programme
![Page 34: Estimation : chapitre 10](https://reader035.vdocuments.site/reader035/viewer/2022062411/62acdbf4fb8ad111ae1d7815/html5/thumbnails/34.jpg)
34Bernard CLÉMENT, PhD
Intervalle de prévision pour une variable aléatoire
Exemple intervalle prévision à 95%
n = 10 obs. 1,15 1,23 1,56 1,69 1,71 1,83 1,85 1,90 1,91
Xbar = 1,666 s = 0,273
prévision de X : 1,666 ± t 0,025, 9 (0,2732 (1 + 1/10) )0,5
1,666 ± 0,648 1,018 ≤ X ≤ 2,314
remarque: ne pas confondre avec intervalle de confiance pour la moyenne μ
1,166 ± 0,195 ce dernier est plus court
remarquez le multiplicateur
1 + (1/n)
![Page 35: Estimation : chapitre 10](https://reader035.vdocuments.site/reader035/viewer/2022062411/62acdbf4fb8ad111ae1d7815/html5/thumbnails/35.jpg)
35Bernard CLÉMENT, PhD
k constantetable VIII
page suivante
![Page 36: Estimation : chapitre 10](https://reader035.vdocuments.site/reader035/viewer/2022062411/62acdbf4fb8ad111ae1d7815/html5/thumbnails/36.jpg)
36Bernard CLÉMENT, PhD
Tableau
constante k
Intervalle de tolérancebilatéral
HMGB ed 3
p 537
![Page 37: Estimation : chapitre 10](https://reader035.vdocuments.site/reader035/viewer/2022062411/62acdbf4fb8ad111ae1d7815/html5/thumbnails/37.jpg)
37
Bernard CLÉMENT, PhD
![Page 38: Estimation : chapitre 10](https://reader035.vdocuments.site/reader035/viewer/2022062411/62acdbf4fb8ad111ae1d7815/html5/thumbnails/38.jpg)
38Bernard CLÉMENT, PhD