10 - variables aléatoires cours complet -...

35
Chapitre 10 : Variables aléatoires – Cours complet. - 1 - Variables aléatoires. Chapitre 10 : cours complet. 1. Variable aléatoire discrète. Définition 1.1 : variable aléatoire discrète. Théorème 1.1 : image réciproque d’une partie de E. Théorème 1.2 : probabilité attachée à une variable aléatoire discrète. Définition 1.2 : loi de probabilité d’une variable aléatoire discrète. Théorème 1.3 : système complet induit par une variable aléatoire discrète. Théorème 1.4 : caractérisation d’une loi de variable aléatoire discrète à l’aide d’événements élémentaires. Théorème 1.5 : (admis) existence d’une probabilité pour (x n ) et (p n ) données. 2. Fonction de répartition d’une variable aléatoire discrète, lois classiques. Définition 2.1 : fonction de répartition d’une variable aléatoire discrète réelle. Définition 2.2 : (hors programme) histogramme d’une variable aléatoire discrète réelle. Théorème 2.1 : propriétés d’une fonction de répartition d’une variable aléatoire réelle discrète. exemples : fonctions de répartition et histogrammes des lois uniforme, de Bernoulli, binomiale. Définition 2.3 : loi géométrique. Théorème 2.2 : loi géométrique variable aléatoire discrète sans mémoire. Définition 2.4 : loi de Poisson. Théorème 2.3 : approximation d’une loi binomiale par une loi de Poisson. 3. Espérance d’une variable aléatoire discrète. Définition 3.1 : espérance d’une variable aléatoire discrète. Théorème 3.1 : (admis) ordre des termes pour le calcul d’une espérance. Théorème 3.2 : espérance d’une variable aléatoire discrète à valeurs dans . Théorème 3.3 : (admis) formule du transfert. Théorème 3.4 : (admis) linéarité de l’espérance. Théorème 3.5 : premières propriétés de l’espérance. Théorème 3.6 : espérance d’une variable aléatoire suivant une loi géométrique G(p). Théorème 3.7 : espérance d’une variable aléatoire suivant une loi de Poisson P(λ). Théorème 3.8 : espérance d’une variable aléatoire prenant un nombre fini de valeurs. Rappel : espérance des lois uniforme, de Bernoulli et binomiale. Théorème 3.9 : inégalité de Markov. 4. Couple et famille de variables aléatoires, indépendance. Théorème 4.1 et définition 4.1 : couple de variables aléatoires discrètes. Définition 4.2 : loi conjointe et lois marginales d’un couple de variables aléatoires discrètes. Théorème 4.2 : lien entre loi conjointe et lois marginales d’un couple de variables aléatoires. Définition 4.3 : lois conditionnelles. Théorème 4.3 : lien entre loi conjointe, loi marginale et loi conditionnelle. Définition 4.4 : couple de variables aléatoires indépendantes. Théorème 4.4 : (admis) indépendance et événements non élémentaires. Théorème 4.5 : (admis) espérance d’un produit de variables aléatoires discrètes indépendantes. Théorème 4.6 : images de deux variables aléatoires discrètes indépendantes. Définition 4.5 : famille finie de variables aléatoires discrètes mutuellement indépendantes. Définition 4.6 : suite de variables aléatoires discrètes mutuellement indépendantes. Théorème 4.7 : (admis) existence d’un modèle pour des lois de probabilité données. Théorème 4.8 : somme de deux variables aléatoires indépendantes suivant une loi de Poisson. 5. Variance et covariance. Théorème 5.1 : lien entre espérance de X et de X 2 . Définition 5.1 : variance d’une variable aléatoire discrète réelle. Théorème 5.2 : autre expression de la variance. Théorème 5.3 : propriétés élémentaires de la variance. Définition 5.2 : écart-type d’une variable aléatoire discrète réelle.

Upload: truongxuyen

Post on 15-Sep-2018

283 views

Category:

Documents


3 download

TRANSCRIPT

Page 1: 10 - Variables aléatoires Cours complet - …cpgedupuydelome.fr/IMG/pdf/10_-_variables_aleatoires_cours_comple… · Chapitre 10 : Variables aléatoires – Cours complet. - 3 -

Chapitre 10 : Variables aléatoires – Cours complet. - 1 -

Variables aléatoires. Chapitre 10 : cours complet. 1. Variable aléatoire discrète.

Définition 1.1 : variable aléatoire discrète. Théorème 1.1 : image réciproque d’une partie de E. Théorème 1.2 : probabilité attachée à une variable aléatoire discrète. Définition 1.2 : loi de probabilité d’une variable aléatoire discrète. Théorème 1.3 : système complet induit par une variable aléatoire discrète. Théorème 1.4 : caractérisation d’une loi de variable aléatoire discrète à l’aide d’événements élémentaires. Théorème 1.5 : (admis) existence d’une probabilité pour (xn) et (pn) données.

2. Fonction de répartition d’une variable aléatoire discrète, lois classiques.

Définition 2.1 : fonction de répartition d’une variable aléatoire discrète réelle. Définition 2.2 : (hors programme) histogramme d’une variable aléatoire discrète réelle. Théorème 2.1 : propriétés d’une fonction de répartition d’une variable aléatoire réelle discrète. exemples : fonctions de répartition et histogrammes des lois uniforme, de Bernoulli, binomiale. Définition 2.3 : loi géométrique. Théorème 2.2 : loi géométrique ⇔ variable aléatoire discrète sans mémoire. Définition 2.4 : loi de Poisson. Théorème 2.3 : approximation d’une loi binomiale par une loi de Poisson.

3. Espérance d’une variable aléatoire discrète.

Définition 3.1 : espérance d’une variable aléatoire discrète. Théorème 3.1 : (admis) ordre des termes pour le calcul d’une espérance. Théorème 3.2 : espérance d’une variable aléatoire discrète à valeurs dans . Théorème 3.3 : (admis) formule du transfert. Théorème 3.4 : (admis) linéarité de l’espérance. Théorème 3.5 : premières propriétés de l’espérance. Théorème 3.6 : espérance d’une variable aléatoire suivant une loi géométrique G(p). Théorème 3.7 : espérance d’une variable aléatoire suivant une loi de Poisson P(λ). Théorème 3.8 : espérance d’une variable aléatoire prenant un nombre fini de valeurs. Rappel : espérance des lois uniforme, de Bernoulli et binomiale. Théorème 3.9 : inégalité de Markov.

4. Couple et famille de variables aléatoires, indép endance.

Théorème 4.1 et définition 4.1 : couple de variables aléatoires discrètes. Définition 4.2 : loi conjointe et lois marginales d’un couple de variables aléatoires discrètes. Théorème 4.2 : lien entre loi conjointe et lois marginales d’un couple de variables aléatoires. Définition 4.3 : lois conditionnelles. Théorème 4.3 : lien entre loi conjointe, loi marginale et loi conditionnelle. Définition 4.4 : couple de variables aléatoires indépendantes. Théorème 4.4 : (admis) indépendance et événements non élémentaires. Théorème 4.5 : (admis) espérance d’un produit de variables aléatoires discrètes indépendantes. Théorème 4.6 : images de deux variables aléatoires discrètes indépendantes. Définition 4.5 : famille finie de variables aléatoires discrètes mutuellement indépendantes. Définition 4.6 : suite de variables aléatoires discrètes mutuellement indépendantes. Théorème 4.7 : (admis) existence d’un modèle pour des lois de probabilité données. Théorème 4.8 : somme de deux variables aléatoires indépendantes suivant une loi de Poisson.

5. Variance et covariance.

Théorème 5.1 : lien entre espérance de X et de X2. Définition 5.1 : variance d’une variable aléatoire discrète réelle. Théorème 5.2 : autre expression de la variance. Théorème 5.3 : propriétés élémentaires de la variance. Définition 5.2 : écart-type d’une variable aléatoire discrète réelle.

Page 2: 10 - Variables aléatoires Cours complet - …cpgedupuydelome.fr/IMG/pdf/10_-_variables_aleatoires_cours_comple… · Chapitre 10 : Variables aléatoires – Cours complet. - 3 -

Chapitre 10 : Variables aléatoires – Cours complet. - 2 -

Théorème 5.4 : variance d’une variable aléatoire prenant un nombre fini de valeurs. Exemple : variance d’une variable aléatoire suivant une loi uniforme, de Bernoulli, binomiale. Théorème 5.5 : variance d’une variable aléatoire suivant une loi géométrique. Théorème 5.6 ; variance d’une variable aléatoire suivant une loi de Poisson. Théorème 5.7 : inégalité de Bienaymé-Tchebytchev. Théorème 5.8 : inégalité de Cauchy-Schwarz. Théorème 5.9 et définition 5.3 : covariance d’un couple de variables aléatoires discrètes réelles. Théorème 5.10 : covariance d’un couple de variable aléatoires discrètes réelles indépendantes. Définition 5.4 et théorème 5.11 : coefficient de corrélation d’un couple de variables aléatoires discrètes

réelles. Théorème 5.12 : variance d’une somme finie de variables aléatoires discrètes réelles. Théorème 5.13 : variance d’une somme de deux variables aléatoires discrètes réelles indépendantes. Théorème 5.14 : loi faible des grands nombres.

6. Fonctions génératrices des variables aléatoires à valeurs dans .

Définition 6.1 : fonction génératrice d’une variable aléatoire à valeurs dans . Théorème 6.1 : rayon de convergence et propriétés d’une fonction génératrice. Remarque : fonction génératrice d’une variable aléatoire prenant un nombre fini de valeurs. Théorème 6.2 : lien réciproque entre fonction génératrice et variable aléatoire. Théorème 6.3 : fonction génératrice d’une variable suivant une loi géométrique. Théorème 6.4 : fonction génératrice d’une variable suivante une loi de Poisson. Théorème 6.5 : (admis) espérance de X et dérivabilité de GX en 1. Théorème 6.6 : (admis) variance de X et dérivabilité seconde de GX en 1. Théorème 6.7 : fonction génératrice d’une somme de deux variables indépendantes à valeurs dans .

7. Annexe 1 : caractéristiques des lois classiques. 8. Annexe 2 : (hors programme) familles sommables de réels.

Définition 8.1 : famille sommable de réels positifs, somme d’une telle famille sommable. Théorème 8.1 : dénombrabilité des éléments non nuls d’une famille sommable de réels positifs. Théorème 8.2 : lien entre famille sommable de réels positifs et série. Théorème 8.3 : opérations sur les familles sommables de réels positifs. Théorème 8.4 : sous-familles d’une famille sommable de réels positifs. Théorème 8.5 : sommation par paquets d’une famille sommable de réels positifs. Définition 8.2 : famille sommable de réels quelconques, somme d’une famille sommable. Théorème 8.6 : définition équivalente de la sommabilité d’une famille de réels. Théorème 8.7 : sommabilité et séries absolument convergentes, convergence commutative. Théorème 8.8 : sous-familles de familles de réels sommables. Théorème 8.9 : linéarité. Théorème 8.10 : sommation par paquets d’une famille sommable de réels. Théorème 8.11 : théorème de Fubini pour les familles sommables de réels.

Page 3: 10 - Variables aléatoires Cours complet - …cpgedupuydelome.fr/IMG/pdf/10_-_variables_aleatoires_cours_comple… · Chapitre 10 : Variables aléatoires – Cours complet. - 3 -

Chapitre 10 : Variables aléatoires – Cours complet. - 3 -

Variables aléatoires. Chapitre 10 : cours complet.

1. Variable aléatoire discrète.

Définition 1.1 : variable aléatoire discrète. Soient (Ω,A) un ensemble muni d’une tribu, et E un ensemble quelconque. On dit que X est une variable aléatoire discrète (ou v.a.d.) sur (Ω,A) (ou sur Ω) à valeurs dans E si et seulement si : • X est une application de Ω dans E, • l’ensemble des valeurs prises par X sur Ω (soit l’ensemble X(Ω)) est au plus dénombrable, • ∀ x ∈ E, X-1(x) ∈ A, autrement dit X-1(x) est un évènement. Pour : x ∈ E, on notera (X = x) ou X = x l’évènement X-1(x).

Théorème 1.1 : image réciproque d’une partie de E. Soient (Ω,A) un ensemble muni d’une tribu et X une variable aléatoire discrète sur Ω à valeurs dans E. Alors : ∀ U ⊂ X(Ω), X-1(U) ∈ A, et donc X-1(U) est un évènement. On notera parfois : X-1(U) = X ∈ U = (X ∈ U).

Démonstration : Puisque X(Ω) est au plus dénombrable, U l’est aussi et on peut énumérer ses éléments : U = xn, n ∈ , où les xn sont deux à deux distincts (la démonstration s’adapte si U est fini).

Puis : U+∞

=

=0n

nxU , et : UU+∞

=

−+∞

=

−− =

=0

1

0

11 )()(n

nn

n xXxXUX .

Comme : ∀ x ∈ X(Ω), X-1(x) ∈ A, et puisque A est une tribu sur Ω, on en déduit que, comme réunion dénombrables d’éléments de A, X-1(U) est encore un élément de A.

Théorème 1.2 : probabilité attachée à une variable aléatoire discrète.

Soient (Ω,A,P) un espace probabilisé et X une variable aléatoire discrète sur Ω à valeurs dans un ensemble E. Alors l’application PX de P(X(Ω)) dans [0,1] définie par : ∀ A ∈ P(X(Ω)), PX(A) = P(X-1(A)), définit une probabilité sur (X(Ω),P(X(Ω))). En particulier, si : x ∈ X(Ω), on notera plus simplement P(X = x) la quantité : P(X = x) = PX(X-1(x)) = P(X = x). De même, si : A ⊂ X(Ω), on notera plus simplement P(X ∈ A) la quantité : P(X ∈ A) = PX(X-1(A)).

Démonstration : Vérifions les différents points qui garantissent le résultat. • PX est bien à valeurs dans [0,1]. • PX(X(Ω)) = P(X-1(X(Ω))) = P(Ω) = 1. • Soit (An) une suite de parties de X(Ω) deux à deux disjointes. Alors les ensembles X-1(An), n ∈ sont deux à deux disjoints, donc la série ∑

0

1 ))((n

nAXP est

convergente et : ∑+∞

=

− =0

11 ))(())((n

nNn

n AXPAXP U .

Mais on a de plus :

=

−UU

Nnn

Nnn AXAX 11 )( , qu’on vérifie par double inclusion.

Donc : ∑∑∞+

=

∞+

=

==

=

=

00

111 )())(()(n

nXn

nNn

nNn

nNn

nX APAXPAXPAXPAP UUU .

Définition 1.2 : loi de probabilité d’une variable aléatoire discrète. Soient (Ω,A,P) un espace probabilisé et X une variable aléatoire discrète sur Ω à valeurs dans E.

Page 4: 10 - Variables aléatoires Cours complet - …cpgedupuydelome.fr/IMG/pdf/10_-_variables_aleatoires_cours_comple… · Chapitre 10 : Variables aléatoires – Cours complet. - 3 -

Chapitre 10 : Variables aléatoires – Cours complet. - 4 -

L’application définie au théorème 1.2 est appelée loi (ou de loi de probabilité) de la variable aléatoire X, et on la note PX.

Théorème 1.3 : système complet induit par une varia ble aléatoire discrète. Soient (Ω,A,P) un espace probabilisé et X une variable aléatoire discrète sur Ω à valeurs dans E. Alors la famille des parties (X = xk, k ∈ ), où (xk) correspond à une énumération de X(Ω), forme un système complet d’événements.

Démonstration : Il est clair que ces ensembles sont deux à deux disjoints (un élément ω de Ω ne peut avoir deux images distinctes par X), et que leur réunion est bien Ω puisque chaque élément ω a une image X(ω) qui se retrouve dans l’énumération.

Théorème 1.4 : caractérisation d’une loi de variabl e aléatoire discrète à l’aide d’événements élémentaires. Soient (Ω,A,P) un espace probabilisé et X une variable aléatoire discrète sur Ω à valeurs dans E. Alors la loi de X est entièrement déterminée par la connaissance des P(X = xk), où (xk) correspond à une énumération de X(Ω).

Démonstration : Si on connaît la loi de X, on connaît évidemment les P(X = xk), k ∈ . Réciproquement si on connaît ces probabilités élémentaires, alors : ∀ A ∈ P(X(Ω)), U

KkkxA

= , où K est une partie de .

Cette réunion étant disjointe, on peut alors écrire : ∑∈∈

====Kk

kKk

kX xXPxXPAP )()()( U .

Donc on peut ainsi déterminer PX(A) pour tout : A ∈ P(Ω). Remarque : si : A ∈ P(E), on peut écrire : A = A’ ∪ A’’, avec : A’ ⊂ X(Ω), et : A’’ ⊂ E \ X(Ω). On peut alors écrire : PX(A) = PX(A’) + 0, et obtenir ainsi PX(A).

Théorème 1.5 : (admis) existence d’une probabilité pour (x n) et (p n) données. Soient (Ω,A) un ensemble muni d’une tribu et X une variable aléatoire discrète sur Ω à valeurs dans un ensemble E. Soient par ailleurs (xn) les valeurs prises par X dans E, et (pn) une suite d’éléments de [0,1] telle que :

10

=∑+∞

=nnp .

Alors il existe une probabilité sur (Ω,A) telle que : ∀ n ∈ , nn pxXP == )( .

Démonstration (hors programme) : X(Ω) étant au plus dénombrable, on écrit : X(Ω) = x0, …, xn, …, et on choisit, pour tout : n ∈ , un élément ωn dans Ω tel que : X(ωn) = xn. Pour tout élément A de A, on note ensuite 1A sa fonction indicatrice définie par : ∀ ω ∈ Ω, 1A(ω) = 1, si : ω ∈ A, et : 1A(ω) = 0, si : ω ∉ A.

Enfin, on définit : ∀ A ∈ A, ∑+∞

=

=0

)(1.)(n

nAnpAP ω , la somme étant finie si X(Ω) est fini.

Alors P répond au problème, car : • P est bien à valeurs dans [0,1] puisque les pn sont positifs et donc :

∀ A ∈ A, 11)(1.)(0000

==≤=≤ ∑∑∑+∞

=

+∞

=

+∞

= nn

nn

nnAn pppAP ω .

• 11)(1.)(000

====Ω ∑∑∑+∞

=

+∞

=

+∞

nn

nn

nnn pppP ω .

• Si (Ap) est une suite d’éléments de A deux à deux disjoints, on a : ∀ ω ∈ Ω, ∑+∞

=

=∞+

=0

)(1)(1

0

pA

Ap

pp

ωωU

.

En effet, pour : ω ∈ Ω, - soit : ∃ p ∈ , ω ∈ Ap, et dans ce cas il n’y a qu’un seul indice p qui a cette propriété car la famille est formée d’ensembles disjoints.

Page 5: 10 - Variables aléatoires Cours complet - …cpgedupuydelome.fr/IMG/pdf/10_-_variables_aleatoires_cours_comple… · Chapitre 10 : Variables aléatoires – Cours complet. - 3 -

Chapitre 10 : Variables aléatoires – Cours complet. - 5 -

On a alors : 1)(1

0

=

∞+

=

ωUp

pA

.

D’autre part, )(1 ωkA sont nuls sauf pour : k = p, et il vaut alors 1.

Donc la série ∑≥0

)(1p

Apω converge et sa somme vaut 1, ce qui démontre l’égalité annoncée.

- soit : ∀ p ∈ , ω ∉ Ap, et dans ce cas la série est nulle, de somme 1 d’une part, mais ω n’appartient pas non plus à la réunion et l’autre terme est nul également d’où à nouveau l’égalité. Pour : n ∈ , la famille ∑

≥≥ 0,0

)(1.pn

nAn pp ω est alors sommable car :

- ∀ n ∈ , la famille ∑≥0

)(1.p

nAn pp ω est sommable de somme 0 ou pn, et : n

pnAn pp

p≤≤∑

≥0

)(1.0 ω .

- la famille ∑ ∑≥ ≥

0 0

)(1.n p

nAn pp ω est sommable car la famille ∑

≥0nnp est elle-même sommable.

Le théorème de Fubini (th. 8.11) permet d’en déduire que la famille : ∑ ∑∑≥ ≥≥

=0 00

)(1.)(p n

nAnp

p ppAP ω , et :

==

=

=

∞+

=

+∞

=

+∞

=

+∞

=

+∞

=

+∞

=

+∞

=∑∑ ∑∑ ∑∑ ∞+

=

UU 000 00 00

)(1.)(1.)(1.)(

0

pp

nn

An

n pnAn

n pnAn

pp APpppAP

pp

ppωωω .

Remarque :

Pratiquement toutes les démonstrations hors programme se réfèrent au paragraphe 8 (familles sommables).

2. Fonction de répartition d’une variable aléatoire discrète, lois classiques.

Définition 2.1 : fonction de répartition d’une vari able aléatoire discrète réelle. Soient (Ω,A,P) un espace probabilisé et X une variable aléatoire discrète réelle sur Ω. On appelle fonction de répartition de X la fonction FX définie sur par : ∀ x ∈ , )()( xXPxFX ≤= .

Remarque :

En fait, la connaissance de Ω est très souvent inutile. En pratique, on se contente souvent de la variable aléatoire X ou de sa loi de probabilité ou encore de sa fonction de répartition FX. Un théorème (difficile) assure que si on se donne une (ou des) « bonne(s) » fonctions, on peut trouver un univers probabilisé et une (ou des) variable(s) aléatoire(s) sur cet univers dont la (les) fonction(s) de répartition est (sont) la (les) fonction(s) donnée(s) initialement.

Définition 2.2 : (hors programme) histogramme d’une variable aléatoire discrète réel le.

Soient (Ω,A,P) un espace probabilisé et X une variable aléatoire discrète réelle sur Ω. Soit (xn)n∈ une énumération ordonnée des valeurs de X (telle que (xn) est croissante). On appelle histogramme de X la représentation (en bâtons ou rectangles) de la suite ordonnée (P(X = xn))n∈.

Théorème 2.1 : propriétés d’une fonction de réparti tion d’une variable aléatoire réelle discrète. Soient (Ω,A,P) un espace probabilisé et X une variable aléatoire discrète réelle sur Ω. Soit F la fonction de répartition de X. Alors : • F est croissante sur , • 1)(lim =

+∞→xF

x,

• 0)(lim =−∞→

xFx

.

Page 6: 10 - Variables aléatoires Cours complet - …cpgedupuydelome.fr/IMG/pdf/10_-_variables_aleatoires_cours_comple… · Chapitre 10 : Variables aléatoires – Cours complet. - 3 -

Chapitre 10 : Variables aléatoires – Cours complet. - 6 -

Démonstration : • Pour : x ≤ y, on a : (-∞,x] ⊂ (-∞,y], et P étant croissante (au sens de l’inclusion), on a : )()()()( yFyXPxXPxF =≤≤≤= .

• F étant croissante et minorée par 0, elle admet une limite en -∞. De plus, soit (xn) une suite décroissante de réels tendant vers -∞.

Alors la suite : An = (-∞,xn], est telle que : I+∞

=0nnA = ∅, puisque (xn) tend vers -∞, et : An+1 ⊂ An.

Donc : 0 = P(∅) = )(lim)(lim)(lim)( nn

nn

nn

Nnn xFxXPAPAP

+∞→+∞→+∞→∈

=≤==I .

Par la caractérisation séquentielle des limites de fonctions, on en déduit que : 0)(lim =−∞→

xFx

.

• La même démonstration, avec cette fois une suite (xn) qui tend vers +∞ et la même suite (An) montre que : 1)(lim =

+∞→xF

x.

exemple 2.1 : variable aléatoire suivant une loi uniforme (tracé ci-dessous fait pour : n = 4).

La fonction de répartition suivant une loi uniforme U(n) sur 0,…,n est donnée par : ∀ x ∈ , • (x < 0) ⇒ (F(x) = 0),

• ∀ 0 ≤ k < n, (k ≤ x < k + 1) ⇒ (F(x) = 1

1

++

n

k),

• (n ≤ x) ⇒ (F(x) = 1).

exemple 2.2 : variable aléatoire suivant une loi de Bernoulli (tracés ci-dessous faits pour : p = 0.7). La fonction de répartition d’une variable suivant une loi de Bernoulli B(p) est donnée par : ∀ x ∈ , • (x < 0) ⇒ (F(x) = 0), • (0 ≤ x < 1) ⇒ (F(x) = p), • (1 ≤ x) ⇒ (F(x) = 1).

Fonction de répartition loi uniforme U(4) Histogramme

Fonction de répartition loi de Bernoulli B(0.7) Histogramme

Page 7: 10 - Variables aléatoires Cours complet - …cpgedupuydelome.fr/IMG/pdf/10_-_variables_aleatoires_cours_comple… · Chapitre 10 : Variables aléatoires – Cours complet. - 3 -

Chapitre 10 : Variables aléatoires – Cours complet. - 7 -

exemple 2.3 : variable aléatoire suivant une loi binomiale (tracés ci-dessous fait pour : (n,p) = (20,0.5), et : (n,p) = (30,0.8)). La fonction de répartition d’une variable suivant une loi binomiale B(n,p) est donnée par : ∀ x ∈ , • (x < 0) ⇒ (F(x) = 0),

• ∀ 0 ≤ k < n, (k ≤ x < k + 1) ⇒ (F(x) = ∑=

−−

k

i

ini ppi

n

0

)1.(. ),

• (n ≤ x) ⇒ (F(x) = 1).

Définition 2.3 : loi géométrique. Soit (Ω,A,P) un espace probabilisé. Soit : p ∈ ]0,1[. On dit qu’une variable aléatoire sur Ω suit la loi géométrique de paramètre p lorsque : • X(Ω) = *, et : • ∀ k ∈ *, 1)1.()( −−== kppkXP .

Une telle loi est notée G(p) et on écrira : X ~ G(p). Remarques :

• La loi géométrique est la loi de la variable aléatoire qui modélise le premier Pile dans une suite infinie de tirages à Pile ou Face indépendants et pour une pièce déséquilibrée (c'est-à-dire telle que obtenir Pile a une probabilité p). En effet, obtenir un premier Pile au tirage k (pour : k ≥ 1) correspond à avoir obtenu des Face aux (k – 1) tirages précédents et un Pile au kième, soit bien : ppkXP k .)1()( 1−−== .

• Un événement quelconque n’a pas de probabilité attribuée par cette méthode (d’ailleurs quel est précisément l’univers de l’expérience ?) et c’est seulement l’événement correspondant à une infinité de Face successifs à qui il semble naturel d’attribuer la probabilité 0. • La loi géométrique est aussi appelée « loi du premier succès ». • La somme des probabilités des événements élémentaires vaut bien :

Fonction de répartition loi binomiale B(20,0.5) Histogramme

Fonction de répartition loi binomiale B(30,0.8) Histogramme

Page 8: 10 - Variables aléatoires Cours complet - …cpgedupuydelome.fr/IMG/pdf/10_-_variables_aleatoires_cours_comple… · Chapitre 10 : Variables aléatoires – Cours complet. - 3 -

Chapitre 10 : Variables aléatoires – Cours complet. - 8 -

1)1(1

1.)1.()(

1

1

1

=−−

=−== ∑∑+∞

=

−+∞

= ppppkXP

k

k

k

.

exemple 2.4 : variable aléatoire suivant une loi géométrique (tracé ci-dessous fait pour : p = 0.25).

La fonction de répartition d’une variable suivant une loi géométrique G(p) est donnée par : ∀ x ∈ , • (x < 1) ⇒ (F(x) = 0),

• ∀ n ∈ *, (n ≤ x < n + 1) ⇒ (F(x) = nn

k

k ppp )1(1)1.(1

1 −−=−∑=

− ).

Théorème 2.2 : loi géométrique ⇔ variable aléatoire discrète sans mémoire. Soit X une variable aléatoire discrète réelle sur un espace probabilisé (Ω,A,P). Si X suit une loi géométrique, alors X est « sans mémoire » à savoir : ∀ (k,l) ∈ *2, )()()( lXPlkXP kX >=+>> .

Réciproquement, si X est à valeurs entières strictement positives, telle que : • ∀ k ∈ *, P(X = k) > 0, et : • ∀ (k,l) ∈ *2, )()()( lXPlkXP kX >=+>> .

alors X suit une loi géométrique. Démonstration :

• Commençons par supposer que X soit la loi géométrique G(p). Alors : ∀ k ∈ *, l’événement X > k est l’union disjointe de (X = i, i > k).

Donc : kk

ki

i pp

ppppkXP )1()1(1

1.)1.()1.()(

1

1 −=−−

−=−=> ∑+∞

+=

− .

Puis : ∀ (k,l) ∈ *2,

)()1()1(

)1(

)(

)(

)(

))()(()(

)(

)( lXPpp

p

kXP

lkXP

kXP

kXlkXPlkXP l

k

lk

kX >=−=−

−=>

+>=>

>∩+>=+>+

> .

• Réciproquement, si X a les propriétés annoncées, notons : P(X = 1) = p.

On a alors : ∀ k ∈ *, )1()(

)1(

)(

))()1(()1()( >=

>+>=

>>∩+>=+>> XP

kXP

kXP

kXP

kXkXPkXP kX .

Or : pXPXPXP −==−=≤−=> 1)1(1)1(1)1( . Donc la suite (P(X > k)) est géométrique de raison (1 – p), et : ∀ k ∈ *, kk pXPpkXP )1()1(.)1()( 1 −=>−=> − .

Enfin : ∀ k ∈ *, 11 )1.()1()1()()1()( −− −=−−−=>−−>== kkk ppppkXPkXPkXP .

X suit donc bien la loi géométrique G(p).

Remarque : • La loi est dite alors « sans mémoire » car la connaissance du résultat des k premiers tirages ne modifie pas les probabilités pour les suivants. Plus précisément, devoir attendre 5 lancers (au moins) pour voir apparaître un Succès a la même probabilité que l’on parte du premier tirage ou du millième tirage sachant qu’on n’a pas obtenu de Succès pour ces mille premiers tirages.

Fonction de répartition loi géométrique G(0.25) Histogramme

Page 9: 10 - Variables aléatoires Cours complet - …cpgedupuydelome.fr/IMG/pdf/10_-_variables_aleatoires_cours_comple… · Chapitre 10 : Variables aléatoires – Cours complet. - 3 -

Chapitre 10 : Variables aléatoires – Cours complet. - 9 -

• On peut noter que l’ensemble Ω n’intervient à aucun moment dans la démonstration précédente, ce qui justifie peu à peu de ne plus le préciser.

Définition 2.4 : loi de Poisson. Soit X une variable aléatoire discrète réelle sur un espace probabilisé (Ω,A,P). On dit que X suit la loi de Poisson de paramètre λ, avec : λ ∈ +*, lorsque : • X(Ω) = ,

• ∀ k ∈ , !

.)(k

ekXPkλλ−== .

Une telle loi est notée P(λ) et on écrira : X ~ P(λ).

Remarque :

Là encore, la somme des probabilités des événements élémentaires donne :

1.!

.!

.)(000

===== −+∞

=

−+∞

=

−+∞

=∑∑∑ λλλλ λλ

eek

ek

ekXPk

k

k

k

k

.

exemple 2.5 : variable aléatoire suivant une loi de Poisson.

La loi de Poisson P(λ) n’a pas de fonction de répartition ayant une forme simple. On peut en revanche comparer des histogrammes pour des valeurs distinctes de λ. (attention, l’échelle en y varie).

Théorème 2.3 : approximation d’une loi binomiale pa r une loi de Poisson. Soit (pn) une suite de réels appartenant à ]0,1[, telle que : λ=

+∞→ nn

pn.lim , avec : λ > 0.

Pour tout : n ∈ , on note Xn une variable aléatoire de loi B(n,pn).

Alors pour tout entier : k ∈ , la suite (P(Xn = k)) tend vers !

.k

ekλλ− .

λ = 0.8 λ = 1.2

λ = 4 λ = 20

Différentes l ois de Poisson P(λ)

Page 10: 10 - Variables aléatoires Cours complet - …cpgedupuydelome.fr/IMG/pdf/10_-_variables_aleatoires_cours_comple… · Chapitre 10 : Variables aléatoires – Cours complet. - 3 -

Chapitre 10 : Variables aléatoires – Cours complet. - 10 -

Démonstration :

En réécrivant la limite supposée, on obtient :

+=n

on

pn

1λ, et donc :

∀ k ∈ , kn

kk

knn

knn n

on

onk

knnnpp

k

nkXP

−−

+−++−−=−

== 1

1.))1(.(1

.!

)1)...(1.()1.(.)(

λλ .

On constate alors que :

• 1)1)...(1.( →+−−

∞+kn

knnn,

• !!

))1((

kk

o kk λλ →+∞+ , et pour n assez grand :

• λλλλ −∞+

+−−=

+−−=

+− en

on

knn

on

knn

on

kn1

).(exp1

1ln).(exp1

1 .

On en déduit le résultat annoncé.

Remarque : Ce résultat s’utilise notamment lorsqu’une variable aléatoire suit une loi binomiale de paramètres n et p avec p « petit devant n ». Dans ce cas, on remplace pour les calculs la loi binomiale (exacte) par la loi de Poisson (approchée) de

paramètre : n

p=λ .

exemple 2.6 :

On considère un grand nombre d’atomes instables (n ≈ 6.023.1023) qui se désintègrent rarement (autrement dit peu de désintégrations pendant une unité de temps). Cette faible modification du nombre d’atomes fait qu’on peut également supposer que le nombre total d’atomes ne change pas durant l’expérience. On suppose enfin que le nombre de désintégrations observées durant un laps de temps ∆t est proportionnel à cette durée, de la forme donc α.∆t. On appelle X le nombre de désintégrations observées durant un laps de temps T donné et on voudrait déterminer la loi de X.

On suppose pour cela que la durée T est divisée en intervalles de durée : n

Tt =∆ , suffisamment courts

pour que la probabilité d’observer deux désintégrations durant cet intervalle est négligeable.

La probabilité d’observer une désintégration durant ∆t est alors égale à : n

Ttnp ..)( αα =∆= .

L’observation sur la durée totale se ramène donc à une succession d’épreuves de Bernoulli, chacune avec une probabilité de succès égale à p(n).

X suit donc une loi binomiale : ∀ 0 ≤ k ≤ n, knk npnpk

nkXP −−

== ))(1.()(.)( .

Si on fait tendre n vers +∞ (et pour des valeurs de k fixées « petites »), on a alors :

!

).(.)( .

k

TekXP

kT αα−≈= .

Remarques :

• Cette loi est aussi appelée « loi des événements rares ». • Elle permet également classiquement de modéliser des situations identiques à celle de l’exemple 2.6 telles que : le nombre de connexion à un serveur web durant un intervalle de temps T, le nombre de clients se présentant à une caisse de supermarché durant T, le nombre de coquilles typographiques dans un texte (cours de probas par exemple).

3. Espérance d’une variable aléatoire discrète.

Page 11: 10 - Variables aléatoires Cours complet - …cpgedupuydelome.fr/IMG/pdf/10_-_variables_aleatoires_cours_comple… · Chapitre 10 : Variables aléatoires – Cours complet. - 3 -

Chapitre 10 : Variables aléatoires – Cours complet. - 11 -

Définition 3.1 : espérance d’une variable aléatoire discrète réelle. Soit X une variable aléatoire discrète réelle prenant un nombre dénombrable de valeurs xk, k ∈ . Si la série ∑

=Nk

kk xXPx )(. converge (ou si la série ∑∈

=Nk

kk xXPx )(. est absolument convergente), on

dit que X admet une espérance.

On note alors : ∑+∞

=

==0

)(.)(k

kk xXPxXE , qu’on appelle espérance de X.

Théorème 3.1 : (admis) ordre des termes pour le calcul d’une espérance. Soit X une variable aléatoire discrète réelle admettant une espérance. L’ordre d’énumération des valeurs prises par X n’a pas d’incidence sur la valeur de E(X).

Démonstration (hors programme) : Puisque la série ∑

=Nk

kk xXPx )(. converge, elle est « commutativement convergente », donc l’ordre

des termes de la série n’influe, ni sur la convergence de celle-ci, ni sur la valeur de la somme obtenue (que ce soit avec ou sans les valeurs absolues), autrement dit une autre énumération des valeurs prises par X conduira à une nouvelle série absolument convergente dont la somme sera identique à la première.

Théorème 3.2 : espérance d’une variable aléatoire d iscrète à valeurs dans . Soit X une variable aléatoire discrète à valeurs dans et admettant une espérance.

Alors : ∑+∞

=

≥=1

)()(k

kXPXE .

Démonstration : Pour k donné dans , on a : ))()(())()(()( kXkXPkXkXPkXP ≠∩≥+=∩≥=≥ , par la formule

des probabilités totales, les événements (X = k, X ≠ k) formant un système complet d’événements. De plus : • )(),( kXPkXkXP ===≥ , et :

• )1(),( +≥=≠≥ kXPkXkXP .

Donc : )1()()( +≥−≥== kXPkXPkXP .

Pour : n ∈ *, on peut alors réécrire la somme partielle :

∑∑∑∑====

+≥−≥=+≥−≥===n

k

n

k

n

k

n

kn kXPkkXPkkXPkXPkkXPkS

0000

)1(.)(.)]1()(.[)(. ,

et en réindexant la deuxième somme :

)1(.)()0(.0)().1()(.1

1

10

+≥−≥+≥=≥−−≥= ∑∑∑=

+

==

nXPnkXPXPkXPkkXPkSn

k

n

k

n

kn .

On sait de plus que (Sn) converge.

Enfin : ∀ n ∈ *, ∀ N ≥ n + 1, ∑∑∑+∞

+=+=+=

=≤=≤==≤≤+111

)(.)(.)(.)1(.nk

N

nk

N

nk

kXPkkXPkkXPnNXnPn .

On constate donc que la suite (n.P(n+1 ≤ X ≤ N)) est convergente, comme suite majorée de sommes partielles d’une série positive. Si maintenant on fait tendre N vers +∞, la suite des événements (n +1 ≤ X ≤ N)N≥n+1, est croissante (au sens de l’inclusion) et a pour limite (réunion) l’événement n+1 ≤ X.

Donc : nnk

NRkXPkNXnPnnXPn ==≤≤≤+=+≥≤ ∑

+∞

+=+∞→1

)(.)1(.lim)1(.0 , où Rn est le reste d’ordre n

de la série (convergente) ∑∈

=Nn

kXPk )(. , et à ce titre (Rn) tend vers 0.

Finalement, on a : ∀ n ≥ 1, )1(.)(1

+≥+=≥∑=

nXPnSkXP n

n

k

, et en faisant tendre n vers +∞, on aboutit

à : )(0)(.)(01

XEkXPkkXPkk

=+==≥ ∑∑+∞

=

+∞

=

.

Page 12: 10 - Variables aléatoires Cours complet - …cpgedupuydelome.fr/IMG/pdf/10_-_variables_aleatoires_cours_comple… · Chapitre 10 : Variables aléatoires – Cours complet. - 3 -

Chapitre 10 : Variables aléatoires – Cours complet. - 12 -

Remarque : On peut en fait montrer qu’une variable aléatoire discrète X à valeurs dans admet une espérance si et seulement si la série )(

1∑

≥k

kXP converge.

On vient de montrer l’implication directe, et pour la réciproque, on a montré dans la première partie que :

∀ n ∈ , ∑∑∑∑+∞

====

≥≤≥≤+≥−≥===1110

)()()1(.)()(.k

n

k

n

k

n

kn kXPkXPnXPnkXPkXPkS .

Donc la suite des sommes partielles de la série positive )(.1∑

=k

kXPk est majorée et cette série est

donc convergente, ce qui termine l’implication annoncée. Théorème 3.3 : (admis) formule du transfert.

Soit X une variable aléatoire discrète sur Ω prenant les valeurs xk, k ∈ , et soit f une fonction définie sur au moins X(Ω) et à valeurs dans . Alors : f(X)= foX, est encore une variable aléatoire discrète. De plus f(X) a une espérance si et seulement si la série ∑

=Nk

kk xXPxf )().( est absolument

convergente et dans ce cas : ∑+∞

=

==0

)().())((k

kk xXPxfXfE .

Démonstration (hors programme) : • foX est bien une application de Ω dans . • De plus, l’ensemble des valeurs prises par X est au plus dénombrable donc l’ensemble des valeurs prises par foX l’est également. • Enfin, soit : y ∈ . Alors on peut écrire f(X) = y comme la réunion disjointe des événements : X = x, x ∈ X(Ω), f(x) = y. Comme l’ensemble des valeurs prises par X est au plus dénombrable, la réunion précédente, restreinte aux x pour lesquels X = x est non vide, est une réunion au plus dénombrable d’événements et est donc un événement. On notera Gy l’ensemble (au plus dénombrable) des valeurs x concernées. On a donc : f(X) = y = U

yGx

xX∈

= , d’où : ∑∈

===yGx

xXPyXfP )())(( .

Mais on peut rajouter à cette somme sans modifier sa valeur, la somme ∑−∈ −

=yGyfx

xXP)(1

)( qui est nulle et

qui correspond à des x de f-1(y) pour lesquels P(X = x) est nulle. On a donc : ∑∑∑

−−− ∈∈∈

=======)()()( 111

)(.)()(.)(.))((.yfxyfxyfx

xXPxfxXPyxXPyyXfPy .

• Le th 8.7 permet d’obtenir la première équivalence : (∑

=Nn

kk xXPxf )().( absolument convergente) ⇔ ( ∑Ω∈

=)(

)().(Xx

xXPxf sommable).

Par ailleurs, X(Ω) s’écrit comme la réunion disjointe : X(Ω) = URy

yf∈

− )(1 , puisque par exemple, tout

élément x dans X(Ω) a bien une image y dans . La propriété de sommation par paquets (th 8.10) permet d’avoir équivalence entre : ( ∑

Ω∈

=)(

)().(Xx

xXPxf sommable) ⇔

(∀ y ∈ , )(1))().((

yfxxXPxf −∈

= est sommable et Ryyfx

xXPxf∈∈

=∑

− )(1

)(.)( est sommable).

Or on sait que : ∀ y ∈ , )(1))().((

yfxxXPxf −∈

= est sommable avec ce qu’on a vu au-dessus.

De plus on a vu que : ∀ y ∈ , ))((.)(.)()(1

yXfPyxXPxfyfx

===∑−∈

.

On aboutit donc à l’équivalence : (∑

=Nk

kk xXPxf )().( absolument convergente) ⇔ ( ( )Ry

yXfPy∈

= ))((. sommable),

Page 13: 10 - Variables aléatoires Cours complet - …cpgedupuydelome.fr/IMG/pdf/10_-_variables_aleatoires_cours_comple… · Chapitre 10 : Variables aléatoires – Cours complet. - 3 -

Chapitre 10 : Variables aléatoires – Cours complet. - 13 -

et cette deuxième partie correspond bien au fait que f(X) admet une espérance. • Enfin la sommation par paquets permet également d’affirmer dans ce cas que :

∑∑ ∑∑Ω∈∈ ∈∈

==

====

− )()(

)().()().())((.))((1 XxRy yfxRy

xXPxfxXPxfyXfPyXfE , puis en terminant par le

lien entre famille sommable et série (th 8.7) : ∑+∞

=

==0

)().())((k

kk xXPxfXfE .

Théorème 3.4 : (admis) linéarité de l’espérance.

Soient X et Y des variables aléatoires discrètes réelles admettant une espérance et soit : (α,β) ∈ 2. Alors (α.X + β.Y) est une variable aléatoire discrète admettant une espérance et : )(.)(.)..( YEXEYXE βαβα +=+ .

Démonstration (hors programme) : • Il est à peu près immédiat que si X admet une espérance, alors pour tout réel α, α.X admet également une espérance. En effet, si : α ≠ 0, on a : ∀ k ∈ , P(X = xk) = P(α.X = α.xk), d’où le fait que si la série ∑

=Nn

kk xXPx )(.

est absolument convergente, la série ∑∈

=Nn

kk xXPx )..(.. ααα l’est aussi.

• Considérons maintenant deux variables aléatoires X et Y, et notons : xi, i ∈ I, yj, j ∈ J les ensembles de valeurs (au plus dénombrables) que prennent X et Y. Les ensembles X-1(xi), i ∈ I et Y-1(yj), j ∈ J forment séparément des partitions au plus dénombrables de Ω. Notons ensuite : Z = X + Y, puis : ∀ (i,j) ∈ I×J, zi,j = xi + yj, et : ∆i,j = X-1(xi) ∩ Y-1(yj). Alors ∆i,j, (i,j) ∈ I×J forme une partition au plus dénombrable de Ω (dont certains ensembles peuvent être vides). De plus : ∀ (i,j) ∈ I×J, ∀ ω ∈ ∆i,j, Z(ω) = X(ω) + Y(ω) = xi + yj = zi,j. On va démontrer que la famille ( )(. ,, jiji zZPz = )i,j∈I×J est sommable et qu’ainsi, on peut regrouper les zi,j

qui sont égaux pour finalement obtenir que Z admet une espérance.

Or : ∀ (i,j) ∈ I×J, jiji yxz +≤, , et ∆i,j, j ∈ J forme une partition de X-1(xi), pour tout : i ∈ I.

De plus pour tout i fixé dans I, la famille ( ))()((. iji xXyYPx =∩= )j∈J est sommable puisque :

∑∈

=∩===Jj

iji xXyYPxXP ))()(()( ,

et le produit par xi (constant) ou |xi| ne modifie pas cette sommabilité.

De plus la famille IiJj

iji xXyYPx∈∈

=∩=∑ ))()((. , est encore sommable puisqu’elle correspond à

( )Iiii xXPx

∈= )(. , et cette famille est sommable puisque X admet une espérance.

Donc le th 8.11 permet d’affirmer que la famille ( )JIjiiji xXyYPx

×∈=∩=

),())()((. est sommable.

De même la famille ( )JIjiiji xXyYPy

×∈=∩=

),())()((. est sommable ainsi que la somme de ces deux

familles qui donne ( )JIjijiji Pz

×∈∆

),(,, )(. .

Si l’on regroupe maintenant (par paquets) les termes zi,j qui sont égaux, on constate que la somme de la

dernière famille vaut : )()(.)(.)(.)()( ,),(

,,),(

,,

,

ZEzZPzPzPzZzZz zzJIji

jijiJIji

jiji

ji

===

∆=∆ ∑∑ ∑∑

Ω∈Ω∈ =×∈×∈

.

En effet, pour z fixé, les ensembles ∆i,j, (i,j) ∈ I×J, zi,j = z sont deux à deux disjoints et leur réunion donne Z = z, donc la formule des probabilités totales conduit à : )()(

,,),(, zZPP

zzJIjiji

ji

==∆∑=×∈

.

Mais d’autre part : ∑∑∑×∈×∈×∈

∆+∆=∆JIji

jijJIji

jiiJIji

jiji PyPxPz),(

,),(

,),(

,, )(.)(.)(. ,

et là encore en regroupant par paquets, on obtient par exemple :

Page 14: 10 - Variables aléatoires Cours complet - …cpgedupuydelome.fr/IMG/pdf/10_-_variables_aleatoires_cours_comple… · Chapitre 10 : Variables aléatoires – Cours complet. - 3 -

Chapitre 10 : Variables aléatoires – Cours complet. - 14 -

)()(.)(.)(.)(. ,,),(

, XExXPxPxPxPxIi

iiIi Jj

jiiIi Jj

jiiJIji

jii ===

∆=

∆=∆ ∑∑ ∑∑ ∑∑

∈∈ ∈∈ ∈×∈.

Avec un résultat similaire pour Y, on conclut bien que : )()()( YEXEZE += .

• La linéarité de l’espérance se déduit des deux propriétés ainsi démontrées.

Théorème 3.5 : premières propriétés de l’espérance. Soient X et Y des variables aléatoires discrètes réelles. • Si X est presque sûrement égale à une constante a (c'est-à-dire telle que : 1)( == aXP ), alors X admet une espérance et : E(X) = a. • Si X est à valeurs positives et admet une espérance, alors : 0)( ≥XE .

• Si X est à valeurs positives presque sûrement (c'est-à-dire telle que : 1)0( =≥XP ), admet une espérance et si : E(X) = 0, alors : X = 0, presque sûrement. • Si X et Y admettent toutes deux une espérance et vérifient : X ≤ Y, alors : E(X) ≤ E(Y). • X admet une espérance si et seulement si |X| en admet une et : )()( XEXE ≤ .

Démonstration : • Si : 1)( == aXP , alors : ∀ x’ ≠ a, x’ ∈ X(Ω), 0)(1)()'(0 ==−=≠≤=≤ aXPaXPxXP .

Donc : aaxXPxaXPaxXPxXEaxk

kk ===+==== ∑∑≠

+∞

=

1.)'('.)(.)(.)('0

.

• Si (xk) est une énumération des valeurs prises par X alors : ∀ k a , xk ≥ 0. Si de plus X admet une espérance alors la série ∑

=Nk

kk xXPx )(. converge, et étant à termes positifs,

sa somme, qui est E(X), est positive. • Notons xk les valeurs prises par X (qui sont donc des réels positifs).

Alors : 0)(.)(0

===∑+∞

=kkk xXPxXE , et comme somme d’une série à termes positifs, tous ses termes

sont nuls. Mais alors : ∀ k ∈ , (xk ≠ 0) ⇒ ( 0)( == kxXP ), et donc : 1)0(1)0( =≠−== XPXP .

• Il suffit de dire que par linéarité, Y – X admet une espérance qui est positive d’après le point précédent, et qui vaut : )()()( XEYEXYE −=− , d’où le résultat.

• Pour le dernier point on commence par utiliser la formule du transfert (th. 3.3) avec la fonction f égale à la valeur absolue.

On constate que |X| a une espérance car ∑∈

=Nk

kk xXPx )(. converge, et : ∑+∞

===

0

)(.)(k

kk xXPxXE .

De plus, pour une série réelle absolument convergente ∑≥0n

na , on sait que : ∑∑+∞

=

+∞

=

≤00 n

nn

n aa .

Appliquée ici, cette inégalité donne : )()(.)(.)(00

XExXPxxXPxXEk

kkk

kk ==≤== ∑∑+∞

=

+∞

=

.

Théorème 3.6 : espérance d’une variable aléatoire s uivant une loi géométrique G(p). Soit X une variable aléatoire suivant une loi géométrique G(p), avec : p ∈ ]0,1[.

Alors X admet une espérance et : p

XE1

)( = .

Démonstration :

En effet la série ∑≥

−−1

1)1.(.k

kppk est absolument convergente puisque :

=− −2

1 1)1.(.

koppk k , en +∞

avec le théorème des croissances comparées (et : p ∈ ]0,1[, donc : (1 – p) ∈ ]0,1[).

Puis : pp

ppkpppkk

k

k

k 1

))1(1(

1.)1.(.)1.(.

21

1

1

1 =−−

=−=− ∑∑+∞

=

−+∞

=

− .

On utilise pour cela la dérivée de la série entière :

Page 15: 10 - Variables aléatoires Cours complet - …cpgedupuydelome.fr/IMG/pdf/10_-_variables_aleatoires_cours_comple… · Chapitre 10 : Variables aléatoires – Cours complet. - 3 -

Chapitre 10 : Variables aléatoires – Cours complet. - 15 -

∀ x ∈ ]-1,+1[, ∑+∞

=

=− 01

1

n

nxx

, et : ∑+∞

=

−=− 1

12

.)1(

1

n

nxnx

.

Théorème 3.7 : espérance d’une variable aléatoire s uivant une loi de Poisson P(λ). Soit X une variable aléatoire suivant une loi de Poisson P(λ), avec : λ > 0. Alors X admet une espérance, et : λ=)(XE .

Démonstration :

En effet, la série ∑≥

1 !..

k

k

kek

λλ est absolument convergente puisque :

=−2

1

!..

ko

kek

kλλ , en +∞, toujours

avec le théorème des croissances comparées.

Puis : λλλλλ λλλλλ ===−

= −+∞

=

+−

+∞

=

−+∞

=

− ∑∑∑ eek

ek

ek

ekk

k

k

k

k

k

..!

.)!1(

.!

..0

1

11

.

Théorème 3.8 : espérance d’une variable aléatoire p renant un nombre fini de valeurs.

Soit X une variable aléatoire prenant un nombre fini de valeurs. Alors X admet une espérance.

Démonstration : Puisque X ne prend qu’un nombre fini de valeurs, la série ∑

=Nk

kk xXPx )(. est nulle à partir d’un certain

rang et donc est absolument convergente.

Rappel :

• Si X suit la loi uniforme U(n), alors : 2

1

2

)1.(.

1.

1)(

1

+=+==∑=

nnn

nk

nXE

n

k

.

• Si X suit la loi de Bernoulli B(p), alors : pppXE =+−= .1)1.(0)( .

• Si X suit la loi binomiale B(n,p), alors :

pnpppnppk

nnpp

k

nkXE n

n

k

knkn

k

knk .)1.(.)1.(.1

1.)1.(..)( 1

10

=−+=−

−−

=−

= −

=

=

− ∑∑ .

Remarque :

Puisqu’une loi binomiale B(n,p) est la loi du nombre de succès dans la répétition n fois d’une épreuve de Bernoulli de loi B(p), on peut écrire : X = X1 + … + Xn, où X est la variable suivant la loi binomiale et les Xk les variables aléatoires (indépendantes) décrivant chaque expérience de Bernoulli.

Donc : pnXEXEn

kk .)()(

1

==∑=

.

Théorème 3.9 : inégalité de Markov.

Soit X une variable aléatoire discrète réelle positive admettant une espérance.

Alors : ∀ a ≥ 0, )()(. XEaXPa ≤≥ , ou si : a > 0, a

XEaXP

)()( ≤≥ .

Démonstration : Soit : a ≥ 0, fixé. Notons xk, k ∈ une énumération des valeurs prises par X, K+ l’ensemble des indices k tels que : xk ≥ a, et pour un entier n donné Kn

+ les indices : 0 ≤ k ≤ n, dans K+.

Alors : ∀ n ∈ , )()(.)(.)(.00

XExXPxxXPxxXPxk

kk

n

kkk

Kkkk

n

==≤=≤= ∑∑∑+∞

==∈ +

.

Puis : ∀ k ∈ Kn+, )(.)(. kkk xXPxxXPa =≤= , d’où : ∀ n ∈ , )()(. XExXPa

nKkk ≤=∑

+∈

.

Enfin on a : U UUNn Kk

kKk

k

n

xXxXaX∈ ∈∈

====≥

++

, puisque : UNn

nKK∈

++ = .

Donc X ≥ a est la réunion (croissante) des ensembles ci-dessus et :

Page 16: 10 - Variables aléatoires Cours complet - …cpgedupuydelome.fr/IMG/pdf/10_-_variables_aleatoires_cours_comple… · Chapitre 10 : Variables aléatoires – Cours complet. - 3 -

Chapitre 10 : Variables aléatoires – Cours complet. - 16 -

∑++ ∈∈

==

=

nn Kkk

Kkk xXPxXP )(U , puisque les événements sont indépendants.

Finalement : )()(.lim)(. XExXPaaXPanKk

kn

≤==≥ ∑+∈

+∞→.

On aurait pu également signaler que la suite des sommes partielles est croissante et majorée donc convergente.

4. Couple et famille finie de variables aléatoires, indépendance. Théorème 4.1 et définition 4.1 : couple de variables aléatoires discrètes.

Soient X et Y des variables aléatoires discrètes sur un espace probabilisé (Ω,A,P) à valeurs dans deux ensembles E et F. L’application X définie de Ω dans E×F par : ∀ ω ∈ Ω, Z(ω) = (X(ω),Y(ω)), est une variable aléatoire discrète sur Ω. On note alors : Z = (X,Y).

Démonstration : Z est bien une application de Ω dans E×F. De plus l’image Z(Ω) est : Z(Ω) = (X(ω),Y(ω)), ω ∈ Ω, est incluse dans X(Ω)×Y(Ω), et puisque X(Ω) et Y(Ω) sont dénombrables, le produit cartésien X(Ω)×Y(Ω) l’est aussi, tout comme Z(Ω). Enfin : ∀ (x,y) ∈ X(Ω)×Y(Ω), Z-1((x,y)) = X-1(x) ∩ Y-1(y), et comme X-1(x) et Y-1(y) sont des événements, Z-1((x,y)) en est un aussi.

Définition 4.2 : loi conjointe et lois marginales d ’un couple de variables aléatoires discrètes.

Soient X et Y des variables aléatoires discrètes sur un espace probabilisé (Ω,A,P) à valeurs dans deux ensembles E et F et soit : Z = (X,Y), le couple défini par X et Y. On appelle loi conjointe du couple la loi de Z, et lois marginales du couple les lois de X et de Y appelée aussi « loi marginale en X » et « loi marginale en Y ».

Théorème 4.2 : lien entre loi conjointe et lois mar ginales d’un couple de variables aléatoires. Soient X, Y des variables aléatoires discrètes sur un espace probabilisé (Ω,A,P) à valeurs dans E et F. La connaissance de la loi conjointe du couple (X,Y) entraîne celle des lois marginales. La réciproque est fausse autrement dit connaître les lois marginales ne suffit pas pour connaître la loi conjointe.

Démonstration : Soit : x ∈ X(Ω). Alors : ∀ ω ∈ Ω, (X(ω) = x) ⇔ (∃ y ∈ Y(Ω), (X(ω),Y(ω)) = (x,y)). Donc : X = x = (X,Y) = (x,y), y ∈ F = x×F, d’où : )()),(()()( FxPFxYXPxXPxP ZX ×=×∈=== . Et donc la probabilité PZ étant supposée connue, la probabilité PX est connue d’après le théorème 1.4. De même : ∀ y ∈ Y(Ω), )()( yEPyP ZY ×= , et on en déduit PY.

Définition 4.3 : lois conditionnelles. Soient X, Y des variables aléatoires discrètes sur un espace probabilisé (Ω,A,P) à valeurs dans E et F. Pour : y ∈ Y(Ω), tel que Y = y ne soit pas négligeable ( 0)( >= yYP ), on définit la loi conditionnelle de

X sachant Y = y par : ∀ x ∈ X(Ω), )(

))()(()()( yYP

yYxXPxXP yY =

=∩==== ,

et plus généralement : ∀ A ⊂ X(Ω), )(

))()(()()( yYP

yYAXPAXP yY =

=∩∈=∈= .

De même, pour : x ∈ X(Ω), tel que X = x ne soit pas négligeable ( 0)( >= xXP ), on définit la loi

conditionnelle de Y sachant X = x par : ∀ y ∈ Y(Ω), )(

))()(()()( xXP

yYxXPyYP xX =

=∩==== .

Page 17: 10 - Variables aléatoires Cours complet - …cpgedupuydelome.fr/IMG/pdf/10_-_variables_aleatoires_cours_comple… · Chapitre 10 : Variables aléatoires – Cours complet. - 3 -

Chapitre 10 : Variables aléatoires – Cours complet. - 17 -

Théorème 4.3 : lien entre loi conjointe, loi margin ale et loi conditionnelle. Soit (Ω,A,P) un ensemble probabilisé. Soient X et Y des variables aléatoires discrètes de Ω dans E et F. La loi de X d’une part et pour tout : x ∈ X(Ω), tel que X = x soit non négligeable, la loi de Y sachant X = x d’autre part, déterminent entièrement la loi conjointe du couple (X,Y).

Démonstration : Ce résultat est immédiat puisque : ∀ (x,y) ∈ X(Ω)×Y(Ω),

• si : P(X = x) > 0, alors :)(

))()(()(( xXP

yYxXPyYP xàX =

=∩==== , donc :

)().())()(( xXPxXyYPyYxXP =====∩= ,

• si : P(X = x) = 0, alors : (X,Y) = (x,y) ⊂ X = x, et donc : )().())()((0)),(),(( )( xXPyYPyYxXPyxYXP xX ====∩==== = .

En connaissant la probabilité de (X,Y) sur les événements élémentaires, on en déduit la loi de probabilité de (X,Y).

Définition 4.4 : couple de variables aléatoires ind épendantes. Soit (Ω,A,P) un ensemble probabilisé. Soient X et Y des variables aléatoires discrètes de Ω dans E et F. On dit que X et Y sont indépendantes lorsque : ∀ (x,y) ∈ X(Ω)×Y(Ω), )().())()(( yYPxXPyYxXP ====∩= ,

ou encore lorsque : ∀ (x,y) ∈ X(Ω)×Y(Ω), X = x et Y = y sont indépendants.

Théorème 4.4 : (admis) indépendance et événements non élémentaires. Soit (Ω,A,P) un ensemble probabilisé. Soient X et Y des variables aléatoires discrètes de Ω dans E et F. Si X et Y sont indépendantes, alors : ∀ A ⊂ X(Ω), ∀ B ⊂ Y(Ω), )().())()(( BYPAXPBYAXP ∈∈=∈∩∈ .

Démonstration (hors programme) : A et B étant au plus dénombrables, on peut noter : A = xk, k ∈ K, et : B = yl, l ∈ L. Puis (X ∈ A)∩(Y ∈ B) est la réunion disjointe de (X = xk)∩(Y = yl), avec : (k,l) ∈ K×L. Or la famille LKlklk yYxXP ×∈=∩= ),()))()((( est sommable.

En effet, elle est à termes positifs et : • ∀ (k,l) ∈ K×L, )().())()(( lklk yYPxXPyYxXP ====∩= ,

• pour tout : k ∈ K, la famille Lllk yYPxXP ∈== ))().(( est sommable de somme :

∀ k ∈ K, )().()().()().( BYPxXPyYPxXPyYPxXP kLl

lkLl

lk ∈======= ∑∑∈∈

,

• la famille Kkk BYPxXP ∈∈= ))().(( est sommable de somme :

)().()().()().( BYPAXPxXPBYPBYPxXPKk

kKk

k ∈∈==∈=∈= ∑∑∈∈

.

La famille LKlklk yYxXP ×∈=∩= ),()))()((( étant sommable (th 8.10) on peut écrire :

∑ ∑∑∈ ∈×∈

====∩==∈∩∈Kk Ll

lkLKlk

lk yYPxXPyYxXPBYAXP )().()))()((())()((),(

,

soit finalement : )().())()(( BYPAXPBYAXP ∈∈=∈∩∈ .

Théorème 4.5 : (admis) espérance d’un produit de variables aléatoires disc rètes indépendantes. Soit (Ω,A,P) un ensemble probabilisé. Soient X et Y des variables aléatoires discrètes réelles sur Ω admettant une espérance. Alors X.Y admet une espérance et si X et Y sont indépendantes, on a : )().().( YEXEYXE = .

Démonstration (hors programme) : Soient (xj) une énumération des valeurs prises par X et (yk) une énumération des valeurs prises par Y. Notons par ailleurs : ∀ (j,k) ∈ 2, )( jj xXPq == , )( kk yYPr == , et : kjkjkj rqyYxXPp .),(, ==== .

Page 18: 10 - Variables aléatoires Cours complet - …cpgedupuydelome.fr/IMG/pdf/10_-_variables_aleatoires_cours_comple… · Chapitre 10 : Variables aléatoires – Cours complet. - 3 -

Chapitre 10 : Variables aléatoires – Cours complet. - 18 -

Le dernier point vient de l’indépendance de X et de Y. Si X ou Y ne prend qu’un nombre fini de valeurs, on remplace par un ensemble fini d’indices. Alors la série double ∑

≥0,,..

kjkjkj pyx est absolument convergente d’après le théorème de Fubini (th. 8.10).

En effet : ∀ j ∈ , la série ∑≥0

,..k

kjkj pyx converge car : ∀ j ∈ , ( ) kkjjkjkj ryqxpyx ..... , = , qui est à

une constante multiplicative près le terme général de la série (convergente) ∑∈

=Nn

kk yYPy )(. .

Puis la série des sommes ainsi obtenue est ( ) ( )∑∑≥≥

=00

.).()(..j

jjj

jj qxYEYEqx , qui est encore

convergente, cette fois en référence à l’existence d’une espérance pour X. Donc la série double converge, X.Y admet une espérance et le théorème de Fubini permet d’écrire :

)().(...).).(.(..).(000 00 0

, YEXEryqxryqxpyxYXEk

kkj

jjj k

kkjjj k

kjkj =

=

=

= ∑∑∑ ∑∑ ∑+∞

=

+∞

=

+∞

=

+∞

=

+∞

=

+∞

=.

Théorème 4.6 : images de deux variables aléatoires discrètes indépendantes. Soit (Ω,A,P) un ensemble probabilisé. Soient X et Y des variables aléatoires discrètes indépendantes de Ω dans E et F. Soient f et g des fonctions de E dans E’ et F dans F’ respectivement. Alors f(X) et g(Y) sont des variables aléatoires de Ω dans E’ et F’ indépendantes.

Démonstration : Pour : (x,y) ∈ X(Ω)×Y(Ω), on a : f(X) = x = X ∈ f-1(x), et : g(Y) = y = Y ∈ g-1(y), (images réciproques). Donc : ))(()).(()))(())((()))(())((( 1111 ygYPxfXPygYxfXPBYgAXfP −−−− ∈∈=∈∩∈=∈∩∈ , la dernière égalité venant du fait que les variables X et Y sont indépendantes. On termine avec : ))(())(( 1 xXfPxfXP ==∈ − , et : ))(())(( 1 yYgPygYP ==∈ − , soit finalement :

))(().)(()))(())((( yYgPxXfPyYgxXfP ====∩= , autrement dit, les variables f(X) et g(Y) sont indépendantes.

Définition 4.5 : famille finie de variables aléatoi res discrètes mutuellement indépendantes.

Soit (Ω,A,P) un ensemble probabilisé. Soient X1, …, Xn des variables aléatoires discrètes de Ω dans E1, …, En. On dit que les variables aléatoires X1, …, Xn sont mutuellement indépendantes lorsque :

∀ (Ai)1≤i≤n ∈ P(X1(Ω))×…×P(Xn(Ω)), ∏==

∈=

n

iii

n

iii AXPAXP

11

)(I .

Remarque :

Comme dans le cas discret, on a également le résultat suivant : Si X1, …, Xn sont des variables aléatoires discrètes de (Ω,A,P) dans E1, …, En, alors X1, …,Xn sont mutuellement indépendantes si et seulement si : ∀ (x1, …, xn) ∈ X1(Ω)×…×Xn(Ω), )()...())(...)(( 1111 nnnn xXPxXPxXxXP ====∩∩= .

Définition 4.6 : suite de variables aléatoires disc rètes mutuellement indépendantes.

Soit (Ω,A,P) un ensemble probabilisé. Soit (Xn) une suite de variables aléatoires discrètes de Ω dans des ensembles (En). Les variables sont dites mutuellement indépendantes lorsque toute sous-famille finie extraite de cette suite est une famille de variables aléatoires mutuellement indépendantes.

Théorème 4.7 : (admis) existence d’un modèle pour des lois de probabilité données. Soit (Pn)n∈ une suite de probabilités sur telle que : ∀ n ∈ , ∃ Sn ⊂ , Sn au plus dénombrable, Pn(Sn) = 1.

Page 19: 10 - Variables aléatoires Cours complet - …cpgedupuydelome.fr/IMG/pdf/10_-_variables_aleatoires_cours_comple… · Chapitre 10 : Variables aléatoires – Cours complet. - 3 -

Chapitre 10 : Variables aléatoires – Cours complet. - 19 -

Alors il existe un espace probabilisé (Ω,T,P), et une suite de variable aléatoires discrètes réelles (Xn)n∈ définies sur Ω et mutuellement indépendantes, tels que chaque variable aléatoire Xn suit la loi Pn.

Démonstration : là c’est vraiment hors programme. exemple 4.1 :

Soit une infinité de lancers d’une pièce suivant chacun une loi de Bernoulli B(pn). Alors il existe un espace probabilisé (Ω,T, P) qu’on ne détaille pas et une suite de variables aléatoires mutuellement indépendantes (Xn)n∈*, tels que chaque variable Xn suit la loi B(pn). Chaque loi Xn représente le résultat du nième lancer de la pièce. L’ensemble Ω peut être vu comme la suite : ω = (ω1, …, ωn, …), des résultats possibles issus d’une infinité de lancers de la pièce, autrement dit : ∀ n ∈ *, ωn vaut Pile ou Face (ou : 1 = Pile, et : 0 = Face). Plus simplement encore, l’ensemble Ω est la structure mathématique qui permet d’envisager simultanément et proprement l’ensemble des lancers, alors que l’approche initiale ne permet que de les envisager séparément les uns des autres. C’est ce théorème qui permet la généralisation de ce qu’on avait fait lorsqu’on avait pensé deux lancers successifs (et indépendants) de la même pièce puisque alors, on avait travaillé dans : Ω = (P,P), (P,F), (F,P), (F,F), soit l’ensemble des résultats possibles des deux lancers, envisagés dans leur globalité.

Imaginons maintenant une infinité de lancers d’une Pièce équilibrée (soit : ∀ n ∈ *, 2

1=np ).

En pratique : • l’événement « le premier tirage donne Pile » s’écrira X1 = 1 et aura pour probabilité :

P(« le premier tirage donne Pile ») = 2

1)1()1( 111 ==== XPXP .

• « les deux premiers tirages donnent Face » s’écrira X1 = 0 ∩ X2 = 0, et aura pour probabilité : P(« les deux premiers tirages donnent Face ») = ))0()0(( 21 =∩= XXP , et par indépendance des variables :

P(« les deux premiers tirages donnent Face ») = 4

1

2

1.

2

1)0().0( 2211 ==== XPXP .

• « on obtient que des Face » s’écrira : I+∞

=

==1

0n

nXA .

Pour calculer sa probabilité, on peut poser : ∀ n ∈ *, In

kkn XA

1

0=

== , la suite des (An) est

décroissante pour l’inclusion et : 02

1lim)(lim)( ===

+∞→+∞→ nnn

nAPAP , toujours par indépendance des

variables aléatoires. Ceci justifie ce qu’on avait considéré à savoir que l’événement « n’obtenir que des Face » était négligeable puisque de probabilité nulle.

Théorème 4.8 : somme de deux variables aléatoires i ndépendantes suivant une loi de Poisson. Soient X et Y deux variables aléatoires suivantes des lois de Poisson P(λ) et P(µ), avec : λ > 0, µ > 0. Alors (X + Y) est une variable aléatoire qui suit la loi de Poisson P(λ + µ).

Démonstration : Puisque X et Y sont définies de Ω dans alors : Z = X+Y, est définie de Ω dans et l’ensemble des valeurs prises par Z est au plus dénombrable. Puis : ∀ n ∈ Z(Ω), Z = n est la réunion disjointe (et en fait finie) :

UUn

kNk

knYkXknYkXnZ0=∈

−=∩==−=∩=== .

Donc : ∑∑∑=

−−−

== −=−===−=∩===

n

k

knkn

k

n

k kne

keknYPkXPknYkXPzZP

000 )!(..

!.)().())()(()(

µλ µλ .

On reconnaît la formule du binôme et :

Page 20: 10 - Variables aléatoires Cours complet - …cpgedupuydelome.fr/IMG/pdf/10_-_variables_aleatoires_cours_comple… · Chapitre 10 : Variables aléatoires – Cours complet. - 3 -

Chapitre 10 : Variables aléatoires – Cours complet. - 20 -

!

)(....

!..

)!!.(

!.

!)( )(

00 ne

k

n

n

e

knk

n

n

ezZP

nn

k

knkn

k

knk µλµλµλ µλµλµλ +=

=

−== +−

=

−−−

=

−−−

∑∑ .

Z suit bien une loi de Poisson de paramètre (λ+µ).

5. Variance et covariance. Théorème 5.1 : lien entre espérance de X et de X 2.

Soit X une variable aléatoire discrète réelle. Si X2 admet une espérance, alors X admet une espérance.

Démonstration : On a dans l’inégalité : ∀ x ∈ , 21 xx +≤ .

Notons maintenant xk, k ∈ une énumération des valeurs prises par X.

Alors : ∀ n ∈ , ∑∑∑===

=+=≤==n

kkk

n

kk

n

kkkn xXPxxXPxXPxS

0

2

00

)(.)()(. .

Or : ∀ n ∈ , 1))((),...,()( 000

=Ω≤∈=

=====

∑ XPxxXPxXPxXP n

n

kk

n

kk U , et :

∀ n ∈ , )()(. 2

0

2 XExXPxn

kkk ≤=∑

=

.

Donc la suite des sommes partielles (Sn) est majorée et la série ∑∈

=Nk

kk xXPx )(. converge.

Conclusion : X admet bien une espérance.

Définition 5.1 : variance d’une variable aléatoire discrète réelle. Soit X une variable aléatoire discrète réelle telle que X2 admet une espérance. On appelle variance de X le réel : 22 )()()( XEXEXV −= .

Théorème 5.2 : autre expression de la variance. Soit X une variable aléatoire discrète réelle telle que X2 admet une espérance. Alors : )))((()( 2XEXEXV −= .

Démonstration : On peut développer, et utiliser les propriétés de l’espérance établies au paragraphe 3, en notant que les trois variables aléatoires X2, X et la constante E(X)2 ont toutes une espérance. Puis : 22222 )()().(.2)())()(..2()))((( XEXEXEXEXEXEXXEXEXE +−=+−=− .

D’où : )()()()))((( 222 XVXEXEXEXE =−=− .

Remarque : Il est équivalent de dire « X admet une variance » et « X2 admet une espérance » dans la mesure où la première proposition sous-entend que X admet au moins une espérance. Dans ce cas V(X) existe si et seulement si E(X2) existe.

Théorème 5.3 : propriétés élémentaires de la varian ce.

Soit X une variable aléatoire discrète réelle admettant une variance. Alors : • 0)( ≥XV ,

• ∀ a ∈ , a.X admet une variance et : )(.).( 2 XVaXaV = ,

• ∀ b ∈ , (X + b) admet une variance et : )()( XVbXV =+ ,

• ∀ (a,b) ∈ 2, (a.X + b) admet une variance et : )(.).( 2 XVabXaV =+ .

Démonstration : • Il suffit de dire que (X – E(X))2 est une variable aléatoire positive donc d’espérance positive. • Pour : a ∈ , la variable aléatoire (a.X)2 a une espérance d’après le théorème 3.4, et on a : )(.))()(.().().().( 2222222 XVaXEXEaXaEXaEXaV =−=−= .

Page 21: 10 - Variables aléatoires Cours complet - …cpgedupuydelome.fr/IMG/pdf/10_-_variables_aleatoires_cours_comple… · Chapitre 10 : Variables aléatoires – Cours complet. - 3 -

Chapitre 10 : Variables aléatoires – Cours complet. - 21 -

• Pour : b ∈ , les variables aléatoires X2, X et la variable constante b ont une espérance et on a : 22222 ))(()..2()())(()( bXEbXbXEbXEbXEbXV +−++=+−+=+ , d’où :

)()()())(..2)(()(..2)()( 222222 XVXEXEbXEbXEbXEbXEbXV =−=++−++=+ .

• Le quatrième point est la combinaison des points 2 et 3.

Définition 5.2 : écart-type d’une variable aléatoir e discrète réelle. Soit X une variable aléatoire discrète réelle admettant un moment d’ordre 2.

L’écart-type de X est défini par : 22 )()()()( XEXEXVX −==σ .

Théorème 5.4 : variance d’une variable aléatoire ne prenant qu’un nombre fini de valeurs.

Soit X une variable aléatoire réelle ne prenant qu’un nombre fini de valeurs. Alors X admet une variance.

Démonstration : Comme pour l’espérance de X dans ce cas, X2 admet une espérance et donc X admet une variance.

Théorème 5.5 : variance d’une variable aléatoire su ivant une loi géométrique.

Soit X une variable aléatoire discrète réelle suivant la loi G(p), avec : p ∈ ]0,1[.

Alors X admet une variance et : 2

1)(

p

pXV

−= .

Démonstration :

La série ∑≥

−−1

12 )1.(.k

kppk est absolument convergente puisque :

=− ∞+−

212 1

)1.(.k

oppk k , avec le

théorème des croissances comparées (et : p ∈ ]0,1[). Donc X2 admet une espérance et X admet une variance.

Puis : ∑∑∑+∞

=

−+∞

=

−+∞

=

− −+−−−=−1

1

2

2

1

12 )1.(.)1).(1.().1.()1.(.k

k

k

k

k

k pkppkkppppk ,

puisque les deux séries convergent. On utilise ensuite la dérivée seconde de la série entière :

∀ x ∈ ]-1,+1[, ∑+∞

=

=− 01

1

n

nxx

, et : ∑+∞

=

−−=− 1

23

).1.()1(

2

n

nxnnx

, et :

23

1

12 21

))1(1(

2).1.()1.(.

p

p

ppppppk

k

k −=+−−

−=−∑+∞

=

− , soit finalement :

222

22 112)()()(

p

p

pp

pXEXEXV

−=−−=−= .

Théorème 5.6 ; variance d’une variable aléatoire su ivant une loi de Poisson.

Soit X une variable aléatoire discrète réelle suivant la loi de Poisson P(λ), avec : λ > 0. Alors X admet une variance et : λ=)(XV .

Démonstration :

En effet, la série ∑≥

1

2

!..

k

k

kek

λλ est absolument convergente puisque :

=−2

2 1

!..

ko

kek

kλλ , en +∞,

toujours avec le théorème des croissances comparées. Donc X2 admet une espérance et X admet une variance.

Puis : λλλλλλλ λλλλλ +=+=−

+−

== ∑∑∑∑∑+∞

=

+−

+∞

=

+−

+∞

=

−+∞

=

−+∞

=

− 2

0

1

0

2

121

22

!.

!.

)!1(.

)!2(.

!..)(

k

k

k

k

k

k

k

k

k

k

ke

ke

ke

ke

kekXE .

Finalement : λλλλ =−+=−= 2222 )()()( XEXEXV .

Remarques : • On définit pour les variables aléatoires discrètes réelles, comme dans le cas de variables aléatoires finies, la notion de variable centrée (ou d’espérance nulle) et de variable réduite (ou dont la variance est

Page 22: 10 - Variables aléatoires Cours complet - …cpgedupuydelome.fr/IMG/pdf/10_-_variables_aleatoires_cours_comple… · Chapitre 10 : Variables aléatoires – Cours complet. - 3 -

Chapitre 10 : Variables aléatoires – Cours complet. - 22 -

égale à 1). • On peut de même associer à une variable aléatoire discrète réelle X admettant une espérance et une variance non nulle, une variable centrée réduite donnée par :

)(

)(*

X

XEXX

σ−= , qui vérifie alors : 0*)( =XE , et : 1*)( =Xσ .

Théorème 5.7 : inégalité de Bienaymé-Tchebytchev.

Soit X une variable aléatoire discrète réelle admettant une variance.

Alors : ∀ ε > 0, 2

)())((

εε XV

XEXP ≤≥− .

Démonstration : On a l’équivalence : ∀ ε > 0, (|X – E(X)| ≥ ε) ⇔ ((X – E(X))2 ≥ ε2). Or la variable aléatoire (X – E(X))2 est positive, donc d’après l’inégalité de Markov avec : a = ε2, on a : )()))((()))(((.))((. 22222 XVXEXEXEXPXEXP =−≤≥−=≥− εεεε .

D’où le résultat.

Théorème 5.8 : inégalité de Cauchy-Schwarz. Soient X et Y des variables aléatoires réelles admettant une variance. Alors X.Y admet une espérance et : )().().( 222 YEXEYXE ≤ .

De plus il y a égalité dans cette inégalité si et seulement si : ∃ (α,β) ∈ 2, (α,β) ≠ (0,0), tel que : 1)0..( ==+ YXP βα , autrement dit (α.X + β.Y) est nulle presque sûrement.

Démonstration : • Considérons maintenant deux variables aléatoires X et Y, et notons : xi, i ∈ I, yj, j ∈ J les ensembles de valeurs (au plus dénombrables) que prennent X et Y, ainsi que : Z = X.Y, puis : ∀ (i,j) ∈ I×J, jiji yxz ., = , et : ∆i,j = X-1(xi) ∩ Y-1(yj).

On constate que : - les ensembles X-1(xi), i ∈ I et Y-1(yj), j ∈ J forment chacun des partitions au plus dénombrables de Ω, - l’ensemble ∆i,j, (i,j) ∈ I×J forme une partition au plus dénombrable de Ω (dont certaines parties peuvent être vides), - pour i fixé dans I, l’ensemble ∆i,j, j ∈ J forme une partition de X-1(xi). Puis : ∀ (i,j) ∈ I×J, ∀ ω ∈ ∆i,j, jiji zyxYXZ ,.)().()( === ωωω .

On a par ailleurs : ∀ (i,j) ∈ I×J, 2

.22

,ji

jiji

yxyxz

+≤= ,

et pour i fixé dans I, la famille ( ))()((.2iji xXyYPx =∩= )j∈J est sommable puisque :

∑∈

=∩===Jj

iji xXyYPxXP ))()(()( ,

et le produit par 2ix (constant) ne modifie pas cette sommabilité.

De plus la famille IiJj

iji xXyYPx∈∈

=∩=∑ ))()((.2 , est encore sommable puisque chaque terme

correspond à ( ) Iiii xXPx ∈= )(.2 , (formule des probabilités totales) et cette famille est sommable puisque

X2 admet une espérance. Donc le th 8.11 permet d’affirmer que la famille ( )

JIjiiji xXyYPx×∈

=∩=),(

2 ))()((. est sommable.

De même la famille ( )JIjiijj xXyYPy

×∈=∩=

),(

2 ))()((. est sommable.

Donc la somme de ces deux familles et finalement par majoration la famille ( )JIjijiji Pz

×∈∆

),(,, )(. sont

sommables. Enfin, on peut regrouper par paquets les termes zi,j qui sont égaux, et la somme de la dernière famille

vaut : ∑∑ ∑∑ ∑∑Ω∈Ω∈ =×∈Ω∈ =×∈×∈

==

∆=

∆=∆

)()( ,),(,

)( ,),(,,

),(,, )(.)(.)(.)(.

,, ZzZz zzJIjiji

Zz zzJIjijiji

JIjijiji zZPzPzPzPz

jiji

.

En effet, pour z fixé, les ensembles ∆i,j, (i,j) ∈ I×J, zi,j = z sont deux à deux disjoints et leur réunion

Page 23: 10 - Variables aléatoires Cours complet - …cpgedupuydelome.fr/IMG/pdf/10_-_variables_aleatoires_cours_comple… · Chapitre 10 : Variables aléatoires – Cours complet. - 3 -

Chapitre 10 : Variables aléatoires – Cours complet. - 23 -

donne Z = z, donc la formule des probabilités totales conduit à : )()(,,),(

, zZPPzzJIji

ji

ji

==∆∑=×∈

.

Autrement dit, Z (c'est-à-dire X.Y) admet bien une espérance. • Considérons maintenant pour t réel fixé la variable aléatoire discrète (X + t.Y)2. Elle admet une espérance puisque X2, Y2 et X.Y en admettent une, et étant positive, on a : 0)(.).(..2)()).(( 2222 ≥++=+ YEtYXEtXEYtXE .

Si : 0)( 2 =YE , alors la fonction affine de t ci-dessus restant positive sur , on a aussi : 0).( =YXE .

Si : 0)( 2 ≠YE (et donc strictement positif), le trinôme restant positif sur , il ne peut admettre au plus

qu’une racine double réelle et son discriminant est négatif ou nul, soit : 0)().(.4).(.4 222 ≤− YEXEYXE .

Dans les deux cas, on conclut que : )().().( 222 YEXEYXE ≤ .

• Enfin, s’il y a égalité dans cette inégalité, alors : - soit : ).(0)( 2 YXEYE == , et : Y = 0.X + 1.Y, est nulle presque sûrement,

- soit : 0)( 2 ≠YE , et : ∃ t ∈ , 0)).(( 2 ==+ YtXE , et : X + t.Y = 1.X + t.Y est nulle presque sûrement.

Réciproquement, si : α.X + β.Y est nulle presque sûrement (avec par exemple : α ≠ 0), alors en posant :

αβ−=t , on a : YtX .= , d’où : 222222222 )(.)()(.).()(.).().( YEXEYEYtEYEtYtEYXE ==== ,

d’où égalité dans l’inégalité de Cauchy-Schwarz.

Théorème 5.9 et définition 5.3 : covariance d’un couple de variable s aléatoires discrètes réelles. Soient X et Y des variables aléatoires réelles admettant une variance. Alors les variables centrées : X’ = X – E(X), et Y’ = Y – E(X), admettent une variance et on peut définir : )''.(),( YXEYXCov = .

On a par ailleurs l’égalité : )().().(),( YEXEYXEYXCov −= . Le réel Cov(X,Y) est appelé covariance du couple (X,Y).

Démonstration : Puisque X2 admet une espérance, X aussi ainsi que la variable aléatoire constante E(X)2, donc X’2 admet une espérance. On a évidemment le même résultat pour Y’2. On a ensuite : )().().()().()().(.2).()))()).((((),( YEXEYXEYEXEYEXEYXEYEYXEXEYXCov −=+−=−−= .

Théorème 5.10 : covariance d’un couple de variable aléatoires discrètes réelles indépendantes. Soient X et Y deux variables aléatoires discrètes réelles admettant une variance. Si X et Y sont indépendantes, alors : 0),( =YXCov .

Démonstration : Si X et Y sont indépendantes, alors (théorème 4.5) : )().().( YEXEYXE = , d’où le résultat.

Définition 5.4 et théorème 5.11 : coefficient de corrélation d’un couple de variabl es aléatoires

discrètes réelles. Soient X et Y deux variables aléatoires discrètes réelles admettant une variance et telles que :

0)( >XV , et : 0)( >YV .

On appelle coefficient de corrélation du couple (X,Y) le réel : )().(

),(),(

YX

YXCovYX

σσρ = .

On a alors : 1),(1 ≤≤− YXρ

Démonstration : L’inégalité de Cauchy-Schwarz garantit immédiatement l’encadrement.

En effet : )().()'(.)'()''.(),( 22 YXYEXEYXEYXCov σσ=≤= ,

où on a noté X’ et Y’ les variables aléatoires centrées associées à X et Y.

Théorème 5.12 : variance d’une somme finie de varia bles aléatoires discrètes réelles. Soient X1, …, Xn des variables aléatoires discrètes réelles, telles que X1

2, …, Xn2 admettent une

espérance.

Page 24: 10 - Variables aléatoires Cours complet - …cpgedupuydelome.fr/IMG/pdf/10_-_variables_aleatoires_cours_comple… · Chapitre 10 : Variables aléatoires – Cours complet. - 3 -

Chapitre 10 : Variables aléatoires – Cours complet. - 24 -

Alors (X1 + … + Xn) admet une variance et :

∑∑≤≠≤=

−+=++nji

jiji

n

iin XEXEXXEXVXXV

111 )]().().([)()...( .

Démonstration : L’existence d’une variance pour la somme s’obtient par récurrence en démontrant en particulier que si X1 et X2 ont une variance, alors (X1 + X2) aussi. Pour cela : 21

22

21

221 ..2)( XXXXXX ++=+ ,

et X1.X2 admet une espérance comme on l’a vu dans l’inégalité de Cauchy-Schwarz. On termine pour une somme de n termes par récurrence sur n. Ensuite il suffit de développer :

• ∑∑≤≠≤=

+=++nji

ji

n

iin XXXXX

11

221 .)...( , et : ∑∑

≤≠≤=

+=++nji

ji

n

iin XXEXEXXE

11

221 ).()())...(( ,

• ∑∑∑≤≠≤==

+=

=++nji

ji

n

ii

n

iin XEXEXEXEXXE

11

2

2

1

21 )().()()())...(( ,

donc : ∑∑≤≠≤=

−+−=++nji

jijii

n

iin XEXEXXEXEXEXXV

1

2

1

21 )]().().([])()([)...( ,

soit le résultat annoncé. Théorème 5.13 : variance d’une somme de deux variab les aléatoires discrètes réelles

indépendantes. Soient X et Y des variables aléatoires discrètes réelles indépendantes et telles que X2 et Y2 admettent une espérance. Alors (X + Y) admet une variance et : )()()( YVXVYXV +=+ .

Démonstration : Le fait que (X + Y) admette une variance a été démontré au-dessus et en appliquant le résultat du théorème 5.11 pour deux variables aléatoires, on obtient : )]().().(.[2)]()([)( YEXEYXEYVXVYXV −++=+ , puisqu’il y a bien deux couples d’indices possibles : (i,j) = (1,2) ou (2,1). Et comme les variables sont supposées indépendantes, on a (th.4.5) : )().().( YEXEYXE = , soit

finalement : )()()( YVXVYXV +=+ .

Remarque : On généralise immédiatement ce résultat à n variables aléatoires discrètes réelles, mutuellement indépendantes, telles que chacune d’elle admette une variance en : )(...)()...( 11 nn XVXVXXV ++=++ .

Rappel :

• Si X suit la loi uniforme U(n), alors :

12

1

4

1.2

6

)1.2).(1.(.

1

2

1.

1)(

222

1

2 −=++−++=

+−=∑=

nnnnnn

n

nk

nXV

n

k

.

• Si X suit la loi de Bernoulli B(p), alors :

)1.()(].1)1.(0[)( 2222 pppppppXV −=−=−+−= .

• Si X suit la loi binomiale B(n,p), on peut également faire le calcul par les formules précédentes. Il est ici beaucoup plus rapide d’utiliser la généralisation précédente qui permet d’écrire : X = X1 + … + Xn, et : )1.(.)(...)()...()( 11 ppnXVXVXXVXV nn −=++=++= .

Théorème 5.14 : loi faible des grands nombres.

Soit (Xk)k∈* une suite de variable aléatoires indépendantes et de même loi, et admettant un moment d’ordre 2 (telles que pour tout : k ≥ 1, Xk

2 admette une espérance).

Page 25: 10 - Variables aléatoires Cours complet - …cpgedupuydelome.fr/IMG/pdf/10_-_variables_aleatoires_cours_comple… · Chapitre 10 : Variables aléatoires – Cours complet. - 3 -

Chapitre 10 : Variables aléatoires – Cours complet. - 25 -

On note : )( 1XEm = , )( 1Xσσ = , et : ∀ n ∈ *, ∑=

=n

kkn XS

1

.

Alors : ∀ ε > 0, 2

2

..

1

εσεn

mSn

P n ≤

≥− , et en particulier : ∀ ε > 0, 0.1

lim =

≥−+∞→

εmSn

P nn

.

Démonstration : Toutes les variables ont la même espérance et le même écart-type. De plus, avec la généralisation du théorème 5.13 à n variables aléatoires, Sn est telle que :

2

1

.)()( σnXVSVn

kkn ==∑

=

, et : mnXESEn

kkn .)()(

1

==∑=

, d’où : mn

SE n =

.

Si on note : n

SM n

n = , on a donc : mME n =)( , et : n

SVnn

SVMV n

nn

22

)(.1

)(σ=

=

= .

Puis on remarque ensuite que : ∀ ε > 0, 22))(( ε>− nn MEM = ε>− )( nn MEM .

Donc l’inégalité de Bienaymé-Tchebytchev (th. 3.7) donne :

2

2

222

.

)()))((())((

εσ

εεε

n

MVMEMPMEMP n

nnnn =≤>−=>− .

On obtient donc bien : ∀ ε > 0, 2

2

..

1

εσεn

mSn

P n ≤

≥− .

La conséquence est immédiate : ∀ ε > 0, 0.1

lim =

≥−+∞→

εmSn

P nn

.

Remarque :

Ce théorème est le premier qui permet de justifier le fait que l’on choisisse par exemple comme probabilité d’obtenir un pile (ou un face) une valeur égale à 0.5. En effet, la probabilité que la moyenne des valeurs obtenues lors d’une répétition de tirages (soit une moyenne statistique ) s’écarte de l’espérance d’un des tirage (soit une moyenne probabiliste ) tend vers 0 lorsque le nombre de ces tirages tend vers +∞. Autrement dit, ces deux moyennes en un certain sens coïncident…

6. Fonctions génératrices des variables aléatoires à valeurs dans . Définition 6.1 : fonction génératrice d’une variabl e aléatoire à valeurs dans .

Soit X une variable aléatoire à valeurs dans . On appelle fonction (ou série) génératrice associée à X la fonction notée GX et définie par :

∀ t ∈ , ∑+∞

===

0

).()(n

nX tnXPtG .

Remarque :

Par la formule de transfert (théorème 3.3), c’est aussi l’espérance (quand elle existe) de la variable

aléatoire discrète réelle tX, soit : )().()(0

X

n

nX tEtnXPtG ===∑

+∞

=

.

Théorème 6.1 : rayon de convergence et propriétés d ’une fonction génératrice.

Soit X une variable aléatoire à valeurs dans . • Le rayon de convergence de la fonction GX associée à X vaut au moins 1. • GX est même définie sur [-1,+1] au moins. • Pour tout : t ∈ [-1,+1], 1)( ≤tGX , et : 1)1( =XG .

• GX est continue sur [-1,+1] et de classe C∞ sur ]-1,+1[ au moins. Démonstration :

• On peut par exemple remarquer que pour : t = ±1, la série numérique correspondante est la série

∑≥

±=0

)1).((n

nnXP , soit la série ∑≥

=0

)(n

nXP .

Page 26: 10 - Variables aléatoires Cours complet - …cpgedupuydelome.fr/IMG/pdf/10_-_variables_aleatoires_cours_comple… · Chapitre 10 : Variables aléatoires – Cours complet. - 3 -

Chapitre 10 : Variables aléatoires – Cours complet. - 26 -

Or cette série converge (et a pour somme 1) puisque (X = n, n ∈ ) constitue un système complet d’événements. • Comme série entière, GX converge donc au moins sur [-1,+1] et son rayon de convergence vaut au moins 1. • On a vu que : 1)1( =XG , et :

∀ t ∈ [-1,+1], 1)1()().().()(000

===≤=≤== ∑∑∑+∞

=

+∞

=

+∞

=X

nn

n

n

nX GnXPtnXPtnXPtG .

• Enfin comme série entière GX est de classe C∞ au moins sur ]-1,+1[, et sur [-1,+1], la série de fonctions qui la constitue converge normalement puisque :

∀ t ∈ [-1,+1], )().( nXPtnXP n =≤= , et la série ∑≥

=0

)(n

nXP converge.

Associé au fait que toutes les fonctions sont continues sur [-1,+1] car polynomiales, on en déduit bien la continuité de GX sur [-1,+1].

Remarque : Lorsque les valeurs prises par une variable aléatoire forment un ensemble fini, sa fonction génératrice devient un polynôme.

exemples 6.1 : • La fonction génératrice d’une variable aléatoire suivant la loi uniforme U(n) est :

∀ t ∈ , t

tt

nt

nt

ntG

nn

k

kn

k

kx −

−===+

==∑∑ 1

.1

.1

.1

)(1

11

, cette dernière égalité étant vraie pour : t ≠ 1.

• La fonction génératrice d’une variable aléatoire suivant la loi de Bernoulli B(p) est :

∀ t ∈ , tpptptptGx .1).1(.)( 01 +−=−+= ,

• La fonction génératrice d’une variable aléatoire suivant la loi binomiale B(n,p) est :

∀ t ∈ , nn

k

knkn

k

kknkx tptttp

k

nttp

k

ntG ).1()1.()..(.)1.(.)(

10

+−=−

=−

= ∑∑

=

=

− .

Théorème 6.2 : lien réciproque entre fonction génér atrice et variable aléatoire.

Soit X une variable aléatoire à valeurs dans et soit GX sa fonction génératrice. Alors GX permet de retrouver la loi de X.

En particulier : ∀ n ∈ , !

)0()(

)(

n

GnXP

nX== .

Démonstration : Ce résultat est une conséquence immédiate de ce qu’on a vu sur les séries entières.

Théorème 6.3 : fonction génératrice d’une variable suivant une loi géométrique. Soit X une variable aléatoire discrète réelle suivant la loi G(p), avec : p ∈ ]0,1[.

Alors sa fonction génératrice GX est définie sur ]pp −

+−

−1

1,

1

1[ et vaut :

∀ t ∈ ]pp −

+−

−1

1,

1

1[,

tp

tptGX ).1(1

.)(

−−= .

Démonstration : La série entière cherchée est définie par :

∀ t ∈ , ∑∑∑+∞

=

−−+∞

=

−+∞

=

−=−===1

11

1

1

1

.)1(...)1.().()(n

nn

n

nn

n

nX tptptpptnXPtG ,

et la série géométrique qui apparaît a un rayon de convergence égal à : 11

1 >−

=p

R .

De plus : ∀ t ∈ ]pp −

+−

−1

1,

1

1[,

tptptptptG

n

nX ).1(1

1..]).1[(..)(

0 −−=−= ∑

+∞

=

.

Page 27: 10 - Variables aléatoires Cours complet - …cpgedupuydelome.fr/IMG/pdf/10_-_variables_aleatoires_cours_comple… · Chapitre 10 : Variables aléatoires – Cours complet. - 3 -

Chapitre 10 : Variables aléatoires – Cours complet. - 27 -

Théorème 6.4 : fonction génératrice d’une variable suivante une loi de Poisson. Soit X une variable aléatoire suivantes la loi de Poisson P(λ) avec : λ > 0. Alors sa fonction génératrice GX est définie sur et vaut : ∀ t ∈ , )1.()( −= t

X etG λ .

Démonstration : La série entière cherchée vaut :

∀ t ∈ , )1.(.

000

.!

).(..

!.).()( −−

+∞

=

−+∞

=

−+∞

=

====== ∑∑∑ tt

n

n

n

nn

n

nX eee

n

tet

netnXPtG λλλλλ λλ

,

puisqu’on reconnaît la série exponentielle qui converge sur .

Théorème 6.5 : espérance de X et dérivabilité de G X en 1. Soit X une variable aléatoire à valeurs dans et GX sa fonction génératrice. X admet une espérance si et seulement si GX est dérivable à gauche en 1. Dans ce cas : )1(')( XGXE = .

Démonstration (hors programme) : • Si X admet une espérance, la série ∑

=0

)(.n

nXPn est absolument convergente donc la série entière

∑≥

−=1

1).(.n

ntnXPn converge normalement au moins sur [-1,+1].

Autrement, le théorème de dérivation des séries de fonctions permet d’en déduire que la série de fonctions ∑

=1

).(n

ntnXP est en particulier dérivable à gauche en 1, et :

)().().(1.).()1('011

1 XEnnXPnnXPnnXPGnnn

nX ======= ∑∑∑

+∞

=

+∞

=

+∞

=

− .

• Réciproquement, si GX est dérivable à gauche en 1, montrons que cette dérivée vaut E(X). Pour cela, soit : t ∈ ]0,1[. Le théorème des accroissements finis montre que :

∃ ct ∈ ]t,1[, ∑+∞

=

−===−−

1

1).(.)('1

)1()(

n

nttX

XX cnXPncGt

GtG,

et tous les termes étant positifs, on a aussi :

∀ N ∈ *, )('1

)1()().(.

1

1tX

XXN

n

nt cG

t

GtGcnXPn =

−−

≤=∑=

− .

Si maintenant, on fait tendre t vers 1, alors ct tend vers 1, et : )1(')(.1

X

N

n

GnXPn ≤=∑=

.

Donc la série (à termes positifs) ∑≥

=0

)(.n

nXPn converge puisque la suite de ses sommes partielles est

majorée et : )1(')(.1

Xn

GnXPn ≤=∑+∞

=

.

Mais en reprenant l’inégalité avec ct, on a aussi :

∀ t ∈ ]0,1[, ∃ ct ∈ ]t,1[, ∑∑+∞

=

+∞

=

− =≤===−−

11

1 )(.).(.)('1

)1()(

nn

nttX

XX nXPncnXPncGt

GtG,

et en faisant tendre à nouveau t vers 1, on en déduit que : ∑+∞

=

=≤1

)(.)1('n

X nXPnG ,

ce qui permet finalement de conclure à l’égalité. Théorème 6.6 : variance de X et dérivabilité second e de GX en 1.

Soit X une variable aléatoire à valeurs dans et GX sa fonction génératrice. X admet une variance si et seulement si GX est deux fois dérivable à gauche en 1. Dans ce cas : 2)1(')1(')1('')( XXX GGGXV −+= .

Démonstration (hors programme) : On adapte la démonstration précédente :

Page 28: 10 - Variables aléatoires Cours complet - …cpgedupuydelome.fr/IMG/pdf/10_-_variables_aleatoires_cours_comple… · Chapitre 10 : Variables aléatoires – Cours complet. - 3 -

Chapitre 10 : Variables aléatoires – Cours complet. - 28 -

• Si X admet une variance (et donc si X2 admet une espérance) alors la série ∑≥

=0

2 )(.n

nXPn converge,

ainsi que (puisque X admet alors une espérance, th. 5.1) ∑≥

=0

)(.n

nXPn .

Donc la série ∑≥

−=−2

2).().1.(n

ntnXPnn converge normalement sur [-1,+1] ce qui prouve que GX est en

particulier deux fois dérivable à gauche en 1, et que :

)()().().(1).1.().()1('' 2

11

2

1

2 XEXEnnXPnnXPnnnXPGnnn

nX −==−==−== ∑∑∑

+∞

=

+∞

=

+∞

=

− .

On en déduit que : 2222 )1(')1(')1('')()()1('')()()( XXXX GGGXEXEGXEXEXV −+=−+=−=

Théorème 6.7 : fonction génératrice d’une somme de deux variables indépendantes à valeurs dans . Soient X et Y deux variables aléatoires indépendantes et à valeurs dans . Si on note GX, GY et GX+Y les fonctions génératrices des variables X, Y et X+Y, alors : ∀ t ∈ [-1,+1], )().()( tGtGtG YXYX =+ .

Démonstration : Si on reprend la formule de transfert, on peut écrire :

∀ t ∈ [-1,+1], )().()(0

tGtnXPtE Xn

nX ===∑+∞

=

, et : )().()(0

tGtnYPtE Yn

nY ===∑+∞

=

,

avec un résultat identique pour (X+Y) : )().()(0

tGtnYXPtE YXn

nYX+

+∞

=

+ ==+=∑ .

Mais puisque X et Y sont indépendantes, tX et tY le sont aussi (th. 4.6) et : ∀ t ∈ [-1,+1], )().()().().()()( tGtGtEtEttEtEtG YX

YXYXYXYX ==== +

+ .

7. Annexe 1 : caractéristiques des lois classiques.

Nom Désignation P(X = k) E(X) V(X) GX(t) DG

Loi uniforme U(n) n

1

2

1+n

12

12 −n ∑

=

n

k

ktn 1

.1

Loi de Bernoulli B(p) • p , si : k = 1 • p−1 , si : k = 0

p )1.( pp − ).1( tpp +−

Loi binomiale B(n,p) knk ppk

n −−

)1.(. pn. )1.(. ppn − ntpp ).1( +−

Loi géométrique G(p) 1)1.( −− kpp p

1 2

1

p

p−

tp

tp

).1(1

.

−−

pt

−<

1

1

Loi de Poisson P(λ) !

.k

ekλλ− λ λ )1.( −teλ

Démonstration : Les résultat ci-dessus concernant la fonction génératrice GX ont été établis pour les loi géométrique et de Poisson. • Pour la loi uniforme U(n), on a immédiatement :

∀ t ∈ , ∑=

=n

k

kX t

ktG

1

.1

)( , et cette fonction est définie sur .

• Pour la loi de Bernoulli B(p), on a encore :

∀ t ∈ , tpptptptGX .1.).1()( 10 +−=+−= , et cette fonction est toujours définie sur .

• Pour la loi binomiale B(n,p), on a une fois de plus :

∀ t ∈ , nn

k

knkn

k

kknkX tppptp

n

ktpp

n

ktG ).1()1.()..(.)1.(.)(

00

. +−=−

=−

= ∑∑

=

=

− , fonction définie sur .

Page 29: 10 - Variables aléatoires Cours complet - …cpgedupuydelome.fr/IMG/pdf/10_-_variables_aleatoires_cours_comple… · Chapitre 10 : Variables aléatoires – Cours complet. - 3 -

Chapitre 10 : Variables aléatoires – Cours complet. - 29 -

8. Annexe 2 : (hors programme) familles sommables de réels. Définition 8.1 : famille sommable de réels positifs , somme d’une telle famille sommable.

Soit I un ensemble quelconque et (xi)i∈I une famille de réels positifs. On dit que la famille (xi)i∈I est sommable lorsque l’ensemble ∑

∈Fiix , F finie, F ⊂ I est majoré.

On pose alors : ∑∈Ii

ix = sup∑∈Fi

ix , F finie, F ⊂ I.

Théorème 8.1 : dénombrabilité des éléments non nuls d’une famille sommable de réels positifs.

Soit (xi)i∈I une famille sommable de réels positifs. Alors l’ensemble J des indices : i ∈ I, tels que xi soit non nul est au plus dénombrable. De plus la famille (xi)i∈J est sommable et : ∑∑

∈∈

=Ji

iIi

i xx .

Démonstration : Notons : M = ∑

∈Iiix = sup∑

∈Fiix , F finie, F ⊂ I, et soit : n ∈ *.

Alors l’ensemble Fn des : i ∈ I, tels que : n

Mxi > , est fini, de cardinal majoré par (n+1).

En effet si Fn comportait strictement plus de (n+1) indices, on pourrait former un ensemble fini Fn’ de

(n+2) indices à partir des éléments de Fn et tel que : Mn

Mnx

nFii ≥+>∑

∈).1(

'

, et M ne pourrait être la

borne supérieure annoncée. Or : J = i ∈ I, xi ≠ 0 = U

0>nnF , résultat immédiat par double inclusion.

Comme réunion dénombrable d’ensembles finis, J est donc au plus dénombrable. Puisque de plus tous les termes dont les indices sont en dehors de J sont nuls, on a immédiatement : ∑

∈Fiix , F finie, F ⊂ I = ∑

∈Fiix , F finie, F ⊂ J, d’où la sommabilité de (xi)∈J puis : ∑

∈Iiix = sup∑

∈Fiix , F

finie, F ⊂ I = sup∑∈Fi

ix , F finie, F ⊂ I =∑∈Ji

ix .

Théorème 8.2 : lien entre famille sommable de réels positifs et série.

Soit (xi)i∈I une famille sommable de réels positifs et J l’ensemble (éventuellement fini) des indices de I tels que xi soit non nul. Soit (

njx )n∈ une énumération des éléments non nuls de la famille.

Alors la série ∑≥0n

jnx est convergente et : ∑∑

+∞

=

=Ii

in

j xxn

0

.

Démonstration : • Soit : N ∈ , et : F = j0, …jN.

Puisque les termes de la famille sont positifs, on a donc : ∑∑∑∈∈=

≤=Ji

iFi

i

N

nj xxxn

0

.

Donc les sommes partielles de la série (à termes positifs) ∑≥0n

jnx sont majorées et la série converge.

De plus, en passant à la limite : ∑∑∈

+∞

=

≤Ji

in

j xxn

0

.

• Soit maintenant F une partie finie de J et soit : N ∈ , tel que : F ⊂ j0, …, jN. Un tel entier N existe puisque l’application : n a jn, est une énumération de J.

On a alors : ∑∑∑+∞

==∈

≤≤00 n

j

N

nj

Fii nn

xxx , puisque les réels sont positifs, et ceci étant vrai pour toute partie F

incluse dans J, on en déduit que : ∑∑+∞

=∈

≤0n

jJi

i nxx .

Page 30: 10 - Variables aléatoires Cours complet - …cpgedupuydelome.fr/IMG/pdf/10_-_variables_aleatoires_cours_comple… · Chapitre 10 : Variables aléatoires – Cours complet. - 3 -

Chapitre 10 : Variables aléatoires – Cours complet. - 30 -

On obtient bien finalement l’égalité.

Théorème 8.3 : opérations sur les familles sommable s de réels positifs. Soient (xi)i∈I et (yi)i∈I deux familles de réels positifs. • si : ∀ i ∈ I, xi ≤ yi, et si la famille (yi)i∈I est sommable, alors (xi)i∈I est également sommable et :

∑∑∈∈

≤Ii

iIi

i yx .

• si (xi)i∈I et (yi)i∈I sont sommables, alors (xi + yi) est sommable et : ∑∑∑∈∈∈

+=+Ii

iIi

iIi

ii yxyx )( .

• si (xi)i∈I est sommable, alors : ∀ a ∈ +, (a.xi)i∈I est sommable et : ∑∑∈∈

=Ii

iIi

i xaxa .. .

Démonstration : • si (yi)i∈I est sommable, alors : ∀ F ⊂ I, finie, ∑∑∑

∈∈∈

≤≤Ii

iFi

iFi

i yyx , donc ∑∈Fi

ix , F finie, F ⊂ I est

majoré, la famille (xi)i∈I est sommable et : sup∑∈Fi

ix , F finie, F ⊂ I = ∑∑∈∈

≤Ii

iIi

i yx .

• Si (xi)i∈I et (yi)i∈I sont sommables alors : ∀ F ⊂ I, finie, ∑∑∑∑∑

∈∈∈∈∈

+≤+=+Ii

iIi

iFi

iFi

iFi

ii yxyxyx )( , et : ∑∈

+Fi

ii yx )( , F finie, F ⊂ I est majoré,

donc la famille (xi + yi)i∈I est sommable et : sup∑

+Fi

ii yx )( , F finie, F ⊂ I = ∑∑∑∈∈∈

+≤+Ii

iIi

iIi

ii yxyx )( .

Soit par ailleurs deux parties finies F et G incluses dans I. Alors : ∑∑∑∑

∈∪∈∈∈

+≤+≤+Ii

iiGFi

iiGi

iFi

i yxyxyx )()( , d’où : ∑∑∑∈∈∈

−+≤Gi

iIi

iiFi

i yyxx )( .

Ceci étant vrai pour toute partie finie : F ⊂ I, et le majorant étant indépendant de F, on en déduit que :

∑∑∑∈∈∈

−+≤Gi

iIi

iiIi

i yyxx )( , d’où de plus : ∑∑∑∈∈∈

−+≤Ii

iIi

iiGi

i xyxy )( .

Enfin, cette dernière égalité est vraie pour toute partie finie : G ⊂ I, le majorant étant cette fois indépendant de G, donc on en déduit que : ∑∑∑

∈∈∈

−+≤Ii

iIi

iiIi

i xyxy )( , et finalement :

∑∑∑∈∈∈

+≤+Ii

iiIi

iIi

i yxyx )( .

Les deux inégalités obtenues permettent de conclure à l’égalité voulue. • Pour le dernier point, on raisonne de la même façon : ∀ F ⊂ I, finie, ∑∑∑

∈∈∈

≤=Ii

iFi

iFi

i xaxaxa ... ,

donc la famille (a.xi)i∈I est sommable et : ∑∑∈∈

≤Ii

iIi

i xaxa .. .

Si par ailleurs a est nul, l’égalité voulue est immédiate, et si a est non nul, alors la famille ( ixaa

..1

)i∈I est

sommable, avec ce qu’on vient d’établir et : ∑∑∑∈∈∈

≤=Ii

iIi

iIi

i xaa

xaa

x ..1

..1

.

Les deux inégalités donnent finalement l’égalité annoncée. Théorème 8.4 : sous-familles d’une famille sommable de réels positifs.

Soit (xi)i∈I une famille sommable de réels positifs. • si A est une partie de I, alors (xi)i∈A est sommable et : ∑∑∑

∈∈∈

≤=Ii

iIi

iAAi

i xxix ).(1 , où 1A est la fonction

indicatrice de A dans I (valant 1 ou 0 suivant que i appartient ou pas à A). • si : A ⊂ B ⊂ I, alors : ∑∑

∈∈

≤Bi

iAi

i xx .

• si A et B sont des parties disjointes de I (telles que : A∩B = ∅), alors : ∑∑∑∈∈∪∈

+=Bi

iAi

iBAi

i xxx .

Démonstration : • Notons que : ∀ i ∈ I, 0 ≤ 1A(i).xi ≤ xi, et donc (xi)∈I étant sommable, (1A(i).xi)i∈I l’est aussi.

Page 31: 10 - Variables aléatoires Cours complet - …cpgedupuydelome.fr/IMG/pdf/10_-_variables_aleatoires_cours_comple… · Chapitre 10 : Variables aléatoires – Cours complet. - 3 -

Chapitre 10 : Variables aléatoires – Cours complet. - 31 -

De plus, soit : F ⊂ A, finie. Alors : ∀ i ∈ F, xi = 1A(i).xi, et donc : ∑∑∑

∈∈∈

≤=Ii

iAFi

iAFi

i xixix ).(1).(1 ,

ceci étant vrai pour toute partie finie F de A, on en déduit que (xi)i∈A est sommable puis que : ∑∑

∈∈

≤Ii

iAAi

i xix ).(1 .

D’autre part : ∀ G ⊂ I, finie, on a : ∑∑∑∈∩∈∈

≤=Ai

iGAi

iGi

iA xxxi).(1 , puisque G ∩ A est une partie finie de A.

Ceci étant vrai pour toute partie G finie incluse dans A, on en déduit que : ∑∑∈∈

≤Ai

iIi

iA xxi).(1 , et

finalement, on conclut avec l’égalité annoncée. • Si : A ⊂ B ⊂ I, il suffit de remarquer que : ∀ i ∈ I, 1A(i).xi ≤ 1B(i).xi, pour en déduire l’inégalité. • Pour ce dernier point, on remarque que : ∀ i ∈ I, 1A(i) + 1B(i) = 1A∪B(i).

Théorème 8.5 : sommation par paquets d’une famille sommable de réels positifs. Soit (xi)i∈I une famille de réels positifs et soit (Aj)j∈J une partition quelconque de I. La famille (xi)i∈I est sommable si et seulement si pour tout : j ∈ J, la famille (xi)

jAi∈ est sommable et si la

famille

JjAi

i

j

x∈∈

∑ est elle-même sommable.

Dans ce cas, on a alors : ∑ ∑∑∈ ∈∈

=

Jj Aii

Iii

j

xx ,

autrement dit, on peut d’abord sommer des sous-familles puis additionner les résultats. Démonstration :

• Supposons que (xi)i∈I est sommable. Alors puisque : ∀ j ∈ J, Aj ⊂ I, le théorème 8.4 montre que (xi)

jAi∈ est sommable.

On peut alors noter : ∀ j ∈ J, ∑∈

=jAi

ij xS .

Considérons alors : J0 ⊂ J, finie et notons : U0Jj

jAA∈

= , cette union étant disjointe.

Le théorème 8.4 généralisé par récurrence à un nombre fini d’ensembles disjoints donne :

∑∑∑ ∑∑∈∈∈ ∈∈

≤=

=

Iii

Aii

Jj Aii

Jjj xxxS

j00

.

La famille (Sj)j∈J est donc sommable et : ∑∑ ∑∑∈∈ ∈∈

=

Iii

Jj Aii

Jjj xxS

j

.

• Supposons réciproquement que pour tout : j ∈ J, la famille (xi)jAi∈ est sommable et que la famille

JjAi

i

j

x∈∈

∑ est elle-même sommable.

Alors : ∀ F ⊂ I, finie, F a une intersection non vide avec un nombre fini d’ensembles Aj, dont on regroupe les indices dans l’ensemble fini JF.

On peut donc écrire F comme l’union disjointe : UFJj

jAFF∈

∩= )( , et : ∑ ∑∑∈ ∩∈∈

=

F jJj FAii

Fii xx , puisque

toutes les sommes sont en fait finies.

De plus, puisque : ∀ j ∈ JF, Aj ∩ F ⊂ Aj, on en déduit que : ∑∑ ∑∑∈∈ ∈∈

=

FF j Jjj

Jj Aii

Fii Sxx , comme somme

finie de réels. JF étant finie incluse dans J, la sommabilité de la famille (Sj)j∈J permet d’écrire :

Page 32: 10 - Variables aléatoires Cours complet - …cpgedupuydelome.fr/IMG/pdf/10_-_variables_aleatoires_cours_comple… · Chapitre 10 : Variables aléatoires – Cours complet. - 3 -

Chapitre 10 : Variables aléatoires – Cours complet. - 32 -

∑ ∑∑∑∈ ∈∈∈

=≤

Jj Aii

Jjj

Fii

j

xSx .

Enfin, ceci étant vrai pour tout : F ⊂ I, F finie, on conclut que la famille (xi)i∈I est sommable, puis que :

∑ ∑∑∈ ∈∈

Jj Aii

Iii

j

xx .

• En regroupant les deux inégalités obtenues dans le cas où (xi)i∈I est sommable, on conclut bien à

l’égalité : ∑ ∑∑∑∈ ∈∈∈

==

Jj Aii

Jjj

Iii

j

xSx .

Définition 8.2 : famille sommable de réels quelconq ues, somme d’une famille sommable. Soit I un ensemble quelconque et (xi)i∈I une famille de réels. Pour tout réel x, on pose : • x+ = x, si : x ≥ 0, et : x+ = 0, si : x < 0, • x- = 0, si : x ≥ 0, et : x- = |x|, si : x < 0. On dit que la famille (xi)i∈I est sommable lorsque les familles de réels positifs (xi

+)i∈I et (xi-)i∈I sont

sommables. On pose alors : ∑∑∑

+

−=Ii

iIi

iIi

i xxx .

Remarques :

• Cette définition est cohérente avec la définition de la sommabilité pour une famille de réels positifs. • On a l’égalité classique : ∀ x ∈ , x = x+ – x-, d’où la définition de la somme ∑

∈Iiix .

Théorème 8.6 : définition équivalente de la sommabi lité d’une famille de réels. Soit (xi)i∈I une famille de réels. La famille (xi)i∈I est sommable si et seulement si la famille ( ix )i∈I est sommable.

Dans ce cas, on a : ∑∑∑∈

+

+=Ii

iIi

iIi

i xxx .

Démonstration : • Supposons que la famille ( ix )i∈I soit sommable.

Alors les deux familles de réels positifs (xi+)i∈I et (xi

-)i∈I sont sommables car : ∀ x ∈ , 0 ≤ x+ ≤ x , et : 0 ≤ x- ≤ x ,

et en utilisant le th 8.3. • Supposons que (xi)i∈I soit sommable. Alors les deux familles de réels positifs (xi

+)i∈I et (xi-)i∈I sont sommables et la famille ( ix )i∈I est sommable

comme somme de familles sommables puisque : ∀ x ∈ , −+ += xxx .

La dernière égalité résulte elle aussi du th 8.3. Théorème 8.7 : sommabilité et séries absolument con vergentes, convergence commutative.

Soit (xi)i∈I une famille de réels. Si la famille (xi)i∈I soit sommable, l’ensemble J des indices i de I tels que xi soit non nul, est au plus dénombrable. Si J est dénombrable et infini et si (jn)n∈ est une énumération de J, alors la série ∑

≥0njn

x est absolument

convergente et : ∑∑∈

+∞

=

=Ii

in

j xxn

0

.

En particulier, si on considère une autre énumération de J, la nouvelle série obtenue est encore absolument convergente et sa somme est identique à la précédente : on parle alors de « convergence commutative » de la série qui signifie qu’on peut modifier comme on veut l’ordre de ses termes sans modifier son absolue convergence ou sa somme.

Page 33: 10 - Variables aléatoires Cours complet - …cpgedupuydelome.fr/IMG/pdf/10_-_variables_aleatoires_cours_comple… · Chapitre 10 : Variables aléatoires – Cours complet. - 3 -

Chapitre 10 : Variables aléatoires – Cours complet. - 33 -

Démonstration : • Si (xi)i∈I est sommable, le théorème 8.1 montre que l’ensemble des indices i tels que ix soit non nul

est au plus dénombrable et cet ensemble coïncide avec l’ensemble J indiqué. • Si (jn)n∈ est une énumération de J, puisque (xi)i∈I est sommable, les familles (xi

+)i∈I et (xi-)i∈I le sont

aussi et en leur appliquant le th 8.2, les séries ∑≥

+

0njn

x et ∑≥

+

0njn

x sont convergentes, donc la série ∑≥0n

jnx

est convergente comme somme de ces deux séries.

De plus, puisque toujours d’après le th 8.2 on a : ∑∑∈

++∞

=

+ =Ii

in

j xxn

0

, et : ∑∑∈

−+∞

=

− =Ii

in

j xxn

0

, on en déduit que :

∑∑∑∑∑∑∈∈

++∞

=

−+∞

=

++∞

=

=−=−=Ii

iIi

iIi

in

jn

jn

j xxxxxxnnn

000

.

Remarques :

• On aurait pu montrer que lorsque l’ensemble J précédent est au plus dénombrable, il y a équivalence entre sommabilité de la famille (xi)i∈I et absolue convergence de la série ∑

≥0njn

x pour toute énumération

de J • Si une série n’est que semi-convergente au contraire, modifier l’ordre des termes de la série peut faire perdre la convergence et même en cas de conservation de la convergence on peut ainsi modifier la somme de la série initiale en en permutant les termes. • Un théorème (technique) permet même de démontrer que si une série de réels ∑

≥0nnu est semi-

convergente , alors quelque soit : α ∈ , il existe une permutation σ de telle que la série ∑≥0

)(n

nuσ ait

pour somme α.

Théorème 8.8 : sous-familles de familles de réels s ommables. Soit (xi)i∈I une famille sommable de réels. • si A est une partie de I, alors (xi)i∈A est sommable. • si A et B sont des parties disjointes de I, alors : ∑∑∑

∈∈∪∈

+=Bi

iAi

iBAi

i xxx .

Démonstration : • Le premier point est une conséquence immédiate de la sommabilité et du th 8.4. • Pour le deuxième point, on commence par écrire que : ∑∑∑

∪∈

∪∈

+

∪∈

−=BAi

iBAi

iBAi

i xxx , de même pour les

sommes sur A et B, et on applique toujours le th 8.4 aux familles (xi+) et (xi

-), indexées par A, B et A∪B.

Théorème 8.9 : linéarité. Soient (xi)i∈I et (yi)i∈I des familles sommables de réels. • la famille (xi + yi)i∈I est sommable, et : ∑∑∑

∈∈∈

+=+Ii

iIi

iIi

ii yxyx )( .

• pour : (λ,µ) ∈ 2, (λ.xi + µ.yi)i∈I est sommable et : ∑∑∑∈∈∈

+=+Ii

iIi

iIi

ii yxyx ..)..( µλµλ .

Démonstration : • On a : ∀ i ∈ I, iiii yxyx +≤+ , ce qui prouve que famille (xi + yi)i∈I est sommable.

• De plus notons A, B, C, D, E et F les ensembles définis par : A = i ∈ I, xi ≥ 0, yi ≥ 0, B = i ∈ I, xi < 0, yi < 0, C = i ∈ I, xi ≥ 0, yi < 0, xi + yi ≥ 0, D = i ∈ I, xi ≥ 0, yi < 0, xi + yi < 0, E = i ∈ I, xi < 0, yi ≥ 0, xi + yi ≥ 0, F = i ∈ I, xi < 0, yi ≥ 0, xi + yi < 0. Pour A (tous les termes sont positifs), le th 8.3 donne : ∑∑∑

∈∈∈

+=+Ai

iAi

iAi

ii yxyx )( .

Pour B (tous les termes sont négatifs), le th 8.3 permet d’écrire :

Page 34: 10 - Variables aléatoires Cours complet - …cpgedupuydelome.fr/IMG/pdf/10_-_variables_aleatoires_cours_comple… · Chapitre 10 : Variables aléatoires – Cours complet. - 3 -

Chapitre 10 : Variables aléatoires – Cours complet. - 34 -

∑∑∑∑∑∑∑∈∈∈

−−

+=−−=+−=+−=+Bi

iBi

iBi

iBi

iBi

iiBi

iiBi

ii yxyxyxyxyx )()()( .

En effet, on a bien : ∀ i ∈ B, −−− +=−−=+−=+ iiiiiiii yxyxyxyx )()( , et les termes sont cette fois

positifs d’où la possibilité d’appliquer le th 8.3. Pour C, on écrit : ∀ i ∈ C, iiii xyyx =−++ )()( .

Mais la famille (yi)i∈I est sommable donc également (– yi)i∈I puis (– yi)i∈C, et l’argument utilisé pour A s’applique (tous les termes sont positifs) pour donner : ∑∑∑

∈∈∈

−++=Ci

iCi

iiCi

i yyxx )()( .

On termine en remarquant que : ∑∑∑∑∈∈

+

−==−=−Ci

iCi

iCi

iCi

i yyyy )()( ce qui donne finalement :

∑∑∑∈∈∈

−+=Ci

iCi

iiCi

i yyxx )( , soit : ∑∑∑∈∈∈

+=+Ci

iCi

iCi

ii yxyx )( .

On démontre suivant des principes similaires, les mêmes égalités pour D, E et F. Par réunion de ces 6 ensembles disjoints et avec le th 8.8, on en déduit l’égalité voulue. • Soit maintenant : λ ∈ . Si : λ = 0, (λ.xi)i∈I est sommable et : 0.. == ∑∑

∈∈ Iii

Iii xx λλ .

Si : λ > 0, on a : ∀ i ∈ I, ++ = ii xx .).( λλ , et : −− = ii xx .).( λλ .

Donc le th 8.3 garantit que ( +).( ixλ )i∈I et ( −).( ixλ )i∈I sont sommables puis que :

∑∑∈

+

+ =Ii

iIi

i xx .. λλ , et : ∑∑∈

− =Ii

iIi

i xx .. λλ ,

d’où on déduit que (λ.xi)i∈I est sommable et : ∑∑∈∈

=Ii

iIi

i xx .. λλ .

Si enfin : λ < 0, alors : ∀ i ∈ I, −+ = ii xx .).( λλ , et : +− = ii xx .).( λλ , et en raisonnant de la même façon, on

en déduit à nouveau que (λ.xi)i∈I est sommable, puis l’égalité : ∑∑∈

− =Ii

iIi

i xx .. λλ .

• Le cas où on envisage (λ.xi + µ.yi)i∈I, résulte des deux points que l’on vient de démontrer.

Théorème 8.10 : sommation par paquets d’une famille sommable de réels. Soit (xi)i∈I une famille de réels et soit (Aj)j∈J une partition quelconque de I. La famille (xi)i∈I est sommable si et seulement si : • ∀ j ∈ J, la famille (xi)

jAi∈ est sommable et :

• la famille Jj

Aii

j

x∈∈

∑ est elle-même sommable.

Dans ce cas, on a encore : ∑ ∑∑∈ ∈∈

=

Jj Aii

Iii

j

xx ,

autrement dit, on peut d’abord sommer des sous-familles puis additionner les résultats. Démonstration :

Le premier résultat est une conséquence directe de l’équivalence prouvée dans le th 8.5. Si maintenant on suppose que (xi)i∈I est sommable, alors : ∀ j ∈ J, (xi)

jAi∈ est sommable et :

∀ j ∈ J, ∑∑∑∈∈

+ =−jjj Ai

iAi

iAi

i xxx .

De plus, les deux familles (xi+)i∈I et (xi

-)i∈I sont sommables et à termes positifs donc le th 8.5 permet

d’affirmer que les familles

JjAi

i

j

x∈∈

+

∑ et

JjAi

i

j

x∈∈

∑ sont sommables et que :

∑ ∑∑∈ ∈

+

+

=

Jj Aii

Iii

j

xx , et : ∑ ∑∑∈ ∈

=

Jj Aii

Iii

j

xx .

Page 35: 10 - Variables aléatoires Cours complet - …cpgedupuydelome.fr/IMG/pdf/10_-_variables_aleatoires_cours_comple… · Chapitre 10 : Variables aléatoires – Cours complet. - 3 -

Chapitre 10 : Variables aléatoires – Cours complet. - 35 -

Le th 8.9 garantit alors que

JjAi

iAi

i

jj

xx∈∈

+

−∑∑ est encore sommable et que :

∑ ∑∑ ∑∑ ∑∑∈ ∈

∈ ∈

+

∈ ∈

+

=

Jj Aii

Jj Aii

Jj Aii

Aii

jjjj

xxxx .

En regroupant les résultats précédents, on conclut que :

∑ ∑∑ ∑∑∑ ∑∑ ∑∑∑∑∈ ∈∈ ∈

+

∈ ∈

∈ ∈

+

+

=

−=

=−=

Jj Aii

Jj Aii

Aii

Jj Aii

Jj Aii

Iii

Iii

Iii

jjjjj

xxxxxxxx .

Remarque :

Dans cette équivalence, la présence des valeurs absolues dans Jj

Aii

j

x∈∈

∑ est essentielle.

En effet, si on considère la série ∑≥

−0

)1(n

n , et les ensembles : Aj = 2.j, 2.j+1, avec ; j ∈ , alors toute

famille (xj)jAi∈ est sommable (avec deux éléments : 1 + |– 1| = 2, pour tout j) mais la famille

JjAi

i

j

x∈∈

∑ n’est pas sommable alors que

JjAi

i

j

x∈∈

∑ l’est (famille nulle).

La série considérée n’étant pas absolument convergente, la famille globale ne peut être sommable.

Théorème 8.11 : théorème de Fubini pour les famille s sommables de réels. Soit (xi,j)(i,j)∈I×J une famille « double » de réels. Il y a équivalence entre : • la famille (xi,j)i,j∈I×J est sommable,

• ∀ j ∈ J, la famille (xi,j)i∈I est sommable et la famille JjIi

jix∈∈

∑ , est sommable,

• ∀ i ∈ I, la famille (xi,j)j∈J est sommable et la famille IiJj

jix∈∈

∑ , est sommable.

Si l’une de ces trois affirmations est vérifiée, alors : ∑ ∑∑ ∑∑∈ ∈∈ ∈×∈

=

=Ii Jj

jiJj Ii

jiJIji

ji xxx ,,),(

, .

Démonstration : Il suffit d’appliquer deux fois le th 8.10 avec les partitions : I×J = UU

JjIi

jIJi∈∈

×=× .