zbiór zadań z rachunku prawdopodobieństwa i statystyki

164
Stanislaw Jaworski Wojciech Zieliński Zbiór zadań z rachunku prawdopodobieństwa i statystyki matematycznej Wersja 3/12/2014

Upload: doandien

Post on 11-Jan-2017

275 views

Category:

Documents


14 download

TRANSCRIPT

Page 1: Zbiór zadań z rachunku prawdopodobieństwa i statystyki

Stanisław JaworskiWojciech Zieliński

Zbiór zadańz rachunku prawdopodobieństwai statystyki matematycznej

Wersja 3/12/2014

Page 2: Zbiór zadań z rachunku prawdopodobieństwa i statystyki

Spis treści

Przedmowa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3

Powtórka z analizy matematycznej i algebry liniowej . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4

1. Elementy rachunku prawdopodobieństwa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7

2. Zmienne losowe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16

3. Wektory losowe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23

4. Funkcje wektorów losowych . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35

5. Rozkład dwupunktowy . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .37

6. Rozkład dwumianowy . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .38

7. Rozkład ujemny dwumianowy . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .40

8. Rozkład Poissona . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41

9. Rozkład hipergeometryczny . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42

10. Rozkład jednostajny . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43

11. Rozkład beta . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45

12. Rozkład gamma . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46

13. Rozkład normalny . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50

14. Inne rozkłady prawdopodobieństwa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .53

15. Wielowymiarowy rozkład normalny . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .65

16. Twierdzenia graniczne . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 68

17. Statystyka matematyczna - preliminaria . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 76

18. Estymatory nieobciążone o minimalnej wariancji . . . . . . . . . . . . . . . . . . . . . . . . . . . . .82

19. Metoda największej wiarogodności . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 95

20. Metoda najmniejszych kwadratów . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .104

21. Estymacja przedziałowa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .113

22. Weryfikacja hipotez statystycznych . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 122

23. Elementy statystyki bayesowskiej . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .143

24. Podejmowanie decyzji statystycznych . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .149

25. Statystyki próbkowe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 154

Bibliografia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 155

Copyright c⃝ Stanisław Jaworski & Wojciech Zieliński

Page 3: Zbiór zadań z rachunku prawdopodobieństwa i statystyki

Przedmowa

Niniejsza książeczka powstała na bazie wieloletnich doświadczeń dydaktycznych pro-wadzenia przedmiotów Rachunek prawdopodobieństwa oraz Statystyka Matematycznana kierunku Ekonometria i Informatyka w Szkole Głównej Gospodarstwa Wiejskiegow Warszawie. Jej celem jest zebranie podstawowych informacji pojawiających sięw trakcie wykładów oraz udostępnienie Studentom zadań.

Książeczka składa się z rozdziałów będących tematami kolejnych spotkań wykłado-wych i ćwiczeniowych. Na początku każdego rozdziału podane są najważniejsze de-finicje, twierdzenia i wzory, następnie rozwiązane są przykładowe zadania i podanesą zadania do samodzielnego rozwiązania. Nie należy traktować książki jako wykładuz rachunku prawdopodobieństwa i statystyki matematycznej, lecz jako przewodnik dolepszego zrozumienia wykładów i ćwiczeń.

Do zadań nie podano odpowiedzi. Wynika to stąd, że celem tych zadań jest nie tyleuzyskanie konkretnego wyniku liczbowego, ile „zmuszenie” Czytelnika do maksymal-nie samodzielnej analizy zagadnienia. Poza tym, każde z prezentowanych zadań możnarozwiązać korzystając z różnych technik matematycznych, Na zakończenie podanogarść informacji bibliograficznych. Literatura przedmiotu jest bardzo bogata i wybórtych, a nie innych książek po pierwsze nie wyczerpuje spektrum bibliograficznego, a podrugie podyktowany jest ich dostępnością w księgarniach i bibliotekach. Ze względuna podstawowy charakter wykładu w spisie literatury można znaleźć zarówno pozycjenajnowsze, jak i sprzed kilkudziesięciu lat. Należy zwrócić uwagę, że ich „zabytkowość”w niczym nie umniejsza ich wartości merytorycznej i poznawczej.

Copyright c⃝ Stanisław Jaworski & Wojciech Zieliński

Page 4: Zbiór zadań z rachunku prawdopodobieństwa i statystyki

4 Powtórka z analizy matematycznej i algebry liniowej Wersja 3/12/2014

Powtórka z analizy matematycznej i algebry liniowej

Pochodna funkcji. Znaleźć pochodne następujących funkcji:

1. f(x) = xp(1− x)q

2. f(x) = (1 + x)√2 + x2 3

√3 + x3

3. f(x) =√x+

√x+√x

4. f(x) = e−x2

5. f(x) = ex(x2 − 2x+ 2)

6. f(x) = ex + eex

+ eeex

7. f(x) =[1−x22 sinx−

(1+x)2

2 cosx]e−x

8. f(x) = ln(ln2(ln3 x))

9. f(x) = ln 1−√x√

1+ 3√x+ 3√x2

10. f(x) = ln(ex +

√1 + e2x

)11. f(x) = x+ xx + xx

x

12. f(x) = logx e

13. f(x) = 14√3ln√x2+2−x

√3√

x2+2+x√3

Przebieg zmienności funkcji. Zbadać przebieg zmienności i narysować wykresynastępujących funkcji:

1. f(x) = xn

1−xm w zależności od parametrów n,m > 0

2. f(x) = xm exp−xn w zależności od parametrów n,m

3. f(x) = x4 + x3 + x2

4. f(x) = x3

x2−1

5. f(x) = x3 − 3x2 − 9x+ 10

6. f(x) = 2x2

(2−x)2

7. f(x) = 2|x|2(2−|x|)2

8. f(x) =√2x− x2

9. f(x) = x4 + 4x− 2

10. f(x) = x3 − 3x2

11. f(x) = expx2

x2−1

Copyright c⃝ Stanisław Jaworski & Wojciech Zieliński

Page 5: Zbiór zadań z rachunku prawdopodobieństwa i statystyki

Wersja 3/12/2014 Powtórka z analizy matematycznej i algebry liniowej 5

12. f(x) = (x− 3) + 2x−6x+2 +4x−12(x+2)2 + · · ·

13. f(x) = log xx

Różniczkowanie szeregu. Jeżeli wyrazy szeregu są w pewnym przedziale różnicz-kowalne i szeregi

∑fn(x) oraz

∑f ′n(x) są na tym przedziale jednostajnie zbieżne, to

(∑fn(x))

′ =∑f ′n(x)

Całka nieoznaczona. Wyznaczyć całki:

1.∫ (x2 − x−5 + 1x + e

x)dx,

2.∫xex dx,

3.∫x2ex dx,

4.∫(5x + cosx) dx,

5.∫ ( 1sin2 x +

1√1−x2

)dx,

6.∫(x cosx+ x lnx) dx

7.∫ f ′(x)f(x) dx,

8.∫ 1/x+1x+ln x dx,

9.∫ ( 1x+3 +

1(x−2)2

)dx,

10.∫(x+ 3)2ex+3 dx,

11.∫sin(x+ π/2) dx,

12.∫

dx√1−(x−2)2

13.∫ 1

(x+3)2+1dx,

Całka oznaczona. Wyznaczyć całki:

1.π/2∫0(x2 + 3x− sinx+ arctgx+ ln(x+ 1)) dx

2.1∫0

1x−1 dx

3.∞∫0

1x dx

4.3∫2

1x−2 dx

5.3∫2(x− 2)2 dx

Copyright c⃝ Stanisław Jaworski & Wojciech Zieliński

Page 6: Zbiór zadań z rachunku prawdopodobieństwa i statystyki

6 Powtórka z analizy matematycznej i algebry liniowej Wersja 3/12/2014

6.∞∫1ln(x− 1) dx

7.π/2∫−π/2sin(x+ π/2) dx

8.3∫2x lnx dx

9.∞∫0(x2e−x − xe−x − e−x) dx

10.∞∫−∞x2I(−1,1)(x) dx

11.∞∫−∞

1x2 dx

12.∞∫−∞

1(x+2)2 dx

13.∞∫0

(x3I(−1,1)(x) + x4I(1,5)(x) + x2e−xI(1,15)

)dx

Wyznaczanie całek dwukrotnych.

1. O zamianie całki podwójnej na iterowaną. Niech funkcja f będzie ciągła naprostokącie A =< a, b > × < c, d >. Wtedy∫

A

f(x, y) dx dy =∫ ba

(∫ dc

f(x, y) dy

)dx =

∫ dc

(∫ ba

f(x, y) dx

)dy

2. Całka podwójna z funkcji o rozdzielonych zmiennych. Jeżeli funkcja g jestciągła na < a, b > oraz funkcja h jest ciągła na < c, d > to∫

A

g(x)h(y) dx dy =

(∫ ba

g(x) dx

(∫ dc

h(y) dy

)gdzie A =< a, b > × < c, d >.3. Całki iterowane po obszarach normalnych. Jeżeli funkcja f jest ciągła naobszarze normalnym D = (x, y)| a ≤ x ≤ b, g(x) ≤ y ≤ h(x) to∫

D

f(x, y) dx dy =∫ ba

(∫ h(x)g(x)f(x, y) dy

)dx

Jeżeli funkcja f jest ciągła na obszarze normalnym D = (x, y)| c ≤ y ≤ d, g(y) ≤x ≤ h(y) to ∫

D

f(x, y) dx dy =∫ dc

(∫ h(y)g(y)f(x, y) dx

)dy

Copyright c⃝ Stanisław Jaworski & Wojciech Zieliński

Page 7: Zbiór zadań z rachunku prawdopodobieństwa i statystyki

Wersja 3/12/2014 Powtórka z analizy matematycznej i algebry liniowej 7

4. Współrzędne biegunowe w całce podwójnej. Niech obszar ∆ we współ-rzędnych biegunowych będzie obszarem normalnym, funkcja f będzie ciągła naobszarze D, który jest obrazem obszaru ∆ przy przekształceniu biegunowym:

D = B(∆) = (ϱ cos(φ), ϱ sin(φ))| (ϱ, φ) ∈ ∆

Wtedy ∫D

f(x, y) dxdy =∫∆f(ϱ cos(φ), ϱ sin(φ))ϱ dϱ dφ

Wyznaczanie całek wielokrotnych. Przy wyznaczaniu całek wielokrotnych po-sługujemy się ogólnym twierdzeniem, że jeżeli funkcja f jest funkcją mierzalną orazf ≥ 0 lub jedna z całek iterowanych funkcji |f | jest skończona, to wolno zamieniaćporządek całkowania.

Wyznaczyć całki:

1.∫D

(x+ y) dxdy, gdzie D = (x, y) ∈ R2 : 0 ≤ y ≤ x, x ≤ 1

2.∫D

exp(x/y) dxdy, gdzie D = (x, y) ∈ R2 : x2 ≤ y ≤ 1, x > 0

3.∫D

1√x2+y2

dxdy, gdzie D = (x, y) ∈ R2 : 1 ≤ x2 + y2 ≤ 4

4.∫D

dxdy, gdzie D = (x, y) ∈ R2 : arcsin(x) < y < π/2, x > 0

5.∫D

x2√x2 + y2 dxdy, gdzie D = (x, y) ∈ R2 : x, y ≥ 0, x2 + y2 ≤ 4

6.∫D

ln(x2 + y2) dxdy, gdzie D = (x, y) ∈ R2 : e2 ≤ x2 + y2 ≤ e4

7.∫D

e−x2dxdy, gdzie D = (x, y) ∈ R2 : 0 < y < x

8.∫D

(x2 + xy2) dxdy, gdzie D = (x, y) ∈ R2 : 1 < x < 2, 0 < y < 3

9.∫D

sin(x+ y) dxdy, gdzie D = (x, y) ∈ R2 : −π4 < x <π4 , 0 < y <

π4

10.∫D

xy√x2+y2+1

dxdy, gdzie D = (x, y) ∈ R2 : 0 < x < 1, 0 < y < 1

11.∫D

(x2 − xy) dxdy, gdzie D = (x, y) ∈ R2 : y ≥ x, y ≤ −x2 + 3x

12.∫D

xy dxdy, gdzie D jest obszarem ograniczonym krzywymi: xy = 1, |x− y| = 1

13.∫D

y dxdy, gdzie D jest obszarem ograniczonym krzywymi: y = 2 − y2, y =

−1, y = 1, x = 1−√1− y2

Copyright c⃝ Stanisław Jaworski & Wojciech Zieliński

Page 8: Zbiór zadań z rachunku prawdopodobieństwa i statystyki

8 Powtórka z analizy matematycznej i algebry liniowej Wersja 3/12/2014

Hesjan. Hesjanem funkcji f : Rn → R w punkcie x = (x1, . . . , xn) nazywamymacierz

H(x) =

∂2f∂x1∂x1

(x) ∂2f∂x1∂x2

(x) . . . ∂2f∂x1∂xn

(x)∂2f∂x2∂x1

(x) ∂2f∂x2∂x2

(x) . . . ∂2f∂x2∂xn

(x)...

.... . .

∂2f∂xn∂x1

(x) ∂2f∂xn∂x2

(x) . . . ∂2f∂xn∂xn

(x)

Ekstrema funkcji wielu zmiennych. Niech funkcja f : Rn → R ma ciągłe po-chodne cząstkowe rzędu drugiego oraz ( ∂f∂x1 (x), . . . ,

∂f∂xn(x)) = (0, . . . , 0). Jeżeli ma-

cierzH(x) jest dodatnio określona, to funkcja f osiąga minimum lokalne w punkcie x.Jeżeli macierz H(x) jest ujemnie określona, to funkcja f osiąga maksimum lokalne wpunkcie x.

Ekstrema warunkowe. Warunkiem koniecznym dla istnienia ekstremum funkcjif : Rn → R przy ograniczeniach

φi(x1, x2, . . . , xn) = 0, i = 1, . . . , k

jest, aby funkcja Lagrange’a L : Rn+k → R określona równaniem

L(x1, x2, . . . , xn, λ1, λ2, . . . , λk) = f(x1, x2, . . . , xn)−λ1φ(x1)−λ2φ(xk)−. . .−λkφ(xk)

miała ciągłe pochodne cząstkowe oraz spełniała układ równań: ∂L

∂xi(x1, x2, . . . , xn, λ1, λ2, . . . , λk) = 0 dla i = 1, . . . , n;

φi(x1, x2, . . . , xn) = 0 dla i = 1, . . . , k.

Liczby λ1, . . . , λk nazywane są mnożnikami Lagrange’a.

Wyznaczyć ekstrema lokalne funkcji f :

1. f(x, y) = (x− y)2 + (y + 2)3

2. f(x, y) = xy ln(x2 + y2)

3. f(x, y) = e−x2−y2

4. f(x, y) = x2 + xy + y2 − 4 ln(x)− 10 ln(y)

5. f(x, y) = (x+ y2)ex2

6. f(x, y) = x4 − y4

7. f(x, y) = x3 + y3 − 9xy + 12

8. f(x, y) = 4xy(1− x− y) + 7

9. f(x, y) = xy + 1/x+ 1/y

10. f(x, y) = x3 − 2y3 − 3x+ 6y

Copyright c⃝ Stanisław Jaworski & Wojciech Zieliński

Page 9: Zbiór zadań z rachunku prawdopodobieństwa i statystyki

Wersja 3/12/2014 Powtórka z analizy matematycznej i algebry liniowej 9

11. f(x, y) = 8x2 + 3y2 − 4xy przy ograniczeniu x2 + y2 = 112. f(x, y) = x2 + y2 przy ograniczeniu x3 + y3 − 8xy = 0

13. f(x, y) = exp((x− 5)2 + (y − 5)2) przy ograniczeniuy∫x

t10 ln(t) dt = 10

Funkcja Gamma. Funkcja Gamma określona jest dla x > 0 wzorem

Γ(x) =∫ ∞0tx−1e−tdt

Najważniejsze własności funkcji Gamma:

1. Γ(x+ 1) = xΓ(x)

2. Γ(n) = (n− 1)! dla naturalnych n3. Γ(1/2) =

√π

Funkcja Beta. Funkcja Beta określona jest dla x, y > 0 wzorem

B(x, y) =∫ 10tx−1(1− t)y−1dt

Najważniejsze własności funkcji Beta:

1. B(x, y) = Γ(x)Γ(y)Γ(x+y)

2. n(n+m−1n

)B(n,m) = 1 dla naturalnych n,m

Cześć całkowita. Częścią całkowitą ⌊x⌋ liczby x nazywamy największą liczbę cał-kowitą n taką, że n ≤ x.

Cześć ułamkowa. Częścią ułamkową ⌈x⌉ liczby x nazywamy x− ⌊x⌋.

O małe, o duże, ∼. Symbole O(·), o(·), ∼ oznaczają sposób wzajemnego zachowniasię dwóch funkcji f(x) oraz g(x), gdy argument x zmierza do pewnej (niekoniecznieskończonej) granicy a. Zapis f(x) = O(g(x)), x→ a, oznacza, że |f(x)/g(x)| pozostajeograniczone, gdy x→ a. Zapis f(x) = o(g(x)), x→ a, oznacza, że lim

x→af(x)g(x) = 0. Zapis

f(x) ∼ g(x), x→ a, oznacza, że limx→a

f(x)g(x) = 1

Nierówność Schwarza. Niech x1, . . . , xn ∈ R oraz y1, . . . , yn ∈ R. Wówczas(n∑i=1

xiyi

)2≤∑i=1

x2i

n∑i=1

y2i

Niech f i g będą funkcjami całkowalnymi. Wówczas(∫f(x)g(x)dx

)2≤(∫f2(x)dx

)(∫g2(x)dx

).

Copyright c⃝ Stanisław Jaworski & Wojciech Zieliński

Page 10: Zbiór zadań z rachunku prawdopodobieństwa i statystyki

10 Powtórka z analizy matematycznej i algebry liniowej Wersja 3/12/2014

Najważniejsze pojęcia algebry liniowej.

Niech A będzie macierzą o m wierszach i n kolumnach:

A = [aij ] i=1,...,mj=1,...,n

=

a11 . . . a1n· · · · · · · · ·am1 . . . amn

.Macierz o jednej kolumnie (tzn. n = 1) nazywamy wektorem.

Macierz m× n złożoną z samych zer nazywamy zerową i oznaczamy przez 0m×n.

Macierz A nazywamy kwadratową stopnia n, jeżeli m = n.

Macierz kwadratową [aij ] stopnia n taką, że aii = 1 dla wszystkich i oraz aij = 0 dlai = j nazywamy jednostkową i oznaczamy przez In.

Wektor złożony z n jedynek oznaczamy przez 1n.

Macierzm×n złożoną z samych jedynek oznaczamy przez Jm×n. Jak łatwo sprawdzić:Jm×n = 1m1′n.

TranspozycjąmacierzyA = [aij ] i=1,...,mj=1,...,n

nazywamy macierzAT = [a′ij ] i=1,...,nj=1,...,m

taką,

że a′ij = aji.

Długością wektora a = (a1, a2, . . . , an)T nazywamy liczbę

∥a∥ =√aTa =

√√√√ n∑i=1

a2i .

Wektory a oraz b nazywamy liniowo niezależnymi, jeżeli jedynym rozwiązaniemrównania αa+ βb = 0 jest α = β = 0.

Rzędem macierzy A (rzA) nazywamy liczbę liniowo niezależnych kolumn tej macie-rzy. Macierz A jest pełnego rzędu, jeżeli rzA = minm,n.

Obrazem macierzy A (ImA) nazywamy podprzestrzeń liniową Aa : a ∈ Rn prze-strzeni Rm.

Wektory a i b nazywamy ortogonalnymi (prostopadłymi), jeżeli aT b = 0.

Dopełnieniem algebraicznym elementu aij macierzyA nazywamy wyznacznik Aijmacierzy powstałej z macierzy A przez skreślenie i-tego wiersza oraz j-tej kolumny.

Niech A będzie macierzą kwadratową. Wyznacznikiem macierzy A nazywamyliczbę detA określoną w następujący rekurencyjny sposób:

det[a11] = a11, detA =n∑i=1

(−1)i+1ai1Ai1,

gdzie Ai1 jest dopełnieniem algebraicznym elementu ai1.

Copyright c⃝ Stanisław Jaworski & Wojciech Zieliński

Page 11: Zbiór zadań z rachunku prawdopodobieństwa i statystyki

Wyznacznik macierzy można obliczać także z następującego wzoru:

detA =n∑i=1

(−1)i+jaijAij , dla dowolnego 1 ≤ j ≤ n,

lub

detA =n∑j=1

(−1)i+jaijAij , dla dowolnego 1 ≤ i ≤ n.

W szczególności

det[a11 a12a21 a22

]= a11a22 − a12a21.

Niech A będzie macierzą kwadratową stopnia n pełnego rzędu (rzA = n).Macierząodwrotną do macierzy A nazywamy taką macierz A−1, że AA−1 = A−1A = In.

Jeżeli detA = 0, to A−1 = [(−1)i+jAij/detA]i,j=1,...,n. W szczególności[a11 a12a21 a22

]−1=[a22 −a21−a12 a11

]/detA .

Jeżeli A i D są symetrycznymi macierzami takimi, że odpowiednie odwrotności ist-nieją, to [

A BBT D

]−1=[A−1 + FE−1FT −FE−1−E−1FT E−1

],

gdzie E =D−BTA−1B oraz F = A−1B.

Niech A będzie macierzą nieosobliwą i niech u oraz v będą dwoma wektorami kolum-nowymi. Wówczas

(A+ uvT )−1 = A−1 − (A−1u)(vTA−1)1 + vTA−1u

.

Macierz symetryczną A (AT = A) nazywamy dodatnio określoną, jeżeli dla do-wolnego wektora a = 0 zachodzi aTAa > 0. Na mocy kryterium Sylvestera ma-cierz symetryczna A = [aij ] i=1,...,n

j=1,...,njest dodatnio określona wtedy i tylko wtedy, gdy

wszystkie jej wiodące minory główne są dodatnie, tzn.

det

a11 a12 . . . a1ka21 a22 . . . a2k...

.... . .

ak1 ak2 . . . akk

> 0, dla k = 1, . . . , n

Macierz symetryczną A (AT = A) nazywamy ujemnie określoną, jeżeli macierz−A jest dodatnio określona.

Copyright c⃝ Stanisław Jaworski & Wojciech Zieliński

Page 12: Zbiór zadań z rachunku prawdopodobieństwa i statystyki

12 Elementy rachunku prawdopodobieństwa Wersja 3/12/2014

1. Elementy rachunku prawdopodobieństwa

Przestrzeń zdarzeń elementarnych. Pojęciem pierwotnym w rachunku prawdo-podobieństwa jest przestrzeń zdarzeń elementarnych Ω.

σ-ciało. Rodzinę F spełniającą warunki

1. F = ∅

2. Jeśli A ∈ F , to Ω \A ∈ F

3. Jeśli Ai ∈ F dla i = 1, 2, . . . , to∞∪i=1Ai ∈ F

nazywamy σ-ciałem podzbiorów zbioru Ω

Zdarzenie losowe. Elementy rodziny F nazywamy zdarzeniami losowymi.

Prawdopodobieństwo. Miarą prawdopodobieństwa nazywamy dowolną funkcję P :F → R taką, że

1. (∀A ∈ F) P (A) ≥ 0

2. P (Ω) = 1

3. Jeśli (Ai)i=1,2,... ∈ F , Ai ∩Aj = ∅ dla i = j, to

P

(n∪i=1

Ai

)=n∑i=1

P (Ai)

Przestrzeń probabilistyczna. Przestrzenią probabilistyczną nazywamy trójkę

(Ω,F , P )

Własności prawdopodobieństwa. Niech A, B, A1, . . . , An ∈ F . Wówczas

1. P (∅) = 0

2. jeżeli Ai ∩Aj = ∅ dla i = j, to

P

(n∪i=1

Ai

)=n∑i=1

P (Ai)

3. P (A′) = 1− P (A), gdzie A′ = Ω \A

4. Jeśli A ⊆ B, to P (B \A) = P (B)− P (A)

5. Jeśli A ⊆ B, to P (A) ≤ P (B)

Copyright c⃝ Stanisław Jaworski & Wojciech Zieliński

Page 13: Zbiór zadań z rachunku prawdopodobieństwa i statystyki

Wersja 3/12/2014 Elementy rachunku prawdopodobieństwa 13

6. P (A) ≤ 17. P (A ∪B) = P (A) + P (B)− P (A ∩B)

Prawdopodobieństwo warunkowe. Niech B będzie takim zdarzeniem, że P (B) >0. Prawdopodobieństwem warunkowym zajścia zdarzenia A pod warunkiem zaj-ścia zdarzenia B nazywamy liczbę

P (A|B) = P (A ∩B)P (B)

Jeśli P (A1 ∩ . . . ∩An−1) > 0, to

P (A1 ∩ . . . ∩An) = P (A1)P (A2|A1)P (A3|A1 ∩A2) · · ·P (An|A1 ∩ . . . ∩An−1).

Prawdopodobieństwo całkowite. Rozbiciem przestrzeni Ω nazywamy rodzinęzdarzeń Hii=1,...,n, które wzajemnie wykluczają się, zaś ich suma jest równa Ω.

Twierdzenie 1.1. Niech Hii=1,...,n będzie rozbiciem przestrzeni Ω na zdarzeniao dodatnich prawdopodobieństwach. Wówczas dla dowolnego zdarzenia A zachodzi

P (A) =n∑i=1

P (A|Hi)P (Hi)

Wzór Bayesa. Niech Hii=1,...,n będzie rozbiciem Ω na zdarzenia o dodatnich praw-dopodobieństwach i P (A) > 0. Wówczas dla dowolnego j ∈ 1, . . . , n mamy

P (Hj |A) =P (A|Hj)P (Hj)∑ni=1 P (A|Hi)P (Hi)

Niezależność zdarzeń. Zdarzenia A oraz B nazywamy niezależnymi, gdy

P (B|A) = P (B), P (A) > 0.

Zdarzenia A oraz B są niezależne, gdy

P (A ∩B) = P (A)P (B).

Zdarzenia A1, . . . , An nazywamy niezależnymi, gdy

P (Ai1 ∩ . . . ∩Aik) = P (Ai1) . . . P (Aik)

dla 1 ≤ ii < i2 < · · · < ik ≤ n, k = 2, 3, . . . , n.

Zadania do samodzielnego rozwiązania

1.1. Tarcza strzelecka składa się z trzech koncentrycznych kół o promieniach odpo-wiednio 1, 2 i 3. Za trafienie w środkowe koło zdobywa się trzy punkty, za trafieniew kolejne pierścienie (licząc od środka koła) odpowiednio dwa i jeden punkt. Jakiejest prawdopodobieństwo uzyskania co najmniej trzech punktów w dwóch strzałach?(Zakładamy, że każdy strzał trafia w tarczę.)

Copyright c⃝ Stanisław Jaworski & Wojciech Zieliński

Page 14: Zbiór zadań z rachunku prawdopodobieństwa i statystyki

14 Elementy rachunku prawdopodobieństwa Wersja 3/12/2014

1.2. W grupie studenckiej jest 20 osób. Na ćwiczeniach Student do odpowiedzi lo-sowany jest na podstawie wyniku rzutu kostką dwudziestościenną. Jakie jest praw-dopodobieństwo, że ten sam Student zostanie wyrwany do odpowiedzi trzykrotniez rzędu?

1.3. Autobus przyjeżdża na przystanek co piętnaście minut. Jakie jest prawdopodo-bieństwo tego, że przychodząc na przystanek w losowym momencie będziemy czekaćna autobus nie dłużej niż pięć minut?

1.4. Pan Roztargniony zapomniał ostatniej cyfry telefonu do znajomego. W związkuz tym wykręcając numer telefonu ostatnią cyfrę wybiera losowo. Jakie jest prawdopo-dobieństwo tego, że dodzwoni się, jeżeli ma do dyspozycji cztery żetony telefoniczne?

1.5. Na egzamin przygotowanych jest 100 pytań. Student zna odpowiedź na 80 z nich.Egzaminator przerywa egzamin w chwili, gdy Student nie umie odpowiedzieć na pyta-nie, lecz nie później niż po piątym pytaniu. Ocena końcowa jest równa liczbie pytań, naktóre odpowiedział Student. Jakie jest prawdopodobieństwo tego, że Student otrzymaocenę co najmniej dobrą?

1.6. Rzucono trzema kostkami. Jakie jest prawdopodobieństwo, że przynajmniej najednej kostce wypadnie jedynka, jeżeli na każdej kostce wypadnie inna liczba oczek?

1.7. Z talii 52 kart wyciągnięto losowo jedną kartę. Jakie jest prawdopodobieństwo,że jest to siódemka, jeżeli wiadomo, że wyciągnięta karta nie jest ani figurą ani asem?

1.8. Z talii 52 kart wyciągamy losowo jedną kartę. Rozpatrzmy zdarzenia:A - wyciągnęliśmy asa,B - wyciągnęliśmy kartę koloru czerwonego,C - wyciągnęliśmy asa karo,D - wyciągnęliśmy dziewiątkę.Które z par zdarzeń są niezależne?

1.9. Rzucamy czterokrotnie symetryczną monetą. Obliczyć prawdopodobieństwo uzy-skania 0, 1, 2, 3 oraz 4 orłów. Dane są następujące zdarzenia:A - wypadły cztery orły,B - wypadła parzysta liczba orłów,C - wypadło więcej orłów niż reszek.Obliczyć prawdopodobieństwa następujących zdarzeń:

P (A), P (B), P (C), P (A|B), P (B|A), P (A|C), P (C|A), P (B|C), P (C|B).

1.10. Troje dzieci: Ania, Basia i Czesio zmywają szklanki. Najstarsza Ania zmywa dwarazy częściej niż młodsza Basia, zaś Basia trzy razy częściej niż najmłodszy Czesio.Wiadomo, że prawdopodobieństwo zbicia szklanki w czasie zmywania wynosi dla Ani0.01, dla Basi wynosi 0.04 natomiast dla Czesia 0.5. Jakie jest prawdopodobieństwo,że w czasie zmywania zostanie zbita jedna szklanka?

Pewnego dnia po powrocie z pracy mama zauważyła, że jedna ze szklanek jest zbita,a żadne z dzieci nie chciało się przyznać do zniszczenia szklanki. Które z dzieci naj-prawdopodobniej zmywało tego dnia?

Copyright c⃝ Stanisław Jaworski & Wojciech Zieliński

Page 15: Zbiór zadań z rachunku prawdopodobieństwa i statystyki

Wersja 3/12/2014 Elementy rachunku prawdopodobieństwa 15

1.11. Przedsiębiorstwo zawarło umowy z zakładami Z1, Z2 oraz Z3 na dostawę pod-zespołów. Zakład Z1 dostarcza 50%, zakład Z2 dostarcza 35% natomiast zakład Z3dostarcza 15% potrzebnych podzespołów. Wiadomo, że 95% dostaw zakładu Z1, 80%dostaw zakładu Z2 oraz 85% dostaw zakładu Z3 odpowiada wymaganiom technicz-nym. Jakie jest prawdopodobieństwo, że jeden wylosowany podzespół odpowiada wy-maganiom technicznym?

Do punktu serwisowego zgłasza się klient z urządzeniem, w którym uszkodzony jestpodzespół. Jakie jest prawdopodobieństwo, że producentem zepsutego podzespołu byłzakład Z1?

1.12. Na wspólnej klasówce z matematyki spotkali się Studenci I roku z dwóch grup.W pierwszej grupie jest 15 pań oraz 10 panów, zaś w drugiej jest 12 panów i 13 pań.Prawdopodobieństwo, że pani z grupy pierwszej rozwiąże zadanie na klasówce wy-nosi 0.8, natomiast prawdopodobieństwo to dla pana wynosi 0.7. W drugiej grupieprawdopodobieństwa te kształtują się odpowiednio 0.9 oraz 0.85. Jak duży odsetekwszystkich Studentów rozwiąże zadanie na klasówce? Przy sprawdzaniu prac oka-zało się, że ktoś przygotował ściągawkę. Określić, kim najprawdopodobniej był autorściągawki (tzn. określić płeć i grupę autora).

1.13. Wśród 300 zdających egzamin wstępny z matematyki jest 200 absolwentówklas matematyczno-fizycznych, 75 absolwentów klas ogólnokształcących oraz 25 ab-solwentów klas humanistycznych. Prawdopodobieństwo zdania egzaminu przez absol-wenta klasy matematyczno-fizycznej wynosi 0.9, klasy ogólnokształcącej wynosi 0.25,zaś klasy humanistycznej 0.1. Jakie jest prawdopodobieństwo, że losowo wybranyprzystępujący do egzaminu zda go pomyślnie? Jaki jest odsetek absolwentów klasmatematyczno-fizycznych, klas humanistycznych oraz klas ogólnokształcących wśródosób, które zdały egzamin?

1.14. Sklep jest zaopatrywany w żarówki pochodzące z trzech fabryk, przy czym20% żarówek pochodzi z pierwszej fabryki, 30% z drugiej, 50% z trzeciej. Produkcjapierwszej fabryki zawiera 1% żarówek wadliwych, produkcja drugiej – 5% żarówekwadliwych, a produkcja trzeciej fabryki 10% żarówek wadliwych. Obliczyć prawdopo-dobieństwo, że losowo wybrana żarówka będzie wadliwa.

1.15. W szpitalu na oddziale wewnętrznym przebywa rocznie średnio 2000 chorych.Wśród leczonych było 800 cierpiących na chorobę K1, 600 cierpiących na chorobęK2, 400 cierpiących na chorobę K3 oraz 200 cierpiących na chorobę K4. Prawdopo-dobieństwo pełnego wyleczenia z chorób wynosiło odpowiednio 0.9, 0.8, 0.7 oraz 0.5.Obliczyć prawdopodobieństwo, że losowo wypisany pacjent jest całkowicie wyleczony.

1.16. W magazynie znajdują się opony do samochodów osobowych. Pochodzą onew 20% z fabryki F1, w 30% z fabryki F2 i w 50% z fabryki F3. Wiadomo, że produk-cja wadliwych opon w poszczególnych fabrykach wynosi odpowiednio 5%, 4%, 3%.Obliczyć prawdopodobieństwo, że losowo wybrana opona będzie wadliwa.

1.17. W fabryce trzech robotników wykonuje te same detale, przy czym 30% detaliwykonuje robotnik I, 45% – robotnik II, a resztę robotnik III. Robotnicy wytwarzają

Copyright c⃝ Stanisław Jaworski & Wojciech Zieliński

Page 16: Zbiór zadań z rachunku prawdopodobieństwa i statystyki

16 Elementy rachunku prawdopodobieństwa Wersja 3/12/2014

odpowiednio 2%, 1% oraz 3% braków. Jakie jest prawdopodobieństwo, że losowo wy-brany detal okaże się dobry?

1.18.Mamy dwie urny z kulami. W urnie nr 1 są trzy białe i dwie czarne kule, w urnienr 2 są cztery białe i cztery czarne. Z urny nr 1 przekładamy losowo dwie kule dourny nr 2, a następnie wyciągamy jedną kulę z urny nr 2. Jakie prawdopodobieństwo,że będzie to kula biała?

1.19. Mamy dwie urny z kulami. W każdej z nich jest pięć czarnych, dziesięć czer-wonych i sześć białych kul. Jakie jest prawdopodobieństwo, że ciągnąc po jednej kuliz każdej urny wylosujemy kule tego samego koloru?

1.20. Spośród 64 pól szachownicy wybieramy losowo dwa różne pola i ustawiamy nanich dwie jednakowe figury: białą i czarną. Obliczyć prawdopodobieństwo, że figuryte nie będą zagrażać sobie wzajemnie, jeżeli ustawiono

a. dwa hetmany;

b. dwa gońce;

c. dwa skoczki;

d. dwie wieże.

1.21. Z urny zawierającej trzy kule białe i dwie kule czarne przełożono dwie wycią-gnięte losowo kule do urny zawierającej cztery białe i cztery czarne kule. Obliczyćprawdopodobieństwo wyciągnięcia białej kuli z drugiej urny.

1.22. W trzech urnach znajdują białe i czarne kule. W pierwszej z nich sa dwie kulebiałe i trzy czarne, w drugiej dwie białe i dwie czarne, a w trzeciej trzy białe i jednaczarna. Przekładamy wylosowaną kulę z pierwszej urny do drugiej, a następnie losowowybraną kulę z drugiej urny do trzeciej. Wreszcie wybraną losowo kulę przekładamyz urny trzeciej do pierwszej.

a. Jaki skład pierwszej urny jest najbardziej prawdopodobny?

b. Obliczyć prawdopodobieństwo, że skład wszystkich trzech urn pozostanie niezmie-niony.

1.23. Pewien Student nie zna odpowiedzi na niektóre z pytań na kartkach egzamina-cyjnych. W jakim przypadku szansa wyciągnięcia przez niego kartki z pytaniem, naktóre nie zna odpowiedzi, będzie najmniejsza: jeżeli losuje pierwszy, czy jeżeli losujeostatni?

1.24. Prawdopodobieństwo, że wyroby pewnej fabryki spełniają wymagane normywynosi 0.96. Zakładamy uproszczony system sprawdzania, który daje rezultat dodatniz prawdopodobieństwem 0.98 dla sztuk dobrych i z prawdopodobieństwem 0.05 dlasztuk wadliwych. Jakie jest prawdopodobieństwo, że sztuka uznana za dobrą przezkontrolę rzeczywiście spełnia wymagania normy?

Copyright c⃝ Stanisław Jaworski & Wojciech Zieliński

Page 17: Zbiór zadań z rachunku prawdopodobieństwa i statystyki

Wersja 3/12/2014 Elementy rachunku prawdopodobieństwa 17

1.25. Załóżmy, że prawdopodobieństwo trafienia w cel przy pojedynczym strzale wy-nosi p, a prawdopodobieństwo zniszczenia celu przy k ≥ 1 trafieniach wynosi 1− qk.Jakie jest prawdopodobieństwo zniszczenia celu, jeżeli oddano n strzałów?

1.26. W partii towaru złożonej z N sztuk znajduje się M < N wadliwych. Wybranolosowo n < N sztuk, które poddano pobieżnej kontroli. Kontrola ta może popełnićbłędy: z prawdopodobieństwem p może się zdarzyć, że wadliwą sztukę uzna się za„dobrą”, a z prawdopodobieństwem q dobrą sztukę uzna się za „wadliwą”. Obliczyćprawdopodobieństwo, że m sztuk zostanie uznanych za wadliwe.

1.27. Niech X będzie zmienną losową przyjmującą wartości całkowite, przy czymX = k z prawdopodobieństwem λk

k! e−λ, gdzie k = 0, 1, 2, . . . Doświadczenie polega

na tym, że na odcinek [0, 1] rzucamy losowo X punktów. Oznaczmy przez Xi liczbępunktów, które znajdą się w odcinku [(i−1)/n, i/n], gdzie i = 1, 2, . . . , n. Udowodnić,że dla λ = n zmienne losowe Xi są niezależne.

1.28. Przypuśćmy, że pewien owad składa k jajeczek z prawdopodobieństwem λk

k! e−λ,

a każde z jajeczek wylęga się z prawdopodobieństwem p. Zakładając wzajemną nie-zależność wylęgania się jaj, znaleźć prawdopodobieństwo, że ilość potomków danegoowada wyniesie dokładnie l.

1.29. Z urny zawierającej m ≥ 3 kul białych i n kul czarnych zgubiono jedną kulęnieznanego koloru. Aby określić skład urny wybrano z niej losowo trzy kule. Zna-leźć prawdopodobieństwo, że zgubiona kula była biała, jeżeli wiadomo, że wszystkiewybrane kule są białe.

1.30. Prawdopodobieństwo wyłączających się i wyczerpujących wszystkie możliwo-ści hipotez A1, A2, . . . , Ak przed nastąpieniem zdarzenia B wynoszą odpowiednioα1, α2, . . . , αk, prawdopodobieństwa zdarzenia B odpowiadające danym hipotezomwynoszą p1, p2, . . . , pk. Wiadomo, że w n1 niezależnych doświadczeniach zdarzenieB nastąpiło m1 razy. Wiadomo też, że w następnej serii złożonej z n2 doświadczeńzdarzenie B nastąpiło m2 razy. Udowodnić, następującą własność wzoru Bayesa:

Prawdopodobieństwo a posteriori hipotez obliczone po drugiej serii doświadczeń przyprzyjęciu jako prawdopodobieństwa a priori odpowiednich prawdopodobieństw a po-steriori po pierwszej serii doświadczeń równe są zawsze prawdopodobieństwom a po-steriori obliczonym po prostu dla serii n1 + n2 doświadczeń, w których zdarzenie Bzaszło m1 +m2 razy.

1.31. Przez kanał łączności można przekazać jedną z następujących serii liter: AAAA,BBBB, CCCC, przy czym odpowiednie prawdopodobieństwa a priori wynoszą 0.3,0.4, 0.3. Wiadomo, że działanie szumów zmniejsza prawdopodobieństwo poprawnegoodebrania nadanej litery do 0.6, a prawdopodobieństwo odebrania każdej z dwóchinnych liter wynosi po 0.2. Zakładamy, że litery przekazywane są niezależnie od sie-bie. Obliczyć prawdopodobieństwo, że przekazano ciąg AAAA, jeżeli odebrano ciągABCA.

Copyright c⃝ Stanisław Jaworski & Wojciech Zieliński

Page 18: Zbiór zadań z rachunku prawdopodobieństwa i statystyki

18 Elementy rachunku prawdopodobieństwa Wersja 3/12/2014

1.32. Prawdopodobieństwo, że cząsteczka, która w chwili t = 0 zderzyła się z innącząsteczką i do chwili t nie uległa żadnym innym zderzeniom, ulegnie zderzeniu w ciąguodcinka czasu od t do t+∆t, wynosi λ∆t+o(∆t). Znaleźć prawdopodobieństwo, że czaswolnego przebiegu (tzn. okres między dwoma kolejnymi zderzeniami) będzie większyniż t.

1.33. Zakładamy, że przy rozmnażaniu się bakterii przez podział (na dwie bakterie)prawdopodobieństwo podziału w ciągu odcinka czasu o długości ∆t wynosi a∆t +o(∆t) i nie zależy od ilości bakterii w koloni ani od ilości poprzedzających podziałów.Obliczyć prawdopodobieństwo, że jeżeli w chwili t = 0 kolonia składa się z jednejbakterii, to w chwili t będzie ona zawierać i bakterii.

1.34. Załóżmy dodatkowo (do warunków poprzedniego zadania), że w ciągu odcinkaczasu o długości ∆t każda z bakterii niezależnie od ogólnej ilości bakterii może umrzećz prawdopodobieństwem b∆t+o(∆t). Wyprowadzić równanie różniczkowe dla funkcjipr(t), gdzie pr(t) oznacza prawdopodobieństwo, że w chwili t kolonia ma r bakterii.

1.35. Dwaj gracze A i B posiadający początkowo kapitały odpowiednio a i b grająw grę hazardową składającą się z oddzielnych partii. W każdej z partii pierwszy z gra-czy wygrywa z prawdopodobieństwem 0.5 i przegrywa z prawdopodobieństwem 0.5.Wypłata odbywa się po każdej partii i wynosi 1, przy czym gra toczy się tak długo, ażjeden z graczy nie zostanie zruinowany. Obliczyć prawdopodobieństwo ruiny drugiegogracza.

Rozwiązać to zadanie w przypadku, gdy pierwszy gracz wygrywa z prawdopodobień-stwem p > 0.5 i przegrywa z prawdopodobieństwem q = 1− p.

1.36. Znaleźć liczbę β o tej własności, żeby przy rzucaniu kostką do gry prawdopodo-bieństwo zdarzenia A polegającego na wyrzuceniu serii trzech kolejnych jedynek przedserią β kolejnych nie-jedynek było w przybliżeniu równe 0.5. (Wskazówka. Wprowa-dzić prawdopodobieństwa warunkowe u i v zdarzenia A przy warunku, że wynikiempierwszego rzutu były odpowiednio jedynak i nie-jedynka. Używając wzoru na praw-dopodobieństwo całkowite ułożyć równanie wiążące u i v.)

1.37. Rozpatrzmy ciąg niezależnych doświadczeń, z których każde może dać trzymożliwe wyniki A, B, C z odpowiednimi prawdopodobieństwami p, q r (p+q+r = 1).Obliczyć prawdopodobieństwo, że

a. seria wyników A o długości α pojawi się wcześniej niż seria wyników B o długo-ści β;

b. seria wyników A o długości α pojawi się wcześniej niż seria wyników B o długości βlub seria wyników C o długości γ.

1.38. Mamy dwie partie wyprodukowanych przedmiotów, przy czym wiadomo, żewszystkie przedmioty jednej partii odpowiadają wymaganiom technicznym, a 15%przedmiotów drugiej partii jest złej jakości. Przedmiot wzięty z losowo wybranej partiibył dobrej jakości. Obliczyć prawdopodobieństwo, że drugi przedmiot wzięty z tejsamej partii będzie dobrej jakości, jeżeli pierwszy przedmiot po sprawdzeniu zwróconoz powrotem do partii, z której pochodził?

Copyright c⃝ Stanisław Jaworski & Wojciech Zieliński

Page 19: Zbiór zadań z rachunku prawdopodobieństwa i statystyki

Wersja 3/12/2014 Elementy rachunku prawdopodobieństwa 19

1.39. Wiadomo, że 5% wszystkich mężczyzn i 0.25% wszystkich kobiet jest daltoni-stami. Wybrana losowo osoba okazała się daltonistą. Obliczyć prawdopodobieństwo,że następna osoba tej samej płci co pierwsza, też okaże się daltonistą.

1.40. Z badań genealogicznych wynika, że kobieta jest nośnikiem hemofilii z prawdo-podobieństwem p. Jeżeli kobieta jest nośnikiem hemofilii, to każdy jej syn dziedziczytę chorobę z prawdopodobieństwem 0.5. Kobieta, która nie jest nośnikiem hemofiliirodzi zdrowych synów. Obliczyć prawdopodobieństwo, że drugi syn będzie zdrowy,jeśli pierwszy syn jest zdrowy.

1.41. Pewien zakład produkuje 25% produktów pierwszej jakości, 12% drugiej jakościoraz 63% trzeciej jakości. Wylosowano dwa produkty i okazało się, że jeden z nichma lepszą jakość niż drugi. Jakie jest prawdopodobieństwo, że produkt lepszej jakościjest produktem pierwszej jakości?

1.42. Pewien matematyk nosi przy sobie dwa pudełka zapałek. Ilekroć chce on zapalićpapierosa, wydobywa jedno pudełko losowo z kieszeni. Znaleźć prawdopodobieństwo,że w chwili gdy po raz pierwszy wydobędzie on puste pudełko, drugie będzie zawierałor zapałek (r = 0, 1, . . . , n; n jest tu liczbą zapałek, które na początku znajdowały sięw każdym z pudełek).

1.43. Jest n osób: A1, A2, . . . , An. Osoba A1 dostaje kartkę ze znakiem +. Z praw-dopodobieństwem p zmienia znak na przeciwny i podaje kartkę osobie A2, któraz prawdopodobieństwem p zmienia go na przeciwny i podaje kartkę osobie A3, itd.Na zakończenie, po oddaniu kartki przez osobę An, zaobserwowano znak +. Jakie jestprawdopodobieństwo, że osoba A1 nie zmieniła znaku?

1.44. W fabryce produkuje się dwa rodzaje śrubek. Wylosowano dwie śrubki. Wia-domo, że prawdopodobieństwo wylosowania dwóch identycznych śrubek wynosi p,a wylosowania śrubki pierwszego rodzaju wynosi q. Wyznaczyć prawdopodobieństwo,że jedna ze śrubek jest pierwszego rodzaju, jeżeli wiadomo, że druga też jest pierw-szego rodzaju.

1.45. Grześ i Jaś rzucają na przemian monetą. Jaś wygrywa, gdy pojawią się kolejnoOOR, Grześ – gdy ROR. Jakie są prawdopodobieństwa wygranych dla obu chłopców?

1.46. Na rynku są odkurzacze trzech firm, przy czym firma A ma 50% udziałuw rynku, firma B – 30%, zaś firma C – 20%. Wadliwość silników w odkurzaczach po-szczególnych firm wynosi odpowiednio 1%, 2% oraz 5%. Jaka powinna być strukturaprocentowa silników w magazynie punktu serwisowego, by można było bezzwłocz-nie przystąpić do wymiany zepsutego silnika w odkurzaczu przyniesionym do tegopunktu?

1.47. Wśród kandydatów na studia jest 50% absolwentów klas matematyczno-fizycz-nych, 30% absolwentów klas biologiczno-chemicznych oraz 20% absolwentów klas hu-manistycznych. Szanse na zdanie egzaminu z matematyki dla poszczególnych grupabsolwentów wynoszą odpowiednio 90%, 80% oraz 50%. Jakiej struktury procentowejabsolwentów można się spodziewać wśród studentów pierwszego roku?

Copyright c⃝ Stanisław Jaworski & Wojciech Zieliński

Page 20: Zbiór zadań z rachunku prawdopodobieństwa i statystyki

1.48. Na podstawie tabel życia wiadomo, że 89.835% kobiet dożywa wieku 60 lat,a 57.062% do wieku 80 lat. Jakie jest prawdopodobieństwo, że Pani Ala, która ma 60lat przeżyje jeszcze lat dwadzieścia?

1.49. Pewien uczeń miał 50% szans, że zda na Uniwersytet oraz 30% szans, że zdado SGGW. Uczeń ten zdawał na obie uczelnie, przy czym wiadomo było, że ma 20%szans, że zda na obie uczelnie. Jakie są szanse, że dostał się na studia?

1.50. Gra polega na wykonaniu dwóch kolejnych rzutów sześcienną kostką do gry,przy czym za udział w grze należy wnieść opłatę w wysokości siedmiu paciorków.Wygrana jest równa sumie wyrzuconych oczek. Jaka jest oczekiwana wygrana w tejgrze? Czy wiadomość o tym, że w pierwszym rzucie uzyskano trzy oczka zmieniaszansę na wygraną?

1.51. Gra polega na wykonaniu dwóch kolejnych rzutów sześcienną kostką do gry.Wygrana jest równa różnicy oczek wyrzuconych w pierwszym oraz drugim rzucie.Jaka jest oczekiwana wygrana w tej grze? Czy wiadomość o tym, że w pierwszymrzucie uzyskano trzy oczka zmienia szansę na wygraną?

Copyright c⃝ Stanisław Jaworski & Wojciech Zieliński

Page 21: Zbiór zadań z rachunku prawdopodobieństwa i statystyki

Wersja 3/12/2014 Zmienne losowe 21

2. Zmienne losowe

Zmienna losowa. Zmienna losowa jest to funkcja rzeczywista ξ : Ω → R o wła-sności:

(∀x ∈ R) ω ∈ Ω : ξ(ω) ≤ x ∈ F

Rozkład zmiennej losowej. Rozkładem zmiennej losowej ξ nazywamy rozkładprawdopodobieństwa Pξ na R określony wzorem

Pξ(A) = P (ω ∈ Ω : ξ(ω) ∈ A) = P (ξ−1(A)) dla A ⊂ R

Dystrybuanta. Dystrybuantą zmiennej losowej ξ nazywamy funkcję F : R→ [0, 1]określona wzorem

Fξ(x) = P (ξ ≤ x)

Najważniejsze własności dystrybuanty:

1. F (−∞) = 0, F (∞) = 12. dystrybuanta jest funkcją niemalejącą

3. dystrybuanta jest funkcją prawostronnie ciągłą

Ponadto

1. Pa < ξ ≤ b = F (b)− F (a)2. Pa ≤ ξ ≤ b = F (b)− lim

x→a−F (x)

3. P (a < ξ < b) = limx→b−F (x)− F (a)

4. P (ξ = a) = F (a)− limx→a−

F (x)

Zmienna losowa skokowa (dyskretna). Zmienna losowa ξ jest typu skokowego(dyskretna), jeżeli istnieje zbiór skończony lub przeliczalny X ⊂ R taki, że

Pξ(X) = 1

Funkcja rozkładu prawdopodobieństwa. Funkcją rozkładu prawdopodobieństwanazywamy

f(x) =Pξ = x, dla x ∈ X,0, dla x ∈ X,

Zmienna losowa ciągła. Zmienna losowa ξ o dystrybuancie F jest typu ciągłego,jeżeli istnieje taka funkcja f ≥ 0, że dla każdego x zachodzi równość

F (x) =

x∫−∞

f(u) du

Copyright c⃝ Stanisław Jaworski & Wojciech Zieliński

Page 22: Zbiór zadań z rachunku prawdopodobieństwa i statystyki

22 Zmienne losowe Wersja 3/12/2014

Funkcję f nazywamy gęstością prawdopodobieństwa zmiennej losowej ξ lub w skróciegęstością.

Najważniejsze własności funkcji gęstości:

1.∫∞−∞ f(x)dx = 1

2. f(x) =F ′(x), jeżeli F ′(x) istnieje,0, w przeciwnym przypadku.

3. Pa < ξ ≤ b =∫ baf(x)dx

Momenty zmiennej losowej. Momentem rzędu k zmiennej losowej ξ nazywamywielkość

Eξk =∫RxkF (dx)

Eξk =∑

x∈X xkPξ = x, dla dyskretnej zmiennej losowej,∫

R xkf(x)dx, dla ciągłej zmiennej losowej.

Wartość oczekiwana. Wartością oczekiwaną Eξ nazywamy moment rzędu 1.

Momenty centralne zmiennej losowej. Momentem centralnym rzędu k zmiennejlosowej ξ nazywamy wielkość

E(ξ − Eξ)k =∫R(x− Eξ)kF (dx)

E(ξ − Eξ)k =∑

x∈X(x− Eξ)kPξ = x, dla dyskretnej zmiennej losowej,∫R(x− Eξ)

kf(x)dx, dla ciągłej zmiennej losowej.

Wariancja. Wariancją D2ξ nazywamy moment centralny rzędu 2.

Jak łatwo sprawdzić:D2ξ = Eξ2 − (Eξ)2.

Odchylenie standardowe. Odchyleniem standardowym nazywamy Dξ =√D2ξ

Kwantyl. Kwantylem rzędu p zmiennej losowej ξ nazywamy taką liczbę xp, że

F (xp) = p.

Kwantyl rzędu 0.5 nazywamy medianą.

Frakcja. Jeżeli A jest danym podzbiorem zbioru wartości zmiennej losowej ξ, tofrakcją nazywamy liczbę

p = Pξ ∈ A.

Copyright c⃝ Stanisław Jaworski & Wojciech Zieliński

Page 23: Zbiór zadań z rachunku prawdopodobieństwa i statystyki

Wersja 3/12/2014 Zmienne losowe 23

Moda. Modą zmiennej losowej ξ nazywamy „najbardziej” prawdopodobną wartośćtej zmiennej losowej.

W przypadku zmiennej losowej typu skokowego jest to wartość zmiennej losowej,której odpowiada największe prawdopodobieństwo, natomiast w przypadku zmiennejlosowej typu ciągłego - wartość, dla której funkcja gęstości rozkładu prawdopodobień-stwa przyjmuje maksimum lokalne.

Funkcje zmiennych losowych. Niech h : R→ R i niech η = h(ξ). Wówczas

Fη(x) = Ph(ξ) ≤ x = Pξ ∈ h−1(−∞, x⟩

Twierdzenie 2.1. Niech ξ będzie zmienną losową typu ciągłego. Niech h będziefunkcją określoną na zbiorze

n∪k=1

[ak, bk],

która na każdym przedziale otwartym (ak, bk) jest funkcją ściśle monotoniczną orazma ciągłą pochodną h′(x) = 0. Niech gk(y) będzie funkcją odwrotną do funkcji h(x)na przedziale

Ik = h((ak, bk)) = y : x ∈ (ak, bk), h(x) = y.

Wówczas funkcja gęstości zmiennej losowej η = h(ξ) ma postać

fη(y) =n∑k=1

fξ(gk(y)) · |h′(y)| · IIk(y)

Zadania do samodzielnego rozwiązania

2.1. Dla jakiego a funkcja

f(x) =

ax4, dla |x| ≥ 1,

0, dla |x| < 1,

jest funkcją gęstości rozkładu prawdopodobieństwa zmiennej losowej ξ? Znaleźć praw-dopodobieństwo, że zmienna losowa przyjmie wartość większą od dwóch.

2.2. Dla jakiego a funkcja

f(x) =0, dla x < 0,axe−x, dla x ≥ 0,

jest funkcją gęstości rozkładu prawdopodobieństwa zmiennej losowej ξ? Znaleźć dys-trybuantę Fξ. Obliczyć P (ξ = 1).

Copyright c⃝ Stanisław Jaworski & Wojciech Zieliński

Page 24: Zbiór zadań z rachunku prawdopodobieństwa i statystyki

24 Zmienne losowe Wersja 3/12/2014

2.3. Dla jakich a i b funkcja

F (x) =

0, dla x ≤ −3,12 +

1a arcsin

(x3

), dla −3 < x ≤ 3,

b, dla x > 3,

jest dystrybuantą ciągłej zmiennej losowej? Wyznaczyć funkcję gęstości rozkładuprawdopodobieństwa tej zmiennej losowej.

2.4. Dobrać stałe A i B tak, by funkcja określona wzorem

F (x) = A+B arctan(x), dla −∞ < x <∞

była dystrybuantą zmiennej losowej ξ. Wyznaczyć funkcję gęstości rozkładu prawdo-podobieństwa tej zmiennej losowej.

2.5. Dla pewnego a funkcja

f(x) =

14|ax|3

, dla |x| ≥ 1,

0, dla |x| < 1,

jest funkcją gęstości rozkładu prawdopodobieństwa zmiennej losowej ξ. Wyznaczyćstałą a oraz znaleźć dystrybuantę zmiennej losowej ξ. Obliczyć P (ξ ∈ (0.5; 1.5)).

2.6. Dobrać stałe a oraz b > 0 tak, aby funkcja

f(x) =a cosx, dla x ∈ [0, b],0, dla ∈ [0, b],

była funkcją gęstości rozkładu prawdopodobieństwa zmiennej losowej ξ. Wyznaczyćdystrybuantę zmiennej losowej ξ. Obliczyć P (ξ ∈ (−1, b/2)).

2.7. Dla jakich a, b oraz c funkcja określona wzorem

F (x) =

0, dla x ≤ 0,a sin(x), dla x ∈ (0, b],c, dla x > b,

jest dystrybuantą pewnej zmiennej losowej ξ typu ciągłego. Wyznaczyć gęstość roz-kładu prawdopodobieństwa tej zmiennej losowej. Obliczyć P (ξ ∈ (−1, b/2)).

2.8. Dla jakich a, b oraz c funkcja określona wzorem

F (x) =

0, dla x ≤ b,a ln(x), dla x ∈ (b, 4],c, dla x > 4,

jest dystrybuantą pewnej zmiennej losowej ξ typu ciągłego. Wyznaczyć gęstość roz-kładu prawdopodobieństwa tej zmiennej losowej. Obliczyć P (ξ ∈ (−1, 3b/2)).

Copyright c⃝ Stanisław Jaworski & Wojciech Zieliński

Page 25: Zbiór zadań z rachunku prawdopodobieństwa i statystyki

Wersja 3/12/2014 Zmienne losowe 25

2.9. Dystrybuanta Fξ zmiennej losowej ξ wyraża się wzorem:

Fξ(t) = 1− e−t/8 dla t > 0

Obliczyć P (ξ ∈ (−8, 16)).

2.10. Z urny, w której jest pięć kul białych, trzy czerwone i dwie zielone losujemy zezwracaniem cztery kule. Podać rozkład liczby wylosowanych kul białych, dystrybuantęodpowiedniej zmiennej losowej i jej wartość oczekiwaną.

2.11.W urnie jest pięć kul białych i dziesięć kul czarnych. Losujemy po jednej kuli bezzwracania do momentu, aż wśród wylosowanych kul znajdą się kule obydwu kolorów.Jaka jest wartość oczekiwana liczby wylosowanych kul czarnych?

2.12.W urnie znajduje się dziesięć kul białych i dziesięć czarnych. Wybieramy z urnykolejno bez zwracania po jednej kuli aż do momentu wyciągnięcia po raz pierwszykuli czarnej. Wyznaczyć wartość oczekiwaną liczby wyciągniętych kul białych.

2.13. W urnie znajduje się 20 kul, w tym 10 kul białych i 10 czarnych. Ciągniemylosowo bez zwracania 18 kul. Niech N oznacza liczbę wyciągniętych kul białych. Ob-liczyć wariancję zmiennej losowej N .

2.14. W umie znajduje się dziesięć kul, ponumerowanych liczbami 1, 2, . . . , 10. Losu-jemy ze zwracaniem czterokrotnie po jednej kuli. Niech S oznacza sumę numerów wy-losowanych kul. Umawiamy się przy tym, że każdy wylosowany numer występuje w su-mie tylko raz, (np. jeśli wylosowaliśmy kule o numerach 3, 1, 5, 3, to S = 3+1+5 = 9).Obliczyć wartość oczekiwaną zmiennej losowej S.

2.15. W urnie znajduje się 25 kul, z których 15 jest białych i 10 czarnych. Losujemybez zwracania kolejno po jednej kuli. Kończymy losowanie w momencie, kiedy wycią-gnięte zostaną wszystkie czarne kule. Obliczyć wartość oczekiwaną liczby pozostałychw urnie białych kul.

2.16. Rozważmy uproszczoną wersję gry w „wojnę”. Talia składa się z 52 kart. Do-brze potasowane karty rozdajemy dwóm graczom, każdemu po 26 i układamy w dwiekupki. Gracze wykładają kolejno po jednej karcie z wierzchu swojej kupki i sprawdzająwysokość obu kart. Jeśli obie wyłożone karty są równej wysokości (dwa asy lub dwakróle itd.) to mówimy, że następuje wojna. Po sprawdzeniu, obie karty odkładamyna bok i nie biorą już one udziału w dalszej grze. Powtarzamy tę procedurę 26 razy;gra kończy się, gdy obaj gracze wyłożą wszystkie karty. Obliczyć wartość oczekiwanąliczby wojen.

2.17. Rzucamy dwiema kostkami. Niech zmienną losową będzie różnica oczek. Podaćrozkład tej zmiennej losowej, jej dystrybuantę oraz wartość oczekiwaną.

2.18. Rzucamy kością do gry dotąd, aż uzyskamy przynajmniej po jednym z sześciumożliwych wyników. Jaka jest wartość oczekiwana liczby rzutów?

Copyright c⃝ Stanisław Jaworski & Wojciech Zieliński

Page 26: Zbiór zadań z rachunku prawdopodobieństwa i statystyki

26 Zmienne losowe Wersja 3/12/2014

2.19.W ciągu 20 rzutów monetą liczymy serie pięciu orłów. Każdy ciąg sąsiadującychze sobą pięciu orłów uznajemy za serię. Przyjmujemy zatem, że serie mogą „zachodzićna siebie”, na przykład w ciągu

Nr rzutu 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20Wynik R O O O O O O O R O O O R O O O O O R R

mamy cztery serie, zaczynające się od miejsc 2, 3, 4 i 14. Obliczyć wartość oczekiwanąliczby serii pięciu orłów w 20 rzutach.

2.20. Wykonujemy rzuty monetą aż do otrzymania po raz pierwszy sekwencji jed-nakowych wyników w dwóch kolejnych rzutach. Obliczyć wartość oczekiwaną liczbywykonanych rzutów.

2.21. Zysk w pewnej populacji gospodarstw ma rozkład określony funkcją gęstości

f(x) =118x, 0 ≤ x ≤ 6,0, x ∈ ⟨0; 6⟩.

Jaki jest średni zysk gospodarstw oraz zróżnicowanie zysków? Jakie jest prawdopodo-bieństwo natrafienia na takie trzy gospodarstwa, z których każde będzie miało zyskwiększy od 3?

2.22. Z pracy do domu możemy dojechać autobusem jednej z trzech linii: 333, 666lub 999. Czas dojazdu autobusem do domu wynosi odpowiednio 12, 15 oraz 18 minut.Autobusy z przystanku odjeżdżają co piętnaście minut, przy czym autobusy linii666 odjeżdżają o cztery minuty później niż linii 333, zaś autobusy linii 999 o sześćminut później niż linii 666. Przyjmując, że przychodzimy na przystanek autobusowyw losowym momencie wyznaczyć rozkład czasu dojazdu do domu, średni czas dojazdui jego odchylenie standardowe. Podać rozwiązanie zarówno bez, jak i z uwzględnieniemczasu oczekiwania na przystanku.

2.23. Ciągła zmienna losowa ξ ma dystrybuantę F i gęstość rozkładu prawdopodo-bieństwa f takie, że f(x) jest ciągła dla x > 1, F (1) = 0, f(x)

1−F (x) =1x dla x > 1.

Obliczyć P (ξ > 2).

2.24. Wiadomo, że dla każdej zmiennej losowej ξ mającej skończone momenty doczwartego rzędu włącznie zachodzi E(ξ−Eξ)4 ≥ E(ξ−Eξ)24. Pokazać, że równośćzachodzi wtedy i tylko wtedy, gdy ξ ma rozkład D (0.5).

2.25. Pobieramy osiem niezależnych realizacji jednowymiarowej zmiennej losowejo nieznanym (ale ciągłym) rozkładzie. Po uporządkowaniu zaobserwowanych wartościw ciąg rosnący z1, . . . , z8 tworzymy przedział (z2, z7). Z jakim prawdopodobień-stwem tak określony przedział pokrywa wartość mediany rozkładu badanej zmiennejlosowej?

Copyright c⃝ Stanisław Jaworski & Wojciech Zieliński

Page 27: Zbiór zadań z rachunku prawdopodobieństwa i statystyki

Wersja 3/12/2014 Zmienne losowe 27

2.26. Niech ξ1, . . . , ξn będą niezależnymi zmiennymi losowymi o tym samym rozkła-dzie, oraz niech

ξ(n)max = maxξ1, . . . , ξn, ξ(n)min = minξ1, . . . , ξn.

Pokazać, że zależność

E(ξ(3)max − ξ(3)min) =

32E(ξ(2)max − ξ

(2)min)

zachodzi wtedy i tylko wtedy, gdy Eξ1 <∞.

2.27. Niech ξ ma funkcję gęstości rozkładu prawdopodobieństwa

f(x) =0.5x+ 0.5, dla −1 < x < 1,0, poza tym.

Wyznaczyć gęstość rozkładu prawdopodobieństwa rozkładu zmiennej losowej η = ξ2.

2.28. Na okręgu o promieniu 1 wybieramy losowo i niezależnie dwa punkty. Obliczyćwartość oczekiwaną odległości między nimi (odległość mierzymy wzdłuż cięciwy).

2.29. Na okręgu o obwodzie 1 wybieramy punkt ξ0, a następnie losowo i niezależniewybieramy punkty ξ1, . . . , ξn. Niech η oznacza odległość od ξ0 do najbliższego spośródpunktów ξ1, . . . , ξn liczoną wzdłuż okręgu. Obliczyć Eη.

2.30. Niech ξ1, . . . , ξ10 będą niezależnymi zmiennymi losowymi o jednakowym rozkła-dzie prawdopodobieństwa P (ξi = 1) = 2/3 = 1−P (ξi = −1). Niech ηk =

∑ki=1 ξi dla

k = 1, . . . , 10. Obliczyć P (η10 = 2 i η1 ≤ 5, η2 ≤ 5, . . . , η9 ≤ 5).

2.31. Z odcinka [0, 1] wybieramy losowo punkt ξ1. Następnie z odcinka [0, ξ1] wybie-ramy losowo punkt ξ2, z odcinka [0, ξ2] - punkt ξ3 i tak dalej. Obliczyć

DξnEξn.

2.32. Niech ξ1, ξ2, ξ3, ξ4 będą niezależnymi zmiennymi losowymi o tym samym roz-kładzie z gęstością rozkładu prawdopodobieństwa

f(x) =2x3 , dla x > 0,0, poza tym.

Obliczyć E(minξ1,ξ2,ξ3,ξ4maxξ1,ξ2,ξ3,ξ4

).

2.33. Załóżmy, że ξ1, . . . , ξn są niezależnymi zmiennymi losowymi o jednakowym,ciągłym rozkładzie prawdopodobieństwa, mającymi momenty rzędu 1, 2 i 3. Znamyµ = Eξi i σ2 = D2ξi. Niech f(x) oznacza gęstość rozkładu prawdopodobieństwapojedynczej zmiennej ξi. Wiemy, że rozkład jest symetryczny w tym sensie, że f(µ+x) = f(µ− x) dla każdego x. Obliczyć Eη3n, gdzie ηn = ξ1 + · · ·+ ξn.

Copyright c⃝ Stanisław Jaworski & Wojciech Zieliński

Page 28: Zbiór zadań z rachunku prawdopodobieństwa i statystyki

28 Zmienne losowe Wersja 3/12/2014

2.34. Jeden z boków prostokąta ma rozkład U (0, 3). Jaki powinien mieć rozkład drugiz boków, jeżeli wiadomo, że zmiana długości boków tego prostokąta nie powodujezmiany jego pola, które jest równe 1. Podać funkcję gęstości rozkładu prawdopodo-bieństwa drugiego boku.

2.35. Promień koła jest zmienną losową o rozkładzie E (1). Znaleźć gęstość rozkładuprawdopodobieństwa pola tego koła.

2.36. Na jednostkowym okręgu ustalono punkt A i wybrano losowo punktM . Niech ξoznacza długość cięciwy AM . Znaleźć gęstość rozkładu prawdopodobieństwa zmiennejlosowej ξ.

2.37. Pole kwadratu jest zmienną losową o gęstości rozkładu prawdopodobieństwa

f(x) =

16√x, dla 0 < x < 9,

0, dla pozostałych x.

Znaleźć funkcję gęstości rozkładu prawdopodobieństwa długości boku tego kwadratu.

2.38. Znaleźć gęstość rozkładu prawdopodobieństwa zmiennej losowej będącej polemkwadratu, którego długość boku jest zmienną losową o rozkładzie U (0, 4).

Copyright c⃝ Stanisław Jaworski & Wojciech Zieliński

Page 29: Zbiór zadań z rachunku prawdopodobieństwa i statystyki

Wersja 3/12/2014 Wektory losowe 29

3. Wektory losowe

Wektor losowy. Wektorem losowym ξ = (ξ1, . . . , ξn) nazywamy odwzorowanie

ξ : (Ω,F , P )→ X ⊆ Rn

o własności:ω ∈ Ω : ξ1(ω) ≤ x1, . . . , ξn(ω) ≤ xn ∈ F

dla dowolnego (x1, x2, . . . , xn) ∈ Rn

Rozkład łączny. Rozkładem wektora losowego ξ nazywamy rozkład prawdopo-dobieństwa Pξ określony wzorem

Pξ(A) = P (ω ∈ Ω : ξ(ω) ∈ A) dla A ∈ B(X)

Dystrybuanta. Funkcję Fξ : Rn → [0, 1] postaci

Fξ(x1, . . . , xn) = P (ξ1 ≤ x1, . . . , ξn ≤ xn)

nazywamy dystrybuantą wektora losowego ξ

Rozkład skokowy. Wektor losowy jest typu skokowego, jeżeli istnieje zbiór przeli-czalny X ⊂ Rn, taki że Pξ(X) = 1

Rozkład ciągły. Wektor losowy jest typu ciągłego, jeżeli istnieje nieujemna funkcjafξ(x) taka, że dla każdego x ∈ Rn

Fξ(x) =

x1∫−∞

· · ·x2∫−∞

fξ(u1, . . . , un) du1 . . . dun

Funkcja fξ(x) nazywa się gęstością.

Rozkład brzegowy. Rozkładem brzegowym zmiennej losowej ξ1 nazywamy

fξ1(x1) =

∞∫−∞

· · ·∞∫−∞

fξ(x1, . . . , xn) dx2 . . . dxn

Rozkładem brzegowym wektora losowego (ξ1ξ2) nazywamy

f(ξ1,ξ2)(x1, x2) =

∞∫−∞

· · ·∞∫−∞

fξ(x1, . . . , xn) dx3 . . . dxn

Copyright c⃝ Stanisław Jaworski & Wojciech Zieliński

Page 30: Zbiór zadań z rachunku prawdopodobieństwa i statystyki

30 Wektory losowe Wersja 3/12/2014

Rozkład warunkowy. Niech ξ = (ξ1, ξ2). Rozkładem warunkowym wektora ξ1pod warunkiem wektora ξ2 nazywamy

fξ1|ξ2=x2(x1) =fξ(x1,x2)fξ2(x2)

Niezależność. Wektory losowe ξ1 i ξ2 nazywamy niezależnymi, jeżeli dla wszyst-kich x1 oraz x2

fξ(x1,x2) = fξ1(x1)fξ2(x2)

Momenty rzędu k. Momentem rzędu k wektora losowego nazywamy

Eξk11 · · · ξknn =∫ ∞−∞· · ·∫ ∞−∞xk11 · · ·xknn fξ(x)dx

dla wszystkich naturalnych k1, . . . , kn takich, że k1 + · · ·+ kn = k.

Wartość oczekiwana. Wektorem wartości oczekiwanych nazywamy

Eξ =

Eξ1...Eξn

Momenty centralne. Momentem centralnym rzędu k nazywamy

E(ξ1 − Eξ1)k1 · · · (ξn − Eξn)kn

dla wszystkich naturalnych k1, . . . , kn takich, że k1 + · · ·+ kn = k.

Kowariancja. Kowariancją zmiennych losowych ξi oraz ξj nazywamy

Cov(ξi, ξj) = E(ξi − Eξi)(ξj − Eξj)

Macierz kowariancji. Macierzą kowariancji wektora losowego ξ nazywamy

Dξ =

D2ξ1 Cov(ξ1, ξ2) Cov(ξ1, ξ3) · · · Cov(ξ1, ξn)

Cov(ξ1, ξ2) D2ξ2 Cov(ξ2, ξ3) · · · Cov(ξ2, ξn)Cov(ξ1, ξ3) Cov(ξ2, ξ3) D2ξ3 · · · Cov(ξ3, ξn)...

...... · · ·

...Cov(ξ1, ξn) Cov(ξ2, ξn) Cov(ξ3, ξn) · · · D2ξn

Copyright c⃝ Stanisław Jaworski & Wojciech Zieliński

Page 31: Zbiór zadań z rachunku prawdopodobieństwa i statystyki

Wersja 3/12/2014 Wektory losowe 31

Współczynnik korelacji liniowej. Współczynnikiem korelacji liniowej zmien-nych ξi oraz ξj nazywamy

Corr(ξi, ξj) =Cov(ξi, ξj)√D2ξiD2ξj

Momenty: ważna własność. Jeżeli A jest macierzą macierz odpowiednich wymia-rów, to

EAξ = AEξ

DAξ = ADξAT

Warunkowa wartość oczekiwana. Warunkowa wartość oczekiwana E(ξ1|ξ2)zmiennej losowej ξ1 pod warunkiem zmiennej losowej ξ2 to nowa zmienna losowa, którajest postaci E(ξ1|ξ2) = m(ξ2) z prawdopodobieństwem 1 dla borelowskiej funkcjim(x)takiej, że ∫

B

m(y)dFξ2(y) =∫ ∫

B×RxdFξ1,ξ2(x, y)

dla każdego borelowskiego zbioru B.

Własności warunkowej wartości oczekiwanej.

E(E(ξ1|ξ2)) = Eξ1D2ξ1 = E

(D2(ξ1|ξ2)

)+D2 (E(ξ1|ξ2))

Przykład. Rozważmy rzut dwiema sześciennymi kostkami. Niech ξ1 będzie wynikiemrzutu pierwszą kostką, a ξ2 wynikiem rzutu drugą kostką. Wówczas ξ = (ξ1, ξ2) jestwynikiem rzutu parą kostek.

Rozwiązanie. Funkcja rozkładu prawdopodobieństwa ma postać

P(ξ1, ξ2) = (i, j) = pij , i, j = 1, . . . , 6

Prawdopodobieństwa pij są takie, że∑i,j pij = 1.

Dystrybuanta rozkładu wektora ξ ma postać

F(ξ1,ξ2)(x, y) = Pξ1 ≤ x, ξ2 ≤ y =∑

(i,j):i≤x,j≤y

pij

dla (x, y) ∈ R2

Funkcja rozkładu brzegowego zmiennej losowej ξ1:

Pξ1 = i =6∑j=1

P(ξ1, ξ2) = (i, j) =6∑j=1

pij , i = 1, . . . , 6

Copyright c⃝ Stanisław Jaworski & Wojciech Zieliński

Page 32: Zbiór zadań z rachunku prawdopodobieństwa i statystyki

32 Wektory losowe Wersja 3/12/2014

Dystrybuanta rozkładu zmiennej losowej ξ1

Fξ1(x) = Pξ1 ≤ x =∑i≤x

Pξ1 = i

Podobnie można znaleźć rozkład brzegowy zmiennej losowej ξ2.

Funkcja rozkładu prawdopodobieństwa zmiennej losowej ξ2 pod warunkiem ξ1 = i mapostać

Pξ2 = j|ξ1 = i =P(ξ1, ξ2) = (i, j)Pξ1 = i

, j = 1, . . . , 6

Wyniki rzutów kostkami sa niezależne, tzn. zmienne losowe ξ1 oraz ξ2 wtedy i tylkowtedy, gdy

Pξ2 = j|ξ1 = i = Pξ2 = j, j = 1, . . . , 6, i = 1, . . . , 6

lub równoważnie

P(ξ1, ξ2) = (i, j) = Pξ1 = iPξ2 = j, i, j = 1, . . . , 6

Moment rzędu k. Jeżeli k1 + k2 = k, to z definicji

Eξk11 ξk22 =

∑i,j

ik1jk2pij .

Podobnie dla momentów centralnych.

W szczególności

Wektor wartości oczekiwanych

Eξ =[Eξ1Eξ2

]Z definicji

Eξ1 =∑i,j

ipij =∑i

iPξ1 = i

Eξ2 =∑i,j

jpij =∑j

jPξ2 = j

Macierz kowariancji

Dξ =[D2ξ1 Cov(ξ1, ξ2)

Cov(ξ1, ξ2) D2ξ2

],

gdzieD2ξ1 =

∑i,j

(i− Eξ1)2pij =∑i

(i− Eξ1)2Pξ1 = i

Cov(ξ1, ξ2) =∑i,j

(i− Eξ1)(j − Eξ2)pij

D2ξ2 =∑i,j

(j − Eξ2)2pij =∑j

(j − Eξ2)2Pξ2 = j

Copyright c⃝ Stanisław Jaworski & Wojciech Zieliński

Page 33: Zbiór zadań z rachunku prawdopodobieństwa i statystyki

Wersja 3/12/2014 Wektory losowe 33

Warunkowa wartość oczekiwana E(ξ1|ξ2) jest to zmienna losowa o rozkładzie

E(ξ1|ξ2 = 1) Pξ2 = 1E(ξ1|ξ2 = 2) Pξ2 = 2E(ξ1|ξ2 = 3) Pξ2 = 3E(ξ1|ξ2 = 4) Pξ2 = 4E(ξ1|ξ2 = 5) Pξ2 = 5E(ξ1|ξ2 = 6) Pξ2 = 6

gdzie

E(ξ1|ξ2 = j) =6∑i=1

iPξ1 = i|ξ2 = j =6∑i=1

iPξ1 = i, ξ2 = jPξ2 = j

=6∑i=1

ipij∑6k=1 pkj

Przykład. Strzelamy do okrągłej tarczy. Umówmy się, że środek układu współrzęd-nych znajduje się w środku tarczy. Niech ξ1 będzie odciętą punktu trafienia, a ξ2 jegorzędną. Wówczas wektor losowy ξ = (ξ1, ξ2) opisuje współrzędne punktu trafienia. Za-kładamy, że każdy punkt tarczy ma jednakowe szanse być trafionym (rozkład wektoraξ jest jednostajny na kole).

Rozwiązanie. Funkcja gęstości rozkładu prawdopodobieństwa ma postać

f(ξ1,ξ2)(x, y) = a1x2+y2≤r2(x, y)

gdzie stała a > 0 jest taka, że∫R2 f(x, y)dxdy = 1. Jak łatwo obliczyć∫

R2f(x, y)dxdy =

∫x2+y2≤r2

dxdy =∫ r−r

[∫ √r2−x2−√r2−x2

dy

]dx = πr2

Zatem funkcja gęstości rozkładu prawdopodobieństwa ma postać

f(ξ1,ξ2)(x, y) =1πr21x2+y2≤r2(x, y)

Dystrybuanta wyrażona jest wzorem F(ξ1,ξ2)(x, y) =∫ x−∞

∫ y−∞ f(t, u)dudt

Funkcja gęstości rozkładu prawdopodobieństwa zmiennej losowej ξ1

fξ1(x) =∫ ∞−∞f(ξ1,ξ2)(x, u)du

=∫ √r2−x2−√r2−x2

1πr2du

=2√r2 − x2πr2

, dla x ∈ (−r, r)

Copyright c⃝ Stanisław Jaworski & Wojciech Zieliński

Page 34: Zbiór zadań z rachunku prawdopodobieństwa i statystyki

34 Wektory losowe Wersja 3/12/2014

Podobnie funkcja gęstości rozkładu prawdopodobieństwa zmiennej losowej ξ2

fξ2(y) =2√r2 − y2πr2

, dla y ∈ (−r, r)

Dystrybuanta

Fξ1(x) =∫ x−∞fξ1(t)dt

Funkcja gęstości rozkładu prawdopodobieństwa zmiennej losowej ξ2 pod warunkiemξ1 = x ma postać

fξ2|ξ1=x(y) =f(ξ1,ξ2)(x, y)fξ1(x)

=1/πr2

2√r2 − x2/πr2

=1

2√r2 − x2

, dla y ∈ (−√r2 − x2,

√r2 − x2)

Podobnie

fξ1|ξ2=y(x) =1

2√r2 − y2

, dla x ∈ (−√r2 − y2,

√r2 − y2)

Moment rzędu k. Jeżeli k1 + k2 = k, to z definicji

Eξk11 ξk22 =

∫x2+y2≤r2

xk1yk2dxdy.

Podobnie dla momentów centralnych.

W szczególności

Wektor wartości oczekiwanych

Eξ =[Eξ1Eξ2

]Z definicji

Eξ1 =∫x2+y2≤r2

xdxdy =∫ 10

[∫ √r2−x2−√r2−x2

dy

]xdx =

∫ r−rxfξ1(x)dx = 0

Eξ2 =∫x2+y2≤r2

ydxdy = 0

Macierz kowariancji

Dξ =[D2ξ1 Cov(ξ1, ξ2)

Cov(ξ1, ξ2) D2ξ2

],

Copyright c⃝ Stanisław Jaworski & Wojciech Zieliński

Page 35: Zbiór zadań z rachunku prawdopodobieństwa i statystyki

Wersja 3/12/2014 Wektory losowe 35

gdzie

D2ξ1 =1πr2

∫x2+y2≤r2

(x− Eξ1)2dxdy =∫ r−r(x− Eξ1)2fξ1(x)dx =

r2

4

Cov(ξ1, ξ2) =1πr2

∫x2+y2≤r2

(x− Eξ1)(y − Eξ2)dxdy = 0

D2ξ2 =1πr2

∫x2+y2≤r2

(y − Eξ2)2dxdy =∫ r−r(y − Eξ2)2fξ2(y)dy =

r2

4

Wyznaczamy rozkład warunkowej wartości oczekiwanej E(ξ1|ξ2). Najpierw znajdu-jemy E(ξ1|ξ2 = y) dla ustalonego y (oczywiście y ∈ ⟨−r, r⟩).

E(ξ1|ξ2 = y) =∫ ∞−∞xfξ1|ξ2=y(x)dx =

∫ √r2−y2−√r2−y2

x1

2√r2 − y2

dx = 0

A zatem E(ξ1|ξ2) = 0.

Zadania do samodzielnego rozwiązania

3.1. Pokazać, że Cov(ξ, η) = Eξη − EξEη.

3.2. Pokazać, że dla dowolnych a, b ∈ R zachodzi Cov(aX + b, Y ) = Cov(aX, Y ) =aCov(X,Y ).

3.3. Udowodnić, że jeżeli zmienne losowe ξ oraz η są niezależne, to Cov(ξ, η) = 0.Podać przykład, że implikacji przeciwna nie jest prawdziwa.

3.4. Pokazać, że |Corr(ξ, η)| ≤ 1 (skorzystać z nierówności Schwarza).

3.5. Pokazać, że |Corr(ξ, η)| = 1 wtedy i tylko wtedy, gdy istnieją takie stałe a, b, żeξ = aη + b.

3.6. Udowodnić, że E(E(ξ|η)) = Eξ.

3.7. Udowodnić, że D2ξ = E(D2(ξ|η)

)+D2 (E(ξ|η)).

3.8. Niech K będzie zmienną losową taką, że P (K = k) = 0.1 dla k = 1, . . . , 10. Niech

ξk =1, gdy K = k,0, gdy K = k, η5 = ξ1 + ξ2 + ξ3 + ξ4 + ξ5.

Obliczyć Cov(ξ1, η5).

Copyright c⃝ Stanisław Jaworski & Wojciech Zieliński

Page 36: Zbiór zadań z rachunku prawdopodobieństwa i statystyki

36 Wektory losowe Wersja 3/12/2014

3.9. W urnie znajdują się kule, z których każda oznaczona jest jedną z liter alfabetu:10 kul oznaczonych literą A, 20 kul oznaczonych literą B, 30 kul oznaczonych literąC i x kul oznaczonych innymi literami alfabetu. Losujemy ze zwracaniem siedem razypo jednej kuli z urny. Zmienne losowe NA, NB , NC oznaczają odpowiednio liczbę tychciągnięć, w których pojawiła się litera A, B, C. Jakie musi być x, aby zmienne losoweNA +NB oraz NB +NC były nieskorelowane?

3.10. W urnie znajduje się 25 kul, z których m = 15 jest białych, r −m = 10 czar-nych. Losujemy bez zwracania najpierw n1 = 6 kul, a następnie spośród pozostałychw urnie, losujemy bez zwracania n2 = 8 kul. Niech S1 oznacza liczbę białych kul wy-branych w pierwszym losowaniu, a S2 oznacza liczbę białych kul wybranych w drugimlosowaniu. Obliczyć Cov(S1, S2).

3.11. W urnie znajduje się 40 kul, z których 25 jest białych i 15 czarnych. Losujemybez zwracania najpierw 13 kul, a następnie z pozostałych kul w urnie losujemy bezzwracania 8 kul. Niech S1 oznacza liczbę kul białych w pierwszym losowaniu, a S2liczbę kul białych w drugim losowaniu. Obliczyć Cov(S1, S2).

3.12. W urnie znajduje się trzydzieści kul, na każdej narysowana jest litera i cyfra.Mamy dziesięć kul oznaczonychX1, osiem kul oznaczonych Y 1, osiem kul oznaczonychX2 oraz cztery kule oznaczone Y 2. Losujemy bez zwracania piętnaście kul. Niech NXokreśla liczbę kul oznaczonych literą X wśród wylosowanych, a N2 liczbę kul z cyfrą2 wśród kul wylosowanych. Obliczyć E(NX |N2).

3.13. Zmienne losowe ξ i η są niezależne i mają następujące rozkłady prawdopodo-bieństwa: P (ξ = n) = 2−n dla n = 1, 2, . . ., P (η > x) = 2−x dla x > 0. ObliczyćP (η > ξ).

3.14. Niech dwuwymiarowy wektor losowy ma gęstość:

fξ,η(x, y) =2− x− y, dla (x, y) ∈ (0, 1)× (0, 1),0, poza tym.

Obliczyć prawdopodobieństwo

P

((ξ, η) ∈

(12, 1)×(12, 1)).

3.15. Zmienne losowe ξ i η mają łączny rozkład prawdopodobieństwa o gęstości

f(x, y) =e−y+x, dla 0 < x < 1 i y > x,0, poza tym.

Obliczyć wartość oczekiwaną E(ξ + η).

3.16. Łączny rozkład zmiennych losowych ξ i η ma gęstość:

fξ,η(x, y) =e−y+x, dla 0 < x < 1 i y > x,0, poza tym.

Obliczyć D2η

Copyright c⃝ Stanisław Jaworski & Wojciech Zieliński

Page 37: Zbiór zadań z rachunku prawdopodobieństwa i statystyki

Wersja 3/12/2014 Wektory losowe 37

3.17. O zmiennych losowych ξ1, . . . , ξn o tej samej wartości oczekiwanej równej µ oraztej samej wariancji σ2 zakładamy, że Cov(Xi, Xj) = ϱσ2 dla i = j. Zmienne losoweε1, . . . , εn są nawzajem niezależne oraz niezależne od zmiennych ξ1, . . . , ξn i mająrozkłady prawdopodobieństwa P (εi = −1) = P (εi = 1) = 0.5. Obliczyć wariancjęzmiennej losowej

∑ni=1 εiξi.

3.18. Niech ξ1, . . . , ξn, . . . będą dodatnimi, niezależnymi zmiennymi losowymi o jed-nakowym ciągłym rozkładzie prawdopodobieństwa. Niech ηn = maxξ1, . . . , ξn dlan > 0 (η0 = 0). Zmienne losowe N i M są od siebie niezależne i niezależne odξ1, . . . , ξn, . . .Wiadomo, że obie te zmienne mają rozkłady Po (λ) i Po (µ), odpowied-nio. Obliczyć P (ηN+M > ηN ).

3.19. W urnie znajduje się 10 kul Amarantowych, 10 kul Białych i 10 kul Czarnych.Losujemy bez zwracania 12 kul. Niech A oznacza liczbę wylosowanych kul Amaranto-wych, B oznacza liczbę wylosowanych kul Białych, C oznacza liczbę wylosowanych kulCzarnych. Obliczyć współczynnik korelacji zmiennych losowych A i B. (Wskazówka:V ar(A+B + C) = 0.)

3.20. O zmiennych losowych ξ0 i ξ1 zakładamy, że Eξ0 = Eξ1 = 0, D2ξ0 = D2ξ1 =1 i Cov(ξ0, ξ1) = ϱ, gdzie 0 < ϱ < 1. Niech ξ1 = ϱξ0 + η. Rozważmy zmiennelosowe postaci η = zξ1 + (1 − z)ξ0 interpretowane jako predyktory nieobserwowanejzmiennej η. Znaleźć współczynnik z∗, dla którego błąd średniokwadratowy E(η− η)2jest minimalny.

3.21. O zmiennych losowych ξ i η wiemy, że 0 ≤ η < ξ, P (ξ = 0) = 0, E(η|ξ) = ξ2 iD2η = 12D

2ξ + 14 (Eξ)2. Pokazać, że P (η = ξ) = 0.5.

3.22. Funkcja gęstości wektora losowego (ξ, η) dana jest wzorem

f(x, y) =34x+ 2xy +

14y, dla (x, y) ∈ (0, 1)× (0, 1),

0, poza tym.

Obliczyć P(ξ > 12 |η >

12

).

3.23. Funkcja gęstości wektora losowego (ξ, η) dana jest wzorem

f(x, y) =x+ y, dla (x, y) ∈ (0, 1)× (0, 1),0, poza tym.

Obliczyć E(ξ|η = 0.5).

3.24. Zmienne losowe ξ i η są niezależne Zmienna losowa ξ ma rozkład Pow (2).Zmienna losowa η ma rozkład E (1). Obliczyć E(ξ + η|ξ ≤ 0.5).

3.25. Losujemy ze zwracaniem po jednej karcie do gry z talii 52 kart tak długo ażwylosujemy pika. Niech η oznacza zmienną losową równą liczbie wyciągniętych kart, aξ zmienną losową równą liczbie kart, w których uzyskaliśmy karo. Obliczyć E(η|ξ = 4).

Copyright c⃝ Stanisław Jaworski & Wojciech Zieliński

Page 38: Zbiór zadań z rachunku prawdopodobieństwa i statystyki

38 Wektory losowe Wersja 3/12/2014

3.26. W urnie znajduje się 20 kul, na każdej z nich narysowana jest litera i cyfra.Mamy osiem kul oznaczonych A1, cztery kule oznaczone A2, sześć kul oznaczonychB1 i dwie kule oznaczone B2. Losujemy bez zwracania dziesięć kul. Niech NA oznaczaliczbę wylosowanych kul oznaczonych literą A, zaś N1 - liczbę wylosowanych kuloznaczonych cyfrą 1. Obliczyć E(N1|NA).

3.27. Zmienne losowe ξ i η mają łączny rozkład prawdopodobieństwa o gęstości

f(x, y) =xe−x(y−x), dla y > x, 0 < x < 1,0, poza tym.

Obliczyć P (η > µ(ξ)) wiedząc, że µ(ξ) = E(η|ξ).

3.28. Zmienne losowe ξ1, . . . , ξ5 są niezależne i mają jednakowy rozkład E (θ), gdzieθ > 0 jest ustaloną liczbą. Niech η oznacza zmienną losowa równą 1, gdy ξ1 ≥ 3 irówną 0 w pozostałych przypadkach. Niech ζ =

∑5i=1 ξi. Wyznaczyć E(η|ζ = 5).

3.29. Niech ξ będzie zmienną losową o rozkładzie o gęstości

f(x) =

64(2+x)5 , dla x > 0,0, poza tym.

Niech η będzie zmienną losową równą

η =0, gdy ξ ≤ 3,ξ − 3, gdy Xξ > 3.

Wyznaczyć D2(η|ξ > 3).

3.30. Załóżmy, że zmienne losowe ξ1, . . . , ξn, . . . są niezależne, mają jednakowy roz-kład prawdopodobieństwa, Eξi = µ, D2ξi = σ2. Niech N będzie zmienną losowąniezależną od ciągu ξ1, . . . , ξn, . . . o rozkładzie prawdopodobieństwa danym wzorem

P (N = n) = n(1− θ)n−1θ2 dla n = 1, 2, . . .

Niech ηn =∑ni=1 ξi. Obliczyć D

2(ηNN

).

3.31. Rzucamy dziesięć razy monetą. Niech ξn oznacza liczbę orłów w n pierwszychrzutach. Obliczyć ED2(ξ5|ξ10).

3.32. Wiemy, że zmienne losowe ξ1, . . . , ξm, . . . , ξn są niezależne i mają jednakowyrozkład prawdopodobieństwa. Zakładamy, że 1 < m < n i znamy D2(ξi) = σ2. Niechηm = ξ1 + · · ·+ ξm i ηn = ξ1 + · · ·+ ξm + · · ·+ ξn. Obliczyć ED2(ηm|ηn).

3.33.Macierz kowariancji wektora losowego (ξ1, . . . , ξn) jest postaci σ2((1−ϱ)I+ϱE),gdzie macierze I oraz E to, odpowiednio, macierz jednostkowa i macierz złożona zsamych jedynek, a obie są wymiarów n×n. Zakładamy, że macierz jest rzędu n. Jakijest dopuszczalny zakres wartości parametru ϱ?

Copyright c⃝ Stanisław Jaworski & Wojciech Zieliński

Page 39: Zbiór zadań z rachunku prawdopodobieństwa i statystyki

Wersja 3/12/2014 Wektory losowe 39

3.34. Dwuwymiarowy rozkład pary zmiennych losowych ξ oraz η dany jest za pomocątablicy

ηξ 0 1 20 0.10 0.06 0.081 0.27 0.05 0.172 0.02 0.05 0.073 0.03 0.04 0.06

Obliczyć E(ξ + η) oraz P (ξ + η ≥ 2|η < 1).

3.35. Dwuwymiarowy rozkład pary zmiennych losowych ξ oraz η dany jest za pomocątablicy

ηξ 0 1 20 0.09 0.01 0.081 0.17 0.15 0.172 0.03 0.05 0.073 0.02 0.10 0.06

Obliczyć E(ξ + η) oraz P (ξ + η ≤ 1|η < 2).

3.36. Dwuwymiarowy rozkład pary zmiennych losowych ξ oraz η dany jest za pomocątablicy

ηξ 0 1 20 0.09 0.01 0.081 0.17 0.11 0.122 0.03 0.05 0.073 0.02 0.10 0.15

Obliczyć E(ξ − 2η) oraz P (ξ + η ≤ 1|η > 0).

3.37. Dwuwymiarowy rozkład pary zmiennych losowych ξ oraz η dany jest za pomocątablicy

ηξ 0 1 20 0.18 0.01 0.081 0.17 0.01 0.122 0.12 0.03 0.013 0.02 0.10 0.15

Obliczyć E(2ξ + η) oraz P (ξ + η ≤ 1|η ≥ 1).

3.38. Zmienne losowe ξ oraz η są niezależne oraz Eξ = 2, D2ξ = 4, Eη = −3,D2η = 4. Obliczyća) E((ξ − 3)(η2 + 3))b) Corr(ξ2, η − 3)c) min

tE(ξ − ηξ − t)2

Copyright c⃝ Stanisław Jaworski & Wojciech Zieliński

Page 40: Zbiór zadań z rachunku prawdopodobieństwa i statystyki

40 Wektory losowe Wersja 3/12/2014

3.39. Zmienne losowe ξ oraz η są niezależne oraz Eξ = 2, D2ξ = 3, Eη = −1,D2η = 14. Obliczyća) E((ξ + 3)(η2 + 6))b) Corr(ξ − 3, η2 − 1)c) min

tE(ξ(1− 2η)− t)2

3.40. Zmienne losowe ξ oraz η są niezależne oraz Eξ = −2, D2ξ = 4, Eη = −3,D2η = 7. Obliczyća) E((ξ − 3)(η2 + 3))b) Corr(ξ2 + 2, 2(η − 2))c) min

tE(ξ + 12ξη − t)2

3.41. Zmienne losowe ξ oraz η są niezależne oraz Eξ = 1, D2ξ = 2, Eη = −3,D2η = 3. Obliczyća) E((ξ + 103)(η2 + 3))b) Corr(ξ, (η + 3)2)c) min

tE(ηξ − 3ξ − t)2

Copyright c⃝ Stanisław Jaworski & Wojciech Zieliński

Page 41: Zbiór zadań z rachunku prawdopodobieństwa i statystyki

Wersja 3/12/2014 Funkcje wektorów losowych 41

4. Funkcje wektorów losowych

Niech ξ będzie p wymiarowym wektorem losowym oraz niech h : Rp → Rm. interesujenas rozkład wektora losowego η = h(ξ). Dystrybuanta wektora η ma postać:

Fη(y) = P (η1, . . . , ηm) ∈ (−∞, y1⟩ × · · · × (−∞, ym⟩= P

(ξ1, . . . , ξp) ∈ h−1 ((−∞, y1⟩ × · · · × (−∞, ym⟩)

=∫· · ·∫(x1,...,xp)∈h−1((−∞,y1⟩×···×(−∞,ym⟩)

fξ(x)dx

Rozkład sumy zmiennych losowych.

Niech ξ = (ξ1, ξ2) o gęstości fξ(x1, x2). Niech η = ξ1 + ξ2. Wyznaczamy rozkładzmiennej losowej η. Dystrybuanta

Fη(x) = Pξ1 + ξ2 ≤ x

=∫ ∞−∞Pξ1 ≤ x− x2|ξ2 = x2fξ2(x2)dx2

=∫ ∞−∞

[∫ x−x2−∞

fξ1|ξ2=x2(x1)dx1

]fξ2(x2)dx2

=∫ ∞−∞

[∫ x−∞fξ1|ξ2=x2(t− x2)dt

]fξ2(x2)dx2

=∫ x−∞

[∫ ∞−∞fξ1|ξ2=x2(t− x2)fξ2(x2)dx2

]dt

Funkcja gęstości

fη(x) =∫ ∞−∞fξ1|ξ2=x2(x− x2)fξ2(x2)dx2

Jeżeli ξ1 oraz ξ2 są niezależne, to

fη(x) =∫ ∞−∞fξ1(x− x2)fξ2(x2)dx2

Wartość oczekiwana sumy zmiennych losowych:

Eη =E(ξ1 + ξ2)

=∫ ∫

R2(x+ y)f(ξ1,ξ2)(x, y)dxdy

=∫Rx

[∫Rf(ξ1,ξ2)(x, y)dy

]dx+

∫Ry

[∫Rf(ξ1,ξ2)(x, y)dx

]dy

=∫Rxfξ1(x)dx+

∫Ryfξ2(y)dy

= Eξ1 + Eξ2

Copyright c⃝ Stanisław Jaworski & Wojciech Zieliński

Page 42: Zbiór zadań z rachunku prawdopodobieństwa i statystyki

42 Funkcje wektorów losowych Wersja 3/12/2014

Wariancja sumy zmiennych losowych

D2(ξ1 + ξ2) = D2ξ1 +D2ξ2 + 2Cov(ξ1, ξ2)

Jeżeli ξ1 oraz ξ2 są niezależne, to

D2(ξ1 + ξ2) = D2ξ1 +D2ξ2

Zadania do samodzielnego rozwiązania

4.1. Niech (ξ, η) będzie dwuwymiarową zmienną losową o funkcji gęstości

f(x, y) =2π , dla y > 0 i x

2 + y2 < 1,0, poza tym.

Niech ζ = ξξ2+η2 i ϑ =

√ξ2 + η2. Wykazać, że rozkład brzegowy zmiennej ϑ jest

rozkładem U (0, 1).

4.2. Zmienne losowe ξ i η mają łączną gęstość prawdopodobieństwa

f(u, v) =4/π, dla u > 0, v > 0 i u2 + v2 ≤ 1,0, poza tym.

Znaleźć rozkład zmiennej losowej ξ2

ξ2+η2 .

4.3. Wektor losowy (ξ, η) ma łączną gęstość prawdopodobieństwa

f(x, y) =2, dla x > 0, y > 0, 4x+ y < 1,0, poza tym.

Podać gęstość rozkładu zmiennej losowej ξξ+η .

4.4. Dwuwymiarowy wektor losowy (ξ, η) ma gęstość

f(x, y) =18 , dla |x− 2|+ |y − 2| < 2,0, dla pozostałych (x, y).

Znaleźć gęstość prawdopodobieństwa zmiennej losowej ξ − η.

4.5. Dwuwymiarowy wektor losowy (ξ, η) ma gęstość

f(x, y) =12 , dla |x|+ |y| ≤ 1,0, dla pozostałych (x, y).

Znaleźć gęstość rozkładu prawdopodobieństwa zmiennej losowej ξ + η.

4.6. Zmienne losowe ξ1 oraz ξ2 są niezależne i mają identyczny rozkład U (0, 1). Niechη1 = cos(2πξ1)f(ξ2) oraz η2 = sin(2πξ1)f(ξ2). Dla jakiej funkcji f zmienne η1 i η2 sąniezależnymi zmiennymi losowymi o rozkładach N (0, 1)?

Copyright c⃝ Stanisław Jaworski & Wojciech Zieliński

Page 43: Zbiór zadań z rachunku prawdopodobieństwa i statystyki

Wersja 3/12/2014 Rozkład dwupunktowy 43

5. Rozkład dwupunktowy

Zmienna losowa ξ ma rozkład dwupunktowy D(p) z parametrem p, jeżeli

Pξ = 1 = p = 1− Pξ = 0.

Doświadczenie Bernoulliego. Wykonujemy dwuwynikowe doświadczenie. Wynikinazywane są umownie sukcesem oraz porażką. Prawdopodobieństwo sukcesu wynosi p.Zmienną losową związaną z wynikiem pojedynczego doświadczenia nazywamy dwu-punktową i oznaczamy D(p).

Zadania do samodzielnego rozwiązania

5.1. Udowodnić, że Eξk = p dla k > 0.

5.2. Udowodnić, że D2ξ = p(1− p).

5.3. Zmienne losowe ξ1, ξ2, . . . , ξn, . . . są niezależne i mają rozkład D (0.5). Niechηn =

∑ni=1 ξi. Obliczyć P (η10 = 4 i ηn ≤ 6 dla n = 1, 2, . . . , 9).

5.4. Zmienne losowe ξ1, . . . , ξn, . . . są warunkowo niezależne przy danej wartości θ ∈(0, 1) i mają rozkład D (θ). Zmienna losowa θ ma rozkład Bet (3, 2). Niech ηn =∑ni=1 ξi. Obliczyć P (η8 > 0|η6 = 0).

Copyright c⃝ Stanisław Jaworski & Wojciech Zieliński

Page 44: Zbiór zadań z rachunku prawdopodobieństwa i statystyki

44 Rozkład dwumianowy Wersja 3/12/2014

6. Rozkład dwumianowy

Zmienna losowa ξ ma rozkład dwumianowy Bin(n, p) z parametrami n oraz p,jeżeli

Pξ = k =(n

k

)pk(1− p)n−k, k = 0, 1, . . . , n.

Schemat Bernoulliego. Wykonujemy doświadczenie Bernoulliego. Wyniki nazy-wane są umownie sukcesem oraz porażką. Prawdopodobieństwo sukcesu wynosi p.Doświadczenie wykonujemy w sposób niezależny n krotnie. Niech zmienną losową ξbędzie ilość sukcesów. Zmienna ξ ma rozkład Bin(n, p).

Zadania do samodzielnego rozwiązania

6.1. Udowodnić, że Pn,pξ = k = Pn,1−pξ = n− k.

6.2. Udowodnić, że Pn,pξ ≥ k = 1B(k+1,n−k+1)

∫ 1−p0 xk(1 − x)n−kdx, tzn. ogon

dystrybuanty rozkładu Bin (n, p) jest dystrybuantą rozkładu Bet (k + 1, n− k + 1).

6.3. Udowodnić, że Eξ = np.

6.4. Udowodnić, że D2ξ = np(1− p).

6.5. Udowodnić, że jeżeli ξ1, ξ2, . . . , ξn są niezależnymi zmiennymi losowymi o rozkła-dach Bin (ni, p), i = 1, . . . , n, to zmienna losowa η =

∑ni=1 ξi ma rozkład

Bin (∑ni=1 ni, p).

W szczególności: jeżeli ξ1, ξ2, . . . , ξn są niezależnymi zmiennymi losowymi o rozkładachD (p), i = 1, . . . , n, to η =

∑ni=1 ξi ∼ Bin (n, p).

6.6. Co jest bardziej prawdopodobne: wygrać z równorzędnym przeciwnikiem trzypartie z pięciu czy dwie z trzech?

6.7. Załóżmy, że prawdziwa jest hipoteza Mendla, iż dla krzyżówki grochu w drugimpokoleniu stosunek nasion żółtych do zielonych jest jak 3 : 1. Wylosowano dziesięćnasion. Obliczyć prawdopodobieństwo, że będą co najwyżej cztery nasiona żółte.

6.8. Środek owadobójczy zabija przeciętnie 90% owadów. Środek ten zastosowanona dziesięciu owadach. Obliczyć prawdopodobieństwo, że co najwyżej dwa osobnikiprzeżyją.

6.9. Wadliwość procesu produkcyjnego wynosi 10%. Obliczyć prawdopodobieństwo,że na osiem wylosowanych produktów będą co najwyżej dwa złe.

Copyright c⃝ Stanisław Jaworski & Wojciech Zieliński

Page 45: Zbiór zadań z rachunku prawdopodobieństwa i statystyki

Wersja 3/12/2014 Rozkład dwumianowy 45

6.10. W pewnym gatunku zwierząt prawdopodobieństwo urodzenia osobnika płcimęskiej wynosi 0.6. Obliczyć prawdopodobieństwo, że w miocie, w którym urodziłosię pięcioro młodych będą co najmniej cztery osobniki męskie.

6.11. W stawie hodowlanym są dwa gatunki ryb w proporcji 8 : 2. Obliczyć praw-dopodobieństwo, że wśród dziesięciu złowionych ryb będzie co najmniej siedem rybliczniejszego gatunku.

6.12. W jeziorze jest tysiąc ryb, w tym sto ryb zaobrączkowanych. Obliczyć praw-dopodobieństwo, że wśród dziesięciu złowionych ryb będzie co najmniej siedem rybzaobrączkowanych.

6.13. Właściciel kurzej fermy stwierdził, że kogutków wykluwa się trzy razy więcejniż kurek. Obliczyć prawdopodobieństwo, że z pięciu losowo wybranych jajek wyklujesię co najmniej jeden kogutek, ale nie mniej niż dwie kurki.

6.14. Producent podaje, że w co czwartym jajku niespodziance znajduje się zajączekRibbon. Jakie jest prawdopodobieństwo, że wśród dwudziestu kupionych jajek jesta) przynajmniej pięć jajek z zajączkiem Ribbon; b) nie więcej niż piętnaście jajek bezzajączka. Jaka jest najbardziej prawdopodobna ilość jajek z zajączkami?

Copyright c⃝ Stanisław Jaworski & Wojciech Zieliński

Page 46: Zbiór zadań z rachunku prawdopodobieństwa i statystyki

46 Rozkład ujemny dwumianowy Wersja 3/12/2014

7. Rozkład ujemny dwumianowy

Zmienna losowa ξ ma rozkład ujemny dwumianowy NB(r, p) z parametrami roraz p, jeżeli

Pξ = k =(r + k − 1k

)pr(1− p)k, k = 0, 1, 2, . . .

Wykonujemy doświadczenie Bernoulliego. Wyniki nazywane są umownie sukcesemoraz porażką. Prawdopodobieństwo sukcesu wynosi p. Doświadczenie wykonujemyw sposób niezależny aż do uzyskania r-tego sukcesu. Niech zmienną losową ξ będzieliczba porażek. Zmienna ξ ma rozkład NB (r, p).

Rozkład geometryczny. Rozkład NB(1, p) nazywamy rozkładem geometrycz-nym. Rozkład ten oznaczać będziemy Ge(p).

Zadania do samodzielnego rozwiązania

7.1. Udowodnić, że Pn,pξ ≤ k = 1B(r,k+1)

∫ p0 xr−1(1 − x)kdx, tzn. dystrybuanta

rozkładu NB (r, p) jest dystrybuantą rozkładu Bet (r, k + 1).

7.2. Udowodnić, że Eξ = r(1−p)p .

7.3. Udowodnić, że D2ξ = r(1−p)p2 .

7.4. Udowodnić, że jeżeli ξ1, ξ2, . . . , ξn są niezależnymi zmiennymi losowymi o rozkła-dach NB (ri, p), i = 1, . . . , n, to zmienna losowa η =

∑ni=1 ξi ma rozkład

NB (∑ni=1 ri, p).

W szczególności: jeżeli ξ1, ξ2, . . . , ξn są i.i.d. o rozkładach Ge (p), i = 1, . . . , n, toη =

∑ni=1 ξi ∼ NB (n, p).

7.5. Własność braku pamięci rozkładu geometrycznego: jeżeli η ma rozkładGe (p), to Pη ≥ m+ n|η ≥ m = Pη ≥ n dla wszystkich n ≥ 0.

7.6. Prawdopodobieństwo sukcesu w pojedynczym doświadczeniu wynosi p, gdzie p ∈(0, 1). Powtarzamy doświadczenie aż do momentu, kiedy po raz trzeci nastąpi sukces.Niech ξ oznacza liczbę porażek, które poprzedziły trzeci sukces. Liczba powtórzeńdoświadczenia wynosi więc ξ + 3. Przy jakiej wartości parametru p zachodzi: P (ξ =1) = P (ξ = 2)?

7.7. Zmienna losowa ξ ma rozkład z geometrycznym ogonem, tzn. rozkład dany wzo-rem:

P (ξ = k) =p0, dla k = 0,(1− p0)p(1− p)k−1, dla k = 1, 2, . . .,

gdzie p0 = 0.5, p = 0.25. Obliczyć wartość oczekiwaną tej zmiennej losowej.

7.8. Niech ξ1, ξ2 będą niezależnymi zmiennymi losowymi o tym samym rozkładzieNB (2, 0.75). Wyznaczyć P (ξ1 = 3|ξ1 + ξ2 = 6).

Copyright c⃝ Stanisław Jaworski & Wojciech Zieliński

Page 47: Zbiór zadań z rachunku prawdopodobieństwa i statystyki

Wersja 3/12/2014 Rozkład Poissona 47

8. Rozkład Poissona

Zmienna losowa ξ ma rozkład Poissona Po(λ) z parametrem λ > 0, jeżeli

Pξ = k = λk

k!e−λ, k = 0, 1, 2, . . . .

Zadania do samodzielnego rozwiązania

8.1. Udowodnić, że Eξ = λ.

8.2. Udowodnić, że D2ξ = λ.

8.3. Udowodnić, że jeżeli ξ1, ξ2, . . . , ξn są niezależnymi zmiennymi losowymi o rozkła-dach Po (λi), i = 1, . . . , n, to zmienna losowa η =

∑ni=1 ξi ma rozkład

Po

(n∑i=1

λi

)

8.4. Niech ξ będzie zmienną losową o rozkładzie Poissona takim, że P (ξ ≤ 1) =89P (ξ = 2). Obliczyć Eξ.

8.5. Niech ξ1 i ξ2 będą niezależnymi zmiennymi losowymi o rozkładach Poissonaz wartościami oczekiwanymi Eξ1 = 20 i Eξ2 = 30. Obliczyć D2(ξ1|ξ1 + ξ2 = 50).

8.6. Załóżmy, że ξ1, ξ2, ξ3 są niezależnymi zmiennymi losowymi o jednakowym roz-kładzie Po (5). Obliczyć D2(ξ2 + ξ3|ξ1 + ξ2 = 5).

8.7. Zmienna losowa ξ ma rozkład dany wzorem

P (ξ = k) =p0, dla k = 0,1−p0eλ−1 ·

λk

k! , dla k = 1, 2, . . .,

gdzie p0 ∈ (0, 1) oraz λ > 0. Obliczyć wartość oczekiwaną tej zmiennej losowej.

Copyright c⃝ Stanisław Jaworski & Wojciech Zieliński

Page 48: Zbiór zadań z rachunku prawdopodobieństwa i statystyki

48 Rozkład hipergeometryczny Wersja 3/12/2014

9. Rozkład hipergeometryczny

Zmienna losowa ξ ma rozkład hipergeometryczny H(n,N,M) z parametrami n,N oraz M , jeżeli

Pξ = k =(Mk

)(N−Mn−k

)(Nn

) , k ∈ ⟨max0, n− (N −M),minn,M⟩ .

Schemat urnowy. Z urny zawierającej N kul, w tym M białych, losujemy bezzwracania n kul. Zmienną losową jest liczba wylosowanych kul białych. Ta zmiennalosowa ma rozkład hipergeometryczny H(n,N,M)

Zadania do samodzielnego rozwiązania

9.1. Udowodnić, że Eξ = nMN .

9.2. Udowodnić, że D2ξ = N−nN−1nMN

(1− MN

).

Copyright c⃝ Stanisław Jaworski & Wojciech Zieliński

Page 49: Zbiór zadań z rachunku prawdopodobieństwa i statystyki

Wersja 3/12/2014 Rozkład jednostajny 49

10. Rozkład jednostajny

Zmienna losowa ξ ma rozkład jednostajny U(a, b) na przedziale (a, b), jeżeli jejfunkcja gęstości rozkładu prawdopodobieństwa określona jest wzorem

f(x) =1b− a

1(a,b)(x).

Zadania do samodzielnego rozwiązania

10.1. Narysować wykres funkcji gęstości rozkładu U (0, 1).

10.2. Wyznaczyć dystrybuantę rozkładu U (a, b).

10.3. Pokazać, że Eξk = 1b−a

bk+1−ak+1k+1 .

10.4. Pokazać, że D2ξ = (b−a)2

12 .

10.5. Na odcinku (0, 1) losujemy punkt zgodnie z rozkładem jednostajnym. W tensposób odcinek zostaje podzielony na dwa odcinki. Obliczyć wartość oczekiwaną sto-sunku długości odcinka krótszego do dłuższego.

10.6. Zmienna losowa ξ ma rozkład jednostajny U (0, 1), natomiast zależna od niejzmienna η ma rozkład warunkowy (przy danej wartości ξ = x) jednostajny U (0, x).Obliczyć prawdopodobieństwo (bezwarunkowe) P (η < 0.5).

10.7. Niech ξ1 i ξ2 będą niezależnymi zmiennymi losowymi o rozkładzie U (0, 1).Rozważmy zmienną losową równą bezwzględnej wartości różnicy zmiennych ξ1 i ξ2.Obliczyć wartość oczekiwaną i wariancję tej zmiennej losowej.

10.8. Zmienna losowa ξ1 ma rozkład U (0, 2), a zmienna losowa ξ2 ma rozkład U (0, 1).Zmienne są niezależne. Obliczyć P (|2ξ2 − ξ1| < 0.5).

10.9. Dane są dwie niezależne zmienne losowe ξ oraz η o rozkładach U (−1, 1) orazU (−2, 2), odpowiednio. Znaleźć gęstość rozkładu prawdopodobieństwa zmiennej lo-sowej ξ − η.

10.10. Niech ξ0, ξ1, . . . , ξn, . . . będą niezależnymi zmiennymi losowymi o rozkładzieU (0, 1). Obliczyć E(ξN − ξ0), gdzie N = mink : ξk > ξ0.

10.11. Zmienne losowe ξ1 i ξ2 są niezależne i mają rozkłady U (0, 2). Udowodnić, żeCov(maxξ1, ξ2,minξ1, ξ2) = 19 .

10.12. Niech ξ1, . . . , ξn będą niezależnymi zmiennymi losowymi o rozkładzie U (a, b).Obliczyć współczynnik korelacji liniowej Corr(minξ1, . . . , ξn,maxξ1, . . . , ξn).

Copyright c⃝ Stanisław Jaworski & Wojciech Zieliński

Page 50: Zbiór zadań z rachunku prawdopodobieństwa i statystyki

50 Rozkład jednostajny Wersja 3/12/2014

10.13. Taśma blachy szerokości jednego metra przepuszczana jest przez gilotynę,która z pewnym błędem tnie ją na kawałki jednometrowej długości. Powstałe kawałkizwija się w cylindry o wysokości jednego metra i nominalnej objętości 1 · π

(12π

)2m3.

Cylinder jest klasyfikowany do dalszej produkcji, jeżeli jego faktyczna objętość odchylasię od nominalnej o nie więcej niż 10%. Jaki procent cylindrów klasyfikowanych jestdo dalszej produkcji, jeżeli odchylenie (w metrach) rzeczywistego miejsca cięcia odteoretycznego ma rozkład U (−0.2, 0.2)?

10.14.Wiadomo, że zmienna losowa ξ ma rozkład U (0, 1), zaś η ma rozkład dyskretnyP (η = 1) = P (η = −1) = 0.5. Niech ϱ będzie współczynnikiem korelacji międzyzmiennymi ξ i η. Jakie są dopuszczalne wartości współczynnika ϱ?

Copyright c⃝ Stanisław Jaworski & Wojciech Zieliński

Page 51: Zbiór zadań z rachunku prawdopodobieństwa i statystyki

Wersja 3/12/2014 Rozkład beta 51

11. Rozkład beta

Zmienna losowa ξ ma rozkład beta Bet(α, β) z parametrami α > 0 oraz β > 0,jeżeli jej funkcja gęstości rozkładu prawdopodobieństwa określona jest wzorem

f(x) =1

B (α, β)xα−1(1− x)β−11(0,1)(x).

Rozkład Bet (1, 1) jest rozkładem U (0, 1).

Rozkład Bet (0.5, 0.5) nazywany jest rozkładem arcsinusa.

Rozkład Bet (α, 1) nazywany jest rozkładem potęgowym Pow(α).

Zmienna losowa ξ ma rozkład beta Bet(α, β; a, b) na przedziale (a, b) z parame-trami α > 0 oraz β > 0, jeżeli jej funkcja gęstości rozkładu prawdopodobieństwaokreślona jest wzorem

f(x) =1

B (α, β)(x− a)α−1(b− x)β−11(a,b)(x).

Zadania do samodzielnego rozwiązania

11.1. Narysować wykres funkcji gęstości rozkładu Bet (α, β).

11.2. Pokazać, że

Eξk =α(α+ 1) · · · (α+ k − 1)

(α+ β)(α+ β + 1) · · · (α+ β + k − 1).

11.3. Pokazać, że D2ξ = αβ(α+β)2(α+β+1) .

11.4. Udowodnić, że dla α > 1 i β > 1 rozkład Bet (α, β) jest jednomodalny. Wyzna-czyć modę tego rozkładu.

Copyright c⃝ Stanisław Jaworski & Wojciech Zieliński

Page 52: Zbiór zadań z rachunku prawdopodobieństwa i statystyki

52 Rozkład gamma Wersja 3/12/2014

12. Rozkład gamma

Zmienna losowa ξ ma rozkład Gamma G(α, λ) z parametrami α > 0 oraz λ > 0,jeżeli jej funkcja gęstości rozkładu prawdopodobieństwa określona jest wzorem

f(x) =1

λαΓ (α)xα−1 exp

−xλ

1(0,∞)(x).

Rozkład wykładniczy. Rozkład G(1, λ) nazywamy rozkładem wykładniczym.Rozkład ten oznaczać będziemy E(λ).

Rozkład chi-kwadrat. Rozkład G(α/2, 2) nazywamy rozkładem chi-kwadrat zα stopniami swobody. Rozkład ten oznaczać będziemy χ2(α).

Rozkład chi-kwadrat ma związek z jednowymiarowym rozkładem normalnym, a takżez wielowymiarowym rozkładem normalnym.

Wartością krytyczną rzędu α rozkładu χ2 (r) nazywamy kwantyl rzędu 1 − α.Oznaczenie: χ2 (α; r).

Zmienna losowa ξ ma przesunięty rozkład gamma G(α, λ; a) na przedziale(a,∞) z parametrami α > 0 oraz λ > 0, jeżeli jej funkcja gęstości rozkładu prawdo-podobieństwa określona jest wzorem

f(x) =1

λαΓ (α)(x− a)α−1 exp

−x− aλ

1(a,∞)(x).

Rozkład G(1, λ; a) nazywamy przesuniętym rozkładem wykładniczym i ozna-czamy przez E(λ; a).

Zadania do samodzielnego rozwiązania

12.1. Narysować wykres funkcji gęstości rozkładu G (α, λ).

12.2. Pokazać, że Eξk = α(α+ 1) · · · (α+ k − 1)λk

12.3. Pokazać, że D2ξ = αλ2.

12.4. Udowodnić, że dla α > 1 rozkład gamma jest jednomodalny. Wyznaczyć modętego rozkładu.

12.5.Wyznaczyć dystrybuantę rozkładu wykładniczego E (λ). Narysować jej wykres.

12.6. Udowodnić, że jeżeli ξ1, ξ2, . . . , ξn są niezależnymi zmiennymi losowymi o roz-kładach G (αi, λ), i = 1, . . . , n, to zmienna losowa η =

∑ni=1 ξi ma rozkład

G (∑ni=1 αi, λ)

Jeżeli ξ1, ξ2, . . . , ξn są niezależnymi zmiennymi losowymi o takich samych rozkładachE (λ), i = 1, . . . , n, to η =

∑ni=1 ξi ∼ G (n, λ).

Copyright c⃝ Stanisław Jaworski & Wojciech Zieliński

Page 53: Zbiór zadań z rachunku prawdopodobieństwa i statystyki

Wersja 3/12/2014 Rozkład gamma 53

12.7. Własność braku pamięci rozkładu wykładniczego: jeżeli η ma rozkładE (λ), to Pη ≥ x+ t|η ≥ x = Pη ≥ t dla wszystkich x ≥ 0.

12.8. Zmienna losowa ξ ma rozkład wykładniczy o wartości oczekiwanej 0.5. Nieza-leżna zmienna losowa η ma rozkład wykładniczy o wartości oczekiwanej 2. ObliczyćE(ξ|ξ + η = 5).

12.9. ξ1, . . . , ξ10 są niezależnymi zmiennymi losowymi o rozkładzie E (0.2). Wiadomo,że P (maxξ1, . . . , ξ10 ≤ x) = 0.95. Obliczyć x.

12.10. Mamy dwie niezależne zmienne losowe ξ oraz η. Jedna nich (nie wiadomoktóra) ma rozkład wykładniczy z wartością oczekiwaną równą 1, druga zaś ma rozkładwykładniczy z wartością oczekiwaną równą 2. Obliczyć wartość ilorazu

Emaxξ, ηEminξ, η.

12.11.Mamy dwie niezależne zmienne losowe ξ oraz η. Zmienna ξ ma rozkład wykład-niczy E (1), zmienna η zaś ma rozkład wykładniczy z wartością oczekiwaną równą 2.Zdefiniujmy nową zmienną ζ jako udział zmiennej ξ w sumie obu zmiennych: ζ = ξ

ξ+η .Obliczyć medianę zmiennej losowej ζ.

12.12. Załóżmy, że zmienna losowa ξ ma rozkład wykładniczy E (λ). Wyznaczyćwartość oczekiwaną zmiennej losowej η = ⌊ξ + 0.5⌋.

12.13. Niech ξ będzie zmienną losową o rozkładzie E (1). Obliczyć współczynnikkorelacji liniowej Corr(⌈ξ⌉, ⌊ξ⌋).

12.14. Zmienna losowa ξ ma rozkład E (λ). Obliczyć E⌈ξ⌉ w zależności od E(⌊ξ⌋).

12.15. Załóżmy, że ξ1, ξ2, ξ3 są niezależnymi zmiennymi losowymi o jednakowymrozkładzie wykładniczym. Niech η = ξ1 + ξ2 + ξ3. Obliczyć P (ξ1 > η/2 lub ξ2 >η/2 lub ξ3 > η/2).

12.16. Niezależne zmienne losowe ξ1, ξ2 mają identyczny rozkład E (µ). Obliczyćwarunkową wartość oczekiwaną E(minξ, ξ2|ξ1 + ξ2 = M), gdzie M jest pewnądodatnią liczbą.

12.17. Załóżmy, że ξ1, ξ2 są niezależnymi zmiennymi losowymi o jednakowym rozkła-dzie E (µ). Obliczyć E(ξ1|minξ1, ξ2).

12.18. Niech ξ0, ξ1, . . . , ξn będą niezależnymi zmiennymi losowymi o tym samym roz-kładzie E (1). Obliczyć warunkową wartość oczekiwaną E(minξ0, ξ1, . . . , ξn|ξ0).

12.19. Zmienne losowe ξ i η są niezależne o rozkładach E (λ). Obliczyć warunkowąwariancję D2(minξ, η|ξ + η = 2).

Copyright c⃝ Stanisław Jaworski & Wojciech Zieliński

Page 54: Zbiór zadań z rachunku prawdopodobieństwa i statystyki

54 Rozkład gamma Wersja 3/12/2014

12.20. Załóżmy, że niezależne zmienne losowe ξ1, ξ2, ξ3, ξ4 mają rozkłady wykładniczeo wartościach oczekiwanych odpowiednio 1, 2, 3 i 4. Obliczyć prawdopodobieństwoP (ξ1 = minξ1, ξ2, ξ3, ξ4).

12.21. Niech ξ i η będą niezależnymi zmiennymi losowymi o rozkładach wykładni-czych, przy czym Eξ = 4 i Eη = 6. Wyznaczyć medianę zmiennej losowej ξ

ξ+η .

12.22. Dane są dwie niezależne zmienne losowe ξ oraz η o rozkładach E (2) oraz E (4),odpowiednio. Znaleźć gęstość rozkładu prawdopodobieństwa zmiennej losowej ξ+2η.

12.23. Niech ξ1, ξ2, ξ3 będą niezależnymi zmiennymi losowymi o jednakowym rozkła-dzie E (λ). Obliczyć medianę zmiennej losowej ξ1

ξ2+ξ3.

12.24. Załóżmy, że ξ1, . . . , ξn, . . . są niezależnymi zmiennymi losowymi o jednakowymrozkładzie wykładniczym, E(ξn) = 1/λ. Niech η0 = 0 i ηn =

∑ni=1 ξi dla n = 1, 2, . . ..

Załóżmy, że ζ jest zmienną losową o rozkładzie wykładniczym, Eζ = 1/α i niezależnąod zmiennych ξi. Niech N = maxn ≥ 0 : ηn ≤ ζ. Podać rozkład prawdopodobień-stwa zmiennej losowej N .

12.25. Załóżmy, że ξ1, . . . , ξn, . . . są niezależnymi zmiennymi losowymi o tym samymrozkładzie E (λ). Niech η0 = 0 i ηn =

∑ni=1 ξi dla n = 1, 2, . . . Niech ζ będzie zmienną

losową niezależną od zmiennych ξ1, . . . , ξn, . . . o rozkładzie G (2, β), gdzie β > 0 jestustaloną liczbą. Niech

N = maxn ≥ 0 : ηn ≤ ζ.

Podać rozkład prawdopodobieństwa zmiennej N .

12.26. Załóżmy, że ξ0, ξ1, . . . , ξn, . . . są niezależnymi zmiennymi losowymi o tym sa-mym rozkładzie E (λ). Niech

N = min

k ≥ 0 :

k∑i=1

ξi > a

,

gdzie a jest ustaloną liczbą dodatnią. Podać rozkład prawdopodobieństwa zmiennejlosowej N .

12.27. Zmienna losowa ξ ma rozkład wykładniczy E (0.2). Zmienna losowa η ma roz-kład jednostajny na pewnym odcinku, przy czym Eη = 5 oraz D2η = 25/3. Zmiennelosowe ξ i η są niezależne. Obliczyć P (ξ + η < 6).

12.28. Jabłko upada od jabłoni w odległości, która jest zmienną losową o rozkładzieE (1/2) (pomijamy średnicę pnia i średnicę jabłka). Jabłko może spadać w każdymkierunku z tym samym prawdopodobieństwem. Jaka jest wartość oczekiwana odległo-ści dwóch jabłek, które spadły niezależnie pod warunkiem, że obydwa upadły w tejsamej odległości od jabłoni?

Copyright c⃝ Stanisław Jaworski & Wojciech Zieliński

Page 55: Zbiór zadań z rachunku prawdopodobieństwa i statystyki

Wersja 3/12/2014 Rozkład gamma 55

12.29. W wyniku eksperymentu pewna populacja została pozbawiona zdolności roz-mnażania. Wiadomo, że czas życia każdego przedstawiciela tej populacji jest zmiennąlosową o rozkładzie wykładniczym o średniej 30 dni. Po ilu dniach od eksperymentuliczebność tej populacji spadnie o połowę?

12.30. Czas życia żarówki jest zmienną losową o rozkładzie wykładniczym o średniej1000 h. Jaki jest rozkład czasu pracy układu złożonego z dwóch równolegle połą-czonych żarówek? Jakie jest prawdopodobieństwo, że układ przepracuje co najmniej1500 h?

12.31. Czas życia żarówki jest zmienną losową o rozkładzie wykładniczym o średniej1000 h. Jaki jest rozkład czasu pracy układu złożonego z dwóch szeregowo połączonychżarówek? Jakie jest prawdopodobieństwo, że układ przepracuje co najmniej 1500 h?

Copyright c⃝ Stanisław Jaworski & Wojciech Zieliński

Page 56: Zbiór zadań z rachunku prawdopodobieństwa i statystyki

56 Rozkład normalny Wersja 3/12/2014

13. Rozkład normalny

Zmienna losowa ξ ma rozkład normalny N(µ, σ2), jeżeli funkcja gęstości jej roz-kładu prawdopodobieństwa wyraża się wzorem

fµ,σ2(x) =1

σ√2πexp

−12

(x− µσ

)2.

Standaryzacja. Jeżeli ξ ma rozkład N(µ, σ2), to zmienna losowa η = (ξ − µ)/σ marozkład N(0, 1) zwany standardowym rozkładem normalnym.

Gęstość i dystrybuantę rozkładu N (0, 1) oznaczamy odpowiednio przez ϕ(·) oraz Φ(·).Dla zmiennej losowej o rozkładzie N

(µ, σ2

)zachodzi prawo trzech sigm

P (|X − µ| < σ) ≈ 0.67P (|X − µ| < 2σ) ≈ 0.95P (|X − µ| < 3σ) ≈ 0.997

µ−3σ µ−2σ µ−σ µ µ+σ µ+2σ µ+3σ

........

........

........

........

........

........

........

.

........

........

........

........

........

........

........

.←−−−−−−−−−−− 0.997 −−−−−−−−−−−→

........

........

........

........

....

........

........

........

........

....←−−−−−−− 0.95 −−−−−−−→...............

........

.......←−− 0.67 −−→

Zadania do samodzielnego rozwiązania

13.1. Narysować wykres funkcji gęstości rozkładu N(µ, σ2

).

13.2. Pokazać, że Eξ = µ.

13.3. Pokazać, że

E(ξ − Eξ)k =0, dla k nieparzystych,1 · 3 · · · (k − 1)σk, dla k parzystych.

13.4. Udowodnić, że rozkład normalny jest jednomodalny. Wyznaczyć modę tegorozkładu.

13.5. Udowodnić, że Φ (x)− 0.5 jest funkcją nieparzystą.

13.6. Pokazać, że P (|ξ − µ| ≤ aσ) = 2Φ (a) − 1 dla każdego a > 0. Udowodnićprawo trzech sigm.

13.7. Pokazać, żeP (ξ ∈ (a, b)) = Φ

(b−µσ

)− Φ

(a−µσ

).

13.8. Jeżeli ξ1, . . . , ξn są niezależnymi zmiennymi losowymi o rozkładach N(µi, σ

2i

),

i = 1, . . . , n, to zmienna losowa η =∑ni=1 ξi ma rozkład

N(∑ni=1 µi,

∑ni=1 σ

2i

).

13.9. Jeżeli ξ1, . . . , ξn są niezależnymi zmiennymi losowymi o jednakowym rozkładzieN (0, 1), to zmienna losowa ξ =

∑ni=1 ξ

2i ma rozkład χ

2 (n).

Copyright c⃝ Stanisław Jaworski & Wojciech Zieliński

Page 57: Zbiór zadań z rachunku prawdopodobieństwa i statystyki

Wersja 3/12/2014 Rozkład normalny 57

13.10. Niech ξ będzie zmienną losową o rozkładzie N (−5, 100). Obliczyć:

P (ξ ≤ −9) , P (ξ ∈ (−7, 1)) , P (ξ ≥ −7) , P (|ξ + 5| ≤ 10) .

13.11. Niech ξ będzie zmienną losową o rozkładzie N (10, 25). Obliczyć:

P (ξ ≤ 8) , P (ξ ∈ (9, 13)) , P (ξ ≥ 9) , P (|ξ − 10| ≤ 5) .

13.12. Zmienne losowe ξ1, ξ2, ξ3, ξ4 są niezależne i mają jednakowy rozkład N(0, σ2

).

Obliczyć P (ξ21 − 5ξ22 < 5ξ23 − ξ24).

13.13. Zakładamy, że ξ1, . . . , ξ20 są niezależnymi zmiennymi losowymi o rozkładzieN(µ, σ2

). Niech η = ξ1 + · · ·+ ξ15 i ζ = ξ6 + · · ·+ ξ20. Obliczyć E(ζ|η).

13.14. Zmienne losowe ξ1, ξ2, ξ3 mają łączny rozkład normalny taki, że Eξi = 0,D2ξi = 1 dla i = 1, 2, 3. Załóżmy, że Cov(ξ1, ξ2) = Cov(ξ2, ξ3) = Cov(ξ1+ξ2, ξ2+ξ3) =0. Udowodnić, że P (ξ1 = −ξ3) = 1.

13.15. Zmienne losowe ξ1, . . . , ξ20 są niezależne o rozkładzie N (10, 0.01). Wyznaczyćtaką liczbę a, że P (maxξ1, . . . , ξ20 ≤ a) = 0.99.

13.16. Niech ξ1, . . . , ξn będą niezależnymi zmiennymi losowymi o identycznym roz-kładzie N (0, 1). Niech η = (ξ1 + · · ·+ ξn)2. Obliczyć wariancję zmiennej losowej η.

13.17. Zmienne losowe ξ1, . . . , ξ25 są niezależne o jednakowym rozkładzie N(µ, σ2

).

Niech η10 =∑10i=1 ξi i η25 =

∑25i=1 ξi. Wyznaczyć E(η10|η25).

13.18. Wzrost kobiety jest zmienną losową o rozkładzie N (158, 100). Obliczyć jakijest procent kobiet o wzroście pomiędzy 148 a 168.

13.19. Ciężar jajek dostarczanych do skupu ma rozkład normalny ze średnią 2 dagi wariancją 0.01. Jajko kwalifikuje się do pierwszego gatunku, jeżeli jego waga wynosico najmniej 2.096 dag. Jaki procent jajek dostarczanych do skupu można uznać zajajka pierwszego gatunku?

13.20. Średni czas żarzenia się liści tytoniu wynosi 17 sekund. Liście tlące się krócejniż 12 sekund są dyskwalifikowane. Jaki jest procent liści przydatnych do produkcji,jeżeli wariancja wspomnianej cechy wynosi 6.25?

13.21. Przyjmując, że przeciętna waga (w kilogramach) noworodka jest zmiennąlosową o rozkładzie N (3, 0.25) określić procent noworodków o wadze z przedziału(3, 3.5).

13.22. Stwierdzono, że 80% ludzi o IQ powyżej 90 jest w stanie nauczyć się posługiwaćpewnym urządzeniem. Jaki jest to procent całej populacji jeśli wiadomo, że ilorazinteligencji jest cechą o rozkładzie N (100, 100)?

Copyright c⃝ Stanisław Jaworski & Wojciech Zieliński

Page 58: Zbiór zadań z rachunku prawdopodobieństwa i statystyki

58 Rozkład normalny Wersja 3/12/2014

13.23. Aby zdać egzamin ze statystyki należy prawidłowo rozwiązać co najmniej 70%zadań egzaminacyjnych. Przyjmując, że wyniki testu Studentów zdających w pierw-szym terminie mają rozkład normalny ze średnią 76% i odchyleniem standardowym8.0%, obliczyć jaki procent Studentów zda egzamin w pierwszym terminie.

13.24. Automat tokarski produkuje nity, których średnica ma rozkład normalnyz odchyleniem standardowym 0.04 mm. Wartość średnia tej zmiennej losowej możebyć dowolnie regulowana przez odpowiednie ustawienie automatu. Nit uważa się zadobry, jeżeli jego średnica mieści się w przedziale (2.9, 3.1). Jakie jest prawdopodo-bieństwo wyprodukowania braku, gdy automat tokarski ustawiony jest tak, że średniaśrednica jest równa 3.05 mm? Jak powinien być ustawiony automat, by wadliwośćprocesu produkcyjnego była najmniejsza?

13.25. Automat produkuje nity, których średnica jest zmienną losową o rozkładzieN (2, 0.01). Dla jakiego ε średnica nitu z prawdopodobieństwem 0.95 znajduje sięw przedziale (2− ε, 2 + ε)?

13.26. Obliczyć odchylenie standardowe przyrządu pomiarowego o którym wiadomo,że z prawdopodobieństwem 0.95 daje błąd nie przekraczający trzech jednostek. Za-kładamy, że rozkład błędu jest normalny z wartością średnią zero.

13.27. Cecha ξ o rozkładzie normalnym przyjmuje wartości z przedziału ⟨28, 46⟩(przedział ten ustalony został na mocy prawa trzech sigm). Wartości 40−46 zaliczamydo pierwszej klasy, wartości 28− 34 do trzeciej klasy. Jakie jest prawdopodobieństwotego, że losowo wybrana wartość cechy ξ należy do pierwszej lub trzeciej klasy?

13.28. Błąd pomiaru pewnym urządzeniem ma rozkład normalny o wartości średniejzero (pomiar nieobciążony) i odchyleniu standardowym 20 mm. Ile co najmniej należywykonać pomiarów, by z prawdopodobieństwem co najmniej 0.99 błąd przynajmniejjednego z nich nie przekroczył 4 mm.

13.29. Zawartość tłuszczu w mleku pewnej rasy krów ma rozkład normalny o wartościśredniej 5% i wariancji 4. Mleko uważa się za bardzo tłuste, jeżeli zawartość tłusz-czu przekracza 7%. Obliczyć prawdopodobieństwo, że przynajmniej jedna z trzechniezależnych próbek mleka będzie uznana za bardzo tłustą.

13.30.Wzrost dzieci jest zmienną losową o rozkładzie normalnym o wartości średniej110 cm i wariancji 400. Obliczyć prawdopodobieństwo, że przynajmniej jedno z trójkilosowo wybranych dzieci będzie miało wzrost większy od przeciętnej.

13.31. Średnica nitu ma rozkład normalny o wartości oczekiwanej 2 mm i wariancji0.01. Obliczyć prawdopodobieństwo, że wśród trzech losowo pobranych nitów wszyst-kie okażą się brakami, jeżeli za brak uważany jest nit o średnicy mniejszej niż 1.8 mmlub większej niż 2.2 mm.

13.32. Ciężar jajka kurzego jest zmienną losową o rozkładzieN (10, 4). Obliczyć praw-dopodobieństwo, że z trzech losowo wybranych jajek wszystkie będą miały ciężarponiżej przeciętnej.

Copyright c⃝ Stanisław Jaworski & Wojciech Zieliński

Page 59: Zbiór zadań z rachunku prawdopodobieństwa i statystyki

Wersja 3/12/2014 Inne rozkłady prawdopodobieństwa 59

14. Inne rozkłady prawdopodobieństwa

Rozkład Laplace’a.

Zmienna losowa ξ ma rozkład Laplace’a (podwójnie wykładniczy) Lap(α, λ)z parametrami α ∈ R oraz λ > 0, jeżeli jej funkcja gęstości rozkładu prawdopodo-bieństwa określona jest wzorem

f(x) =12λexp

−|x− α|λ

, x ∈ R.

14.1. Narysować wykres funkcji gęstości zmiennej losowej ξ.

14.2. Wyznaczyć dystrybuantę zmiennej losowej ξ.

14.3. Udowodnić, że

Eξ(2k+1) = α2k+1(2k + 1)!, Eξ2k =[α2k

(2k)!+α2(k−1)λ2

(2(k − 1))!+ · · ·+ λ2k

].

14.4. Udowodnić, że D2ξ = 2λ2.

14.5. Pokazać, że jeżeli ξ1 oraz ξ2 są niezależnymi zmiennymi losowymi o rozkładachE (λ), to zmienna losowa ζ = ξ1 − ξ2 + α ma rozkład Lap (α, λ).

Copyright c⃝ Stanisław Jaworski & Wojciech Zieliński

Page 60: Zbiór zadań z rachunku prawdopodobieństwa i statystyki

60 Inne rozkłady prawdopodobieństwa Wersja 3/12/2014

Rozkład Weibulla.

Zmienna losowa ξ ma rozkład WeibullaWei(α, λ) z parametrami α > 0 oraz λ > 0,jeżeli jej funkcja gęstości rozkładu prawdopodobieństwa określona jest wzorem

f(x) =α

λxα−1 exp

−xα

λ

1(0,∞)(x).

14.6. Narysować wykres funkcji gęstości zmiennej losowej ξ.

14.7. Wyznaczyć dystrybuantę zmiennej losowej ξ.

14.8. Udowodnić, że Eξk = λkαΓ(k

α+ 1).

14.9. Udowodnić, że D2ξ = λ2α

[2αΓ(2α

)− 1α2

(Γ(1α

))].

Copyright c⃝ Stanisław Jaworski & Wojciech Zieliński

Page 61: Zbiór zadań z rachunku prawdopodobieństwa i statystyki

Wersja 3/12/2014 Inne rozkłady prawdopodobieństwa 61

Rozkład Pareto.

Zmienna losowa ξ ma rozkład Pareto Par(α, β) z parametrami α > 0 oraz β > 0,jeżeli jej funkcja gęstości rozkładu prawdopodobieństwa określona jest wzorem

f(x) =β

α

(αx

)β+11(α,∞)(x).

Funkcja gęstości rozkładu Par (0, β) określona jest wzorem

f(x) = βx−(β+1)1(0,∞)(x).

14.10. Narysować wykres funkcji gęstości zmiennej losowej ξ.

14.11. Wyznaczyć dystrybuantę zmiennej losowej ξ.

14.12. Udowodnić, że Eξk = ββ−kα

k, k < β.

14.13. Udowodnić, że D2ξ = β(β−1)(β−2)α

2, dla β > 2 oraz D2ξ = +∞ dla β ≤ 2.

Copyright c⃝ Stanisław Jaworski & Wojciech Zieliński

Page 62: Zbiór zadań z rachunku prawdopodobieństwa i statystyki

62 Inne rozkłady prawdopodobieństwa Wersja 3/12/2014

Rozkład logarytmiczno-normalny.

Zmienna losowa ξ ma rozkład logarytmiczno-normalny LNor(µ, σ2) z parame-trami µ ∈ R oraz σ2 > 0, jeżeli jej funkcja gęstości rozkładu prawdopodobieństwaokreślona jest wzorem

f(x) =1

xσ√2πexp

−12

(lnx− µσ

)21(0,∞)(x).

14.14. Narysować wykres funkcji gęstości zmiennej losowej ξ.

14.15. Udowodnić, że Eξk = exp12k2σ2 + kµ

.

14.16. Udowodnić, że D2ξ = expσ4 +m

[expσ4 − 1

].

14.17. Pokazać, że zmienna losowa ξ ma rozkład logarytmiczno-normalny, jeżelizmienna losowa η = eξ ma rozkład normalny.

14.18. Zmienna losowa ξ ma rozkład LNor (µ, 1). Wiadomo, że P (ξ ≤ q) = 0.6 orazP (ξ ≤ r) = 0.4. Obliczyć wartość oczekiwaną zmiennej losowej ξ.

Copyright c⃝ Stanisław Jaworski & Wojciech Zieliński

Page 63: Zbiór zadań z rachunku prawdopodobieństwa i statystyki

Wersja 3/12/2014 Inne rozkłady prawdopodobieństwa 63

Rozkład t (Studenta).

Zmienna losowa ξ ma rozkład t (Studenta) t(r) z r > 0 stopniami swobody, jeżelijej funkcja gęstości rozkładu prawdopodobieństwa określona jest wzorem

f(x) =Γ(r + 12

)√rπΓ

(r2

) (1 + x22

)− r+12, x ∈ R.

Wartością krytyczną rzędu α rozkładu t (r) nazywamy kwantyl rzędu 1− α.

Dwustronną wartością krytyczną rzędu α rozkładu t (r) nazywamy kwantyl rzędu1− (α/2). Oznaczenie: t(α; r).

14.19. Narysować wykres funkcji gęstości zmiennej losowej ξ.

14.20. Udowodnić, że Eξ2k−1 = 0 oraz Eξ2k = rk√π

Γ( r2−k)Γ(k+ 12 )Γ( r2 )

dla 2k < r.

14.21. Udowodnić, że D2ξ = rr−2 dla r > 2 oraz D

2ξ = +∞ dla r ≤ 2.

14.22. Pokazać, że jeżeli zmienna losowa ξ ma rozkład N (0, 1), zmienna losowa ηma rozkład χ2 (r) oraz zmienne te są niezależne, to zmienna losowa ζ = ξ/

√η/r ma

rozkład t (r).

14.23. Pokazać, że jeżeli zmienna losowa ξ ma rozkład t (r), to P|ξ| > t(α; r) = α.

Copyright c⃝ Stanisław Jaworski & Wojciech Zieliński

Page 64: Zbiór zadań z rachunku prawdopodobieństwa i statystyki

64 Inne rozkłady prawdopodobieństwa Wersja 3/12/2014

Rozkład F (Snedecora).

Zmienna losowa ξ ma rozkład F (Snedecora) F (r, s) z r > 0 i s > 0 stopniamiswobody, jeżeli jej funkcja gęstości rozkładu prawdopodobieństwa określona jest wzo-rem

f(x) =Γ(r + s2

)rr2 ss2

Γ(r2

)Γ(s2

) x s2−1(s+ rx)− r+s2 1(0,∞)(x).Wartością krytyczną rzędu α rozkładu F (r, s) nazywamy kwantyl rzędu 1 − α.Oznaczenie: F (α; r, s).

14.24. Narysować wykres funkcji gęstości zmiennej losowej ξ.

14.25. Udowodnić, że Eξk =Γ( r2+k)Γ( s2−k)skΓ( r2 )rkΓ( s2 )

dla 2k < s.

14.26. Udowodnić, że Eξ = ss−2 dla s > 2.

14.27. Udowodnić, że D2ξ = 2s2(r+s−2)r(s−2)2(s−4) dla s > 4.

14.28. Pokazać, że jeżeli zmienna losowa ξ ma rozkład χ2 (r) stopniami swobody,zmienna losowa η ma rozkład χ2 (s) stopniami swobody i zmienne te są niezależne,to zmienna losowa ζ = (ξ/r)/(η/s) ma rozkład F (r, s).

14.29. Pokazać, że jeżeli ξ ∼ F (2r, 2s), to 11+ξ ∼ Bet (s, r).

Copyright c⃝ Stanisław Jaworski & Wojciech Zieliński

Page 65: Zbiór zadań z rachunku prawdopodobieństwa i statystyki

Wersja 3/12/2014 Inne rozkłady prawdopodobieństwa 65

Rozkład z Fishera.

Zmienna losowa ξ ma rozkład z Fishera Fish(r, s) z (r, s) stopniami swobody, jeżelijej funkcja gęstości wyraża się wzorem

f(x) =2rr2 ss2Γ(r + s2

)erx

Γ(r2

)Γ(s2

)(s+ re2x)

r+s2

, x ∈ R

14.30. Narysować wykres funkcji gęstości zmiennej losowej ξ.

14.31. Udowodnić, że Eξ = 0.

14.32. Udowodnić, że D2ξ = 12r+srs .

14.33. Pokazać, że jeżeli ξ ∼ F (r, s), to ζ = 12 ln ξ ma rozkład Fish (r, s).

Copyright c⃝ Stanisław Jaworski & Wojciech Zieliński

Page 66: Zbiór zadań z rachunku prawdopodobieństwa i statystyki

66 Inne rozkłady prawdopodobieństwa Wersja 3/12/2014

Rozkład wielomianowy.

Wektor losowy ξ = (ξ1, . . . , ξk) ma rozkład wielomianowy z parametrami n oraz(p1, . . . , pk), jeżeli

Pξ =m = Pξ1 = m1, . . . , ξk = mk =n!

m1! · · ·mk!pm11 · · · p

mkk

gdzie m = (m1, . . . ,mk),∑ki=1mk = n, 0 < pi < 1,

∑ki=1 pk = 1.

Rozkład wielomianowy jest wielowymiarowym analogiem rozkładu dwumianowego.

14.34. Udowodnić, że Eξ = n(p1, . . . , pk).

14.35. Udowodnić, że D2ξi = npi(1− pi), Cov(ξi, ξj) = −npipj , dla i = j.

14.36. Pokazać, że zmienna losowa ξi ma rozkład Bin (n, pi).

14.37. Pokazać, że jeżeli ξ(1), . . . , ξ(k) są niezależnymi k–wymiarowymi wektoramilosowymi o rozkładach wielomianowych z parametrami (n1,p), . . . , (nk,p), to ξ =∑

ξ(i) ma rozkład wielomianowy z parametrami (∑ni,p).

Copyright c⃝ Stanisław Jaworski & Wojciech Zieliński

Page 67: Zbiór zadań z rachunku prawdopodobieństwa i statystyki

Wersja 3/12/2014 Inne rozkłady prawdopodobieństwa 67

Rozkład Dirichleta.

Wektor losowy ξ = (ξ1, . . . , ξk) ma rozkład Dirichleta Dir(α) z parametrem α =(α1, . . . , αk) (αi > 0), jeżeli funkcja gęstości wyraża się wzorem

f(x) =Γ(α1+···+αk)Γ(α1)···Γ(αk) x

α11 · · ·x

αkk , x ∈ S

0, x ∈ S

gdzie S = x ∈ Rk :∑ki=1 xk = 1, xi > 0.

Rozkład Dirichleta jest wielowymiarowym analogiem rozkładu beta

14.38. Udowodnić, że

Eξ =α

α0, Cov(ξi, ξj) = −

αiαjα20(1 + α0)

(i = j), D2ξi =αiα0

(α0 =

k∑i=1

αi

).

.

Copyright c⃝ Stanisław Jaworski & Wojciech Zieliński

Page 68: Zbiór zadań z rachunku prawdopodobieństwa i statystyki

68 Inne rozkłady prawdopodobieństwa Wersja 3/12/2014

Zadania do samodzielnego rozwiązania

14.39. Zmienne losowe ξ i η są niezależne. Zmienna losowa ξ ma rozkład normalnyN (0, 0.5). Zmienna losowa η ma rozkład wykładniczy E (1). Obliczyć P (η > ξ2).

14.40. Zmienne losowe ξ1, . . . , ξn, . . . są niezależne i mają jednakowy rozkład wykład-niczy E (1). Zmienna losowa N jest niezależna od nich i ma rozkład geometrycznyGe (q). Niech S =

∑Ni=1 ξi będzie sumą losowej liczby zmiennych losowych (przyjmu-

jemy, że S = 0, gdy N = 0). Udowodnić, że D2(N |S = s) = E(N |S = s)− 1.

14.41. Niech ξ i η będą zmiennymi losowymi takimi, że ξ ma rozkład E (1), wa-runkowy (pod warunkiem ξ = x) rozkład zmiennej losowej η jest rozkładem Po (x).Udowodnić, że zmienne losowe ξ i η − ξ są nieskorelowane.

14.42. Zmienna losowa ξ ma rozkład warunkowy (pod warunkiem Λ = λ) jest rozkła-dem E (1/λ). Rozkład brzegowy zmiennej losowej Λ jest rozkładem G (2, 0.5). Wy-znaczyć medianę rozkładu bezwarunkowego zmiennej ξ.

14.43. Niech ξ = N exp(tζ), gdzie N jest zmienną losową o rozkładzie Po (λ), ζjest zmienną losową o rozkładzie N

(µ, σ2

), niezależną od N , natomiast t jest stałą.

Obliczyć D2ξ

(Eξ)2 .

14.44. Załóżmy, że ξ i η są niezależnymi zmiennymi losowymi o rozkładzie N (0, 1).Zmienna losowa ζ jest równa ζ = |ξ|√

ξ2+η2. Wyznaczyć funkcję gęstości zmiennej

losowej η.

14.45. Zmienne losowe ξ i η są niezależne i każda z nich ma rozkład prawdopodo-bieństwa o gęstości

f(x) =

4(1+x)5 , dla x > 0,0, poza tym.

Rozważamy zmienną losową ζ = ln ξln[(1+ξ)(1+η)] . Udowodnić, że zmienna losowa ζ ma

rozkład U (0, 1).

14.46. Niech N1 =∑Ni=1 ξi i N0 = N −N1, gdzie N jest zmienną losową o rozkładzie

Po (λ), zaś ξ1, . . . , ξn, . . . są zmiennymi losowymi niezależnymi od N i od siebie na-

wzajem. Zakładamy, że każda ze zmiennych ξi ma rozkład D (p). Obliczyć E[N1N0+1

].

14.47. Rozważamy kolektywny model ryzyk. Zakładamy, że η = ηN =∑Ni=1 ξi, gdzie

N oraz ξ1, ξ2, . . . są niezależnymi zmiennymi losowymi, przy czym N ma rozkładPo (λ), zaś każda ze zmiennych ξn ma rozkład taki, że P (ξn = 1) = 23 = 1−P (ξn = 2).Obliczyć warunkową wartość oczekiwaną E(N |η = 3).

14.48. Załóżmy, że zmienne losowe ξ1, ξ2, . . . są niezależne i mają jednakowy rozkładwykładniczy E (1/λ). Zmienne losowe ξ1, ξ2, . . . określamy wzorem

ξi =ξi − aEξi, gdy ξi > aEξi,0, gdy ξi ≤ aEξi.

Copyright c⃝ Stanisław Jaworski & Wojciech Zieliński

Page 69: Zbiór zadań z rachunku prawdopodobieństwa i statystyki

Wersja 3/12/2014 Inne rozkłady prawdopodobieństwa 69

Zmienna losowa N ma rozkład Po (λ) i jest niezależna od ξ1, ξ2, . . . Niech S =∑Ni=1 ξi

oraz S =∑Ni=1 ξi. Dobrać liczbę a tak, by D

2S = 0.36D2S.

14.49. Niech N , ξ1, ξ2, . . . , ξn, . . . będą niezależnymi zmiennymi losowymi, przy czymzmienna losowa N ma rozkład Ge (q), gdzie q ∈ (0, 1) jest ustaloną liczbą, a zmiennelosowe ξ1, ξ2, . . . , ξn, . . . mają ten sam rozkład E (λ). Niech

SN =ξ1 + · · ·+ ξN , gdy N > 0,0, gdy N = 0.

Wyznaczyć prawdopodobieństwo P (SN ≤ x) dla x > 0.

14.50. Niech ξ1, ξ2, . . . , ξn, . . ., I1, I2, . . . , In, . . . oraz N będą niezależnymi zmien-nymi losowymi. Zmienne ξ1, ξ2, . . . , ξn, . . . mają rozkład E (1/µ). Zmienne losoweI1, I2, . . . , In, . . . mają rozkład D (p), gdzie p ∈ (0, 1) jest ustaloną liczbą. Zmienna Nma rozkład NB (r, q), gdzie r > 0 i q ∈ (0, 1) są ustalone. Niech

Tn =∑N

i=1 ξi, gdy N > 0,0, gdy N = 0,

Sn =∑N

i=1 Iiξi, gdy N > 0,0, gdy N = 0,

Wyznaczyć kowariancję Cov(TN , SN ).

14.51. Załóżmy, że dla danej wartości Θ = θ zmienne losowe ξ1, . . . , ξn, . . . są warun-kowo niezależne i mają rozkład D (p). Zmienna losowa Θ ma rozkład U (0, 1). NiechN = minn : ξn = 1. Obliczyć P (N = n+ 1|N > n) dla n = 0, 1, 2, . . .

14.52. Załóżmy, że ξ1, . . . , ξn, . . . są niezależnymi zmiennymi losowymi o rozkładzieU (0, 1), zaś N jest zmienną o rozkładzie Po (λ), niezależną od ξ1, . . . , ξn, . . . Niech

M =maxξ1, . . . , ξn, gdy N > 0,0, gdy N = 0.

Obliczyć EM .

14.53. Niech ξ1, ξ2, . . . będą niezależnymi zmiennymi losowymi o tym samym rozkła-dzie U (1, 2). Niech N będzie zmienną losową o rozkładzie NB (3, p) niezależną odzmiennych losowych ξ1, ξ2, . . . Niech

MN =maxξ1, . . . , ξN, gdy N > 0,0, gdy N = 0.

Obliczyć EMN .

14.54. Niech ξ1, ξ2, . . . , ξn, . . . będą niezależnymi zmiennymi losowymi o tym samymrozkładzie E (1/a). Niech N iM będą niezależnymi zmiennymi losowymi o rozkładachPoissona i niezależnymi od zmiennych losowych ξ1, ξ2, . . . , ξn, . . ., przy czym EN = λi EM = µ. Niech

ηn =maxξ1, . . . , ξn, gdy n > 0,0, gdy n = 0.

Obliczyć P (ηM+N > ηM ).

Copyright c⃝ Stanisław Jaworski & Wojciech Zieliński

Page 70: Zbiór zadań z rachunku prawdopodobieństwa i statystyki

70 Inne rozkłady prawdopodobieństwa Wersja 3/12/2014

14.55. Niech ξ0, ξ1, . . . , ξn, . . . będą niezależnymi zmiennymi losowymi o tym samymrozkładzie E (1). Niech N będzie zmienną losową o rozkładzie Po (λ), niezależną odzmiennych ξ1, . . . , ξn, . . .. Niech MN = minξ0, ξ1, . . . , ξN. Wyznaczyć Cov(MN , N).

14.56. Niech ξ1, . . . , ξn, . . . będą niezależnymi zmiennymi losowymi o tym samymrozkładzie E (1). Niech N będzie zmienną losową o rozkładzie NB

(2, e−1

)niezależną

od zmiennych ξ1, . . . , ξn, . . . Niech

MN =minξ1, . . . , ξN, gdy N > 0,0, gdy N = 0.

Wyznaczyć EMN .

14.57. Niech ξ1, . . . , ξn, . . . będą niezależnymi zmiennymi losowymi o jednakowymrozkładzie E (α). Niech N będzie zmienną losową niezależną od ξ1, . . . , ξn, . . . o roz-kładzie Po (λ). Niech

η =minξ1, . . . , ξn, gdy N > 0,0, gdy N = 0.

Obliczyć E(N |η = y) przy założeniu, że y > 0.

Copyright c⃝ Stanisław Jaworski & Wojciech Zieliński

Page 71: Zbiór zadań z rachunku prawdopodobieństwa i statystyki

Wersja 3/12/2014 Wielowymiarowy rozkład normalny 71

15. Wielowymiarowy rozkład normalny

Definicja 15.1 Wektor losowy ξ = [ξ1, . . . , ξp]T ma p-wymiarowy rozkład normalnyNp(µ,Σ), jeżeli jego funkcja gęstości prawdopodobieństwa wyraża się wzorem

fµ,Σ(x) =1

(2π)p/2√detΣ

exp−12(x− µ)TΣ−1(x− µ)

dla x ∈ Rp.

Wektor µ = [µ1, . . . , µp]T jest wektorem wartości oczekiwanych wektora losowego ξ,tzn. Eξi = µi dla i = 1, . . . , p.

Macierz Σ = [σij ]i,j=1,...,p jest macierzą kowariancji wektora losowego ξ, tzn. D2ξi =σii oraz Cov(ξi, ξj) = σij . Zwyczajowe oznaczenie D2ξi = σ2i

Twierdzenie 15.1. Jeżeli A jest r × p macierzą, to Aξ ∼ Nr(Aµ,AΣAT

).

Wniosek. Każdy rozkład brzegowy jest normalny.

Rozkłady warunkowe. Niech

ξ =[ξ1ξ2

]µ =

[µ1µ2

]Σ =

[Σ11 Σ12ΣT12 Σ22

]Rozkład wektora ξ1 pod warunkiem ξ2 = x2 jest rozkładem normalnym

Nm(µ1 +Σ−122 Σ

T12(x2 − µ2),Σ11 −Σ12Σ

−122 Σ

T12

)Warunkowa wartość oczekiwana.

E(ξ1|ξ2) = µ1 +Σ−122 ΣT12(ξ2 − µ2)

Twierdzenie 15.3. ξ1 oraz ξ2 są niezależne wtedy i tylko wtedy, gdy

Σ12 = 0.

W szczególności ξi oraz ξj są niezależne wtedy i tylko wtedy, gdy σij = 0

Zadania do samodzielnego rozwiązania

15.1. Udowodnić, że jeżeli ξ ∼ Np (µ,Σ) oraz A jest r × p macierzą, to Aξ ∼Nr(Aµ,AΣAT

).

Copyright c⃝ Stanisław Jaworski & Wojciech Zieliński

Page 72: Zbiór zadań z rachunku prawdopodobieństwa i statystyki

72 Wielowymiarowy rozkład normalny Wersja 3/12/2014

15.2. Wyznaczyć rozkład warunkowy wektora ξ1 pod warunkiem ξ2 = x2.

15.3. Niech ξ ∼ Np (µ,Σ) oraz niech A będzie macierzą symetryczną. Udowodnić,że E(ξTAξ) = tr(AΣ) + µTAµ.

15.4. Niech ξ ∼ Np(µ, σ2I

)oraz niech A będzie macierzą symetryczną. Udowodnić,

że D2(ξTAξ) = 2σ4trA2 + 4σ2µTA2µ.

15.5. Niech ξ ∼ Np(µ, σ2I

)oraz niech A będzie macierzą symetryczną. Udowodnić,

że (ξ−µ)TA(ξ−µ) ma rozkład χ2 (tr(AΣ)) stopniami swobody wtedy i tylko wtedy,gdy ΣAΣAΣ = ΣAΣ.

15.6. Niech ξ ∼ Np (µ, I) oraz niech A będzie p × p macierzą rzędu r. Udowodnić,że forma kwadratowa (ξ− µ)TA(ξ− µ) ma rozkład χ2 (r) wtedy i tylko wtedy, gdyAA = A.

15.7. (Twierdzenie Cochrana) Niech ξ ∼ Np (0, I) i niech A1, . . . ,Ak będą takimimacierzami symetrycznymi rzędów n1, . . . , nk, że ξT ξ =

∑ki=1 ξ

TAiξ. Formy kwa-dratowe ξTAiξ są niezależnymi zmiennymi losowymi o rozkładach χ2 (ni) stopniamiswobody wtedy i tylko wtedy, gdy

∑ki=1 ni = n.

15.8. Rozpatrzmy zmienne losowe ξ i η o łącznym rozkładzie normalnym. Wiadomo,że D2η = 9, E(η|ξ) = 12ξ + 7, D

2(η|ξ) = 8. Wyznaczyć Cov(η|ξ).

15.9. Załóżmy, że zmienne losowe ξ i η mają łączny rozkład normalny, Eξ = Eη = 0,D2ξ = D2η = 1 i Cov(ξ, η) = ϱ. Obliczyć Cov(ξ2, η2).

15.10. Załóżmy, że ξ, η są zmiennymi losowymi o łącznym rozkładzie normalnym,Eξ = Eη = 0, D2ξ = D2η = 1 i Cov(ξ, η) = ϱ. Obliczyć D2(ξη).

15.11. Niech ξ i η będą zmiennymi losowymi o łącznym rozkładzie normalnym takim,że Eξ = Eη = 0, D2ξ = 1, D2η = 5, Cov(ξ, η) = −2. Obliczyć E(η2|ξ = x).

15.12. Załóżmy, że ξ, η i ζ są niezależnymi zmiennymi losowymi rozkładzie N (0, 1).Znaleźć liczbę a taką, że

P

(|ξ|√

ξ2 + η2 + ζ2≤ a

)= 0.6.

15.13. Wektor losowy [ξ1, ξ2, ξ3]T ma trójwymiarowy rozkład normalny z wartością

oczekiwaną [0, 0, 0]T i macierzą kowariancji

4 1.5 11.5 1 0.51 0.5 1

. Występująca w równa-niu ξ1 = aξ2 + bξ3 + ε zmienna losowa ε jest nieskorelowana ze zmiennymi losowymi(ξ2, ξ3). Wyznaczyć stałą a.

Copyright c⃝ Stanisław Jaworski & Wojciech Zieliński

Page 73: Zbiór zadań z rachunku prawdopodobieństwa i statystyki

Wersja 3/12/2014 Wielowymiarowy rozkład normalny 73

15.14. Wektor losowy [ξ, η, ζ]T ma rozkład normalny z wartością oczekiwaną Eξ =Eη = 1, Eζ = 0 i macierzą kowariancji 4 1 21 1 1

2 1 4

.Obliczyć D2((ξ − η)ζ).

15.15. Wiemy, że η = 2ξ + ζ, gdzie ξ i ζ są niezależnymi zmiennymi losowymi, ξ marozkład N (0, 9), a ζ ma rozkład N (0, 4). Dla jakiego a zachodzi związek ξ = aη + γi zmienne η i γ są niezależne.

15.16. Załóżmy, że zmienne losowe ξ1, . . . , ξ5, ξ6, . . . , ξ20 są niezależne, o jednakowymrozkładzie N

(µ, σ2

). Niech η5 = ξ1 + · · · + ξ5, η20 = ξ1 + · · · + ξ20. Wyznaczyć

warunkową wartość oczekiwaną E(η5|η20).

15.17. Załóżmy, że ξ0 oraz η1, . . . , η10 są niezależnymi zmiennymi losowymi, przy tymkażda ze zmiennych η1, . . . , η10 ma jednakowy rozkład N (5, 1). Niech

ξn+1 =12ξn + ηn+1, dla n = 0, 1, . . . , 9.

Wiadomo, że zmienne losowe ξ0 i ξ10 mają rozkład normalny o jednakowych parame-trach. Wyznaczyć parametry tego rozkładu.

15.18. Załóżmy, że ξ1, . . . , ξm, ξm+1, . . . , ξn są niezależnymi zmiennymi losowymi orozkładzie N

(µ, σ2

). Niech ξm = 1

m

∑mi=1 ξi oraz ξn =

1n

∑ni=1 ξi. Obliczyć

E

[∑mi=1(ξi − ξm)2∑ni=1(ξi − ξn)2

].

15.19. Niech [ξ1, η1]T , . . . , [ξn, ηn]T będą niezależnymi wektorami losowymi o dwuwy-miarowym rozkładzie normalnym o nieznanych parametrach:

Eξi = Eηi = µ, D2ξi = D2ηi = σ2, Cov(ξi, ηi) = ϱσ2.

Niestety, obserwacje zmiennych losowych ξ i η zostały oddzielone, zmienne η pomie-szane, po czym zagubiono informacje o przynależności do par. Możemy to sformali-zować przyjmując, iż mamy nadal niezmieniony ciąg zmiennych ξ oraz ciąg ζ1, . . . , ζnstanowiący losową permutację ciągu η1, . . . , ηn. Obliczyć Cov(ξi, ζi).

15.20. Załóżmy, że ξ1, . . . , ξn i η1, . . . , ηm są niezależnymi niezależnymi zmiennymilosowymi o rozkładzie N

(µ, σ2

). Niech ξ = 1n

∑ni=1 ξi oraz η =

1m

∑mi=1 ηi. Obliczyć

P (|ξ − µ| > |η − µ|) dla n = 100 i m = 385.

Copyright c⃝ Stanisław Jaworski & Wojciech Zieliński

Page 74: Zbiór zadań z rachunku prawdopodobieństwa i statystyki

74 Twierdzenia graniczne Wersja 3/12/2014

16. Twierdzenia graniczne

Rodzaje zbieżności.

Definicja 16.1 Ciąg zmiennych losowych (ξn)∞n=1 jest zbieżny do zmiennej losowej ξprawie na pewno, jeżeli

P(ω : lim

nξn(ω) = ξ(ω)

)= 1.

Oznaczenie: ξn−→p.n. ξ

Definicja 16.2 Ciąg zmiennych losowych (ξn)∞n=1 jest zbieżny do zmiennej losowej ξwedług prawdopodobieństwa, jeśli

(∀ε > 0) limnP (|ξn − ξ| > ε) = 0.

Oznaczenie: ξn−→P ξ

Definicja 16.3 Ciąg zmiennych losowych (ξn)∞n=1 jest zbieżny do zmiennej losowej ξwedług rozkładu, jeśli ciąg dystrybuant (Fξn)

∞n=1 jest zbieżny do dystrybuanty Fξ

w każdym punkcie jej ciągłości.

Oznaczenie: ξn−→D ξ

Zachodzi:ξn−→p.n. ξ ⇒ ξn−→P ξ ⇒ ξn−→D ξ

Prawa Wielkich Liczb.

Niech ξ1, ξ2, . . . będą niezależnymi zmiennymi losowymi o tym samym rozkładzietakim, że Eξ1 = µ, D2ξ1 = σ2 ∈ (0,∞) oraz niech Sn = ξ1 + ξ2 + · · · + ξn iξn =

ξ1+ξ2+···+ξnn = Snn .

Dla ciągu ξ1, ξ2, . . . zachodzi mocne prawo wielkich liczb, jeżeli ξn−→p.n.µ, tzn.

P(limn→∞ξn = µ

)= 1

Dla ciągu ξ1, ξ2, . . . zachodzi słabe prawo wielkich liczb, jeżeli ξn−→P µ, tzn.

(∀ε > 0) limn→∞P(∣∣ξn − µ∣∣ < ε) = 1

Copyright c⃝ Stanisław Jaworski & Wojciech Zieliński

Page 75: Zbiór zadań z rachunku prawdopodobieństwa i statystyki

Wersja 3/12/2014 Twierdzenia graniczne 75

Nierówność Czebyszewa.

(∀ε > 0) P(|ξn − µ| ≥ ε

)≤ E|ξ1 − µ|

Nierówność Czebyszewa-Bienayme.

(∀ε > 0) P(|ξn − µ| ≥ ε

)≤ σ

2

nε2

Przykład. Zastosujemy mocne prawo wielkich liczb do oszacowania liczby π za po-mocą komputerowego generatora liczb losowych

Rozwiązanie.

Niech η ∼ U (0, 1). Niech ξ = 4√1− η2. Jak łatwo sprawdzić

Eξ =∫ ∞−∞4√1− x2fη(x)dx = 4

∫ 10

√1− x2dx = π

Z komputerowego generatora liczb losowych generujemy n realizacji η1, . . . , ηn zmien-nej losowej η. Następnie obliczamy ξ1, . . . , ξn. Z Prawa Wielkich Liczb: ξn ≈ πJak dużo symulacji, by z dużym prawdopodobieństwem γ błąd był nie większy niżzadane ε?

Z nierówności Czebyszewa-Bienayme: σ2

nε2 ≤ 1− γ. Zatem n ≥σ2

ε2(1−γ)

Centralne Twierdzenie Graniczne (CTG).

Twierdzenie 16.1. (CTG) Niech ξ1, ξ2, . . . będą niezależnymi zmiennymi losowymio tym samym rozkładzie, o wartości oczekiwanej µ i wariancji 0 < σ2 <∞. Wtedy

limn→∞supx∈R

∣∣∣∣P (Sn − nµσ√n≤ x

)− Φ (x)

∣∣∣∣ = 0.Centralne twierdzenie graniczne mówi, że

ξn − µσ

√n−→D N (0, 1)

W skrócie zapisujemy:(Sn)∞n=1 ∼ AN(nµ, nσ2)

Copyright c⃝ Stanisław Jaworski & Wojciech Zieliński

Page 76: Zbiór zadań z rachunku prawdopodobieństwa i statystyki

76 Twierdzenia graniczne Wersja 3/12/2014

Twierdzenie Berry-Essena’a.

Twierdzenie 16.2. (Berry-Essena’a) Jeżeli ξ1, ξ2, . . . są niezależnymi zmiennymi lo-sowymi o tym samym rozkładzie oraz E|ξ1|3 <∞, to

supx∈R

∣∣∣∣P (Sn − nµσ√n≤ x

)− Φ(x)

∣∣∣∣ ≤ CE|ξ1 − µ|3σ3√n,

gdzie 1/√2π ≤ C < 0.8.

Rozkład dwumianowy.

Twierdzenie 16.3. (de Moivre-Laplace’a) Niech ζn ∼ Bin (n, p). Wtedy

limn→∞supx∈R

∣∣∣∣P (ζn − np√npq

≤ x)− Φ(x)

∣∣∣∣ = 0.Twierdzenie Berry-Essena’a dla zmiennych dwumianowych: niech ζn ∼ Bin (n, p).Wtedy

supx∈R

∣∣∣∣P (ζn − np√npq

≤ x)− Φ(x)

∣∣∣∣ ≤ C p2 + (1− p)2√np(1− p)

Przybliżenie poissonowskie rozkładu dwumianowego

Niech ζn ∼ Bin (n, p). Wtedy dla każdego zbioru M ⊆ N mamy∣∣∣∣∣P (ζn ∈M)−∑k∈M

(np)k

k!e−np

∣∣∣∣∣ ≤ (np)2nDystrybuanta empiryczna. Niech ξ1, ξ2, . . . będą niezależnymi zmiennymi loso-wymi o tym samym rozkładzie o dystrybuancie F . Dystrybuantą empiryczną na-zywamy

Fn : R ∋ x→#1 ≤ j ≤ n : ξj ≤ x

n∈ [0, 1].

Z Mocnego Prawa Wielkich Liczb mamy:

(∀x ∈ R) limn→∞Fn(x) = F (x)

Z Centralnego Twierdzenie Granicznego wynika:

(∀x ∈ R) Fn(x) ∼ AN(F (x),

F (x)(1− F (x))n

)Zadania do samodzielnego rozwiązania

16.1. Obliczyć w przybliżeniu prawdopodobieństwo, że partia pięciuset elementów,z których każdy ma czas pracy Ti (i = 1, 2, . . . , 500) wystarczy na zapewnienie pracyurządzenia przez łącznie tysiąc godzin, gdy wiadomo, że ETi = 2 oraz D2Ti = 1.

Copyright c⃝ Stanisław Jaworski & Wojciech Zieliński

Page 77: Zbiór zadań z rachunku prawdopodobieństwa i statystyki

Wersja 3/12/2014 Twierdzenia graniczne 77

16.2. Tygodniowe wypłaty z pewnego funduszu są niezależnymi zmiennymi losowymio rozkładzie wykładniczym z tą samą wartością oczekiwaną 2000 zł. Obliczyć praw-dopodobieństwo, że łączna wypłata z tego funduszu w okresie roku, tzn. 52 tygodni,przekroczy 100000 zł.

16.3. W grupie studenckiej przeprowadzono test z analizy, w którym można uzyskaćod 0 do 100 punktów. Przeciętna liczba punktów uzyskiwanych przez studenta wynosi40, a odchylenie standardowe 20. Zakładając, że wyniki studentów są niezależnymizmiennymi losowymi o tym samym rozkładzie prawdopodobieństwa, obliczyć praw-dopodobieństwo tego, że średnia liczba punktów w 150 osobowej grupie studenckiejbędzie większa od 45.

16.4. Komputer dodaje 15000 liczb rzeczywistych, z których każdą zaokrągla do naj-bliższej całkowitej, a liczbę n+ 0.5 do najbliższej parzystej (n jest liczbą całkowitą).Zakładając, że błędy zaokrągleń są niezależnymi zmiennymi losowymi o rozkładachU (−0.5, 0.5), obliczyć prawdopodobieństwo tego, że błąd w obliczeniu sumy przekro-czy 10.

16.5. Licznik Geigera–Mullera i źródło promieniowania umieszczono względem sie-bie tak, że prawdopodobieństwo zarejestrowania przez licznik wypromieniowanej czą-steczki wynosi 1

1000 . Załóżmy, że w czasie obserwacji preparat radioaktywny wypro-mieniował 30000 cząstek. Jakie jest prawdopodobieństwo, że licznik zarejestruje conajwyżej trzy cząstki?

16.6. Załóżmy, że przy składaniu książki w drukarni każda litera ma prawdopodobień-stwo 0.0001, że zostanie złożona błędnie. Po złożeniu książki szpalty czyta korektor,który znajduje każdy błąd z prawdopodobieństwem 0.5. Znaleźć prawdopodobieństwo,że w książce o stu tysiącach znaków drukarskich pozostaną po korekcie nie więcej niżdwa błędy.

16.7.Wśród ziaren pszenicy znajduje się 0.2% ziaren chwastów. Jakie jest prawdopo-dobieństwo, że wśród wybranych losowo tysiąca ziaren znajdują się co najmniej trzyziarna chwastów?

16.8. Wielu botaników dokonywało doświadczeń nad krzyżowaniem żółtego groszku(hybryda). Według znanej hipotezy Mendla, prawdopodobieństwo pojawienia się zie-lonego groszku przy takich krzyżówkach równa się 1/4. Zakładając słuszność hipotezyMendla obliczyć prawdopodobieństwo, że dla 3400 doświadczeń nad krzyżówką, w conajmniej dziewięciuset przypadkach otrzymano zielony groszek.

16.9. Pewna partia polityczna ma dwudziestoprocentowe poparcie w społeczeństwie.Jakie jest prawdopodobieństwo, że w okręgu wyborczym składającym się z 10000wyborców, partia uzyska co najmniej 1000 głosów przy siedemdziesięcioprocentowejfrekwencji.

16.10. Z dotychczasowych obserwacji wynika, że zainteresowanie mężczyzn pewnymkierunkiem studiów jest niewielkie i można je szacować na poziomie 1%. Jakie jestprawdopodobieństwo, że wśród 200 osób przyjmowanych w kolejnej rekrutacji będzieco najmniej trzech mężczyzn?

Copyright c⃝ Stanisław Jaworski & Wojciech Zieliński

Page 78: Zbiór zadań z rachunku prawdopodobieństwa i statystyki

78 Twierdzenia graniczne Wersja 3/12/2014

16.11. Niech ξ(1), . . . , ξ(400) będą niezależnymi zmiennymi losowymi o tym samymrozkładzie ciągłym o wariancji σ2, ustawionymi w porządku niemalejącym, tzn. ξ(1) ≤· · · ≤ ξ(400). Niech m będzie medianą rozważanego rozkładu. Na podstawie Central-nego Twierdzenie Granicznego wyznaczyć przybliżoną wartość prawdopodobieństwaP (ξ(220) ≤ m).

16.12. Załóżmy, że ξ1, . . . , ξ735 oraz η1, . . . , η880 są niezależnymi zmiennymi losowymio rozkładach D (3/7) oraz D (0.5), odpowiednio. Korzystając z Centralnego Twier-

dzenia Granicznego obliczyć P(∑735

i=1 ξi <∑880i=1 ηi

).

16.13. Zmienne losowe ξ1, ξ2, . . . , ξn, . . . są niezależne o jednakowym rozkładzie

P (ξn = 0) = P (ξn = 1) = P (ξn = 2) = P (ξn = 3) =14.

Niech η0 = 3 oraz niech dla n = 1, 2, . . . zachodzi

ηn =3, gdy ξn = 3,minηn−1, ξn, gdy ξn < 3.

Obliczyć limn→∞P (ηn ≤ 1).

16.14. Załóżmy, że η1, . . . , ηn, . . . są niezależnymi zmiennymi losowymi o jednakowymrozkładzie:

P (ηn = 0) = P (ηn = 1) = · · · = P (ηn = 9) =110.

Niech ξ0 = 0 oraz niech dla n = 1, 2, . . .

ξn =maxξn−1, ηn, gdy ηn > 0,0, gdy ηn = 0.

Obliczyć granicę limn→∞P (ξn ≥ 3).

16.15. Załóżmy, że ξ1, . . . , ξn, . . . są niezależnymi zmiennymi losowymi o jednakowymrozkładzie U (0, 1). Rozważmy ciąg średnich geometrycznych n

√ξ1 · · · ξn. Udowodnić,

że limn→∞P(n√ξ1 · · · ξn ≤ 13

)= 0.

16.16. Zmienne losowe ξ1, . . . , ξn, . . . są niezależne i mają identyczny rozkład U (0, 2).Niech ηn = ξ1 · · · ξn. Obliczyć lim

n→∞P (ηn ≤ 0.5).

16.17. Zmienne losowe ξ1, . . . , ξn, . . . są niezależne i mają identyczny rozkład U (0, 2).Niech ηn = ξ1 · · · ξn. Udowodnić, że lim

n→∞P (ηn ≤ (2/e)n) = 0.5.

16.18. Niech ξ1, . . . , ξn będą niezależnymi zmiennymi losowymi z rozkładu o gęstości

f(x) =2x, dla x ∈ (0, 1),0, dla x ∈ (0, 1).

Niech ηn =∏ni=1 ξ

1ni . Udowodnić, że limn→∞

P|ηn − e−0.5|√n > e−0.5 = 0.046.

Copyright c⃝ Stanisław Jaworski & Wojciech Zieliński

Page 79: Zbiór zadań z rachunku prawdopodobieństwa i statystyki

Wersja 3/12/2014 Twierdzenia graniczne 79

16.19. W urnie I znajdują się dwie kule i w urnie II znajdują się dwie kule. Nate cztery kule w sumie składają się dwie kule białe i dwie czarne. Przeprowadzamynastępujące doświadczenie losowe.

a. najpierw losujemy jedną kulę z urny I i przekładamy ją do urny II,

b. następnie losujemy jedną kulę z urny II i przekładamy ją do urny I.

Sekwencję losowań a) i b) powtarzamy wielokrotnie. Przed każdym losowaniem do-kładnie mieszamy kule w urnie. Niech pn(1) oznacza prawdopodobieństwo tego, że pon powtórzeniach (czyli po 2n losowaniach) w urnie I znajduje się jedna biała i jednaczarna kula. Obliczyć lim

n→∞pn(1).

16.20. Na początku doświadczenia w urnie I znajdują się trzy kule białe, zaś w urnieII trzy kule czarne. Losujemy po jednej kuli z każdej urny, po czym wylosowaną kulez urny I wrzucamy do urny II, a tę wylosowaną z urny II wrzucamy do urny I.Czynność te powtarzamy wielokrotnie. Obliczyć granicę (przy n→∞) prawdopodo-bieństwa, iż obie kule wylosowane w n-tym kroku są jednakowego koloru.

16.21. Urządzenie zawiera dwa podzespoły A i B. Obserwujemy działanie urządzeniaw chwilach t = 0, 1, 2, . . . Każdy z podzespołów w ciągu jednostki czasu może ulecawarii z prawdopodobieństwem 1 − p, niezależnie od drugiego. Jeśli w chwili t obapodzespoły są niesprawne, następuje naprawa i w chwili t + 1 oba są już sprawne.Jeśli w chwili t tylko jeden podzespół jest niesprawny, to nie jest naprawiany. Wchwili 0 oba zespoły są sprawne. Obliczyć granicę prawdopodobieństwa, iż podzespółA jest sprawny w chwili t, przy t→∞.

16.22. Rozważmy ciąg ξ1, . . . , ξn, . . . niezależnych zmiennych losowych o jednakowymrozkładzie N (0, 1). Niech

Sn = ξ1ξ2 + ξ2ξ3 + · · ·+ ξn−1ξn + ξnξn+1.

Udowodnić, że limn→∞P(Sn√n≤ a

)= Φ(a) dla każdego a

16.23. Zmienne losowe I1, . . . , In, . . . i ξ1, . . . , ξn, . . . są niezależne. Każda ze zmien-nych Ii ma jednakowy rozkład D (p). Każda ze zmiennych ξi ma jednakowy rozkładprawdopodobieństwa taki, że Eξi = µ i D2ξi = σ2. Niech Sn =

∑ni=1 Iiξi oraz

Kn =∑ni=1 Ii. Zbadać zbieżność rozkładów prawdopodobieństwa zmiennych loso-

wych Sn−Knµ√nprzy n→∞.

16.24. Zmienne losowe ζ1, . . . , ζn i (ξ1, η1), . . . , (ξn, ηn) są niezależne. Każda ze zmien-nych losowych ζi ma jednakowy rozkład D (p). Każda ze zmiennych losowych (ξi, ηi)ma jednakowy rozkład prawdopodobieństwa taki, że Eξi = Eηi = m, D2ξi = D2ηi =σ2 i współczynnik korelacji Corr(ξi, ηi) = ϱ. Niech Sn =

∑ni=1 ζiξi i Tn =

∑ni=1 ζiηi.

Zbadać zbieżność rozkładów prawdopodobieństwa zmiennych

Sn − Tn√n

przy n→ +∞.

Copyright c⃝ Stanisław Jaworski & Wojciech Zieliński

Page 80: Zbiór zadań z rachunku prawdopodobieństwa i statystyki

80 Twierdzenia graniczne Wersja 3/12/2014

16.25. Załóżmy, że ξ1, . . . , ξn, . . . jest ciągiem zmiennych losowych takim, że zmiennaξ1 ma rozkład E (1/λ); warunkowo, dla danych ξ1, . . . , ξn zmienna ξn+1 ma gęstośćwykładniczą (dla wn+1 > 0)

f(wn+1|w1, . . . , wn) =λ exp(−λwn+1), gdy wn ≤ c,µ exp(−µwn+1), gdy wn > c.

Niech c = ln 2, λ = 1, µ = 2. Obliczyć limn→∞Eξn.

16.26. Załóżmy, że W1, . . . ,Wn, . . . jest ciągiem zmiennych takim, że zmienna losowaW1 ma rozkład o gęstości f(w1) = 4

(1+w1)5dla w1 > 0, natomiast Wn+1 ma rozkład,

przy danych w1, . . . , wn o funkcji gęstości

f(wn+1|w1, . . . , wn) =

4

(1+wn+1)5, gdy wn ≤ 1,

3(1+wn+1)4

, gdy wn > 1.

Wyznaczyć limn→∞E(Wn).

16.27. Niech χ20.1(n) oznacza kwantyl rzędu 0.1 rozkładu χ2 (n). Obliczyć (z dokład-

nością do 0.01)

g = limn→∞

χ20.1(n)− n√n

.

16.28. Obserwujemy działanie urządzenia w kolejnych chwilach t = 0, 1, 2, . . . Dzia-łanie tego urządzenia zależy od pracy dwóch podzespołów A i B. Każdy z nich możeulec awarii w jednostce czasu z prawdopodobieństwem 0.1 niezależnie od drugiego.Jeżeli jeden z podzespołów ulega awarii, to urządzenie nie jest naprawiane i działadalej wykorzystując drugi podzespół. Jeżeli oba podzespoły są niesprawne w chwili t,to następuje ich naprawa i w chwili t + 1 oba są sprawne. Wyznaczyć prawdopodo-bieństwo, że podzespół B jest sprawny w chwili t, przy t dążącym do nieskończoności(z dokładnością do 0.001).

16.29. Niech ξ będzie dowolną zmienną losową, przy czym Eξ = 0, D2ξ = σ2;niech F (x) będzie dystrybuantą zmiennej losowej ξ. Udowodnić, że dla x < 0 mamyF (x) ≥ x2/(σ2+x2). Pokazać na przykładzie, że w pewnych przypadkach nierównościte mogą być równościami.

16.30. Jeżeli ograniczyć się do pewnych klas rozkładów, to udaje się niekiedy wzmoc-nić nierówność Czebyszewa. I tak w 1821 roku Gauss udowodnił, że dla jednomodal-nych rozkładów typu ciągłego, tzn. takich rozkładów, których gęstość ma dokładniejedno maksimum, dla dowolnego ε > 0 mamy

P|ξ − x0| ≥ ετ ≤49ε2,

gdzie x0 jest wartością modalną, a τ2 = D2ξ + (x0 − Eξ)2 jest drugim momentemwzględem wartości modalnej. Jeżeli posłużyć się miarą asymetrii

S =Eξ − x0√D2ξ

,

Copyright c⃝ Stanisław Jaworski & Wojciech Zieliński

Page 81: Zbiór zadań z rachunku prawdopodobieństwa i statystyki

Wersja 3/12/2014 Twierdzenia graniczne 81

wprowadzoną przez K. Pearsona, to z poprzedniej nierówności wynika, że dla |ε| > s

P|ξ − Eξ| ≥ ε√D2ξ ≤ 4(1 + s

2

9(ε− |s|)2.

Udowodnić obie te nierówności.

Wskazówka. Pokazać najpierw, że jeżeli g(x) jest funkcją nierosnącą dla x > 0, to dladowolnego ε > 0

ε2∫ ∞ε

g(x)dx ≤ 49

∫ ∞0x2g(x)dx.

16.31. Uogólnienie nierówności Czebyszewa.

a. Udowodnić, że jeżeli zmienna losowa ξ ma tę własność, że istnieje Eeaξ (a > 0jest stałą), to

Pξ ≥ ε ≤ Eeaξ

eaε.

b. Niech f(x) > 0 będzie funkcją niemalejącą. Udowodnić, że jeżeli istnieje Ef(|ξ −Eξ|), to

P|ξ − Eξ| ≥ ε ≤ Ef(|ξ − Eξ|)f(ε)

.

Copyright c⃝ Stanisław Jaworski & Wojciech Zieliński

Page 82: Zbiór zadań z rachunku prawdopodobieństwa i statystyki

82 Statystyka matematyczna - preliminaria Wersja 3/12/2014

17. Statystyka matematyczna - preliminaria

Model statystyczny.

Modelem statystycznym nazywamy trójkę

(X ,B, Pθ, θ ∈ Θ),

gdzie X oznacza przestrzeń obserwacji, tzn. zbiór wartości obserwowanej zmiennejlosowej lub wektora losowego. B oznacza σ-ciało podzbiorów przestrzeni X (zdarzeńlosowych), natomiast Pθ, θ ∈ Θ oznacza rodzinę miar probabilistycznych. Zbiór Θnazywamy przestrzenią parametrów.

Niech Fθ oraz pθ oznaczają odpowiednio dystrybuantę oraz gęstość rozkładu Pθ.

Definicja 17.1 Próbą nazywamy ciąg niezależnych zmiennych losowych X1, . . . , Xno jednakowym rozkładzie Pθ.

Niech Fn(·) będzie dystrybuantą empiryczną.

Twierdzenie 17.1. (Podstawowe twierdzenie statystyki matematycznej; twierdzenieGliwienki-Cantelliego) Niech X1, X2, . . . , Xn będzie próbą z rozkładu o dystrybuancieFθ, to zmienna losowa

Dn = sup−∞<t<∞

|Fn(t)− Fθ(t)|

dąży do zera z prawdopodobieństwem 1.

Estymator.

Definicja 17.2 Statystyką nazywamy odwzorowanie T : X → Rk.

Definicja 17.3 Estymatorem parametru θ nazywamy odwzorowanie θ : X → Θ.

Kryteria estymacji.

Definicja 17.4 Funkcją straty estymatora θ nazywamy odwzorowanie

L : θ(X )×Θ→ R+.

Copyright c⃝ Stanisław Jaworski & Wojciech Zieliński

Page 83: Zbiór zadań z rachunku prawdopodobieństwa i statystyki

Wersja 3/12/2014 Statystyka matematyczna - preliminaria 83

Definicja 17.5 Ryzykiem estymatora θ nazywamy funkcję

θ → Rθ(θ) = EθL(θ(X), θ)

.

Typową funkcją straty jest kwadratowa funkcja straty:

L(θ(x), θ) = (θ(x)− θ)2.

Definicja 17.6 Estymator θ nazywamy słabo zgodnym, jeżeli dla każdego θ ∈ Θzbiega on (wraz ze wzrostem liczności próby) do wartości θ według prawdopodobień-stwa Pθ:

θ−→P θ, ∀θ ∈ Θ.

Definicja 17.7 Estymator θ nazywamy mocno zgodnym, jeżeli dla każdego θ ∈ Θzbiega on (wraz ze wzrostem liczności próby) do wartości θ z prawdopodobieństwemPθ równym 1:

θ−→p.n.θ, ∀θ ∈ Θ.

Dostateczność.

Definicja 17.8 Statystyka T jest dostateczna, jeżeli rozkład warunkowy Pθ·|T = tnie jest zależny od θ dla wszystkich θ ∈ Θ.

Definicja 17.9 Statystyka T jest minimalną statystyką dostateczną, jeżeli dlakażdej statystyki dostatecznej U istnieje funkcja h taka, że T = h(U).

Definicja 17.10 Statystyka T jest zupełna, jeżeli dla wszystkich θ ∈ Θ zachodzi

Eθh(T ) = 0, to h ≡ 0.

Twierdzenie 17.2. (O faktoryzacji) Statystyka T jest dostateczna dla rodziny roz-kładów Pθ : θ ∈ Θ wtedy i tylko wtedy, gdy gęstość pθ(x) może być przedstawionaw postaci

pθ(x) = gθT (x)h(x),

gdzie funkcja h nie zależy od θ.

Copyright c⃝ Stanisław Jaworski & Wojciech Zieliński

Page 84: Zbiór zadań z rachunku prawdopodobieństwa i statystyki

84 Statystyka matematyczna - preliminaria Wersja 3/12/2014

Rodziny wykładnicze.

Definicja 17.11 Rodzina rozkładów prawdopodobieństwa Pθ : θ ∈ Θ nazywa sięrodziną wykładniczą, jeżeli każdy rozkład Pθ ma gęstość pθ o postaci

pθ(x) = exp

k∑j=1

cj(θ)Tj(x)− b(θ)

· h(x).Funkcje T1(x), T2(x), . . . , Tk(x) są liniowo niezależne oraz (c1(θ), . . . , ck(θ)) : θ ∈ Θjest pewnym k-wymiarowym podzbiorem w Rk.

Twierdzenie 17.3. Jeżeli Pθ : θ ∈ Θ oraz Θ ⊂ Rk jest rodziną wykładnicząrozkładów z gęstościami

pθ(x) = exp

k∑j=1

cj(θ)Tj(x)− b(θ)

· h(x),to (T1(x), T2(x), . . . , Tk(x)) jest (k-wymiarową) minimalną statystyką dostateczną zu-pełną.

Zadania do samodzielnego rozwiązania

17.1. Niech X1, . . . , Xn będzie próbą z rozkładu D (θ) z nieznanym prawdopodobień-stwem θ ∈ (0, 1).

a. Podać model statystyczny próby.

b. Wyznaczyć statystykę dostateczną dla parametru θ.

c. Podać model statystyczny dla statystyki dostatecznej.

17.2. Niech X1, . . . , Xn będzie próbą z rozkładu Bin (n, θ) z nieznanym prawdopo-dobieństwem θ ∈ (0, 1).

a. Podać model statystyczny próby.

b. Wyznaczyć statystykę dostateczną dla parametru θ.

c. Podać model statystyczny dla statystyki dostatecznej.

17.3. Niech X1, . . . , Xn będzie próbą z rozkładu Ge (θ) z nieznanym prawdopodo-bieństwem θ ∈ (0, 1).

a. Podać model statystyczny próby.

b. Wyznaczyć statystykę dostateczną dla parametru θ.

c. Podać model statystyczny dla statystyki dostatecznej.

Copyright c⃝ Stanisław Jaworski & Wojciech Zieliński

Page 85: Zbiór zadań z rachunku prawdopodobieństwa i statystyki

Wersja 3/12/2014 Statystyka matematyczna - preliminaria 85

17.4. Niech X1, . . . , Xn będzie próbą z rozkładu NB (r, θ) z nieznanym prawdopodo-bieństwem θ ∈ (0, 1).a. Podać model statystyczny próby.

b. Wyznaczyć statystykę dostateczną dla parametru θ.

c. Podać model statystyczny dla statystyki dostatecznej.

17.5. Niech X1, . . . , Xn będzie próbą z rozkładu Po (λ) z nieznanym parametremλ > 0.

a. Podać model statystyczny próby.

b. Wyznaczyć statystykę dostateczną dla parametru λ.

c. Podać model statystyczny dla statystyki dostatecznej.

17.6. Niech X1, . . . , Xn będzie próbą z rozkładu U (0, θ) z nieznanym parametremθ > 0.

a. Podać model statystyczny próby.

b. Wyznaczyć statystykę dostateczną dla parametru θ.

c. Podać model statystyczny dla statystyki dostatecznej.

17.7. Niech X1, . . . , Xn będzie próbą z rozkładu U (θ, 0) z nieznanym parametremθ < 0.

a. Podać model statystyczny próby.

b. Wyznaczyć statystykę dostateczną dla parametru θ.

c. Podać model statystyczny dla statystyki dostatecznej.

17.8. Niech X1, . . . , Xn będzie próbą z rozkładu U (θ1, θ2) z nieznanymi parametramiθ1 < θ2.

a. Podać model statystyczny próby.

b. Wyznaczyć statystykę dostateczną dla parametru (θ1, θ2).

c. Podać model statystyczny dla statystyki dostatecznej.

17.9. Niech X1, . . . , Xn będzie próbą z rozkładu E (λ) z nieznanym parametrem λ >0.

a. Podać model statystyczny próby.

b. Wyznaczyć statystykę dostateczną dla parametru λ.

c. Podać model statystyczny dla statystyki dostatecznej.

17.10. Niech X1, . . . , Xn będzie próbą z rozkładu G (α, λ) z nieznanym parametremλ > 0 i znanym parametrem α.

a. Podać model statystyczny próby.

b. Wyznaczyć statystykę dostateczną dla parametru λ.

c. Podać model statystyczny dla statystyki dostatecznej.

Copyright c⃝ Stanisław Jaworski & Wojciech Zieliński

Page 86: Zbiór zadań z rachunku prawdopodobieństwa i statystyki

86 Statystyka matematyczna - preliminaria Wersja 3/12/2014

17.11. Niech X1, . . . , Xn będzie próbą z rozkładu G (α, λ) z nieznanymi parametramiα > 0 i λ > 0.

a. Podać model statystyczny próby.

b. Wyznaczyć statystykę dostateczną dla parametru (α, λ).

c. Podać model statystyczny dla statystyki dostatecznej.

17.12. Niech X1, . . . , Xn będzie próbą z rozkładu N(µ, σ2

)z nieznaną wartością

oczekiwaną µ i znaną wariancją σ2 > 0.

a. Podać model statystyczny próby.

b. Wyznaczyć statystykę dostateczną dla parametru µ.

c. Podać model statystyczny dla statystyki dostatecznej.

17.13. Niech X1, . . . , Xn będzie próbą z rozkładu N(µ, σ2

)z nieznanymi parame-

trami.

a. Podać model statystyczny próby.

b. Wyznaczyć statystykę dostateczną dla parametru (µ, σ2).

c. Podać model statystyczny dla statystyki dostatecznej.

17.14.Wykonujemy n doświadczeń Bernoulliego, z których każde kończy się sukcesemz prawdopodobieństwem θ. Wiadomo, że θ ∈ [θ1, θ2], gdzie θ1, θ2 ∈ [0, 1] są ustalone.Sformułować model statystyczny tego eksperymentu.

17.15. Pewne urządzenie techniczne pracuje dopóty, dopóki nie uszkodzi się któryśz k elementów typu A lub któryś z l elementów typu B. Czas życia elementów typu Ajest zmienną losową o rozkładzie E (α), a czas życia elementów typu B jest zmiennąlosową o rozkładzie E (β). Obserwuje się czas życia T całego urządzenia. Sformułowaćmodel statystyczny obserwacji.

17.16. Wykonujemy ciąg niezależnych doświadczeń Bernoulliego, z których każdekończy się sukcesem z nieznanym prawdopodobieństwem θ. Doświadczenia wykonu-jemy dopóty, dopóki nie uzyskamym sukcesów. Sformułować model statystyczny tegoeksperymentu.

17.17. Przeprowadza się n =∑kj=1 nj eksperymentów w taki sposób, że nj ekspery-

mentów wykonuje się na poziomie xj , j = 1, 2, . . . , k. Prawdopodobieństwo sukcesuw eksperymencie przeprowadzanym na poziomie x jest równe

p(x) =1

1 + e−(α+βx), α ∈ R1, β > 0,

gdzie (α, β) jest nieznanym parametrem. Sformułować model statystyczny tego eks-perymentu.

Copyright c⃝ Stanisław Jaworski & Wojciech Zieliński

Page 87: Zbiór zadań z rachunku prawdopodobieństwa i statystyki

Wersja 3/12/2014 Statystyka matematyczna - preliminaria 87

17.18. Niech X1, X2, . . . , Xn będzie próbą z rozkładu Po (λ). Wyznaczyć rozkładwarunkowy próby pod warunkiem, że T = t, gdzie T = X1+X2+ · · ·+Xn. Wykazać,że T jest statystyką dostateczną.

17.19. Dla rodziny rozkładów jednostajnych U(θ − 12 , θ +

12

): θ ∈ R wyznaczyć

statystykę dostateczną z próby X1, X2, . . . , Xn.

17.20. Niech X1, . . . , Xn będzie próbą z rozkładu E (β; θ). Wykazać, że minimalnąstatystyką dostateczną jest (X1:n,

∑ni=1(Xi −X1:n)).

17.21. Wektor losowy X ma rozkład znany z dokładnością do dwóch parametrówrzeczywistych θ1 i θ2. Niech t1 będzie statystyką dostateczną dla θ1, gdy θ2 jest znaneoraz niech t2 będzie statystyką dostateczną dla θ2, gdy θ1 jest znane. Udowodnić, że(t1, t2) jest statystyką dostateczną dla (θ1, θ2).

Copyright c⃝ Stanisław Jaworski & Wojciech Zieliński

Page 88: Zbiór zadań z rachunku prawdopodobieństwa i statystyki

88 Estymatory nieobciążone o minimalnej wariancji Wersja 3/12/2014

18. Estymatory nieobciążone o minimalnej wariancji

Niech (X ,B, Pθ, θ ∈ Θ) będzie modelem statystycznym oraz niech g : Θ → R1będzie funkcją rzeczywistą. Chcemy oszacować nieznaną wartość g(θ).

Definicja 18.1 Błędem średniokwadratowym estymatora g nazywamy

Rθ(g) = Eθ(g(X)− g(θ))2

Jak łatwo sprawdzić

Rθ(g) = Eθ(g(X)− g(θ))2

= Eθ(g(X)− Eθ g(X))2 + (Eθg(X)− g(θ))2 = D2θ g(X) + (Eθ g(X)− g(θ))2

Definicja 18.2 Estymator δ(X1, X2, . . . , Xn) wielkości g(θ) nazywamy nieobciążo-nym, jeżeli (∀θ ∈ Θ) Eθδ(X1, X2, . . . , Xn) = g(θ).

Estymator wielkości g(θ) oznaczamy przez g(θ) lub, krócej, przez g.

Jeżeli Eθg = g(θ) (∀θ ∈ Θ), to Rθ(g) = D2θ g

Definicja 18.3 Estymator g nazywamy estymatorem nieobciążonym o mini-malnej wariancji wielkości g(θ) (ENMW [g(θ)]), jeżeli D2θ g ≤ D2θ g (∀θ ∈ Θ) dlawszystkich nieobciążonych estymatorów g wielkości g(θ).

Twierdzenie 18.1. (Rao-Blackwella) Jeżeli g jest estymatorem nieobciążonym i jeżeliT jest statystyką dostateczną zupełną, to Eθ(g|T ) jest również estymatorem nieobcią-żonym o jednostajnie nie większej wariancji niż wariancja estymatora g.

Twierdzenie 18.2. Jeżeli T jest statystyką dostateczną zupełną i jeżeli dla danejfunkcji g istnieje funkcja g taka, że

(∀θ ∈ Θ)Eθ g(T ) = g(θ),

to g(T ) jest ENMW [g(θ)].

Definicja 18.4 Wielkość Iθ = Eθ[∂ log pθ(X)/∂θ2] nazywamy ilością informacjio parametrze θ zawartą w X.

Copyright c⃝ Stanisław Jaworski & Wojciech Zieliński

Page 89: Zbiór zadań z rachunku prawdopodobieństwa i statystyki

Wersja 3/12/2014 Estymatory nieobciążone o minimalnej wariancji 89

Twierdzenie 18.3. (Nierówność Cramera-Rao) Niech Pθ : θ ∈ Θ będzie rodzinąrozkładów, niech θ będzie parametrem liczbowym i niech Θ będzie przedziałem naprostej. Zakładamy, że dla każdego θ rozkład Pθ ma gęstość pθ. Jeżeli spełnione sąpewne warunki regularności, to nierówność

D2θθ∗ ≥ I−1θ

spełniona jest dla każdego estymatora nieobciążonego θ∗ parametru θ.

Definicja 18.5 Liczbę eff(θ∗) = I−1θ

D2θθ∗ nazywamy efektywnością estymatora θ

∗.

Twierdzenie 18.4. Jeżeli spełnione są warunki regularności, to

Iθ = Eθ

[− ∂

2

∂θ2log pθ(X)

]

Przykład. NiechX1, . . . , Xn będzie próbą z rozkładuD (θ) z nieznanym parametrem.Skonstruować ENMW dla wariancji θ(1− θ).

Rozwiązanie. Modelem statystycznym pojedynczej obserwacji X jest

(0, 1, D (θ), θ ∈ [0, 1]) ,

natomiast modelem dla próby X1, X2, . . . , Xn:

(0, 1, D (θ), θ ∈ [0, 1])n .

Zauważmy, że rozkład prawdopodobieństwa próby jest z rodziny wykładniczej:

Pθ(X1 = x1, . . . , Xn = xn) = θ∑n

i=1xi(1− θ)n−

∑n

i=1xi

= exp

log

θ

1− θ

n∑i=1

xi + log(1− θ)

.

Statystyką dostateczną jest T =∑Xi, a jej modelem statystycznym jest

(0, 1, . . . , n, Bin (n, θ), θ ∈ [0, 1]) .

W celu znalezienia ENMW wariancji θ(1 − θ) skorzystamy z twierdzenia. Czyli,chcemy wyznaczyć taką funkcję g statystyki T , że dla wszystkich θ ∈ Θ

Eθ g(T ) =n∑t=0

g(t)(n

t

)θt(1− θ)n−t = θ(1− θ).

Copyright c⃝ Stanisław Jaworski & Wojciech Zieliński

Page 90: Zbiór zadań z rachunku prawdopodobieństwa i statystyki

90 Estymatory nieobciążone o minimalnej wariancji Wersja 3/12/2014

Dokonując odpowiednich przekształceń otrzymujemy:

(1− θ)nn∑t=0

g(t)(n

t

)(θ

1− θ

)t= θ(1− θ).

n∑t=0

g(t)(n

t

)(θ

1− θ

)t=(θ

1− θ

)(1 +

1− θ

))n−2.

Podstawiając v = θ/(1− θ) otrzymujemy

n∑t=0

g(t)(n

t

)vt = v(1 + v)n−2.

n∑t=0

g(t)(n

t

)vt =

n−2∑t=0

(n− 2t

)vt+1.

Porównując odpowiednie współczynniki obu wielomianów otrzymujemy:

ENMW [θ(1− θ)] = T (n− T )n(n− 1)

.

Przykład. Niech X1, . . . , Xn będzie próbą z rozkładu Po (θ) z nieznanym parame-trem. Skonstruować ENMW dla PθX = 0 = e−θ.

Rozwiązanie. Modelem statystycznym pojedynczej obserwacji X jest

(0, 1, 2, . . ., Po (θ), θ ∈ R+) ,

natomiast modelem dla próby X1, X2, . . . , Xn:

(0, 1, 2 . . ., Po (θ), θ ∈ R+)n .

Zauważmy, że rozkład prawdopodobieństwa próby jest z rodziny wykładniczej:

Pθ(X1 = x1, . . . , Xn = xn) =θ∑n

i=1xi∏n

i=1 xi!e−nθ

= exp

log θ

n∑i=1

xi − nθ

1∏ni=1 xi!

.

Statystyką dostateczna jest T =∑Xi, a jej modelem statystycznym jest

(0, 1, . . . , n, Po (nθ), θ ∈ [0, 1]) .

Copyright c⃝ Stanisław Jaworski & Wojciech Zieliński

Page 91: Zbiór zadań z rachunku prawdopodobieństwa i statystyki

Wersja 3/12/2014 Estymatory nieobciążone o minimalnej wariancji 91

W celu znalezienia ENMW prawdopodobieństwa e−θ skorzystamy z twierdzenia.Wprowadźmy oznaczenie λ ===ozn e−θ. Chcemy wyznaczyć estymator nieobciążony λ∗

wielkości λ. Następnie wyznaczymy λ = Eθ(λ∗|T ) uzyskując ENMW .Niech

Yj =1, jeżeli Xj = 0,0, jeżeli Xj > 0

oraz niech λ∗ = 1n∑nj=1 Yj . Estymator λ

∗ jest nieobciążony, gdyż

EθYj = 1 · PθX = 0+ 0 · PθX > 0.Wyznaczamy teraz Eθ(λ∗|T ). Zauważmy, że:

PθX1 = x1, . . . , Xn = xn|T = t =PθX1 = x1, . . . , Xn = xn, T = t

PθT = t

=

0, jeżeli

∑xi = t

θx1+···xne−nθ

x1!...xn!· t!(nθ)te−nθ , jeżeli

∑xi = t,

=0, jeżeli

∑xi = t

t!ntx1!...xn!

, jeżeli∑xi = t.

A zatem

Eθ(λ∗|T = t) = Eθ

1n

n∑j=1

Yj |T = t

= Eθ (Y1|T = t)= PθX1 = 0|T = t

=∑

x2+···+xn=t

PθX1 = 0, X2 = x2, . . . , Xn = xn|T = t

=∑

x2+···+xn=t

t!ntx2! . . . xn!

=(n− 1)t

nt.

Ostatnia równość wynika z faktu, że∑x1+···+xn=t

t!x1! . . . xn!

= nt.

(Dla przypomnienia: (α1 + · · · + αn)t =∑x1+···+xn=t

t!x1!...xn!

αx11 · · ·αxnn .) Otrzymu-jemy następujący ENMW prawdopodobieństwa e−θ:

ENMW [e−θ] =(1− 1n

)T.

Zadania do samodzielnego rozwiązania

18.1. Niech X1, . . . , Xn będzie próbą z rozkładu D (θ) z nieznanym prawdopodobień-stwem θ ∈ (0, 1). Wyznaczyć ENMW dla parametru θ.

Copyright c⃝ Stanisław Jaworski & Wojciech Zieliński

Page 92: Zbiór zadań z rachunku prawdopodobieństwa i statystyki

92 Estymatory nieobciążone o minimalnej wariancji Wersja 3/12/2014

18.2. Niech X1, . . . , Xn będzie próbą z rozkładu Bin (m, θ) z nieznanym prawdopo-dobieństwem θ ∈ (0, 1). Wyznaczyć ENMW dla parametru θ.

18.3. Niech X1, . . . , Xn będzie próbą z rozkładu Ge (θ) z nieznanym prawdopodo-bieństwem θ ∈ (0, 1). Wyznaczyć ENMW dla parametru θ.

18.4. Niech X1, . . . , Xn będzie próbą z rozkładu NB (r, θ) z nieznanym prawdopodo-bieństwem θ ∈ (0, 1). Wyznaczyć ENMW dla parametru θ.

18.5. Niech X1, . . . , Xn będzie próbą z rozkładu Po (λ) z nieznanym parametremλ > 0. Wyznaczyć ENMW dla parametru λ.

18.6. Niech X1, . . . , Xn będzie próbą z rozkładu U (0, θ) z nieznanym parametremθ > 0. Wyznaczyć ENMW dla parametru θ.

18.7. Niech X1, . . . , Xn będzie próbą z rozkładu U (θ, 0) z nieznanym parametremθ < 0. Wyznaczyć ENMW dla parametru θ.

18.8. Niech X1, . . . , Xn będzie próbą z rozkładu E (λ) z nieznanym parametrem λ >0. Wyznaczyć ENMW dla parametru λ.

18.9. Niech X1, . . . , Xn będzie próbą z rozkładu G (α, λ) z nieznanym parametremλ > 0 i znanym parametrem α. Wyznaczyć ENMW dla parametru λ.

18.10. Niech X1, . . . , Xn będzie próbą z rozkładu N(µ, σ2

)z nieznaną wartością

oczekiwaną µ i znaną wariancją σ2 > 0. Wyznaczyć ENMW dla parametru µ.

18.11. Niech X1, . . . , Xn będzie próbą z rozkładu N(µ, σ2

)z nieznanymi parame-

trami. Wyznaczyć ENMW dla parametru (µ, σ2).

18.12. Niech X1, X2, . . . , Xn będzie próbą z rozkładu skoncentrowanego na dodatniejpółosi i niech gęstość tego rozkładu wyraża się wzorem θ2xe−θx, θ > 0. WyznaczyćENMW parametru θ.

18.13. Niech X1, X2, . . . , Xn będzie próbą z rozkładu Po (θ) o nieznanej średniej θ.Znaleźć ENMW parametru e−θ (prawdopodobieństwa, że zmienna losowa przyjmiewartość zero). Obliczyć wariancję tego estymatora.

18.14. Niech X1, X2, . . . , Xn, gdzie n > 3, będzie próbą z rozkładu N(µ, σ2

)o nie-

znanych µ i σ2. Znaleźć ENMW dla µ2/σ2.

18.15. Zmienne losowe X1, . . . , Xn mają taką samą wartość oczekiwaną µ. Wiadomo,że

Cov(Xi, Xj) =σ2, dla i = j,σ2

2 , dla i = j.

Niech S2(c) = cvarX. Dla jakiej wartości c, statystyka S2(c) jest nieobciążonymestymatorem parametru σ2?

Copyright c⃝ Stanisław Jaworski & Wojciech Zieliński

Page 93: Zbiór zadań z rachunku prawdopodobieństwa i statystyki

Wersja 3/12/2014 Estymatory nieobciążone o minimalnej wariancji 93

18.16. Dana jest n-elementowa próba z rozkładu skoncentrowanego na dodatniejpółosi, o gęstości

x+ 1θ(θ + 1)

e−x/θ,

gdzie θ jest nieznanym parametrem dodatnim. Wyznaczyć taki estymator wielkości(3 + 2θ)(2 + θ)/(θ + 1), którego wariancja osiąga dolne ograniczenie Cramera-Rao.

18.17. Niech X1, . . . , Xn będzie próbą z rozkładu Wei (2, θ), gdzie θ > 0 jest niezna-nym parametrem. Rozważamy nieobciążony estymator parametru θ postaci Tn = aY ,gdzie Y = minX21 , . . . , X2n i a jest odpowiednio dobraną stałą (być może zależną odliczebności próby n). Pokazać, że

(∀ θ > 0) (∀ 0 < ε < 1) Pθ(|Tn − θ| > ε) = 1− exp(−1)(exp

(εθ

)− exp

(−εθ

)).

18.18. Dla t = 1, . . . , T obserwujemy niezależne realizacje zmiennej losowej Xt,o których zakładamy, iż pochodzą z rozkładu o parametrach EXt = ntµ i D2Xt =ntσ2, gdzie n1, . . . , nT są znanymi liczbami dodatnimi, natomiast parametry µ oraz

σ2 są nieznane. Wybieramy estymator parametru σ2 z klasy estymatorów postacic∑Tt=1(Xt − ntX)2, gdzie X =

1n

∑Tt=1Xt oraz n =

∑Tt=1 nt, zaś c jest pewną liczbą

rzeczywistą (parametrem konkretnego estymatora). Dla jakiej wartości c otrzymamyestymator nieobciążony.

18.19. Rozpatrzmy następujący model regresji liniowej bez wyrazu wolnego:

Yi = βxi + εi, i = 1, . . . , n,

gdzie xi są znanymi liczbami, β jest nieznanym parametrem, zaś εi są błędami loso-wymi. Zakładamy, że

Eεi = 0, D2εi = x2iσ2, i = 1, . . . , n.

Skonstruować estymator β parametru β o następujących własnościach:

β jest liniową funkcją obserwacji, tzn. β =∑ni=1 ciYi,

β jest nieobciążony, tzn. Eβ = β,

β ma najmniejszą wariancję spośród estymatorów liniowych i nieobciążonych.

18.20. Niech (X,Y ) będzie dwuwymiarową zmienną losową, o wartości oczekiwanej(µX , µY ), wariancji każdej ze współrzędnych równej σ2 oraz kowariancji równej ϱσ2.Staramy się obserwować niezależne realizacje tej zmiennej, ale nie w pełni to wychodzi– czasem udaje się zaobserwować jedynie pierwszą lub jedynie drugą ze współrzędnych.Przyjmijmy ważne założenie, iż do „zgubienia” obserwacji (całkowitego, jej pierwszejwspółrzędnej lub jej drugiej współrzędnej) dochodzi całkowicie niezależnie od wartościtych obserwacji. Załóżmy, iż otrzymaliśmy próbę, zawierającą 20 obserwacji wyłączniepierwszej współrzędnej, 60 obserwacji całej pary oraz 20 obserwacji wyłącznie drugiejwspółrzędnej. Niech teraz X oznacza średnią z próby (osiemdziesięciu) obserwacjina zmiennej X, Y oznacza średnią z próby (osiemdziesięciu) obserwacji na zmiennejY oraz niech X − Y oznacza średnią z próby (sześćdziesięciu) obserwacji na różnicyzmiennych X −Y . Niech X −Y oraz X − Y oznaczają dwa alternatywne estymatoryróżnicy µX −µY . Dla jakiej wartości współczynnika ϱ estymatory te mają jednakowąwariancję?

Copyright c⃝ Stanisław Jaworski & Wojciech Zieliński

Page 94: Zbiór zadań z rachunku prawdopodobieństwa i statystyki

94 Estymatory nieobciążone o minimalnej wariancji Wersja 3/12/2014

18.21. Niech X1, . . . , Xn będą niezależnymi zmiennymi losowymi, przy czym EXi =iµ orazD2Xi = i2µ2, i = 1, . . . , n. Niech µ będzie estymatorem parametru µminimali-zującym błąd średniokwadratowy w klasie estymatorów postaci µ =

∑ni=1 aiXi, gdzie

a1, . . . , n są liczbami rzeczywistymi. Wyznaczyć błąd średniokwadratowy Eµ(µ−µ)2.

18.22. Niech X1, . . . , Xn, gdzie n > 1, będzie próbą z rozkładu o gęstości

fc(x) =4c4

x5 , gdy x > c,0, poza tym,

gdzie c > 0 jest nieznanym parametrem. Rozważamy dwa estymatory parametru c:T1 = aminX1, . . . , Xn i T2 = bX, gdzie a, b są dobrane tak, aby estymatory byłynieobciążone. Wyznaczyć różnicę ryzyk estymatorów, czyli

R = Ec(T2 − c)2 − Ec(T1 − c)2.

18.23. Niech X1, . . . , Xn będą niezależnymi zmiennymi losowymi, przy czym zmiennalosowa Xi ma rozkład N

(µ, iµ2

), i = 1, . . . , n, gdzie µ = 0 jest nieznanym parame-

trem. Rozważamy estymatory parametru µ postaci µ =∑ni=1 aiXi. Znaleźć współ-

czynniki ai minimalizujące błąd średniokwadratowy estymatora.

18.24. Niech Y1, . . . , Yn będą niezależnymi zmiennymi losowymi, przy czym Yk marozkład N

(kµ, σ2

), dla k = 1, . . . , n. Znaleźć ENMW parametru µ w klasie estyma-

torów postaci µ =∑nk=1 akYk.

18.25. Niech X1, . . . , Xn będzie próbą z rozkładu N(µ, γ2σ2

), gdzie µ ∈ R jest

nieznanym parametrem, zaś γ2 znanym współczynnikiem. Dla jakich współczynnikówc1. . . . , cn estymator postaci µ =

∑ni=1 ciXi parametru µ ma jednostajnie najmniejszy

błąd średniokwadratowy Eµ(µ− µ)2.

18.26. Niech X1, . . . , Xn będzie próbą z rozkładu normalnego o nieznanych parame-trach (µ, σ2) i niech n > 1 oraz σ2 > 0. Niech

S2 =1n− 1

varX, t(µ0) =X − µ0√S2,

gdzie µ0 jest ustaloną liczbą. Niech t(α;n− 1) będzie dwustronną wartością krytycznąrozkładu t (n− 1). Rozważmy następujący estymator µ parametru µ:

µ =µ0, jeżeli |t(µ0)| < t(α;n− 1),X, w przeciwnym przypadku.

Dla jakich µ obciążenie Eµµ− µ estymatora jest dodatnie?

18.27. Wykonano n pomiarów pewnej nieznanej wielkości µ jednym przyrządempomiarowym, a następnie m pomiarów innym przyrządem. Zakładamy, że wynikipomiarów X1, . . . , Xn, Xn+1, . . . , Xn+m są niezależnymi zmiennymi losowymi, przyczym każda ze zmiennych X1, . . . , Xn ma rozkład N (µ, 0.01), a każda ze zmiennychXn+1, . . . , Xn+m ma rozkładN (µ, 0.04). Dobrać współczynniki c1, . . . , cn+m tak, żebyestymator µ =

∑n+mi=1 ciXi był ENMW parametru µ.

Copyright c⃝ Stanisław Jaworski & Wojciech Zieliński

Page 95: Zbiór zadań z rachunku prawdopodobieństwa i statystyki

Wersja 3/12/2014 Estymatory nieobciążone o minimalnej wariancji 95

18.28. Niech X1, X2, . . . , Xn będzie próbą z rozkładu N(µ, σ2

). Pokazać, że es-

tymator 1nvarX parametru σ2 ma mniejszy błąd średniokwadratowy niż ENMW

1n−1varX.

18.29. Niech X1, . . . , Xn będzie próbą z rozkładu normalnego o nieznanej średnieji wariancji. Rozpatrzmy klasę estymatorów wariancji określonych wzorem S(c) =cvarX, gdzie c jest pewną liczbą rzeczywistą. Wyznaczyć wartość c, przy którejbłąd średniokwadratowy estymatora S(c) osiąga minimum.

18.30. Niech X1, . . . , Xn będzie próbą z rozkładu N(µ, σ2

). Niech S2 = 1

n−1varX.

Interesuje nas względny błąd estymacji: R = S2−σ2σ2 . Wyznaczyć rozmiar n próby, dla

którego E(R2) = 0.01.

18.31. Niech Xij , i = 1, . . . , k, j = 1, . . . , n, będzie próbą z rozkładu normalnegoo nieznanej wartości oczekiwanej µ i wariancji σ2. Niech Yi =

∑nj=1Xij . Szacujemy

wariancję σ2 używając estymatora postaci c∑ki=1(Yi − Y )2. Wyznaczyć stałą c tak,

by estymator był nieobciążony.

18.32. Niech X1, . . . , Xn, . . . , Xn+m, m,n > 1, będzie próbą z rozkładu N(µ, σ2

).

Bezpośrednio dostępne są tylko obserwacje X1, . . . , Xn, ale znamy średnią Xn+m =1n+m

∑n+mi=1 Xi. Dla jakiej liczby c estymator c

∑ni=1(Xi − Xn+m)2 wariancji σ2 jest

nieobciążony?

18.33. Niech x1, . . . , x25 będzie realizacją próby z rozkładu N(µ, σ2

), zaś x26, . . . , x50

- realizacją próby losowej z rozkładu N(ν, τ2

), gdzie µ, ν, σ2, τ2 są nieznanymi para-

metrami. Wiadomo, że

x25 =125

25∑i=1

xi = 10.4, x50 =150

50∑i=1

xi = 10.0,

s225 =124

25∑i=1

(xi − x25)2 = 3.333, s250 =149

50∑i=1

(xi − x50)2 = 2.000.

Obliczyć na tej podstawie wartość nieobciążonego estymatora wariancji τ2.

18.34. Mamy dwie niezależne obserwacje X1 oraz X2 z rozkładu normalnego, przyczym jedna z nich pochodzi z rozkładu o parametrach (µ, σ2), a druga z rozkładuo parametrach (2µ, 2σ2). Niestety zgubiliśmy informację, która z obserwacji z któ-rego z rozkładów pochodzi. Parametry (µ, σ2) są nieznane. W tej sytuacji wybieramyestymator parametru σ2 z klasy estymatorów postaci

σ2 = a(X1 −X2)2 + b(X1 +X2)2,

gdzie (a, b) to para liczb rzeczywistych (parametry konkretnego estymatora). Dla ja-kich (a, b) otrzymamy estymator nieobciążony?

Copyright c⃝ Stanisław Jaworski & Wojciech Zieliński

Page 96: Zbiór zadań z rachunku prawdopodobieństwa i statystyki

96 Estymatory nieobciążone o minimalnej wariancji Wersja 3/12/2014

18.35. Rozważmy dwie niezależne próby X1,1, . . . , X1,n1 z rozkładu N(µ, σ2

)oraz

X2,1, . . . , X2,n2 z rozkładu N(µ, 2σ2

). Niech X1 = 1

n1

∑n1i=1X1,i, X2 =

1n2

∑n2i=1X2,i

oraz X = n1X1+n2X2n1+n2. Dla jakiego c estymator parametru σ2 postaci

c

n1∑i=1

(X1,i − X)2 +n2∑i=1

(X2,i − X)2

jest nieobciążony?

18.36. Niech X1, . . . , Xn, Xn+1, . . . , Xn+m będą niezależnymi zmiennymi losowymi,przy czym zmienne losowe X1, . . . , Xn mają rozkład N

(µ1, σ

2), zaś Xn+1 . . . , Xn+m

mają rozkład N(µ2, kσ

2), gdzie k > 0 jest znaną liczbą. Niech

X =1n

n∑i=1

Xi, X2 =1m

n+m∑i=n+1

Xi, X =1n+m

n+m∑i=1

Xi.

Dobrać liczby α i β tak, żeby statystyka

σ2 = αn+m∑i=1

(Xi − X)2 + β(X1 − X2)2

była nieobciążonym estymatorem parametru σ2.

18.37. Niech X1, . . . , Xn będzie próbą z rozkładu N(µ, σ2

)z nieznanymi parame-

trami. Niech S2 = 1n−1varX będzie nieobciążonym estymatorem wariancji. Obliczyć

P (S2 ≤ σ2).

18.38. X1, . . . , Xn, Xn+1, . . . , Xm jest próbą z rozkładu N(µ, σ2

)z nieznanymi pa-

rametrami µ oraz σ2. Obserwujemy zmienne X1, . . . , Xn i ponadto znamy średnią zewszystkich zmiennych Xm = 1

m

∑mi=1Xi. Znaleźć stałą cn,m taką, żeby statystyka

1cn,m

n∑i=1

(Xi − Xm)2

była nieobciążonym estymatorem wariancji σ2.

18.39. Niech X1, . . . , Xn będzie próbą z rozkładu N(µ, σ2

), gdzie µ ∈ R, σ2 > 0 są

nieznanymi parametrami. Wyznaczyć ENMW parametru µ/σ.

18.40. Załóżmy, że X1, . . . , Xn jest próbą z rozkładu N(µ, σ2

)z nieznanymi para-

metrami. Rozważmy nieobciążony estymator wielkości µ2 dany wzorem

µ2 = (X)2 − S2

n,

gdzie S2 = 1n−1varX. Obliczyć D

2(µ2).

Copyright c⃝ Stanisław Jaworski & Wojciech Zieliński

Page 97: Zbiór zadań z rachunku prawdopodobieństwa i statystyki

Wersja 3/12/2014 Estymatory nieobciążone o minimalnej wariancji 97

18.41. Niech (X1, Y1), . . . , (Xn, Yn) będzie próbą z rozkładu N2

((µX , µY ),

[1 ϱϱ 1

]).

Dla jakich wartości ϱ statystyka minX,Y

jest nieobciążonym estymatorem para-

metru minµX , µY ?

18.42. Niech X1, X2, . . . , Xn będzie próbą z rozkładu E (1/θ), θ > 0. Pokazać, żezmienna losowa przyjmująca wartość 1, gdy X1 ≥ k i wartość 0, gdy X1 < k, jestestymatorem nieobciążonym dla g(θ) = e−kθ. Na tej podstawie pokazać, że przyodpowiednim wyborze statystyki T , zmienna losowa

g(T ) =0, gdy T < k,[T−kk

]n−1, gdy T ≥ k

jest ENMW dla g.

18.43. Niech X1, . . . , Xn, gdzie n > 1, będzie próbą z rozkładu E (µ). Niech

µ1 = X, µ2 = nminX1, . . . , Xn

będą dwoma estymatorami parametru µ. Pokazać, że oba estymatory są nieobciążoneoraz, że estymator µ1 ma zawsze mniejszą wariancję niż µ2.

18.44. Niech X1, . . . , Xn będzie próbą z rozkładu E (1/λ), gdzie λ > 0 jest nieznanymparametrem oraz n > 1. Niech a > 0 będzie daną liczbą. Interesuje nas estymacjaparametru p = e−λa = Pλ(X1 > a). Niech Na oznacza liczbę obserwacji większych oda, zaś S =

∑ni=1Xi. Rozważmy trzy estymatory parametru p:

p1 = exp(−anS

), p2 =

NaN, p3 =

0, gdy S ≤ a,(S−aS

)n−1, gdy S > a

.

Które z estymatorów są nieobciążone? Wyznaczyć wariancje tych estymatorów.

18.45. Niech X1, . . . , Xn będzie próbą z rozkładu E (1/λ). Parametr λ > 0 jest nie-znany. Znaleźć taką liczbę c, żeby c(X)2 był nieobciążonym estymatorem wariancjipojedynczej zmiennej Xi.

18.46. Niech X1, . . . , Xn będzie próbą z rozkładu E (µ; c), gdzie c ∈ R i µ > 0 sąnieznanymi parametrami. Wyznaczyć nieobciążony estymator parametru µ.

18.47. Niech W1, . . . ,Wn (n > 1) będzie próbą z rozkładu E (µ). Rozważmy estyma-tory parametru µ postaci

µ = aS, gdzie S =n∑i=1

Wi.

Znaleźć liczbę a, dla której błąd średniokwadratowy estymatora jest najmniejszy.

Copyright c⃝ Stanisław Jaworski & Wojciech Zieliński

Page 98: Zbiór zadań z rachunku prawdopodobieństwa i statystyki

98 Estymatory nieobciążone o minimalnej wariancji Wersja 3/12/2014

18.48. Niech X1, X2, . . . , Xn będzie próbą z rozkładu U (0, θ). Pokazać, że staty-styką dostateczną dla θ jest max(X1, X2, . . . , Xn). Pokazać, że istnieje estymatornieobciążony tego parametru postaci kmax(X1, X2, . . . , Xn). Wyznaczyć ten esty-mator nieobciążony. Porównać jego wariancję z dolnym ograniczeniem Cramera-Raodla wariancji estymatorów nieobciążonych i uzasadnić, dlaczego nie można w tymprzypadku stosować nierówności Cramera-Rao.

18.49. Niech X będzie obserwacją z rozkładu U (θ − 0.5, θ + 0.5) z nieznanym para-metrem θ. Wiemy, że θ jest liczbą rzeczywistą. Za pomocą estymatora |X| estymujemywartość bezwzględną parametru θ. Wyznaczyć maksymalne obciążenie Eθ|X|−θ tegoestymatora.

18.50. Niech X1, . . . , Xn będzie próbą z rozkładu U (φ0, φ1) z nieznanymi obomaparametrami i niech n > 1. Interesuje nas szerokość przedziału φ1 − φ0. Dobraćparametr a tak, aby estymator a(maxX1, . . . , Xn − minX1, . . . , Xn) szerokościprzedziału był nieobciążony.

18.51. Niech X1, X2, . . . , Xn, . . . będzie próbą z rozkładu U (0, θ), gdzie θ > 0 jestnieznanym parametrem. Rozważamy estymator nieobciążony parametru θ postaciTn(X1, X2, . . . , Xn) = Tn = aminX1, X2, . . . , Xn i a jest pewną stałą. Udowod-nić, że

(∃ ε > 0)(∃ θ > 0) limn→∞Pθ(|Tn − θ| > ε) = 1 + exp

(−1− ε

θ

)− exp

(−1 + ε

θ

).

18.52. Niech X1, . . . , Xn będzie próbą z rozkładu U (0, φ) z nieznanym φ > 0. Udo-wodnić, że estymator n+1n maxX1, . . . , Xn jest nieobciążony. Wyznaczyć wariancjętego estymatora.

18.53. Załóżmy, że K oznacza liczbę sukcesów w n próbach Bernoulliego z nieznanymprawdopodobieństwem sukcesu θ. Rozważmy estymator parametru θ postaci

θ =a+Kb+ n

.

Niech n = 16. Przypuśćmy, że dodatnie liczby a i b dobrane zostały tak, że funkcjaryzyka estymatora, R(θ) = Eθ(θ − θ)2 jest funkcją stałą, czyli R(θ) = R dla każdejwartości parametru θ. Podać liczbę R.

18.54. X1, . . . , Xn jest próbą z rozkładu Ge (p), gdzie p ∈ (0, 1) i liczebność próbyprzekracza 1. W klasie estymatorów parametru p danych wzorem:

a

a+∑ni=1Xi

dobrać parametr a tak, aby otrzymać estymator nieobciążony.

Copyright c⃝ Stanisław Jaworski & Wojciech Zieliński

Page 99: Zbiór zadań z rachunku prawdopodobieństwa i statystyki

Wersja 3/12/2014 Estymatory nieobciążone o minimalnej wariancji 99

18.55. Entomolog pobierał próbę z dużej populacji pewnych owadów. Notował płećchwytanych osobników męskich i przerwał pobieranie próbki, gdy otrzymał M (M >1) osobników męskich. Otrzymał próbę o liczebności X. Niech θ będzie frakcją osob-ników męskich w populacji. Znaleźć ENMW parametru θ.

18.56. Bada się liczbę owadów na liściach pewnej rośliny. Stwierdzono, że Xi zbada-nych liści miało dokładnie i owadów (i = 1, 2, . . . ,

∑Xi = N). Zakłada się, że liczba

owadów na liściu jest zmienną losową o rozkładzie Poissona z tą jednak różnicą, żena wielu liściach nie stwierdzono ani jednego owada nie w wyniku losowych fluktu-acji liczby owadów, ale dlatego, że liście te nie nadawały się na pokarm dla owadów.W związku z tym „pustych” liści nie brano pod uwagę. Pokazać, że

∞∑i=2

iXiN

jest nieobciążonym estymatorem średniej µ rozkładu Poissona i wyznaczyć efektyw-ność tego estymatora.

18.57. Pobieramy próbę X1, . . . , Xn z rozkładu Po (λ) o nieznanym parametrze λ.Szacujemy p0 = e−λ za pomocą estymatora p0 = e−X . Wyznaczyć znak obciążeniaEλp0 − p0 tego estymatora.

18.58. Niech N1, . . . , Nn będzie próbą z rozkładu Po (λ) o nieznanym parametrze λ.Dla jakiej wartości C estymator CN parametru e−λ będzie nieobciążony?

18.59. Niech N1, . . . , N10 będzie próbą z rozkładu Po (λ) z nieznanym parametremλ. Interesuje nas drugi moment obserwacji, czyli wielkość m2(λ) = Eλ(N21 ). Skon-struować taki estymator wielkości m2(λ), który jest nieobciążony i który jest funkcjązmiennej S = N1 + · · ·+N10.

18.60. Pobieramy próbę z rozkładu Po (λ) o nieznanym parametrze λ > 0. Niestetysposób obserwacji uniemożliwia odnotowanie realizacji o wartości 0. Pobieranie próbykończymy w momencie, gdy liczebność odnotowanych realizacji wynosi n. Tak więc,każda z naszych kolejnych odnotowanych realizacji K1, . . . ,Kn wynosi co najmniej1 i nie wiemy, ile w międzyczasie pojawiło się obserwacji o wartości 0. Estymujemyparametr λ za pomocą estymatora postaci

λ =∞∑i=2

iNi,

gdzie Ni jest liczbą obserwacji o wartości i. Obliczyć wariancję estymatora λ.

18.61. Proces pojawiania się szkód jest procesem Poissonowskim z parametrem in-tensywności λ, tzn. prawdopodobieństwo pojawienia się n szkód na odcinku czasu(0, T ] jest równe (λT )

n

n! e−λT . Obserwujemy proces od momentu 0. Niech T1, T2, T3, . . .

oznaczają momenty pojawiania się kolejnych szkód. Ustalamy z góry liczbę n taką,że obserwację procesu przerwiemy w momencie Tn pojawienia się n-tej szkody. Dlajakiej wartości C estymator CTn parametru λ jest estymatorem nieobciążonym?

Copyright c⃝ Stanisław Jaworski & Wojciech Zieliński

Page 100: Zbiór zadań z rachunku prawdopodobieństwa i statystyki

100 Estymatory nieobciążone o minimalnej wariancji Wersja 3/12/2014

18.62. Sygnały pojawiają się zgodnie z procesem Poissona, a oczekiwana liczba sygna-łów na jednostkę czasu wynosi λ. Obserwujemy proces od momentu T0 do momentuTn pojawienia się n-tego sygnału, przy czym n jest z góry ustaloną liczbą całkowitąrówną co najmniej 2. Wyznaczyć nieobciążony estymator parametru λ.

18.63. Niech X = (X1, . . . , Xk) będzie zmienną losową o rozkładzie wielomianowymz parametrami (n, p1, . . . , pk), gdzie wektor p = (p1, . . . , pk) (pi ≥ 0 dla i = 1, . . . , koraz

∑ki=1 pi = 1) jest wektorem nieznanych parametrów. Rozważamy problem esty-

macji wektora p przy kwadratowej funkcji straty L(p,p) = 1k∑ki=1(pi − pi)2. Wśród

estymatorów wektora p postaci p = (aX1+b, . . . , aXk+b) (gdzie a i b są liczbami rze-czywistymi) o ryzyku (tzn. EL(p,p)) stałym, niezależnym od p, wyznaczyć estymatoro najmniejszym ryzyku.

Copyright c⃝ Stanisław Jaworski & Wojciech Zieliński

Page 101: Zbiór zadań z rachunku prawdopodobieństwa i statystyki

Wersja 3/12/2014 Metoda największej wiarogodności 101

19. Metoda największej wiarogodności

Niech (X ,B, Pθ, θ ∈ Θ) będzie modelem statystycznym.

Definicja 19.1 Dla ustalonego x ∈ X wielkość L(θ;x) = pθ(x) nazywamy wiaro-godnością parametru θ, gdy zaobserwowano x.

Definicja 19.2 Jeżeli przy każdym ustalonym x ∈ X istnieje θ = θ(x) ∈ Θ takie, że

L(θ;x) ≥ L(θ;x) (∀θ ∈ Θ) ,

to odwzorowanie θ : X → Θ nazywamy estymatorem największej wiarogodno-ści.

Estymator największej wiarogodności parametru θ oznaczamy przez ENW [θ]

Twierdzenie 19.1. Jeżeli h : Θ → Θ jest funkcją różnowartościową oraz θ jestENW [θ], to h(θ) jest ENW [h(θ)].

Definicja 19.3 Jeżeli h : Θ → Θ, to ENW [h(θ)] określamy jako h(θ), gdzie θ jestENW [θ].

W wielu zagadnieniach zamiast szukać maksimum funkcji wiarogodności L(·;x) wy-godniej jest analizować L(·;x) = logL(·;x).

Niech pθ(x) spełniają pewne warunki regularności.

Twierdzenie 19.2. Jeżeli X1, . . . , Xn są niezależnymi zmiennymi losowymi o tymsamym rozkładzie o gęstości pθ(x), to równanie wiarogodności

∂θ[pθ(x1) · · · pθ(xn)] = 0

ma rozwiązanie θn(x1, . . . , xn) takie, że

∀ε > 0 limn→∞Pθ0

∣∣∣θn(X1, . . . , Xn)− θ0∣∣∣ < ε = 1oraz

(∗)√n(θn(X1, . . . , Xn)− θ0

)→ N

(0,1Iθ

).

Copyright c⃝ Stanisław Jaworski & Wojciech Zieliński

Page 102: Zbiór zadań z rachunku prawdopodobieństwa i statystyki

102 Metoda największej wiarogodności Wersja 3/12/2014

Definicja 19.4 Estymator θn spełniający warunek (∗) nazywamy asymptotycznieefektywnym.

Przykład. Niech X1, . . . , Xn będzie próbą z rozkładu N(µ, σ2

)z nieznanymi para-

metrami. Skonstruować ENW dla obu nieznanych parametrów.

Rozwiązanie. Powiedzmy, że zaobserwowano X1 = x1, . . . , Xn = xn. Wiarogodnośćparametru (µ, σ2) jest równa

L(µ, σ2;x1, . . . , xn) =(1

σ√2π

)nexp

−12

n∑i=1

(xi − µσ

)2.

Chcemy znaleźć µ i σ2 maksymalizujące wiarogodność. Ponieważ funkcja wiarogod-ności jest ciągłą i różniczkowalną funkcją swoich argumentów, więc można posłużyćsię standardowymi metodami poszukiwania ekstremum. Niemniej jednak, wygodniejbędzie analizować logarytm funkcji wiarogodności:

L(µ, σ2;x1, . . . , xn) = logL(µ, σ2;x1, . . . , xn)

= −n log√2π − n

2log σ2 − 1

2σ2

n∑i=1

(xi − µ)2 .

W celu znalezienia poszukiwanych estymatorów rozwiązujemy układ równań:∂L(µ, σ2;x1, . . . , xn)

dµ= 0,

∂L(µ, σ2;x1, . . . , xn)dσ2

= 0.

Łatwe rachunki dają:∂L∂µ= − 1σ2

n∑i=1

(xi − µ) = 0,

∂L∂σ2= −n21σ2+12σ4

n∑i=1

(xi − µ)2 = 0.

Rozwiązując powyższy układ równań względem µ i σ2 otrzymujemy

µ∗ = X oraz σ2∗ =1nvarX.

W celu sprawdzenia, że logarytm funkcji wiarogodności w wyznaczonym punkcieosiąga maksimum, wystarczy sprawdzić, że Hesjan[

∂2L∂µ2

∂2L∂µ∂σ2

∂2L∂µ∂σ2

∂2L∂(σ2)2

]

Copyright c⃝ Stanisław Jaworski & Wojciech Zieliński

Page 103: Zbiór zadań z rachunku prawdopodobieństwa i statystyki

Wersja 3/12/2014 Metoda największej wiarogodności 103

w punkcie (µ∗, σ2∗) jest macierzą ujemnie określoną.

Ostatecznie, estymatorami największej wiarogodności są:

ENW [µ] = X oraz ENW [σ2] =1nvarX

Zadania do samodzielnego rozwiązania

19.1. Niech X1, . . . , Xn będzie próbą z rozkładu D (θ) z nieznanym prawdopodobień-stwem θ ∈ (0, 1). Wyznaczyć ENW dla parametru θ.

19.2. Niech X1, . . . , Xn będzie próbą z rozkładu Bin (m, θ) z nieznanym prawdopo-dobieństwem θ ∈ (0, 1). Wyznaczyć ENW dla parametru θ.

19.3. Niech X1, . . . , Xn będzie próbą z rozkładu Ge (θ) z nieznanym prawdopodo-bieństwem θ ∈ (0, 1). Wyznaczyć ENW dla parametru θ.

19.4. Niech X1, . . . , Xn będzie próbą z rozkładu NB (r, θ) z nieznanym prawdopodo-bieństwem θ ∈ (0, 1). Wyznaczyć ENW dla parametru θ.

19.5. Niech X1, . . . , Xn będzie próbą z rozkładu Po (λ) z nieznanym parametremλ > 0. Wyznaczyć ENW dla parametru λ.

19.6. Niech X1, . . . , Xn będzie próbą z rozkładu U (0, θ) z nieznanym parametremθ > 0. Wyznaczyć ENW dla parametru θ.

19.7. Niech X1, . . . , Xn będzie próbą z rozkładu U (θ, 0) z nieznanym parametremθ < 0. Wyznaczyć ENW dla parametru θ.

19.8. Niech X1, . . . , Xn będzie próbą z rozkładu E (λ) z nieznanym parametrem λ >0. Wyznaczyć ENW dla parametru λ.

19.9. Niech X1, . . . , Xn będzie próbą z rozkładu G (α, λ) z nieznanym parametremλ > 0 i znanym parametrem α. Wyznaczyć ENW dla parametru λ.

19.10. Niech X1, . . . , Xn będzie próbą z rozkładu N(µ, σ2

)ze znaną wariancją σ2.

Wyznaczyć ENW dla parametru µ.

19.11. Niech X1, . . . , Xn będzie próbą z rozkładu N(µ, σ2

)ze znaną średnią µ i nie-

znaną wariancją σ2. Wyznaczyć ENW dla parametru σ2.

19.12. Wykonano n doświadczeń Bernoulliego z prawdopodobieństwem sukcesu p =1/3. Liczba n jest nieznanym parametrem. Okazało się, że liczba porażek jest o czterywiększa od liczby sukcesów. Wyznaczyć wartość ENW [n].

Copyright c⃝ Stanisław Jaworski & Wojciech Zieliński

Page 104: Zbiór zadań z rachunku prawdopodobieństwa i statystyki

104 Metoda największej wiarogodności Wersja 3/12/2014

19.13. W urnie znajduje się razem N kul: białych i czarnych. Wylosowano n kul,wśród których było k kul białych. Wyznaczyć ENW liczby kul białych w urnie.

19.14. Mieszkańcy wyspy Kalythos (na morzu Egejskim) cierpią na dziedziczną cho-robę oczu, której objawy potęgują się wraz z wiekiem. Zbadano pięćdziesięcioelemen-towe próbki ludności w różnym wieku i zarejestrowano liczbę niewidomych w każdejpróbce:

Wiek 20 35 45 55 70Liczba niewidomych 6 17 26 37 44

Przypuszcza się, że prawdopodobieństwo ślepoty w wieku x, oznaczone przez P (x),wyraża się wzorem

P (x) =1 + e−(α+βx)

−1.

Sporządzić odpowiedni wykres wyników i skomentować sensowność takiej hipotezy.Oszacować α i β na podstawie tego wykresu i następnie obliczyć wartość ENW [α, β].Oszacować również wiek, w którym bardziej prawdopodobne jest oślepnięcie niż po-zostanie w zdrowiu.

19.15. Niech T oznacza liczbę pełnych okresów przeżytych przez pacjenta po pewnejoperacji. Załóżmy, że T jest zmienną losową o rozkładzie Ge (θ), przy czym θ ∈ (0, 1)jest nieznanym parametrem. Obserwujemy losową grupę n niezależnych pacjentów,przy czym dla tych pacjentów, dla których T ≤ t (t jest ustalone), znamy T dokładnie,a jeżeli pacjent żyje co najmniej t + 1 okresów, to jego czas życia jest nieznany,zatem dla każdego z pozostałych pacjentów wiemy tylko, że T ≥ t + 1. Estymujemyθ na podstawie tych obserwacji. Wyznaczyć ENW [θ] wiedząc, że dla m pacjentówzaobserwowano dokładną liczbę przeżytych okresów.

19.16. Przyjmujemy, że liczby wypadków N1, . . . , Nk zgłoszonych w kolejnych k la-tach są niezależnymi zmiennymi losowymi. Zakładamy, że zmienna Ni ma rozkładPo (λmi), gdzie mi jest znaną liczbą samochodów ubezpieczonych w i-tym roku, zaśλ nieznanym parametrem. Wyznaczyć ENW [λ].

19.17. Zmienna losowa N ma rozkład Po (λ) z parametrem λ, który chcemy osza-cować. Niestety możemy obserwować jedynie zmienną losową M , która przyjmujewartość zero, jeśli N równa się zero, a wartość jeden, jeśli N jest większa od zera.Średnią arytmetyczną z próbki niezależnych obserwacji zmiennej M oznaczmy przezm. Wyznaczyć ENW [λ].

19.18. Pobieramy próbę o rozkładzie Po (λ). Niestety nasz sposób obserwacji unie-możliwia odnotowanie realizacji o wartości zero. Pobieranie próby kończymy w mo-mencie, gdy liczebność odnotowanych realizacji wynosi T . Tak więc każda z naszychkolejnych odnotowanych realizacji k1, . . . , kT wynosi co najmniej 1, i nic nie wiemyo tym, ile w międzyczasie pojawiło się (i umknęło z naszego pola widzenia) obserwacjizerowych. Wyznaczyć ENW [λ].

Copyright c⃝ Stanisław Jaworski & Wojciech Zieliński

Page 105: Zbiór zadań z rachunku prawdopodobieństwa i statystyki

Wersja 3/12/2014 Metoda największej wiarogodności 105

19.19. W urnie jest r czarnych kul. O liczbie r wiemy tylko tyle, że jest większaod zera. Powtarzamy trzy razy następujące czynności: losujemy jedną kulę z urny iodkładamy ją na bok (nie zwracamy), a następnie wrzucamy do urny jedną kulę białą.Wynikiem doświadczenia jest sekwencja trzech liter – C lub B na przykład CBBoznacza, iż wylosowaliśmy po kolei kulę czarną, potem białą i znowu białą. Wyznaczyćwartość estymatora największej wiarogodności nieznanej liczby r, gdy zaobserwowanociąg CBC.

19.20. Przeprowadzamy wśród wylosowanych osób ankietę na delikatny temat. An-kietowana osoba rzuca kostką do gry i w zależności od wyniku rzutu kostką (wynikutego nie zna ankieter) podaje odpowiednio zakodowaną odpowiedź na pytanie: Czyzdarzyło się Panu/Pani w roku 1999 dać łapówkę w klasycznej formie pieniężnej, prze-kraczającą kwotę 100 zł? Przyjmijmy, iż interesująca nas cecha X przyjmuje wartość1, jeśli odpowiedź brzmi „TAK” i 0, jeśli odpowiedź brzmi „NIE”. Pierwszych 100osób udziela odpowiedzi Z1, . . . , Z100 zgodnie z regułą: jeśli wynik rzutu kostką, toliczba oczek równa 1, 2, 3 lub 4, to Zi = Xi, natomiast jeśli wynik rzutu kostką,to liczba oczek równa 5 lub 6, to Zi = 1 − Xi. Następnych 100 osób udziela od-powiedzi Z101, . . . , Z200 zgodnie z regułą: jeśli wynik rzutu kostką, to liczba oczekrówna 1 lub 2, to Zi = Xi, natomiast jeśli wynik rzutu kostką to liczba oczek równa3, 4, 5 lub 6, to Zi = 1 − Xi. Dla uproszczenia zakładamy, że dwieście ankietowa-nych osób to próba z (hipotetycznej) populacji o nieskończonej liczebności, a podziałna podpróby jest także całkowicie losowy. Interesujący nas parametr tej populacjito oczywiście qX = P (X = 1). W wyniku przeprowadzonej ankiety dysponujemyśrednimi z podprób: Z1 = 1

100

∑100i=1 Zi i Z2 =

1100

∑200i=101 Zi. ENW [qX ] ma postać

qX = a0 + a1Z1 + a2Z2. Dla jakich a0, a1, a2 estymator ten jest nieobciążony?

19.21.Wektor losowy (X,Y ) ma łączny rozkład prawdopodobieństwa dany następu-jącą tabelką:

Y = y1 Y = y2X = x1 ε(1− θ) εθX = x2 (1− ε)θ (1− ε)(1− θ)

gdzie θ ∈ (0, 1) jest nieznanym parametrem, natomiast ε ∈ (0, 1) jest znane. Na pod-stawie n elementowej próby z tego rozkładu wyznaczono ENW [θ]. Obliczyć wariancjęD2θ estymatora.

19.22. W pewnej populacji prawdopodobieństwo tego, że osobnik przeżyje rok jestrówne (1− θ). Jeżeli osobnik przeżył rok, to (warunkowe) prawdopodobieństwo tego,że przeżyje następny rok też jest równe (1− θ). W próbce liczącej n osobników z tejpopulacji zanotowano n0 przypadków, kiedy osobnik nie przeżył roku, n1 przypadków,kiedy osobnik przeżył rok, ale nie przeżył drugiego oraz n2 przypadków, kiedy osobnikprzeżył dwa lata. Wyznaczyć ENW [θ].

19.23. Zakładamy, że każda pojedyncza szkoda, niezależnie od pozostałych, z praw-dopodobieństwem θ jest likwidowana w roku, w którym została zgłoszona, w drugimroku po zgłoszeniu – z prawdopodobieństwem θ(1− θ), w trzecim roku lub później –z prawdopodobieństwem (1−θ)2. Dane, którymi dysponujemy dotyczą szkód. Wiemy,

Copyright c⃝ Stanisław Jaworski & Wojciech Zieliński

Page 106: Zbiór zadań z rachunku prawdopodobieństwa i statystyki

106 Metoda największej wiarogodności Wersja 3/12/2014

że spośród nich n1 zostało zlikwidowanych w roku, w którym zostały zgłoszone, n2zostało zlikwidowanych w drugim roku po zgłoszeniu oraz n3 zostało zlikwidowanychw trzecim roku lub później, gdzie n1 + n2 + n3 = n. Wyznaczyć ENW [θ].

19.24. Niech X1, . . . , Xn będzie próbą z rozkładu U (−θ, θ), gdzie θ > 0 jest niezna-nym parametrem. Niech θ oznacza ENW [θ]. Niech γ ∈ (0, 1). Wyznaczyć takie a,że

Pθ(θ < θ < aθ) = γ.

19.25. Niech X1, . . . , Xn będzie próbą z rozkładu U (0, θ). Obserwujemy zmiennelosowe Yi = minXi,M, gdzie M jest daną liczbą. Wyznaczyć ENW [θ].

19.26. Pewna komórka zawiera granulki, które można traktować jako kulki o jed-nakowym, ale nieznanym promieniu r i o których zakłada się, że są rozmieszczonew komórce losowo. W celu oszacowania r obserwuje się pod mikroskopem pewienprzekrój komórki. Obserwowany przekrój zawiera n kołowych przekrojów granuleko promieniach X1, X2, . . . , Xn. Wyznaczyć na tej podstawie ENW [r]. Znaleźć roz-kład tego estymatora dla dużych n.

19.27. Pewien produkt elektrotechniczny wytwarzany jest w bardzo wielu fabrykach.Wadliwość (frakcja produktów wadliwych) p jest różna w różnych fabrykach i ma(na przestrzeni fabryk) w przybliżeniu rozkład Bet (α, β) przy czym α i β nie sąznane. Przypuśćmy, że wylosowano s fabryk i w każdej z nich zbadano n produktów.Niechmi (i = 1, 2, . . . , n) oznacza liczbę produktów wadliwych zaobserwowaną w i–tejfabryce. Podać szczegółowo sposób wyznaczania ENW [α, β]. Pokazać, że gdy n = 1,parametry α i β nie są identyfikowalne.

19.28. Niech X1, . . . , Xn będzie próbą z rozkładu E (λ). Nie obserwujemy dokładnychwartości zmiennych Xi, tylko wartości Zi = ⌊Xi⌋+1. Wyznaczyć ENW [λ] oparty naobserwacjach Z1, . . . , Zn.

19.29. Niech X1, X2, . . . , Xn będzie próbą z rozkładu E (θ1) oraz niech Y1, Y2, . . . , Ynbędzie niezależną próbą z rozkładu E (θ2). Wyznaczyć ENW [θ1, θ2]. W jawny sposóbwyznaczyć ENW [θ1, θ2] przy dodatkowym warunku θ1 = θ2, i zilustrować na tymprzykładzie ogólną teorię warunkowych estymatorów największej wiarogodności.

19.30. Niech X1, . . . , Xn będzie próbą z rozkładu E (µ). Estymujemy µ na podstawieczęściowej informacji o próbce: wiadomo, że m obserwacji miało wartości poniżejustalonej wartości k i znana jest ich średnia arytmetyczna. Wyznaczyć ENW [µ].

19.31. X1, . . . , Xn jest próbą z rozkładu E (1; θ). Znaleźć ENW [θ].

19.32. Zakładając, że X1, . . . , X10 jest próbą z rozkładu E (µ) przeprowadzono esty-mację parametru µ metodą największej wiarogodności i otrzymano wartość ENW [µ]równą 50. Największa zaobserwowana w próbie wartość, tzn. wartość zmiennej loso-wej maxX1, . . . , X10, wyniosła 100, a dziewięć pozostałych było ściśle mniejszych od100. Okazało się jednak, że w istocie zaobserwowane przez nas wartości X1, . . . , X10stanowią próbę z uciętego rozkładu wykładniczego Xi = minYi, 100, gdzie zmiennelosowe Yi pochodzą z E (µ). Obliczyć wartość ENW [µ] po uwzględnieniu modyfikacjizałożeń.

Copyright c⃝ Stanisław Jaworski & Wojciech Zieliński

Page 107: Zbiór zadań z rachunku prawdopodobieństwa i statystyki

Wersja 3/12/2014 Metoda największej wiarogodności 107

19.33. Niech X1, . . . , Xn będzie próbą z rozkładu E (α; θ). Wyznaczono ENW [θ, α]w sytuacji, gdy oba parametry są nieznane (α > 0). Znaleźć taką liczbę c, żeby cαbył nieobciążonym estymatorem parametru α.

19.34. Rozważmy losową liczbę zmiennych losowych X1, . . . , XN . Zakładamy, żezmienne Xi są wzajemnie niezależne i niezależne od zmiennej losowej N . Wiemy,że każda ze zmiennych Xi ma rozkład E (α). Zmienna N ma rozkład Po (λ). Zarównoλ > 0 jak i α > 0 są nieznane. Obserwujemy tylko te spośród zmiennych X1, . . . , XN ,które przekraczają ustaloną wartość k. Nie wiemy, ile jest pozostałych zmiennych anijakie są ich wartości. Wyznaczyć ENW [λ, α].

19.35. Niech X1, . . . , Xn będą niezależnymi zmiennymi losowymi, przy czym zmienneXi (i = 1, . . . ,m < n) mają rozkład E (1/λ), a pozostałe zmienne mają rozkładG (2, 1/λ). Wyznaczyć ENW [λ].

19.36. Na podstawie próby X1, . . . , Xn z rozkładu G (2, 1/θ) estymujemy parametrθ wykorzystując ENW θ. Wyznaczyć w przybliżeniu rozmiar próby n taki, że

(|θ − θ|θ

≤ 0.05

)≈ 0.95.

Posłużyć się aproksymacją rozkładem normalnym.

19.37. Wiemy, że zmienna losowa X ma rozkład N (µ, 4). Na podstawie czteroele-mentowej próby estymujemy µ2. Zaobserwowano x1 = 2, x2 = 3.5, x3 = 3, x4 = 7.Wyznaczyć różnicę między wartością estymatora największej wiarogodności a warto-ścią estymatora nieobciążonego o minimalnej wariancji.

19.38. Niech (X1, Y1), (X2, Y2), . . . , (Xn, Yn) będzie ciągiem par wyników pewnychpomiarów, przy czym wszystkie 2n wyniki są niezależne i mają rozkład normalnyo wariancji σ2. Wartość oczekiwanaXi jest równa ξi, wartość oczekiwana Yi jest równaηi, a wszystkie pary (ξi, ηi), i = 1, 2, . . . , n, leżą na okręgu o środku w punkcie (ξ, η)i o promieniu ϱ. Należy oszacować ξ, η i ϱ. Skonstruować ENW [ξ, η, ϱ] i opracowaćszczegółowo algorytm obliczeniowy.

19.39. Przy wyznaczaniu oporu pewnego kryształu otrzymano ciąg niezależnych po-miarów (Xi, Yi), (i = 1, 2, . . . , n), pomiarów natężenia prądu x i napięcia y. Pomiaryte obciążone są błędami (εi, ηi) tak, że

Xi = µi + εi, Yi = νi + ηi,

gdzie µi oraz νi sa prawdziwymi wartościami natężenia i napięcia prądu w i–tympomiarze oraz νi = αµi, gdzie α jest oporem kryształu. Zakładamy, że błędy sąniezależne i εi ma rozkład N

(0, σ21

), a ηi ma rozkład N

(0, λσ21

), przy czym λ jest

znane. Pokazać, że α = ENW [α] jest rozwiązaniem równania

α2Sxy + α(λSxx − Syy)− λSxy = 0,

Copyright c⃝ Stanisław Jaworski & Wojciech Zieliński

Page 108: Zbiór zadań z rachunku prawdopodobieństwa i statystyki

108 Metoda największej wiarogodności Wersja 3/12/2014

gdzie

Sxy =1n

∑XiYi Sxx =

1n

∑X2i Syy =

1n

∑Y 2i .

Pokazać, że gdy ciąg∑µ2i /n jest zbieżny dla n→∞, wtedy α jest estymatorem zgod-

nym. Pokazać, że metoda największej wiarogodności nie jest zadowalająca, gdy λ niejest znane. Wyjaśnić, dlaczego w tym przypadku nie można stosować standardowychtwierdzeń o estymatorach największej wiarogodności.

19.40. Zakładamy, że X1, . . . , Xn, Y1, . . . , Yn są niezależnymi zmiennymi losowymio rozkładach normalnych, przy czym EXi = EYi = µ, D2Xi = σ2, D2Yi = 4σ2 dlai = 1, . . . , n. Parametry µ i σ są nieznane. Niech σ2 będzie ENW [σ2] w tym modelu.Wyznaczyć stałą a, tak aby σ2 = aσ2 był estymatorem nieobciążonym parametru σ2.

19.41. Niech X1, . . . , Xn będzie próbą z rozkładu N(µ, σ2

), gdzie oba parametry są

nieznane. Estymując parametr µ2 wyznaczono dwa estymatory: T1 = ENW [µ2] orazT2 = ENMW [µ2]. Wyznaczyć różnicę ryzyk estymatorów T1 i T2 przy kwadratowejfunkcji straty.

19.42. Niech X1, . . . , Xm+n będą niezależnymi zmiennymi losowymi. Zmienne losoweXi, i = 1, . . . ,m, mają rozkładWei (1/2, θ), a Xi, i = m+1, . . . ,m+n, mają rozkładWei (1/2, θ/2), gdzie θ > 0 jest nieznanym parametrem. Dla przypadku m = n = 5,obliczyć błąd średniokwadratowy estymatora ENW [θ] wyznaczonego na podstawiezmiennych losowych X1, . . . , Xm+n.

19.43. Zmienna losowa N ma rozkład Po (λ). Rozważamy losową liczbę zmiennychlosowych X1, . . . , XN , przy czym zmienne losowe X1, . . . , XN są niezależne wzajem-nie i niezależne od zmiennej losowej N . Każda ze zmiennych losowych ma rozkładWei (2, θ), gdzie θ > 0 jest nieznanym parametrem. Obserwujemy tylko te spośródzmiennych X1, . . . , XN , które są większe od 10. Nie wiemy ile jest pozostałych zmien-nych ani jakie są ich wartości. Przypuśćmy, że zaobserwowaliśmy cztery wartości więk-sze od 10 i suma ich kwadratów jest równa 1200. Na podstawie tych danych wyznaczyćwartości estymatorów największej wiarogodności parametrów θ i λ.

19.44. Zakładając, że obserwacje X1, . . . , X10 stanowią próbę z rozkładu Par (3, θ),gdzie θ > 0 jest nieznanym parametrem, wyznaczono wartość ENW [θ]), która wynio-sła 2. W próbie były dwie obserwacje o wartości sześć, a pozostałe osiem obserwacjimiało wartości mniejsze od 6. Okazało się, że w rzeczywistości zaobserwowane wartościstanowiły próbę z uciętego rozkładu Pareto, czyli były realizacjami zmiennych loso-wych Xi = minYi, 6, gdzie Yi, i = 1, . . . , 10, są niezależnymi zmiennymi losowymiz rozkładu o gęstości fθ. Wyznaczyć wartość estymatora największej wiarogodnościparametru θ po uwzględnieniu modyfikacji założeń.

19.45. X1, . . . , Xn jest próbą z rozkładu o dystrybuancie

Fα(x) =1

(1 + e−x)α, x ∈ R, α > 0.

Wyznaczyć ENW [α].

Copyright c⃝ Stanisław Jaworski & Wojciech Zieliński

Page 109: Zbiór zadań z rachunku prawdopodobieństwa i statystyki

Wersja 3/12/2014 Metoda największej wiarogodności 109

19.46. Niech X1, . . . , Xn będzie próbą z rozkładu o gęstości

fθ(x) =1θx

1θ−1, dla x ∈ (0, 1),

0, poza tym.

Niech θ będzie estymatorem największej wiarogodności nieznanego parametru θ > 0.Obliczyć wariancję oraz błąd średniokwadratowy tego estymatora.

19.47. Niech X1, . . . , Xn będzie próbą z rozkładu Pow (θ), a Y1, . . . , Ym będzie próbąz rozkładu Pow (2θ), gdzie θ > 0 jest nieznanym parametrem. Wszystkie zmiennelosowe są niezależne. Dobrać stałą a tak, aby

(T

θ> a

)= 0.9,

wiedząc, że T jest estymatorem największej wiarogodności parametru θ otrzymanymna podstawie zmiennych losowych X1, . . . , Xn i Y1, . . . , Ym.

19.48. Zmienne losowe X1, . . . , Xn, Y1, . . . , Ym są niezależne o tym samym rozkładziez gęstością

fθ(x) =

θ(1+x)θ+1 , dla x > 0,0, poza tym,

gdzie θ > 0 jest nieznanym parametrem. Wyznaczono θ1 = ENW [θ] na podstawiepróby X1, . . . , Xn oraz θ2 = ENW [θ] na podstawie próby Y1, . . . , Ym. Wyznaczyćstałe a i b tak, aby

(θ1

θ2< a

)= Pθ

(θ1

θ2> b

)= 0.05.

19.49. Niech X1, . . . , Xn, . . . będzie próbą z rozkładu Wei (4, θ), gdzie θ > 0 jestnieznanym parametrem. Niech Tn oznacza ENW funkcji g(θ) = Pθ(X1 > 1) = e−θ

wyznaczony w oparciu o próbę X1, . . . , Xn. Niech θ = 2. Udowodnić, że

limn→∞P|Tn − e−2|

√n > 2e−2 = 0.32.

19.50. Pewne radioaktywne ciało emituje losowo cząstki z intensywnością, któraz upływem czasu maleje i po czasie t wynosi λe−κt. Zaobserwowano, że n pierw-szych cząstek zostało wyemitowanych w chwilach t1, t2, . . . , tn. Napisać równania dlaestymatorów największej wiarogodności λ i κ i pokazać, że κ spełnia równanie

κtneκtn − 1

= 1− κt,

gdzie t = 1n∑ni=1 ti. Podać proste oszacowanie dla κ, gdy κtn jest małe.

Copyright c⃝ Stanisław Jaworski & Wojciech Zieliński

Page 110: Zbiór zadań z rachunku prawdopodobieństwa i statystyki

110 Metoda najmniejszych kwadratów Wersja 3/12/2014

20. Metoda najmniejszych kwadratów

Estymator najmniejszych kwadratów.

Obserwujemy zmienne losowe Y1, . . . , Yn takie, że EYi = gi(θ), dla i = 1, . . . , n, gdziegi : Θ→ R1 są znanymi funkcjami rzeczywistymi. Zakładamy, że Θ ⊂ Rk. Niech

S(θ) =n∑i=1

(Yi − gi(θ))2

Definicja 20.1 Estymatorem najmniejszych kwadratów parametru θ nazy-wamy wielkość θ minimalizującą S(θ).

Estymator najmniejszych kwadratów oznaczamy EMNK[θ]

Definicja 20.2Wielkość S(θ) =∑ni=1(Yi−gi(θ))2 nazywamy resztową sumą kwa-

dratów.

Model liniowy.

Definicja 20.3 Modelem liniowym nazywamy model statystyczny, w którym ob-serwacje Y1, . . . , Yn mają postać

Yi = β1x1i + · · ·+ βpxpi + εi, i = 1, . . . , n

gdzie xji są ustalonymi liczbami, βj są nieznanymi parametrami modelu, εi są nieza-leżnymi „błędami losowymi” takimi, że Eεi = 0 oraz D2εi = σ2.

W modelach liniowych stosowany jest zapis macierzowy:

Y =Xβ+ ε

gdzieYT = (Y1, . . . , Yn), βT = (β0, β1, . . . βp), εT = (ε1, . . . , εn)

X =

x11 · · · xp1x12 · · · xp2... · · ·

...x1n · · · xpn

Zakładamy, że macierz X jest macierzą pełnego rzędu.

Copyright c⃝ Stanisław Jaworski & Wojciech Zieliński

Page 111: Zbiór zadań z rachunku prawdopodobieństwa i statystyki

Wersja 3/12/2014 Metoda najmniejszych kwadratów 111

W modelu liniowym (∥ · ∥ oznacza długość wektora):

S(β) =n∑i=1

Yi − p∑j=1

βjxji

2 = (Y−Xβ)T (Y−Xβ) = ∥Y−Xβ∥2

Ponieważ∂S(β)∂β

=XTY−XTXβ,

więc EMNK[β] jest rozwiązaniem równania

XTXβ =XTY.

Ten układ równań nazywany jest układem równań normalnych. Ponieważ zało-żyliśmy, że macierz X jest pełnego rzędu, więc

EMNK[β] = (XTX)−1XTY ===ozn β.

Twierdzenie 20.1. Jeżeli c ∈ Rp, to EMNK[cTβ] = cT β.

Twierdzenie 20.2. EMNK[β] jest estymatorem nieobciążonym o macierzy kowa-riancji σ2(XTX)−1

Definicja 20.4 Funkcję parametryczną cTβ nazywamy estymowalną, jeżeli istniejejej estymator nieobciążony postaci bTY.

Twierdzenie 20.3. Funkcja parametryczna cTβ jest estymowalna wtedy i tylkowtedy, gdy c ∈ImXT .

Twierdzenie 20.4. (Gaussa–Markowa) Jeżeli błędy losowe ε1, . . . , εn są nieskorelo-wanymi zmiennymi losowymi o zerowej wartości oczekiwanej i takiej samej wariancji,to dla każdej estymowalnej funkcji parametrycznej cTβ i dla każdego nieobciążonegoestymatora liniowego bTY tej funkcji zachodzi

D2β(cT β) ≤ D2β(bTY), ∀β ∈ Rp

WielkośćS(β) = ∥Y−Xβ∥2 = YT (I−X(XTX)−1XT )Y

Copyright c⃝ Stanisław Jaworski & Wojciech Zieliński

Page 112: Zbiór zadań z rachunku prawdopodobieństwa i statystyki

112 Metoda najmniejszych kwadratów Wersja 3/12/2014

nazywamy resztową sumą kwadratów. Oznaczana jest przez RSS.

Twierdzenie 20.5. Nieobciążony estymator wariancji ma postać

σ2 =1

(n− rzX)YT (I−X(XTX)−1XT )Y

Dodatkowe ograniczenia.

Rozważamy model liniowy:Y =Xβ+ ε.

Załóżmy, że wektor β parametrów spełnia pewne dodatkowe ograniczenia linioweAβ = c, gdzieA jest znaną q×pmacierzą pełnego rzędu, a c ∈ Rq jest znanym wekto-rem. Estymatory najmniejszych kwadratów uzyskuje się stosując technikę mnożnikówLagrange’a. Funkcja Lagrange’a przyjmuje postać

L(β,γ) = (Y−X)βT (Y−Xβ) + γT (Aβ− c),

gdzie γ = [γ1, . . . , γq]T są mnożnikami Lagrange’a. Różniczkując funkcję Lagrange’ai przyrównując odpowiednie pochodne do zera otrzymujemy estymator wektora β przydodatkowych ograniczeniach:

βA = β− (XTX)−1AT [A(XTX)−1AT ]−1(Aβ− c).

Resztowa suma kwadratów w modelu z dodatkowymi ograniczeniami ma postać

RSSA = ∥Y−XβA∥2 = (Y−XβA)T (Y−XβA)

= RSS + (Aβ− c)T [A(XTX)−1AT ]−1(Aβ− c).

Twierdzenie 20.6. Nieobciążony estymator wariancji w modelu z ograniczeniamima postać

σ2A =RSSA

(n− rzX+ rzA)

Rozkłady prawdopodobieństwa estymatorów.

Zakładamy, żeεT = (ε1, . . . , εn) ∼ Nn(0, σ2In)

Korzystając z własności wielowymiarowego rozkładu normalnego łatwo można udo-wodnić poniższe twierdzenie.

Copyright c⃝ Stanisław Jaworski & Wojciech Zieliński

Page 113: Zbiór zadań z rachunku prawdopodobieństwa i statystyki

Wersja 3/12/2014 Metoda najmniejszych kwadratów 113

Twierdzenie 20.7. Jeżeli Y ∼ Nn(Xβ, σ2In) oraz rzX = p, to

1. β ∼ Np(β, σ2(XTX)−1)

2. (β− β)TXTX(β− β) ∼ σ2χ2p

3. β jest niezależne od s2

4. (n− p)s2 ∼ σ2χ2n−p

Przykład. Niech E(Y |X = x) = β0 + β1x. Na podstawie n par (Y1, x1), . . . , (Yn, xn)obserwacji znaleźć estymatory najmniejszych kwadratów współczynników β0 oraz β1funkcji regresji. Zakładając, że wariancja zmiennej losowej Y wynosi σ2 i nie jestzależna od x, znaleźć estymator najmniejszych kwadratów wariancji σ2. Przy założe-niu normalności rozkładu zmiennej losowej Y , znaleźć rozkłady prawdopodobieństwawyznaczonych estymatorów.

Rozwiązanie.

Każdą obserwację Yi zapisujemy w postaci

Yi = β0 + β1xi + εi, i = 1, . . . , n.

Zakładamy, że εi są niezależnymi zmiennymi losowymi o tym samym rozkładzie o war-tości oczekiwanej zero i wariancji σ2. W notacji macierzowej mamy

Y1Y2...Yn

=1 x11 x2...1 xn

[β0β1]+

ε1ε2...εn

lub w skrócie Y = Xβ+ ε, gdzie XT =

[1 . . . 1x1 . . . xn

]oraz βT = [β0, β1]. Stosując

metodę najmniejszych kwadratów otrzymujemy

β = (XTX)−1XTY =[n

∑ni=1 xi∑n

i=1 xi∑ni=1 x

2i

]−1 [1 . . . 1x1 . . . xn

]Y1Y2...Yn

.Jeżeli wśród obserwacji są przynajmniej dwa różne punkty xi, to macierz X jest peł-nego rzędu, a co za tym idzie, istnieje odwrotność macierzyXTX. Wówczas składowewektora β są estymowalne, tzn. każdy z parametrów funkcji regresji jest estymowalny.Wykonując odpowiednie obliczenia otrzymujemy

β0 = Y − β1x,

β1 =cov(x, Y )varx

.

Copyright c⃝ Stanisław Jaworski & Wojciech Zieliński

Page 114: Zbiór zadań z rachunku prawdopodobieństwa i statystyki

114 Metoda najmniejszych kwadratów Wersja 3/12/2014

Znajdziemy oszacowanie wariancji σ2. Jak wiemy, nieobciążoną oceną wariancji jestRSS/(n− 2). Dokładniej

s2 =1n− 2

(varY − β1 cov(x, Y )

)jest poszukiwanym estymatorem wariancji.

Otrzymaliśmy klasyczne estymatory współczynników liniowej funkcji regresji.

Rozkłady odpowiednich estymatorów są następujące:

β =[β0β1

]∼ N2

([β0β1

],σ2

varx

[x2 xx 1

]).

Zatem

β0 ∼ N

(β0, σ

2 x2

varx

), β1 ∼ N

(β1,σ2

varx

).

Zmienna losowa (n− 2)s2/σ2 ma rozkład χ2 (n− 2).

Zadania do samodzielnego rozwiązania

20.1. Pokazać, że Xβ jest rzutem ortogonalnym Y na Xβ : β ∈ Rp.

20.2. Niech Y1, . . . , Yn będzie próbą z rozkładu N(µ, σ2

). Wyznaczyć EMNK[µ]

oraz EMNK[σ2]. Wyznaczyć rozkłady uzyskanych estymatorów.

20.3. Niech Y11, . . . , Y1n1 będzie próbą z rozkładu N(µ1, σ

2)oraz niech Y21, . . . , Y2n2

będzie próbą z rozkładu N(µ2, σ

2). Wyznaczyć EMNK[µ1 − µ2] oraz EMNK[σ2].

Wyznaczyć rozkłady uzyskanych estymatorów.

20.4. Niech Yi1, . . . , Yini będzie próbą z rozkładu N(µi, σ

2), i = 1, . . . , k. Niech

c ∈ Rk będzie danym wektorem. Wyznaczyć EMNK[cTµ], gdzie µ jest wektoremwartości oczekiwanych, tzn. µT = (µ1, . . . , µk). Wyznaczyć EMNK[σ2] oraz rozkładyuzyskanych estymatorów.

20.5. Wyniki obserwacji Yi1, . . . , Yini mogą być przedstawione w postaci

Yij = βi0 + βi1aij + εij (i = 1, 2, j = 1, . . . , ni),

gdzie aij (i = 1, 2, j = 1, . . . , ni) są znanymi wartościami zmiennej towarzyszącej, εij(i = 1, 2, j = 1, . . . , ni) są niezależnymi zmiennymi o rozkładach N

(0, σ2

), a para-

metry βT = (β10, β11, β20, β21) są nieznanymi parametrami. Wyznaczyć EMNK[β].Wyznaczyć EMNK[β] przy założeniu, że β11 = β21. W obu przypadkach wyznaczyćEMNK[σ2]. Wyznaczyć rozkłady prawdopodobieństwa uzyskanych estymatorów.

Copyright c⃝ Stanisław Jaworski & Wojciech Zieliński

Page 115: Zbiór zadań z rachunku prawdopodobieństwa i statystyki

Wersja 3/12/2014 Metoda najmniejszych kwadratów 115

20.6. Wyniki obserwacji Yi1, . . . , Yini mogą być przedstawione w postaci

Yij = βi0 + βi1aij + εij (i = 1, 2, j = 1, . . . , ni),

gdzie a11 ≤ · · · ≤ a1n1 ≤ a21 ≤ · · · ≤ a2n2 są znanymi wartościami zmiennej to-warzyszącej, εij (i = 1, 2, j = 1, . . . , ni) są niezależnymi zmiennymi o rozkładachN(0, σ2

), a parametry βT = (β10, β11, β20, β21) są nieznanymi parametrami. Wyzna-

czyć EMNK[β]. Wyznaczyć EMNK[β] przy założeniu, że β10 + aβ11 = β20 + aβ21,gdzie a jest znaną liczbą taką, że a1n1 ≤ a ≤ a21. W obu przypadkach wyznaczyćEMNK[σ2]. Wyznaczyć rozkłady prawdopodobieństwa uzyskanych estymatorów.

20.7. Wyniki obserwacji Y1, . . . , Yn mogą być przedstawione w postaci

Yi = β0 + β1ai + β2a2i + εi (i = 1, . . . , n),

gdzie a1, . . . , an są znanymi wartościami zmiennej towarzyszącej, oraz ε1, . . . , εn sąnieskorelowanymi zmiennymi losowymi o zerowej wartości oczekiwanej i jednakowejwariancji. Pokazać, że parametr βT = (β0, β1, β2) jest estymowalny wtedy i tylkowtedy, gdy wśród a1, . . . , an znajdują się co najmniej trzy różne wartości. WyznaczyćEMNK[β].

20.8. Model Yi = β0 + β1ai + εi (i = 1, . . . , n) może być zapisany w postaci

Yi = β0 + β1a+ β1(ai − a) + εi = α+ β1(ai − a) + εi.

Pokazać, że wybór parametrów α i β1 zamiast β0 i β1 ułatwia rachunki związanez wyznaczeniem estymatorów najmniejszych kwadratów. Sprawdzić, że w ogólnymprzypadku model

Y = Aβ+ ε

może być zawsze, po odpowiedniej zmianie parametrów, przedstawiony w postaci

Y = Bγ+ ε,

w której B jest macierzą o ortogonalnych kolumnach; estymator parametru γ otrzy-muje się za pomocą łatwych rachunków.

20.9. Obserwacje Yij (i = 1, . . . , r, j = 1, . . . , n) mają postać Yij = µ + τi + εij ,gdzie εij są nieskorelowanymi błędami o wspólnej wariancji. Pokazać, że parametryµ, τ1, τ2, . . . , τr nie są estymowalne, ale że stają się estymowalne po wprowadzeniuwarunku τ1 + τ2 + · · · + τr = 0. Pokazać, że estymatory najmniejszych kwadratówmają przy tym warunku postać

µ = X·· =1rn

∑i,j

Xij τi = Xi· −X·· gdzie Xi· =1n

∑j

Xij .

20.10. NiechY1 = θ1 + θ2 + ε1,

Y2 = θ1 − 2θ2 + ε2,Y3 = 2θ1 − θ2 + ε3.

Copyright c⃝ Stanisław Jaworski & Wojciech Zieliński

Page 116: Zbiór zadań z rachunku prawdopodobieństwa i statystyki

116 Metoda najmniejszych kwadratów Wersja 3/12/2014

Błędy losowe mają zerową wartość oczekiwaną. Znaleźć EMNK[θ1] oraz EMNK[θ2].Wyznaczyć estymatory najmniejszych kwadratów parametrów następującego modelurozszerzonego:

Y1 = θ1 + θ2 + θ3 + ε1,

Y2 = θ1 − 2θ2 + θ3 + ε2,Y3 = 2θ1 − θ2 + θ3 + ε3.

20.11. Niech Y1, Y2, Y3, Y4 będą wynikami lotniczych pomiarów kątów θ1, θ2, θ3, θ4pewnego czworokąta na powierzchni ziemi. Założyć, że obserwacje obciążone są błę-dami, które są niezależne, mają wartość oczekiwaną zero i taką samą wariancję σ2.Przy tych założeniach wyznaczyć estymatory najmniejszych kwadratów wielkości θ.Wyznaczyć nieobciążony estymator wariancji σ2.

Przypuśćmy, że wiadomo, iż dany czworokąt jest równoległobokiem takim, że θ1 = θ3oraz θ2 = θ4. Jaką postać mają wtedy estymatory najmniejszych kwadratów kątówi jak można oszacować wariancję σ2.

20.12. Pewne trzy substancje mogą być ważone tylko w opakowaniu. Chcemy oszaco-wać jednostkowy ciężar tych substancji mając do dyspozycji wagę sprężynową. Wy-konano cztery pomiary według następującego schematu:

Nr Ważenie Wynik1 substancja 1 w opakowaniu Y12 substancja 2 w opakowaniu Y23 substancja 3 w opakowaniu Y34 opakowanie Y4

Napisać model tego doświadczenia. Wyznaczyć estymatory najmniejszych kwadra-tów jednostkowych ciężarów poszczególnych substancji oraz macierz kowariancji tychestymatorów.

20.13. Pewien produkt chemiczny można wytwarzać bez użycia katalizatora, ale przy-puszcza się, że w obecności katalizatorów wydajność procesu będzie większa. Dlazbadania tego zagadnienia przeprowadzono pięć doświadczeń według następującegoschematu:

Doświadczenie Warunki Wydajność1 bez katalizatora Y12 katalizator A w ilości a1 Y23 katalizator A w ilości 2a1 Y34 katalizator B w ilości a2 Y45 katalizator B w ilości 2a2 Y5

Zakładając liniową regresję między wydajnością procesu i ilością każdego z kataliza-torów skonstruować estymatory najmniejszych kwadratów „poziomu bezkatalizatoro-wego” i obu współczynników regresji. Wyznaczyć, przy zwykłych założeniach o błę-dzie, macierz kowariancji tych estymatorów. Wywnioskować, że przy danym a1 + a2estymator różnicy współczynników regresji ma najmniejszą wariancję, gdy a1 = a2.

Copyright c⃝ Stanisław Jaworski & Wojciech Zieliński

Page 117: Zbiór zadań z rachunku prawdopodobieństwa i statystyki

Wersja 3/12/2014 Metoda najmniejszych kwadratów 117

20.14. Pewien deterministyczny proces y0, y1, . . . , yn przebiega tak, że

yi+1 = ayi (i = 0, 1, . . . , n− 1),

przy czym a jest znaną stałą. Wielkości yi nie mogą być obserwowane bezbłędnie, leczich obserwacje X0, X1, . . . , Xn mają postać

Xi = yi + εi (i = 0, 1, . . . , n− 1),

gdzie εi są nieskorelowanymi błędami o jednakowej wariancji. Wyznaczyć estymatorynajmniejszych kwadratów y0, y1, . . . , yn. Jak można by szacować y0, y1, . . . , yn, gdybystała a nie była znana? W każdym z powyższych przypadków skonstruować estymatorwariancji błędów.

20.15. Rozważmy model regresji liniowej

Yi = axi + εi, i = 1, 2, 3, 4,

gdzie εi są niezależnymi zmiennymi losowymi o rozkładach N(0, σ2

), natomiast xi

są nielosowymi punktami z przedziału [0, 3]. Wielkość a jest nieznanym współczynni-kiem. Dla jakich x1, x2, x3, x4 wariancja estymatora EMNK[a] jest najmniejsza?

20.16. Obserwujemy zmienną yt oraz zmienne [xt,1 . . . , xt,K ], co w postaci macierzo-wej zapisujemy:

y =

y1...yT

, X =

x1,1 · · · x1,K...

......

xT,1 · · · xT,K

.Zakładamy, że rząd macierzyX wynosi K, a rząd macierzy rozszerzonej [y|X] wynosiK +1 oraz ilość obserwacji T > K +1. Niech β = [β1, . . . , βk]T oznacza hipotetycznywektor współczynników regresji liniowej oraz niech b oznacza EMNK[β]. Niech e =y−Xb będzie wektorem reszt. Pokazać, że suma reszt jest zero wtedy i tylko wtedy,gdy istnieje taka kombinacja liniowa kolumn macierzy X, która równa jest wektorowijedynek.

20.17. Zakładamy, iż oczekiwany roczny koszt obsługi grupy ubezpieczonych jest li-niową funkcją liczebności grupy (wielkości nielosowej), co możemy sformalizować na-stępująco: EY = ax+ b, gdzie Y jest rocznym kosztem obsługi grupy (w złotówkach),x jest ilością ubezpieczonych w grupie, natomiast a, b są nieznanymi parametrami.Zakłada się ponadto, że wariancja zmiennej losowej Y nie zależy od x. Zanotowanoroczny koszt obsługi dla czterech grup o różnych liczebnościach:

x 50 100 200 500Y 2000 3000 7000 9000

Do estymacji parametrów a, b stosujemy estymator najlepszy wśród wszystkich esty-matorów liniowych i równocześnie nieobciążonych. Jaka jest wyestymowana wartośćkosztu stałego (parametru b)?

Copyright c⃝ Stanisław Jaworski & Wojciech Zieliński

Page 118: Zbiór zadań z rachunku prawdopodobieństwa i statystyki

118 Metoda najmniejszych kwadratów Wersja 3/12/2014

20.18. Zakładamy, że zależność czynnika Y od nielosowego czynnika x opisuje modelregresji liniowej Yi = βxi + εi. Obserwujemy n elementową próbę, w której xi = idla i = 1, . . . , n. Zmienne losowe Y1, . . . , Yn są niezależne, a błędy losowe mają roz-kłady N

(0, iσ2

), dla i = 1, 2, . . . , n. Wyznaczono estymator β parametru β wyko-

rzystując ważoną metodę najmniejszych kwadratów, to znaczy minimalizując sumę∑5i=1

(Yi−βxi)2

D2εi. Wyznaczyć stałą z tak, by P(|β − β| < zσ) = 0.95.

20.19. Zakładamy, że zależność czynnika Y od czynnika x (nielosowego) opisuje modelregresji liniowej Yi = β0 + β1xi + εi. Obserwujemy 2k elementową próbę, w którejx1 = · · · = xk = a i xk+1 = · · · = x2k = b (a < b). Zmienne losowe Y1, . . . , Y2k sąniezależne. Błędy losowe mają rozkłady N

(0, σ2

)dla i = 1, . . . , k oraz N

(0, γ2σ2

)dla

i = k+1, . . . , 2k, γ jest znaną liczbą. Wyznaczono estymatory β0 i β1 parametrów β0i β1 wykorzystując ważoną metodę najmniejszych kwadratów, to znaczy minimalizującsumę

∑2ki=1

(Yi−β0−β1xi)2

D2εi. Wyznaczyć stałe z0 i z1 tak, aby P (|β0−β0| < z0σ) = 0.95

i P (|β1 − β1| < z1σ) = 0.95.

Copyright c⃝ Stanisław Jaworski & Wojciech Zieliński

Page 119: Zbiór zadań z rachunku prawdopodobieństwa i statystyki

Wersja 3/12/2014 Estymacja przedziałowa 119

21. Estymacja przedziałowa

Niech (X ,B, Pθ, θ ∈ Θ) będzie modelem statystycznym wektora losowego X. Niechx będzie realizacją wektora X.

Definicja 21.1 Zbiór S(x) ⊂ Θ taki, że

Pθθ ∈ S(X) ≥ 1− α, ∀θ ∈ Θ

nazywamy obszarem ufności dla parametru θ na poziomie ufności 1− α.

Definicja 21.2 Jeżeli obszar ufności S(x) ma postać przedziału (θ(x), θ(x)) to nazy-wamy go przedziałem ufności.

Konstrukcja obszaru ufności

1. Wyznaczyć taki zbiór Z(θ) ⊂ X , że

PθX ∈ Z(θ) ≥ 1− α, ∀θ ∈ Θ.

Wówczas dla danego x ∈ X zbiór

S(x) = θ ∈ Θ : x ∈ Z(θ)

jest obszarem ufności na poziomie ufności 1− α.

2. W przypadku, gdy zmienna losowa X ma rozkład o dystrybuancie Fθ, możnaprzyjąć:

Z(θ) = x ∈ X : x ∈ (t1(θ), t2(θ)],

gdzie t1(θ), t2(θ) spełniają warunek:

Fθ(t2(θ))− Fθ(t1(θ)) ≥ 1− α, ∀θ ∈ Θ.

W szczególnym przypadku, gdy dla każdego x ∈ X funkcja h(θ;x) = Fθ(x) jestmalejąca ze względu na θ, zbiór S(x) przyjmuje postać:

S(x) = (θ(x), θ(x)),

gdzie θ(x) jest rozwiązaniem nierówności Fθ(x) ≤ a, a θ(x) nierówności Fθ(x) ≥ b,przy czym a, b ≥ 0 oraz a+b = 1−α. Najczęściej przyjmuje się a = α/2. W przypadku,gdy h(θ;x) jest rosnąca konstrukcja jest analogiczna.

3. Konstruujemy taką funkcję t(x, θ), że (jeżeli Θ ⊂ R) jest ona monotoniczną funkcjąθ oraz przy wartości parametru θ rozkład zmiennej losowej t(X, θ) nie zależy od θ.

Copyright c⃝ Stanisław Jaworski & Wojciech Zieliński

Page 120: Zbiór zadań z rachunku prawdopodobieństwa i statystyki

120 Estymacja przedziałowa Wersja 3/12/2014

Taka funkcja nazywa się funkcją centralną. Wówczas można wyznaczyć takiewartości t1 t2, że

Pθt1 < t(X, θ) < t2 ≥ 1− α.

Ze względu na monotoniczność funkcji centralnej, nietrudno jest wyznaczyć takieθ(x), θ(x), że

t1 < t(x, θ) < t2 ⇔ θ(x) < θ < θ(x).

Dodatkowe kryteria

1. Najkrótszy przedział ufności. Jeżeli Θ ⊂ R, to wyznaczamy takie funkcje θ(x)oraz θ(x), że

θ(x)− θ(x) = min!

2. Przedział ufności o zadanej długości. Jeżeli Θ ⊂ R, d > 0, to

θ(x)− θ(x) ≤ d

Przykład. Niech X1, . . . , Xn będzie próbą z rozkładu N(µ, σ2

)z nieznanymi para-

metrami. Skonstruować przedział ufności dla µ.

Rozwiązanie. Do konstrukcji przedziału ufności dla µ skorzystamy z trzeciej metodypokazując, że

X − µvarX

√n(n− 1)

jest funkcją centralną.

Model dla próby X = (X1, X2, . . . , Xn) ma postać(Rn,

Nn(µ1n, σ2In

), θ = (µ, σ2) ∈ R× R+

)Korzystając z własności wielowymiarowego rozkładu normalnego wiemy, że X marozkład N

(µ, σ2/n

). A zatem,

X − µσ

√n ∼ N (0, 1).

Jak nietrudno zauważyć, varX jest formą kwadratową wektora X:

varX =XT(I− 1n11T

)X

i korzystając ze związku rozkładu normalnego z rozkładem chi-kwadrat stwierdzamy,że varX/σ2 ma rozkład χ2 (n− 1). Ponadto, X oraz varX są niezależnymi zmiennymilosowymi. Rozważmy funkcję

t(X, µ) =X−µσ

√n√

varXσ2 /(n− 1)

=X − µ√varX

√n(n− 1)

Copyright c⃝ Stanisław Jaworski & Wojciech Zieliński

Page 121: Zbiór zadań z rachunku prawdopodobieństwa i statystyki

Wersja 3/12/2014 Estymacja przedziałowa 121

Dla każdej obserwacji x wektoraX funkcja t(x, ·) jest funkcją monotoniczną; dla każ-dego µ zmienna losowa t(·, µ) ma rozkład t (n− 1). Czyli t(·, ·) jest funkcją centralną.A zatem, można znaleźć takie dwie liczby t1 oraz t2, że (t oznacza zmienną losowąo rozkładzie t (n− 1))

P (t1 < t < t2) = 1− α.Rozwiązując względem µ nierówność

t1 <X − µ√varX

√n(n− 1) < t2

otrzymujemy przedział ufności dla µ:[X − t2

√varXn(n− 1)

, X + t1

√varXn(n− 1)

].

Wybór liczb t1 i t2 jest arbitralny. Znajdziemy takie liczby, by uzyskany przedział byłnajkrótszy. Rozwiązujemy więc zadanie

t2 − t1 = min!F (t2)− F (t1) = 1− α

Tutaj F (·) oznacza dystrybuantę rozkładu t (n− 1).Stosując technikę mnożników Lagrange’a otrzymujemy układ równań 1− λf(t2) = 0,1− λf(t1) = 0,

F (t2)− F (t1) = 1− α,

gdzie f(·) oznacza funkcję gęstości rozkładu t (n− 1).Jak nietrudno sprawdzić, liczby t1 oraz t2 muszą spełniać warunek t1+ t2 = 0. Z wła-sności rozkładu t wynika, że liczba t2 jest rozwiązaniem równania

F (t2) = 1−α

2,

czyli t2 jest kwantylem rozkładu t (n− 1). W statystyce, taką wielkość nazywamydwustronną wartością krytyczną rozkładu t (n− 1) i oznaczamy t(α;n− 1).Podsumowując, najkrótszy przedział ufności dla wartości oczekiwanej µ ma postać[

X − t(α;n− 1)

√varXn(n− 1)

, X + t(α;n− 1)

√varXn(n− 1)

].

Zadania do samodzielnego rozwiązania

21.1. Niech X1, . . . , Xn będzie próbą z rozkładu Bin (m, θ) z nieznanym prawdopo-dobieństwem θ ∈ (0, 1). Wyznaczyć przedział ufności dla parametru θ. Skorzystaćz drugiej metody oraz związku rozkładu dwumianowego z rozkładem Beta.

Copyright c⃝ Stanisław Jaworski & Wojciech Zieliński

Page 122: Zbiór zadań z rachunku prawdopodobieństwa i statystyki

122 Estymacja przedziałowa Wersja 3/12/2014

21.2. NiechX1, . . . , Xn będzie próbą z rozkładu Ge (θ) z nieznanym prawdopodobień-stwem θ ∈ (0, 1). Wyznaczyć przedział ufności dla parametru θ. Skorzystać z drugiejmetody oraz związku rozkładu geometrycznego z rozkładem Beta.

21.3. Niech X1, . . . , Xn będzie próbą z rozkładu NB (r, θ) z nieznanym prawdopo-dobieństwem θ ∈ (0, 1). Wyznaczyć przedział ufności dla parametru θ. Skorzystaćz drugiej metody oraz związku rozkładu dwumianowego z rozkładem Beta.

21.4. Niech X1, . . . , Xn będzie próbą z rozkładu E (λ) z nieznanym parametremλ > 0. Wyznaczyć przedział ufności dla parametru λ. Skorzystać z trzeciej metodypokazując, że

∑ni=1Xi/λ jest funkcją centralną.

21.5. Niech X1, . . . , Xn będzie próbą z rozkładu N(µ, σ2

)ze znaną wariancją σ2 > 0.

Wyznaczyć przedział ufności dla parametru µ. Skorzystać z trzeciej metody pokazu-jąc, że (

∑ni=1Xi − nµ)/

√nσ2 jest funkcją centralną.

21.6. Niech X1, . . . , Xn będzie próbą z rozkładu U (0, θ), gdzie θ > 0 jest nieznanymparametrem. Znaleźć najmniejsze c takie, żeby przedział

[maxX1, . . . , Xn, cmaxX1, . . . , Xn]

był przedziałem ufności dla θ na poziomie ufności 1− α.

21.7. Rozważmy próbę X1, . . . , Xn z rozkładu U (0, θ) (z nieznanym θ > 0). NiechM = maxX1, . . . , Xn. Należy zbudować przedział ufności dla θ na poziomie 90%.Chcemy, żeby ten przedział był postaci [aM, bM ], gdzie liczby a i b są tak dobrane,żeby

Pθ(θ < aM) = Pθ(θ > bM) = 0.05.

Podać długość tego przedziału.

21.8. Losujemy n (n ≥ 3) niezależnych realizacji zmiennej losowej o rozkładzieU (0, θ). Po uporządkowaniu zaobserwowanych wartości w ciąg rosnący x1, . . . , xntworzymy przedział (2x1, 2xn−1). Dobrać najmniejsze n, przy którym prawdopodo-bieństwo tego, że tak utworzony przedział pokrywa wartość parametru θ jest większeniż 0.9.

21.9. Niech X1, . . . , Xn będzie próbą z rozkładu E (1/θ). Parametr θ jest nieznany.Wiadomo, że ENW tego parametru jest θ = n/Sn, gdzie Sn = X1+ · · ·+Xn. Należyzbudować przedział ufności dla parametru θ postaci

[θ, θ] =[a

Sn,a

Sn

].

Żądamy, żeby ten przedział był symetryczny w tym sensie, że Pθ(θ < θ) = Pθ(θ > θ).Wyznaczyć stałe a i a tak, żeby otrzymać przedział na poziomie ufności 0.95.

Copyright c⃝ Stanisław Jaworski & Wojciech Zieliński

Page 123: Zbiór zadań z rachunku prawdopodobieństwa i statystyki

Wersja 3/12/2014 Estymacja przedziałowa 123

21.10. Niech X oraz Y będą zmiennymi losowymi o rozkładach E (1/λ) i E (1/µ)odpowiednio. Pokazać, że

CX,Y = (λ, µ) : λX + µY ≤ a

jest obszarem ufności dla (λ, µ) na poziomie ufności 1− (1 + a)e−a.

21.11. NiechX ma rozkład N(µ, σ2

)o nieznanych parametrach µ i σ. Pokazać, jak za

pomocą funkcji (X − µ)/σ można skonstruować taki przedział ufności dla θ = (µ, σ),który miałby kształt trójkąta.

21.12. Niech X1, X2, . . . , Xn będzie próbą z rozkładu N(µ, σ2

)o nieznanych µ i σ2

i niech S2 = 1n−1varX. Pokazać, że S

2/σ2 jest funkcją centralną za pomocą którejmożna skonstruować przedział ufności dla wariancji σ2.

21.13. Jeżeli X1, X2, . . . , Xn jest próbą z rozkładu N(µ, σ2

), to za pomocą funk-

cji (X − µ)/S można skonstruować 100(1 − α)-procentowy przedział ufności dla µ,powiedzmy (µ, µ), oraz za pomocą funkcji S2/σ2 można skonstruować 100(1−α)-pro-centowy przedział ufności dla σ, powiedzmy (σ, σ). W powyższych wzorach S2 =varX/(n− 1). Rozpatrzmy prostokątny obszar na płaszczyźnie (µ, σ):

(µ, σ) : µ ≤ µ ≤ µ, σ ≤ σ ≤ σ.

Obszar ten można przyjąć za zbiór ufności dla (µ, σ). Co można powiedzieć na tematpoziomu ufności?

21.14. Niech X będzie nieobciążonym estymatorem o znanej wariancji σ21 parame-tru ξ, niech Y będzie nieobciążonym estymatorem o znanej wariancji σ22 parametruη i niech X i Y będą niezależne. Przypuśćmy, że dla każdej liczby λ zmienna lo-sowa X − λY ma rozkład normalny. Pokazać, jak można zbudować 95-procentowyprzedział ufności dla ilorazu ξ/η.

Może się czasami wydarzyć, że przedział ten jest całą prostą liczbową. Sugeruje to,aby takie przypadki wyłączyć z rozważań przy obliczaniu prawdopodobieństwa p,że przedział ufności zawiera prawdziwą wartość. Pokazać, że po takiej modyfikacjiprawdopodobieństwo p zależy od ξ/η.

21.15. X1, . . . , X10 jest próbą z rozkładu N(µ, σ2

), gdzie µ i σ2 są nieznanymi para-

metrami. Niech [L,U ] będzie przedziałem ufności dla parametru µ taki, że dla wszyst-kich µ i σ2

Pµ,σ2(L > µ) = Pµ,σ2(U < µ) = 0.025.

Niech (−∞,W ] będzie jednostronnym przedziałem ufności dla µ takim, że Pµ,σ2(W <µ) = 0.01 dla wszystkich µ i σ2. Oba przedziały ufności zbudowane są w standardowysposób w oparciu o X i varX. Wiadomo, że L = −0.262 i U = 4.262. Wyznaczyć W .

21.16. Dwie niezależne próby X1, . . . , Xn i Y1, . . . , Yn pochodzą z tego samego roz-kładu N

(µ, σ2

). Jeden statystyk ma do dyspozycji pierwszą próbę, drugi zaś drugą.

Obaj statystycy znają wariancję σ2, żaden nie zna wartości oczekiwanej µ. Każdyz nich buduje na podstawie swojej próby przedział ufności dla µ na poziomie ufności1−α. Wyznaczyć prawdopodobieństwo, że zbudowane przedziały okażą się rozłączne.

Copyright c⃝ Stanisław Jaworski & Wojciech Zieliński

Page 124: Zbiór zadań z rachunku prawdopodobieństwa i statystyki

124 Estymacja przedziałowa Wersja 3/12/2014

21.17. Na podstawie próby X1, . . . , Xn z rozkładu N(µ, σ2

)z nieznanymi parame-

trami µ i σ2 budujemy przedział ufności (σ2, σ2) dla wariancji na poziomie ufności0.95. Metodę wybieramy możliwie prostą, korzystając na przykład z przybliżenia roz-kładu χ2 (k) rozkładem N (k, 2k). Względny błąd estymacji przedziałowej mierzymy

za pomocą ilorazu R = σ2−σ22σ2 . Dla jakiego rozmiaru n próby E(R) ≈ 0.01.

21.18. Jacek i Placek mają próbę X1, . . . , Xn z rozkładu N(µ, σ2

). Obaj nie znają

wartości oczekiwanej µ, ale Jacek zna wariancję σ2, a Placek jej nie zna. Obaj bu-dują w standardowy sposób przedziały ufności dla µ na poziomie ufności 0.95. Placeksię chwali: „mam szansę 10%, że mój przedział ufności będzie przynajmniej x razykrótszy, niż Twój”. Znaleźć x.

21.19. Niech X1, . . . , X20 będzie próbą z rozkładu N(µ, σ2

), z nieznanymi parame-

trami µ i σ2. Niech

X10 =110

10∑i=1

Xi, X20 =120

20∑i=1

Xi, S2 = S210 =

19

10∑i=1

(Xi − X10)2.

Należy skonstruować przedział [X10 − aS, X10 + aS] taki, że Pµ,σ2(X20 ∈ [X10 −aS, X10 + aS]) = 0.95. Wyznaczyć odpowiednią liczbę a.

21.20. Załóżmy, że X1, . . . , X9 jest próbą z rozkładu N(µ, σ2

)z nieznanymi para-

metrami µ i σ2. Pan Ixiński miał podać przedział ufności dla µ na poziomie 0.95, alenie znalazł tablic rozkładu t (·). Ponieważ miał tablice rozkładu N (·, ·) i χ2 (·), więcporadził sobie tak:

1. obliczył w standardowy sposób jednostronny przedział ufności [0, σ2] dla wariancji,na poziomie 0.95;

2. przyjął, że[X − 1.96σ√

9, X + 1.96σ√

9

]jest potrzebnym przedziałem dla wartości ocze-

kiwanej, gdzie σ zostało wyznaczone w punkcie 1.

Obliczyć faktyczny poziom ufności takiego przedziału ufności dla µ.

21.21. Załóżmy, że X1, . . . , X6 jest próbą z rozkładu N(µ, σ2

)z nieznanymi para-

metrami. Zadanie polega na zbudowaniu przedziału ufności dla wariancji σ2. Żądanypoziom ufności jest równy 1− α = 0.99. Rozpatrzmy dwie metody:

Metoda S jest standardowa: budujemy przedział postaci [0, GS ], gdzie GS = 5S2

c ,(S2 oznacza nieobciążony estymator wariancji, zaś c jest odpowiednim kwantylemrozkładu χ2 (·));

Metoda N polega na podziale próby na dwie części. Podpróbę X1, X2, X3 wyko-rzystujemy do zbudowania przedziału ufności [0, G123], zaś podpróbę X4, X5, X6 dozbudowania przedziału [0, G456]. Oba te przedziały obliczamy niezależnie w stan-dardowy sposób przyjmując poziom ufności 1 −

√α = 0.90. Ostatecznie naszym

przedziałem ufności jest [0, GN ], gdzie GN = maxG123, G456.

Porównać średnie długości przedziałów otrzymanych obiema metodami.

Copyright c⃝ Stanisław Jaworski & Wojciech Zieliński

Page 125: Zbiór zadań z rachunku prawdopodobieństwa i statystyki

Wersja 3/12/2014 Estymacja przedziałowa 125

21.22. Każda ze zmiennych losowych X1, . . . , Xn ma rozkład N(µ, σ2

)z nieznaną

wartością oczekiwaną µ i znaną wariancją σ2. Założono, że zmienne są niezależne.W standardowy sposób zbudowano dla µ przedział ufności na poziomie ufności 0.95:[

X − 1.96σ√n,X +

1.96σ√n

].

W rzeczywistości zmienne X1, . . . , Xn mają łączny rozkład normalny, ale są skorelo-wane, Corr(Xi, Xj) = 0.1 dla wszystkich i = j. Obliczyć faktyczny poziom ufności.

21.23. Próbka X1, . . . , Xn pochodzi z rozkładu N(µ, σ2

)z nieznaną wartością ocze-

kiwaną µ i nieznaną wariancją σ2. Na podstawie tej próby zbudowano dla µ w stan-dardowy sposób przedział ufności na poziomie ufności 1− α = 0.95[

X −√varX · t(0.025;n− 1)√

n(n− 1), X +

√varX · t(0.025;n− 1)√

n(n− 1)

].

Niech X będzie zmienną losową pochodzącą z tego samego rozkładu, niezależną odX1, . . . , Xn. Obliczyć prawdopodobieństwo tego, że X należy do uprzednio wyznaczo-nego przedziału ufności:

Pµ,σ2

(X −

√varX · t(0.025;n− 1)√

n(n− 1)≤ X ≤ X +

√varX · t(0.025;n− 1)√

n(n− 1)

).

21.24. Załóżmy, że X1, . . . , Xn jest próbą z rozkładu N(µ, σ2

)oraz Y1, . . . , Ym jest

próbą z rozkładu N(µ, τ2

), µ jest nieznanym parametrem. Znaleźć takie liczby r i d,

żeby przedział [rX + (1− r)Y − d, rX + (1− r)Y + d

]był najkrótszym przedziałem ufności dla µ na poziomie ufności 1− α.

21.25. Załóżmy, że X1, . . . , Xn jest próbą z rozkładu normalnego. Zmienna Xi marozkład N

(µ, 1i

), dla i = 1, . . . , n. Wartość oczekiwana µ jest nieznana. Należy zbu-

dować przedział ufności dla µ na poziomie 1 − α = 0.95. Przedział ma być postaci[µ− d, µ+ d], gdzie µ jest ENW (µ). Podać liczbę d taką, że

Pµ (µ− d < µ < µ+ d) = 0.95.

21.26. Załóżmy, że X1, . . . , Xn jest próbą z rozkładu N(µ, σ2

)o nieznanej wartości

oczekiwanej i nieznanej wariancji. Niech X będzie zmienną losową z tego samegorozkładu, niezależną od próby. Zbudować „przedział ufności”

[L,U ] = [L(X1, . . . , Xn), U(X1, . . . , Xn)]

taki, żePµ,σ2(L(X1, . . . , Xn) ≤ X ≤ U(X1, . . . , Xn)) = 0.95,

przy tym żądamy, żeby przedział był symetryczny, tzn. 12 (L+ U) = X.

Copyright c⃝ Stanisław Jaworski & Wojciech Zieliński

Page 126: Zbiór zadań z rachunku prawdopodobieństwa i statystyki

126 Estymacja przedziałowa Wersja 3/12/2014

21.27. Zakładamy, że X1, . . . , Xn są niezależnymi zmiennymi losowymi o rozkładachnormalnych, przy czym EXi = µ i D2Xi = σ2

wi. Parametry µ i σ2 są nieznane,

a wagi wi (i = 1, . . . , n) są znane. Zbudować przedział ufności [σ21 , σ22 ] dla σ

2 napoziomie ufności 1− α = 0.9.

21.28. Niech (X1, Y1), . . . , (Xn, Yn) będą niezależnymi zmiennymi losowymi o tym sa-mym rozkładzie normalnym z następującymi parametrami: nieznaną wartością ocze-kiwaną EXi = EYi = µ, wariancją D2Xi = 14 , D

2Yi = 1 i współczynnikiem korelacjiCorr(Xi, Yi) = 0.5. Osobno na podstawie prób X1, . . . , Xn i Y1, . . . , Yn zbudowanodwa przedziały ufności dla wartości oczekiwanej µ, każdy na poziomie ufności 0.8.Obliczyć prawdopodobieństwo, że tak zbudowane przedziały okażą się rozłączne.

21.29. Zakładamy, że X1, . . . , Xn są niezależnymi zmiennymi losowymi o rozkładachnormalnych, przy czym EXi = µ i D2Xi = σ

2

i , gdzie parametry µ ∈ R i σ2 > 0 są

nieznane. Budujemy przedział ufności [σ21 , σ22 ] dla parametru σ

2 na poziomie ufności0.9. Wyznaczyć σ21 i σ

22 tak, by Pµ,σ2(σ

21 > σ

2) = Pµ,σ2(σ22 < σ2) = 0.05.

21.30. Dysponując pięcioma niezależnymi próbami o tej samej liczebności n, z tegosamego rozkładu N

(µ, σ2

)z nieznaną wartością oczekiwaną µ i znaną wariancją σ2,

zbudowano pięć standardowych przedziałów ufności dla parametru µ postaci[Xi − 1.2816

σ√n,Xi + 1.2816

σ√n

],

gdzie Xi jest średnią z obserwacji w i-tej próbce, i = 1, 2, 3, 4, 5, natomiast liczba1.2816 jest kwantylem rzędu 0.9 rozkładu N (0, 1). Zbudowano przedział ufności dlaparametru µ postaci [

m− 1.2816 σ√n,m+ 1.2816

σ√n

],

gdzie m = medX1, X2, X3, X4, X5. Wyznaczyć

(m− 1.2816 σ√

n≤ µ ≤ m+ 1.2816 σ√

n

).

21.31. Niech X1, . . . , Xn będzie próbą z rozkładu Par (1, a1), a Y1, . . . , Ym będziepróbą z rozkładu Par (1, a2), gdzie a1, a2 > 0 są nieznanymi parametrami. Wszystkiezmienne są niezależne. Na poziomie ufności 1−α budujemy przedział ufności [dT, cT ]dla ilorazu parametrów a1a2 na podstawie estymatora największej wiarogodności T tegoilorazu w ten sposób, że

Pa1,a2

(cT <

a1a2

)= Pa1,a2

(dT >

a1a2

)=α

2.

Wyznaczyć długość przedziału ufności, gdy α = 0.1, m = 4, n = 5.

Copyright c⃝ Stanisław Jaworski & Wojciech Zieliński

Page 127: Zbiór zadań z rachunku prawdopodobieństwa i statystyki

Wersja 3/12/2014 Estymacja przedziałowa 127

21.32.NiechX1, . . . , Xn będzie próbą z rozkładuWei (3, 1/θ), gdzie θ > 0 jest niezna-nym parametrem. W oparciu o estymator największej wiarogodności θn otrzymujemyprzedział ufności dla parametru θ rozwiązując nierówność∣∣∣∣∣ θn − θσ(θ)

√n

∣∣∣∣∣ ≤ z,gdzie σ2(θ) jest wariancją asymptotyczną statystyki θn i liczba z spełnia

limn→∞Pθ

(∣∣∣∣∣ θn − θσ(θ)

√n

∣∣∣∣∣ ≤ z)= 0.95.

Wyznaczyć postać przedziału ufności.

21.33. Niech X1, . . . , Xn będzie próbą n o rozkładzie ciągłym i niech X1:n ≤ · · · ≤Xn:n oznacza uporządkowaną próbę. Budujemy przedział ufności dla mediany zmien-nej X o postaci

Un = (X2:n, Xn−1:n).

Oznaczmy przez n∗ najmniejszą z tych wartości n, dla których prawdopodobieństwopokrycia mediany przez przedział Un przekracza 0.95. Wyznaczyć n∗.

21.34. Niech X1, . . . , Xn będzie próbą z rozkładu Pow (θ), gdzie θ > 0 jest nieznanymparametrem. Skonstruować przedział ufności [θ, θ] dla parametru θ (na poziomie 0.90)tak, żeby Pθ(θ < θ) = 0.05 = Pθ(θ > θ).

Copyright c⃝ Stanisław Jaworski & Wojciech Zieliński

Page 128: Zbiór zadań z rachunku prawdopodobieństwa i statystyki

128 Weryfikacja hipotez statystycznych Wersja 3/12/2014

22. Weryfikacja hipotez statystycznych

Testy istotności.

Niech (X ,B, Pθ, θ ∈ Θ) będzie modelem statystycznym.

Definicja 22.1 Hipotezą statystyczną nazywamy podzbiór Θ0 zbioru Θ.

Podzbiór Θ0 nazywamy hipotezą zerową, zaś podzbiór Θ1 = Θ \ Θ0 nazywamyhipotezą alternatywną.

Jeżeli zbiór Θ0 jest jednoelementowy, to mówimy o hipotezie prostej, w przeciwnymprzypadku mówimy o hipotezie złożonej.

Zapis klasycznyH0 : θ ∈ Θ0 H1 : θ ∈ Θ1

Definicja 22.2 Testem statystycznym nazywamy procedurę statystyczną, w wy-niku której podejmujemy jedną z dwóch decyzji: odrzucić hipotezę zerową H0 lub niema podstaw do odrzucenia hipotezy zerowej H0.

Test hipotezy H0 utożsamiamy z funkcją ϕ : X → 0, 1 taką, że

ϕ(x) =1 odrzucić H00 nie odrzucać H0

Testem zrandomizowanym nazywamy funkcję ϕ : X → [0, 1] taką, że

ϕ(x)

= 1 odrzucić H0∈ (0, 1) na podstawie niezależnego od X mechanizmu losowego odrzucić

H0 z prawdopodobieństwem ϕ(x)= 0 nie odrzucać H0

Definicja 22.3 Obszarem krytycznym testu nazywamy zbiór x ∈ X : ϕ(x) = 1.

Obszar krytyczny jest zbiorem tych obserwacji dla których odrzucana jest hipotezazerowa.

Definicja 22.4 Błędem I rodzaju nazywamy błąd wnioskowania polegający naodrzuceniu hipotezy zerowej H0, gdy w rzeczywistości jest ona prawdziwa.

Niech α ∈ (0, 1) będzie daną liczbą.

Copyright c⃝ Stanisław Jaworski & Wojciech Zieliński

Page 129: Zbiór zadań z rachunku prawdopodobieństwa i statystyki

Wersja 3/12/2014 Weryfikacja hipotez statystycznych 129

Definicja 22.5 Test ϕ jest na poziomie istotności α, jeżeli Eθϕ(X) = Pθϕ(X) =1 ≤ α, ∀θ ∈ Θ0.

Inaczej mówiąc, poziom istotności jest prawdopodobieństwem odrzucenia prawdziwejhipotezy zerowej.

Definicja 22.6 Rozmiarem testu nazywamy supθ∈Θ0Eθϕ(X) = sup

θ∈Θ0Pθϕ(X) = 1.

Zauważmy, że rozmiar testu jest największym prawdopodobieństwem odrzucenia hi-potezy zerowej, gdy jest ona prawdziwa.

Definicja 22.7 Błędem II rodzaju nazywamy błąd polegający na nieodrzuceniuhipotezy zerowej H0, gdy w rzeczywistości jest ona fałszywa.

Definicja 22.8 Mocą testu nazywamy Θ1 ∋ θ → Eθϕ(X) = Pθϕ(X) = 1.

Moc testu jest prawdopodobieństwem odrzucenia hipotezy zerowej, gdy nie jest onaprawdziwa.

Twierdzenie 22.1. (lemat Neymana–Pearsona)Niech Pθ0 oraz Pθ1 będą rozkładami prawdopodobieństwa o gęstościach f0 i f1. Niechα ∈ (0, 1) będzie ustaloną liczbą

a. (Istnienie testu) Istnieją takie stałe t i γ, że

ϕ(x) =

1, gdy f1(x) > tf0(x)γ, gdy f1(x) = tf0(x)0, gdy f1(x) < tf0(x)

jest testem hipotezy H0 : θ = θ0 przeciwko H1 : θ = θ1 na poziomie istotności α,tzn.

(∗) Eθ0ϕ(X) = α

b. (Dostateczność) Jeżeli test ϕ spełnia warunek (∗) i dla pewnego t warunek

(∗∗) ϕ(x) =1, gdy f1(x) > tf0(x)0, gdy f1(x) < tf0(x)

to ϕ jest testem najmocniejszym na poziomie istotności α

c. (Konieczność) Jeżeli ϕ jest testem najmocniejszym na poziomie istotności α, tospełnia on warunek (∗∗)

Copyright c⃝ Stanisław Jaworski & Wojciech Zieliński

Page 130: Zbiór zadań z rachunku prawdopodobieństwa i statystyki

130 Weryfikacja hipotez statystycznych Wersja 3/12/2014

Lemat Neymana–Pearsona podaje sposób konstrukcji najmocniejszego testu w pro-blemie weryfikacji dwóch hipotez prostych.

Przykład. Niech a, b > 1 będą dwiema ustalonymi liczbami. Rozważmy model sta-tystyczny

(0, 1), U (0, 1), Bet (a, b)Korzystając z lematu Neymana–Pearsona skonstruować test dla problemu weryfikacjihipotezy H0 : U (0, 1) przeciwko H1 : Bet (a, b).

Rozwiązanie.

Niech f0 oznacza gęstość rozkładu jednostajnego U(0, 1), zaś f1 gęstość rozkładu betaB(a, b). Mamy

f0(x) = 1 · 1(0,1)(x)f1(x) ∝ xa−1(1− x)b−11(0,1)(x)

Zgodnie z lematem Neymana–Pearsona, test ϕ(x) ma postać

ϕ(x) = 1⇔ f1(x)f0(x)

> t⇔ xa−1(1− x)b−1 > t

dla pewnej liczby t.

Zauważmy, że xa−1(1 − x)b−1 > t dla x : x0 < x < x1 dla pewnych x0 orazx1 takich, że xa−10 (1 − x0)b−1 = x

a−11 (1 − x1)b−1. Zatem, obszar krytyczny testu

ma postać przedziału (x0, x1), przy czym liczby x0, x1 dobrane są tak, że poziomistotności testu wynosi α, czyli

EH0ϕ(X) = PU(0,1)x0 < X < x1 ≤ α.

Ponieważ PU(0,1)x0 < X < x1 = x1 − x0, więc obszar krytyczny testu ma postać(x0, x0 + α). Liczba x0 jest rozwiązaniem równania:[

x0 + αx0

]a−1 [1− x0 − α1− x0

]b−1= 1

To równanie, dla danych a i bmożna rozwiązać numerycznie. Przykładowe rozwiązaniepokazane są w poniższej tabeli.

a b x0 x12 2 0.47500 0.525002 3 0.30865 0.358652 4 0.22556 0.275563 2 0.64135 0.691353 3 0.47500 0.525003 4 0.37517 0.425174 2 0.72444 0.774444 3 0.57483 0.624834 4 0.47500 0.52500

Copyright c⃝ Stanisław Jaworski & Wojciech Zieliński

Page 131: Zbiór zadań z rachunku prawdopodobieństwa i statystyki

Wersja 3/12/2014 Weryfikacja hipotez statystycznych 131

Na przykład, test najmocniejszy dla problemu weryfikacji hipotezy H0 : U(0, 1) prze-ciwko H1 : B(2, 3) wygląda następująco: odrzucić hipotezę zerową, jeżeli zaobser-wowano wartość z przedziału (0.30865, 0.35865). W przeciwnym przypadku nie mapodstaw do odrzucenia hipotezy zerowej. Moc tego testu jest równa

PB(2,3)X ∈ (0.30865, 0.35865) = 0.08876.

Niech co najmniej jedna z hipotezH0 i/lubH1 będzie hipotezą złożoną. Do konstrukcjiodpowiedniego testu wykorzystywany jest iloraz wiarogodności

λ(x) =supθ∈Θ1fθ(x)

supθ∈Θ0fθ(x)

lub λ(x) =supθ∈Θfθ(x)

supθ∈Θ0fθ(x)

Test hipotezy H0 przeciwko H1 ma postać:

ϕ(x) =

1, gdy λ(x) > tγ, gdy λ(x) = t0, gdy λ(x) < t

Stała t dobierana jest tak, by test miał z góry zadany poziom istotności:

supθ∈Θ0Eθϕ(X) ≤ α

Przykład. Niech X1, . . . , Xn będzie próbą z rozkładu N(µ, σ2

)z nieznanymi pa-

rametrami. Niech µ0 ∈ R. Skonstruować test dla hipotezy H0 : µ = µ0 przeciwkoH1 : µ = µ0

Rozwiązanie.

Model dla próby X = (X1, X2, . . . , Xn) ma postać(Rn,

Nn(µ1n, σ2In

), θ = (µ, σ2) ∈ R× R+

)Przestrzenią parametrów oraz zbiorami Θ0 i Θ1 są odpowiednio:

Θ = R× R+ Θ0 = µ0 × R+ Θ1 = (R \ µ0)× R+

Zauważmy, że obie weryfikowane hipotezy są złożone. Do konstrukcji testu wykorzy-stamy iloraz wiarogodności

λ(x) =

sup(µ,σ)∈Θ

fµ,σ(x)

sup(µ,σ)∈Θ0

fµ,σ(x)

Copyright c⃝ Stanisław Jaworski & Wojciech Zieliński

Page 132: Zbiór zadań z rachunku prawdopodobieństwa i statystyki

132 Weryfikacja hipotez statystycznych Wersja 3/12/2014

Próba ma rozkład o gęstości

fµ,σ(x) =(1

σ√2π

)nexp

−12

n∑i=1

(xi − µσ

)2

Z teorii metody największej wiarogodności wiadomo, że sup(µ,σ)∈Θ fµ,σ(x) jest reali-zowane w punkcie (X, S2), gdzie

X =1n

n∑i=1

Xi, S2 =1n

n∑i=1

(Xi − X)2

są estymatorami największej wiarogodności odpowiednio wartości oczekiwanej i wa-riancji. A zatem

sup(µ,σ)∈Θ

fµ,σ(x) = fX,S2(x) =(1

σ√2π

)nexp

−n2

Niech

σ2 =1n

n∑i=1

(Xi − µ0)2

Jak łatwo sprawdzić, jest to estymator największej wiarogodności wariancji przy za-łożeniu, że µ = µ0. Zatem

sup(µ,σ)∈Θ0

fµ,σ(x) = fµ0,σ2(x) =(1

σ√2π

)nexp

−n2

Iloraz wiarogodności przyjmuje więc postać

λ(x) =supθ∈Θfµ,σ(x)

supθ∈Θ0fµ,σ(x)

=(σ

σ

)n

Ponieważ

n∑i=1

(Xi − µ0)2 =n∑i=1

(Xi − X + X − µ0)2 =n∑i=1

(Xi − X)2 + n(X − µ0)2

więc

λ(x) =(1 +

n(X − µ0)2∑ni=1(Xi − X)2

)n2

Poszukiwany test ma postać

ϕ(x) = 1⇔ λ(x) > t⇔ n(X − µ0)2∑ni=1(Xi − X)2

> t′

Copyright c⃝ Stanisław Jaworski & Wojciech Zieliński

Page 133: Zbiór zadań z rachunku prawdopodobieństwa i statystyki

Wersja 3/12/2014 Weryfikacja hipotez statystycznych 133

Stała t′ musi być tak dobrana, by test miał poziom istotności α, tzn.

EH0ϕ(X) = α

Jak wiadomo

a. jeżeli H0 jest prawdziwa, to

√n(X − µ0) ∼ N(0, σ2) czyli

n(X − µ0)2

σ2∼ χ21

b. dla wszystkich θ ∈ Θ1σ2

n∑i=1

(Xi − X

)2 ∼ χ2n−1c. X oraz

∑ni=1

(Xi − X

)2są niezależne

A zatem, jeżeli hipoteza H0 jest prawdziwa, to

n(X − µ0)21n−1

∑ni=1(Xi − X)2

∼ F1,n−1

Hipoteza H0 jest odrzucana na poziomie istotności α, jeżeli

(∗) n(X − µ0)21n−1

∑ni=1(Xi − X)2

> F (α; 1, n− 1)

Ponieważ tv =√F1,v, więc (∗) jest równoważne

(∗∗) |X − µ0|S

√n > t(α;n− 1)

Test (∗∗) nazywa się testem Studenta

Testy zgodności.

Rozważmy problem weryfikacji hipotezy H0 : Cecha X ma rozkład F .

Test chi–kwadrat zgodności

Niech F będzie dowolnym rozkładem prawdopodobieństwa. Test chi–kwadrat zgod-ności przebiega w następujący sposób.

Próba zapisywana jest w postaci szeregu rozdzielczego:

Klasa Liczebność1 n12 n2...

...k nk

Copyright c⃝ Stanisław Jaworski & Wojciech Zieliński

Page 134: Zbiór zadań z rachunku prawdopodobieństwa i statystyki

134 Weryfikacja hipotez statystycznych Wersja 3/12/2014

Statystyką testową jest

χ2emp =k∑i=1

(ni − nti)2

nti

gdzie

nti = Npti, N =

k∑i=1

ni,

pti = PF X przyjęła wartość z klasy iHipotezę H0 odrzucamy na poziomie istotności α, jeżeli χ2emp > χ

2(α; k − u − 1).Tutaj χ2(α; k− u− 1) jest wartością krytyczną (u jest liczbą nieznanych parametrówhipotetycznego rozkładu F ).

Test Kołmogorowa

Niech F będzie znanym rozkładem ciągłym. Próbę X1, . . . , Xn porządkujemy nie-malejąco: X(1) ≤ X(2) ≤ · · · ≤ X(n). Tak uporządkowane obserwacje nazywamystatystykami pozycyjnymi

Statystyką testową jest

Dn= max1≤i≤n

max

∣∣∣∣F (X(i))− i− 1n∣∣∣∣,∣∣∣∣ in−F (X(i))

∣∣∣∣Wartością krytyczną testu Kołmogorowa jest D(α;n). Jeżeli Dn > D(α;n), to hipo-tezę H0 odrzucamy.

Test Shapiro–Wilka

Niech F będzie rozkładem normalnym. Próbę X1, . . . , Xn porządkujemy niemalejąco:X(1) ≤ X(2) ≤ · · · ≤ X(n).Statystyką testową jest

W =

([n/2]∑i=1

ai:n(X(n−i+1) −X(i)))2

varXgdzie ai:n są stablicowanymi współczynnikami oraz

[n/2] =n/2, dla n parzystych(n− 1)/2, dla n nieparzystych

Wartością krytyczną testu Shapiro–Wilka jestWn(α). JeżeliW ≤Wn(α), to hipotezęH0 odrzucamy.

Zadania do samodzielnego rozwiązania

22.1. Niech X1, . . . , Xn będzie próbą z rozkładu D (θ) z nieznanym prawdopodobień-stwem θ ∈ (0, 1). Skonstruowaća. test hipotezy H0 : θ = θ0 przeciwko H1 : θ = θ1 dla znanych wartości θ0 < θ1.

b. test hipotezy H0 : θ ≤ θ0 przeciwko H1 : θ ≥ θ0 dla ustalonej wartości θ0.c. test hipotezy H0 : θ = θ0 przeciwko H1 : θ = θ0 dla ustalonej wartości θ0.

Copyright c⃝ Stanisław Jaworski & Wojciech Zieliński

Page 135: Zbiór zadań z rachunku prawdopodobieństwa i statystyki

Wersja 3/12/2014 Weryfikacja hipotez statystycznych 135

22.2. Niech X1, . . . , Xn będzie próbą z rozkładu Bin (m, θ) z nieznanym prawdopo-dobieństwem θ ∈ (0, 1). Skonstruowaća. test hipotezy H0 : θ = θ0 przeciwko H1 : θ = θ1 dla znanych wartości θ0 < θ1.

b. test hipotezy H0 : θ ≤ θ0 przeciwko H1 : θ ≥ θ0 dla ustalonej wartości θ0.c. test hipotezy H0 : θ = θ0 przeciwko H1 : θ = θ0 dla ustalonej wartości θ0.

22.3. Niech X1, . . . , Xn będzie próbą z rozkładu Ge (θ) z nieznanym prawdopodo-bieństwem θ ∈ (0, 1). Skonstruowaća. test hipotezy H0 : θ = θ0 przeciwko H1 : θ = θ1 dla znanych wartości θ0 < θ1.

b. test hipotezy H0 : θ ≤ θ0 przeciwko H1 : θ ≥ θ0 dla ustalonej wartości θ0.c. test hipotezy H0 : θ = θ0 przeciwko H1 : θ = θ0 dla ustalonej wartości θ0.

22.4. Niech X1, . . . , Xn będzie próbą z rozkładu NB (r, θ) z nieznanym prawdopodo-bieństwem θ ∈ (0, 1). Skonstruowaća. test hipotezy H0 : θ = θ0 przeciwko H1 : θ = θ1 dla znanych wartości θ0 < θ1.

b. test hipotezy H0 : θ ≤ θ0 przeciwko H1 : θ ≥ θ0 dla ustalonej wartości θ0.c. test hipotezy H0 : θ = θ0 przeciwko H1 : θ = θ0 dla ustalonej wartości θ0.

22.5. Niech X1, . . . , Xn będzie próbą z rozkładu Po (λ) z nieznanym parametremλ > 0. Skonstruować

a. test hipotezy H0 : λ = λ0 przeciwko H1 : λ = λ1 dla znanych wartości λ0 < λ1.

b. test hipotezy H0 : λ ≤ λ0 przeciwko H1 : λ ≥ λ0 dla ustalonej wartości λ0.c. test hipotezy H0 : λ = λ0 przeciwko H1 : λ = λ0 dla ustalonej wartości λ0.

22.6. Niech X1, . . . , Xn będzie próbą z rozkładu U (0, θ) z nieznanym parametremθ > 0. Skonstruować

a. test hipotezy H0 : θ = θ0 przeciwko H1 : θ = θ1 dla znanych wartości θ0 < θ1.

b. test hipotezy H0 : θ ≤ θ0 przeciwko H1 : θ ≥ θ0 dla ustalonej wartości θ0.c. test hipotezy H0 : θ = θ0 przeciwko H1 : θ = θ0 dla ustalonej wartości θ0.

22.7. Niech X1, . . . , Xn będzie próbą z rozkładu E (λ) z nieznanym parametrem λ >0. Skonstruować

a. test hipotezy H0 : λ = λ0 przeciwko H1 : λ = λ1 dla znanych wartości λ0 < λ1.

b. test hipotezy H0 : λ ≤ λ0 przeciwko H1 : λ ≥ λ0 dla ustalonej wartości λ0.c. test hipotezy H0 : λ = λ0 przeciwko H1 : λ = λ0 dla ustalonej wartości λ0.

22.8. Niech X1, . . . , Xn będzie próbą z rozkładu G (α, λ) z nieznanym parametremλ > 0 i znanym parametrem α. Skonstruować

a. test hipotezy H0 : λ = λ0 przeciwko H1 : λ = λ1 dla znanych wartości λ0 < λ1.

b. test hipotezy H0 : λ ≤ λ0 przeciwko H1 : λ ≥ λ0 dla ustalonej wartości λ0.c. test hipotezy H0 : λ = λ0 przeciwko H1 : λ = λ0 dla ustalonej wartości λ0.

Copyright c⃝ Stanisław Jaworski & Wojciech Zieliński

Page 136: Zbiór zadań z rachunku prawdopodobieństwa i statystyki

136 Weryfikacja hipotez statystycznych Wersja 3/12/2014

22.9. Niech X1, . . . , Xn będzie próbą z rozkładu N(µ, σ2

)ze znaną wariancją σ2 > 0.

Skonstruować

a. test hipotezy H0 : µ = µ0 przeciwko H1 : µ = µ1 dla znanych wartości µ0 < µ1.

b. test hipotezy H0 : µ ≤ µ0 przeciwko H1 : µ ≥ µ0 dla ustalonej wartości µ0.

c. test hipotezy H0 : µ = µ0 przeciwko H1 : µ = µ0 dla ustalonej wartości µ0.

22.10. Niech X1, . . . , Xn będzie próbą z rozkładu N(µ, σ2

)z nieznanymi parame-

trami. Skonstruować

a. test hipotezy H0 : µ = µ0 przeciwko H1 : µ = µ1 dla znanych wartości µ0 < µ1.

b. test hipotezy H0 : µ ≤ µ0 przeciwko H1 : µ ≥ µ0 dla ustalonej wartości µ0.

c. test hipotezy H0 : µ = µ0 przeciwko H1 : µ = µ0 dla ustalonej wartości µ0.

d. test hipotezy H0 : σ2 = σ20 przeciwko H1 : σ2 = σ21 dla znanych wartości σ

20 < σ

21 .

e. test hipotezy H0 : σ2 ≤ σ20 przeciwko H1 : σ2 ≥ σ20 dla ustalonej wartości σ20 .

f. test hipotezy H0 : σ2 = σ20 przeciwko H1 : σ2 = σ20 dla ustalonej wartości σ20 .

22.11. Niech X będzie pojedynczą obserwacją z rozkładu Pow (a+ 1). TestujemyH0 : a = 1 przeciwko H1 : a = 2. Dysponujemy pojedynczą obserwacją X. Wyznaczyćobszar krytyczny najmocniejszego testu o rozmiarze 0.1.

22.12. Zmienna losowa X ma gęstość prawdopodobieństwa f(x). Na podstawie po-jedynczej obserwacji X przeprowadzamy test hipotezy

H0 : f(x) =1, dla 0 < x < 1,0, poza tym,

przeciwko H1 : f(x) =5x4, dla 0 < x < 1,0, poza tym.

Wyznaczyć moc najmocniejszego testu na poziomie istotności α.

22.13. Rozważamy zadanie testowania, na podstawie pojedynczej obserwacji X, hi-potezy prostej H0 : Xpochodzi z rozkladu f0 przeciwko prostej alternatywie H1 :Xpochodzi z rozkladu f1. Wiadomo, że dla każdego α ∈ (0, 1) najmocniejszy test napoziomie istotności α odrzucający H0, jeśli X > k = k(α), ma moc 1 − β taką, że1 − β = 1 − β(α) = α2. Gęstość f0 dla x > 0 określona jest wzorem 1

(1+x)2 . Jakimwzorem (dla dodatnich x) określona jest gęstość f1?

22.14. Załóżmy, że dysponujemy pojedynczą obserwacją X z rozkładu P ∈ P0, P1,gdzie P0 jest rozkładem N (0, 1) i P1 jest rozkładem Lap (0, 1). Rozważmy zadanietestowania hipotezy H0 : P = P0 przeciw alternatywie H1 : P = P1. Podać rozmiartestu najmocniejszego, jeśli wiadomo, że obszar krytyczny testu jest sumą przedziałówrozłącznych, z których jeden jest równy (−∞,−1.9).

22.15. Niech X1, . . . , Xn będzie próbą z rozkładu N (µ, 4). Rozważmy najmocniejszytest hipotezy H0 : µ = 0 przeciw alternatywie H1 : µ = 1, na poziomie istotności 0.01.Ile potrzeba obserwacji, żeby moc testu była większa niż 0.9?

Copyright c⃝ Stanisław Jaworski & Wojciech Zieliński

Page 137: Zbiór zadań z rachunku prawdopodobieństwa i statystyki

Wersja 3/12/2014 Weryfikacja hipotez statystycznych 137

22.16. Załóżmy, że X1, . . . , Xn jest próbą z rozkładu N (µ, 1) z nieznanym µ. Znaleźćnajmniejsze n, dla którego istnieje test hipotezy H0 : µ = 10.0 przeciwko alternatywieH1 : µ = 10.1 na poziomie istotności 0.05 o mocy przynajmniej 0.50.

22.17. Niech X1, . . . , X9 będzie próbą z rozkładu normalnego N (µ, 1) o nieznanejwartości oczekiwanej µ. Rozpatrzmy zadanie testowania hipotezy H0 : µ = 0 prze-ciwko alternatywie H1 : µ = 0.5. Należy zbudować taki test, dla którego suma praw-dopodobieństw błędów I i II rodzaju, oznaczanych odpowiednio przez α i β jestnajmniejsza. Obliczyć tę najmniejszą wartość.

22.18. Niech X1, . . . , Xn będzie próbą z rozkładu N (µ, 1). Hipotezę µ = 0 weryfikujesię za pomocą testu z obszarem krytycznym (x1, x2, . . . , xn) :

√n|x| > 2. Jaki jest

rozmiar tego testu? Naszkicować wykres mocy tego testu.

22.19. Zmienne losowe X1, . . . , X9 są niezależne, Xi ma rozkład N(µ√i, 1)dla

i = 1, . . . , 9. Rozważamy hipotezy statystyczne H0 : µ = 0 i H1 : µ > 0. Znaleźćobszar krytyczny testu jednostajnie najmocniejszego hipotezy zerowej H0 przeciw al-ternatywie H1 na poziomie istotności 0.025.

22.20. Próba X1, . . . , Xn pochodzi z rozkładu N (µ, 1) z nieznaną wartością ocze-kiwaną µ i wariancją 1. Na podstawie tej próby zbudowano w standardowy sposóbprzedział ufności na poziomie 0.95 dla µ:[

X − 1.96√n,X +

1.96√n

]= [µ−, µ+]

Pokazać, że jednostajnie najmocniejszy test hipotezy H0 : µ = 3 przeciw alternatywieH1 : µ > 3 na poziomie istotności 0.025 odrzuca H0 wtedy i tylko wtedy, gdy µ− > 3.

22.21. Niech X1, . . . , Xn będzie próbą z rozkładu N(µ, σ2

)z nieznanymi parame-

trami µ i σ2. Rozważamy problem testowania hipotezy H0 : µ = 0 przy alternatywie

H1 : µ = 0 za pomocą testu, który odrzuca H0, jeśli |X|Z > t, gdzie Z =√1n

∑ni=1X

2i .

Dobrać stałą t tak, aby prawdopodobieństwo błędu pierwszego rodzaju testu byłorówne 0.05, jeśli wiadomo, że n = 9.

22.22. Za pomocą próby X1, . . . , Xn z rozkładu N (µ, 1) weryfikuje się hipotezę, żeµ = 0. Rozważa się dwa testy dla weryfikacji tej hipotezy, mianowicie testy z obszaramikrytycznymi

R1 = (x1, . . . , xn) : |x| > k1, R2 = (x1, . . . , xn) :∑x2i > k2,

gdzie k1 i k2 są dobrane tak, aby testy miały rozmiar α. Czy któryś z tych testów jestjednostajnie mocniejszy od drugiego?

22.23. Każda ze zmiennych losowych X1, . . . , Xn ma rozkład N(µ, σ2

)z nieznaną

wartością oczekiwaną µ i znaną wariancją σ2. Założono, że zmienne są niezależnei wyznaczono test jednostajnie najmocniejszy dla testowania hipotezy H0 : µ = µ0przy alternatywie H1 : µ > µ0 na poziomie istotności α. W rzeczywistości zmiennelosowe X1, . . . , Xn mają łączny rozkład normalny, ale są skorelowane i współczynnikkorelacji Corr(Xi, Xj) = ϱ dla wszystkich i = j. Wyznaczyć rzeczywisty rozmiartestu.

Copyright c⃝ Stanisław Jaworski & Wojciech Zieliński

Page 138: Zbiór zadań z rachunku prawdopodobieństwa i statystyki

138 Weryfikacja hipotez statystycznych Wersja 3/12/2014

22.24. Rozważmy następujące zagadnienie testowania hipotez statystycznych. Dys-ponujemy próbą X1, . . . , Xn z rozkładu N (µ, 1). Przeprowadzamy najmocniejszy testhipotezy H0 : µ = 0 przeciwko alternatywie H1 : µ = 1 na poziomie istotności 0.5.Oczywiście, moc tego testu zależy od rozmiaru próby. Niech βn oznacza prawdopo-dobieństwo błędu drugiego rodzaju, dla rozmiaru próby n. Udowodnić, że

limn→∞

βn

e−n/2/√2πn= 1.

22.25. Zmienne losowe X1, . . . , Xn są niezależne, przy czym Xi ma rozkład N (θi, 1).Weryfikuje się hipotezę, że wszystkie θi są równe zeru przy hipotezie alternatywnej, żeθi = 0.5 dla i = 1, 2, . . . , r i θi = −0.5 dla i = r+1, . . . , n. Pokazać, że najmocniejszytest o rozmiarze 0.05 ma obszar krytyczny

(x1, x2, . . . , xn) :r∑i=1

xi −n∑

i=r+1

xi > 1.645√n

.

Jak duże musi być n, aby moc tego testu była równa co najmniej 0.9?

22.26. X1, . . . , Xn jest próbą z rozkładu N(0, σ2

). Rozważmy najmocniejszy test

hipotezy H0 : σ2 = 1 przeciwko alternatywie H1 : σ2 = 3 na poziomie istotności 0.1.Wyznaczyć moc tego testu.

22.27. Niech X1, X2, X3, X4 będzie czteroelementową próbą z rozkładu N(µ, σ2

)o nieznanych parametrach. Testujemy hipotezę H0 : σ2 = σ20 przeciw alternatywieH0 : σ2 > σ20 za pomocą statystyki

varXσ20, przyjmując poziom istotności 0.05. Zaobser-

wowaliśmy (1,−1.2, 3, 0.7). Jaka jest minimalna możliwa wartość σ20 , skoro wiadomo,że test wykazał, że nie mamy podstaw do odrzucenia hipotezy H0?

22.28. Załóżmy, że X1, . . . , Xn jest próbą z rozkładu N(µ, σ2

)ze znaną średnią µ

i nieznaną wariancją σ2. Rozważmy test jednostajnie najmocniejszy hipotezy H0 :σ2 ≤ 1 przeciw alternatywie H1 : σ2 > 1 na poziomie istotności 0.05. Dla jakichwariancji σ2 moc testu przekracza 0.9?

22.29. X1, . . . , Xn jest próbą z rozkładu N(µ, σ2

)o znanej wartości oczekiwanej µ i

nieznanej wariancji σ2. Rozważmy test hipotezy H0 : σ2 ≤ 4 przeciwko alternatywieH1 : σ2 > 4, który jest najmocniejszy na poziomie istotności 0.05. Dla jakich wartościwariancji moc tego testu jest nie mniejsza niż 0.95?

22.30. Niech X1, . . . , Xn będą niezależnymi zmiennymi losowymi z rozkładu nor-malnego, przy czym EXi = 0 i D2Xi = σ2

i , gdzie σ2 jest nieznanym parametrem.

Rozważamy jednostajnie najmocniejszy test hipotezy H0 : σ2 ≤ 4 przy alternatywieH1 : σ2 > 4 na poziomie istotności 0.05. Dla jakich wartości wariancji moc tego testujest nie mniejsza niż 0.95?

Copyright c⃝ Stanisław Jaworski & Wojciech Zieliński

Page 139: Zbiór zadań z rachunku prawdopodobieństwa i statystyki

Wersja 3/12/2014 Weryfikacja hipotez statystycznych 139

22.31. Niech X1, . . . , Xn będzie próbą z rozkładu N(µ, σ2

), przy czym parametry µ

i σ2 są nieznane. Weryfikuje się hipotezę zerową, że σ = σ0 wobec hipotezy alterna-tywnej σ = σ0. Pokazać, że obszar krytyczny testu opartego na ilorazie wiarogodnościma postać

(x1, x2, . . . , xn) : k1 ≤s2

σ20≤ k2

,

gdzie S2 = varX/n. Jak należy ustalić k1 i k2, aby test miał rozmiar α.

22.32. Załóżmy, że dysponujemy pojedynczą obserwacją X z rozkładu N(µ, σ2

).

Rozważmy zadanie testowania hipotezy H0 : µ = 0, σ2 = 1 przeciw alternatywieH1 : µ = 1, σ2 = 4. Najmocniejszy test na poziomie istotności α jest postaci

odrzucić H0, gdy X ∈ (−2, b).

Podać b i poziom istotności α.

22.33.Wiadomo, że X1, . . . , Xn jest próbą z rozkładu N (µ− θ, 1), zaś Y1, . . . , Yn jestniezależną próbą z rozkładu N (µ+ θ, 1). Liczby µ i θ są nieznanymi parametrami.Rozpatrujemy zadanie testowania hipotezy H0 : θ = 0 przeciw alternatywie H1 :θ = 1. Dla jakich n można skonstruować test na poziomie istotności 0.05 o mocyprzynajmniej 0.95?

22.34. Niech X1, . . . , Xm będzie próbą z rozkładu N(µ1, σ

2)i niech Y1, . . . , Yn będzie

próbą z rozkładu N(µ2, σ

2)każda. Wszystkie zmienne są niezależne. Hipotezę H0 :

µ1 = µ2 przy alternatywieH1 : µ1 > µ2 weryfikujemy w następujący sposób. Zliczamyliczbę S elementów w próbie X1, . . . , Xm większych od wszystkich elementów próbyY1, . . . , Yn. Hipotezę H0 odrzucamy, gdy S ≥ s, gdzie s jest wartością krytyczną.Przypuśćmy, że m = 7 i n = 8. Wyznaczyć rozmiar testu, gdy s = 2.

22.35. Niech X1, . . . , X9 będzie próbą z rozkładu N (µ1, 1), a Y1, . . . , Y9 próbą z roz-kładu N (µ2, 4). Zakładając, że wszystkie zmienne losowe są niezależne wyznaczonotest oparty na ilorazie wiarogodności dla testowania hipotezy H0 : µ1 = µ2 przy al-ternatywie H1 : µ1 = µ2 na poziomie istotności 0.05. W rzeczywistości założenie tonie jest spełnione: co prawda pary zmiennych (X1, Y1), . . . , (X9, Y9) są niezależne, aleXi, Yi są zależne i współczynnik korelacji Corr(Xi, Yi) = 0.5 dla i = 1, . . . , 9. Obli-czyć faktyczne prawdopodobieństwo błędu pierwszego rodzaju α i moc testu β przyalternatywie µ1 = µ2 + 2.

22.36. Niech X1, . . . , X15 będzie próbą z rozkładu N(µ1, σ

2), a Y1, . . . , Y15 próbą

z rozkładu N(µ2, σ

2). Wszystkie zmienne są niezależne, a parametry µ1, µ2, σ2 są

nieznane. Testujemy hipotezę H0 : µ1 = µ2 przy alternatywie H1 : µ1 = µ2. HipotezęH0 odrzucamy, gdy spełniona jest nierówność

|X − Y |S

> c,

gdzie S2 =∑15i=1(Xi − Yi)2. Wyznaczyć c tak, aby rozmiar testu był równy 0.05.

Copyright c⃝ Stanisław Jaworski & Wojciech Zieliński

Page 140: Zbiór zadań z rachunku prawdopodobieństwa i statystyki

140 Weryfikacja hipotez statystycznych Wersja 3/12/2014

22.37. Obserwujemy parę (X,Y ) zmiennych losowych. Zakładamy, że są to zmienneniezależne, X ma rozkład N (µX , 1) i Y ma rozkład normalny N(µY , 1/9). Roz-ważmy najmocniejszy test hipotezy H0 : (µX , µY ) = (0, 0) przeciwko alternatywieH1 : (µX , µY ) = (1, 1) na poziomie istotności 0.1. Wyznaczyć moc tego testu.

22.38. Obserwujemy pary (X1, Y1), . . . , (X20, Y20). Zmienne X1, . . . , X20 są zmien-nymi losowymi o rozkładzie N (µX , 1), a zmienne Y1, . . . , Y20 o rozkładzie N (µY , 4).Wszystkie zmienne są niezależne. Dla najmocniejszego testu hipotezyH0 : (µX , µY ) =(0, 0) przeciw alternatywie H1 : (µX , µY ) = (1, 1) na poziomie istotności 0.01, wyzna-czyć prawdopodobieństwo błędu drugiego rodzaju tego testu.

22.39. Mamy próbę (X1, Y1), . . . , (Xn, Yn) z dwuwymiarowego rozkładu normalnegoo nieznanych parametrach:

EXi = EYi = µ, D2Xi = D2Yi = σ2, Cov(Xi, Yi) = ϱσ2.

Niech Zi = Xi+Yi, Ri = Xi−Yi, S2Z = 1n−1varZ, S

2R =

1n−1varR. Niech ϱ0 ∈ (−1, 1)

będzie ustaloną liczbą, ϱ0 = 0. Do testowania hipotezy H0 : ϱ = ϱ0 przeciwko alter-natywie H1 : ϱ = ϱ0 możemy użyć testu opartego na statystyce S2Z/S2R. Wyznaczyćrozkład tej statystyki przy założeniu prawdziwości hipotezy zerowej.

22.40. Rozważmy prosty model regresji liniowej bez wyrazu wolnego Yi = θxi + εi(i = 1, . . . , n), gdzie (Yi, xi) to obserwacje par (losowa zmienna zależna, nielosowazmienna niezależna), θ jest nieznanym parametrem, a (ε1, . . . , εn) są nawzajem nie-zależnymi zmiennymi losowymi o identycznym rozkładzie N

(0, σ2

). Rozważmy jed-

nostajnie najmocniejszy test hipotezy H0 : θ = 0 przeciw alternatywie H1 : θ > 0 napoziomie istotności 0.05. Wyznaczyć obszar krytyczny tego testu.

22.41. Zależność czynnika Y od czynnika x (nielosowego) opisuje model regresji linio-wej Yi = β0 + β1xi + εi, gdzie błędy εi są niezależne i mają rozkłady N (0, 1). Obser-wujemy zmienne losowe Y1, . . . , Yn przy danych wartościach X1, . . . , Xn. Wyznaczyćobszar krytyczny testu najmocniejszego dla weryfikacji hipotezy H0 : β0 = 0 i β1 = 1przy alternatywie H1 : β0 = 1 i β1 = 2 na poziomie istotności 0.05.

22.42. Niech X1, . . . , Xn oraz Y1, . . . , Yn będą niezależnymi próbami z dwóch rozkła-dów E (λ) i E (µ) o nieznanych parametrach. Weryfikuje się hipotezę zerową λ = µwobec hipotezy alternatywnej λ = µ. Pokazać, że obszar krytyczny testu opartego nailorazie wiarogodności zależy tylko od ilorazu Y /X. Podać sposób konstrukcji testu orozmiarze α.

22.43. Niech X będzie pojedynczą obserwacją z przesuniętego rozkładu wykład-niczego E (1; θ), gdzie θ ≥ 0 jest nieznanym parametrem. Rozważmy jednostajnienajmocniejszy test hipotezy H0 : θ = 0 przeciwko alternatywie H1 : θ > 0, napoziomie istotności 0.05. Wyznaczyć zbiór tych wartości θ, dla których moc testuwynosi co najmniej 0.90.

Copyright c⃝ Stanisław Jaworski & Wojciech Zieliński

Page 141: Zbiór zadań z rachunku prawdopodobieństwa i statystyki

Wersja 3/12/2014 Weryfikacja hipotez statystycznych 141

22.44. Niech X1, . . . , Xn będzie próbą z rozkładu o dystrybuancie

Fθ(x) =1− 2−(x−θ), dla x > θ,0, poza tym,

gdzie θ > 0 jest nieznanym parametrem. Rozważmy jednostajnie najmocniejszy testhipotezy H0 : θ = 0 przeciw alternatywie H1 : θ > 0 na poziomie istotności 0.01. Przyjakiej liczebności próby n, w danym punkcie θ1 > 0 funkcja mocy tego testu przybierawartość większą lub równą 0.64?

22.45. Zmienne losowe X1, . . . , Xn są niezależne i mają jednakowy rozkład E (1; θ).Hipotezę zerową θ : θ ≤ 1 przy hipotezie alternatywnej θ : θ > 1 weryfikuje sięza pomocą testu z obszarem krytycznym postaci

(x1, x2, . . . , xn) : min(x1, x2, . . . , xn) > c.

Wyznaczyć c tak, aby test miał rozmiar α. Naszkicować wykres funkcji mocy.

22.46. Niech X1, . . . , Xn będzie próbą z rozkładu G (q, 1/θ). Zakładamy, że q jestznane. Skonstruować najmocniejszy test na poziomie istotności α dla weryfikacji hi-potezy θ0 wobec alternatywy θ1, gdzie θ1 > θ0, i pokazać, że istnieje test JNMdla weryfikacji θ0 wobec θ : θ > θ0. Pokazać, że gdy q = 1/n, moc tego testu jestrówna 1− (1− α)θ/θ0 .

22.47. Niech X1, . . . , Xn będzie próbą z rozkładu G (p, λ), gdzie λ > 0 jest znane, zaśp > 0 jest nieznane. Wyznaczyć obszar krytyczny jednostajnie najmocniejszego testuhipotezy H0 : p = 2 przeciw hipotezie H1 : p > 2 na poziomie istotności α.

22.48. Niech X będzie pojedynczą obserwacją z rozkładu Par (0, λ). Rozważmy naj-mocniejszy test hipotezy H0 : λ = 1 przeciwko alternatywie H1 : λ = 101 napoziomie istotności 0.01. Wyznaczyć moc tego testu.

22.49. Niech X1, X2, X3, X4 będzie próbą z rozkładu Par (2, λ1), a Y1, Y2, Y3, Y4, Y5będzie próbą z rozkładu Par (2, λ2), gdzie θ1 i θ2 są nieznanymi parametrami dodat-nimi. Wszystkie zmienne losowe są niezależne. Testujemy hipotezę H0 : θ1θ2 = 1 przyalternatywie H1 : θ1θ2 > 1 za pomocą testu o obszarze krytycznym

K =

θ1

θ2> t

,

gdzie θ1 i θ2 są estymatorami największej wiarogodności odpowiednio parametrów θ1i θ2 wyznaczonymi na podstawie prób X1, X2, X3, X4 i Y1, Y2, Y3, Y4, Y5. Dobrać stałąt tak, aby otrzymać test o rozmiarze 0.05.

22.50. Niech X1, . . . , X5 będzie próbą z rozkładu Par (1, θ). Skonstruować jednostaj-nie najmocniejszy (na poziomie istotności 0.01) test hipotezy H0 : θ = 0.5 przeciwkoH1 : θ > 0.5.

Copyright c⃝ Stanisław Jaworski & Wojciech Zieliński

Page 142: Zbiór zadań z rachunku prawdopodobieństwa i statystyki

142 Weryfikacja hipotez statystycznych Wersja 3/12/2014

22.51. Dysponujemy pojedynczą obserwacją X z rozkładu Lap (µ, λ), gdzie λ > 0i µ ∈ R są parametrami. Rozważmy zadanie testowania hipotezy

H0 : µ = 0 i λ = 1 przeciw H1 : µ = −1 i λ = 0.5

Obszar krytyczny najmocniejszego testu na poziomie istotności α jest postaci

K = x : x ∈ (a, 3).

Wyznaczyć a i poziom istotności α.

22.52. Niech X będzie pojedynczą obserwacją z rozkładu Lap (θ, 1), gdzie θ jestnieznanym parametrem. Rozważmy jednostajnie najmocniejszy test hipotezy H0 :θ = 0 przeciw hipotezie alternatywnej H1 : θ > 0 na poziomie istotności α, gdzieα < 0.5, oparty na pojedynczej obserwacji X. Dla jakiego θ funkcja mocy tego testuosiąga wartość 0.75?

22.53. Urna zawiera r kul ponumerowanych liczbami 1, 2, . . . , r. Liczba kul r jestnieznanym parametrem, o którym wiemy, że jest większy od 5. Wybieramy z urnypięć kul, losując je bez zwracania. Na podstawie numerów wylosowanych kul testujemyhipotezę zerową H0 : r = 25 przeciwko alternatywie H1 : r = 48. Obliczyć mocnajmocniejszego testu na poziomie istotności 0.2.

22.54. W celu zweryfikowania hipotezy, że nieznane prawdopodobieństwo sukcesujest mniejsze od 0.5 wykonuje się 20 niezależnych prób i hipotezę uważa się za praw-dziwą, gdy liczba sukcesów jest mniejsza od 12. Wykreślić funkcje prawdopodobieństwbłędów tego testu.

22.55. Właściciel jeziora odsprzedający prawo połowów w tym jeziorze twierdzi, żew jeziorze jest co najmniej N ryb, przy czym N jest dużą liczbą. Dla sprawdzeniatego twierdzenia wyławia się m ryb, znakuje się je i wpuszcza z powrotem do jeziora.Po pewnym czasie, gdy oznakowane ryby rozproszą się po całym jeziorze, wyławia sięn ryb; okazuje się, że wśród nich jest r ryb oznakowanych. Twierdzenie właścicielajeziora odrzuca się, gdy iloraz r/n jest większy od pewnej liczby k. Jak należy wybraćk, aby prawdopodobieństwo odrzucenia twierdzenia, gdy jest ono prawdziwe, było niewiększe niż 0.1. (Można założyć, że liczby m i n są małe w porównaniu z N .)

22.56. Prawdopodobieństwo, że w pewnym doświadczeniu zaobserwuje się r cząstekjest równe e−λλr/r! (r = 0, 1, 2, . . .). Pokazać, że prawdopodobieństwo zdarzenia pole-gającego na tym, że w n niezależnych powtórzeniach tego doświadczenia zaobserwujesię łącznie N cząstek, jest równe e−nλ(nλ)N/N !. Przypuśćmy, że wiadomo, iż λ jestrówne 0.5 lub 1. Na podstawie pięciu niezależnych powtórzeń doświadczenia należyzdecydować, jaką wartość ma λ. Porównać dwie następujące reguły.

REGUŁA 1. Przyjąć, że λ = 0.5 wtedy i tylko wtedy, gdy łączna liczba zaobserwo-wanych cząstek jest mniejsza od czterech.

REGUŁA 2. Przyjąć, że λ = 0.5 wtedy i tylko wtedy, gdy w więcej niż dwóch powtó-rzeniach doświadczenia nie zaobserwowano ani jednej cząstki.

Copyright c⃝ Stanisław Jaworski & Wojciech Zieliński

Page 143: Zbiór zadań z rachunku prawdopodobieństwa i statystyki

Wersja 3/12/2014 Weryfikacja hipotez statystycznych 143

22.57. Zakładamy, że liczba roszczeń w ciągu roku dla pewnego portfela ryzyk jestzmienną losową X o rozkładzie Po (λ). Zaobserwowano X = 2600. W oparciu o przy-bliżenie rozkładu Poissona rozkładem normalnym zbudowano test hipotezy H0 :EX = 2500 przeciwko alternatywie H1 : EX > 2500 o obszarze krytycznym po-staci X > c. Czy test odrzuca H0 na poziomie istotności 0.05?

22.58. Wykonując pewne doświadczenie można otrzymać jeden z N + 1 możliwychwyników z0, z1, . . . , zN . Hipoteza zerowa H0 przypisuje tym wynikom następująceprawdopodobieństwa:

P (z0) =12, P (zi) =

12N, i = 1, 2, . . . , N.

Hipoteza alternatywna jest hipotezą złożoną: przypisuje prawdopodobieństwa (N −1)/N wynikowi z0 i nie specyfikuje prawdopodobieństw wyników z1, z2, . . . , zN . Poka-zać, że test o rozmiarze 0.5, oparty na ilorazie wiarogodności i wykorzystujący tylkopojedynczą obserwację, przyjmuje hipotezę H0 wtedy i tylko wtedy, gdy wynikiem tejobserwacji jest z0. Jaka jest moc tego testu? Czy jest to „dobry” test?

22.59. NiechX1, . . . , Xn będzie próbą z rozkładu U (0, θ). Pokazać, że istnieje test jed-nostajnie najmocniejszy na poziomie istotności α dla weryfikacji hipotezy θ1 przyhipotezie alternatywnej θ : θ < θ1. Czy istnieje test jednostajnie najmocniejszy napoziomie istotności α dla hipotezy θ1 wobec alternatywy θ : θ = θ1?

22.60. U1, . . . , Un, . . . jest próbą z rozkładu U (0, 1). Obserwujemy zmienną losowąX. Niech H0 : X ma rozkład taki jak minU1, U2, U3 oraz H1 : X ma rozkład takijak minU1, U2. Wyznaczyć moc najmocniejszego testu na poziomie istotności 1/8.

22.61. Niech X1, . . . , X9 będzie próbą z rozkładu U (−θ, θ), gdzie θ > 0 jest niezna-nym parametrem. Hipotezę H0 : θ = 2 przy alternatywie H1 : θ = 4 weryfikujemytestem najmocniejszym na poziomie istotności 0.1. Wyznaczyć prawdopodobieństwobłędu drugiego rodzaju.

22.62. Niech X1, . . . , Xn będzie próbą z rozkładu U (a, b), gdzie 0 ≤ a < b. Rozważmyzagadnienie weryfikacji hipotezy H0 : a = 0 przeciw H1 : a > 0. Wyznaczyć obszarkrytyczny testu ilorazu wiarogodności.

22.63. Niech X1, . . . , Xn będzie próbą z rozkładu U (0, θ). W celu zweryfikowaniahipotezy H0 : θ = 1 przeciw H1 : θ > 1 wykorzystujemy test o obszarze krytycznymmaxX1, . . . , Xn > c. Niech n0 będzie najmniejszą liczebnością próby taką, przyktórej test na poziomie istotności 0.20 ma w punkcie θ = 3

√2 moc co najmniej 0.95.

Obliczyć n0.

22.64. Niech X1, . . . , X6 będzie próbą z rozkładu U (0, θ), gdzie θ > 0 jest nieznanymparametrem. Zbudowano test jednostajnie najmocniejszy dla weryfikacji hipotezyH0 :θ = 1 przy alternatywie H1 : θ = 1 na poziomie istotności 0.125. Wyznaczyć obszarkrytyczny tego testu.

Copyright c⃝ Stanisław Jaworski & Wojciech Zieliński

Page 144: Zbiór zadań z rachunku prawdopodobieństwa i statystyki

144 Weryfikacja hipotez statystycznych Wersja 3/12/2014

22.65. Niech X1, . . . , X10 będzie próbą z rozkładu Pow (θ). Rozważmy test jedno-stajnie najmocniejszy hipotezy H0 : θ = 1 przeciwko alternatywie H1 : θ > 1 napoziomie istotności 0.01. Dla jakich wartości parametru θ ten test ma moc nie mniej-szą niż 0.99?

22.66. Niech X1, . . . , X6 będzie próbą z rozkładu Pow (θ), gdzie θ > 0 jest nieznanymparametrem. Weryfikujemy hipotezę H0 : θ = 1 przy alternatywie H1 : θ > 1 testemjednostajnie najmocniejszym na poziomie istotności 0.05. Wyznaczyć moc tego testuprzy θ = 3.

Test chi-kwadrat

22.67. Wykonuje się k serii niezależnych prób, przy czym każdą serię kontynuuje siędopóty, dopóki określone zdarzenie E nie pojawi się dokładnie r razy. Niech praw-dopodobieństwo zdarzenia E w każdej próbie i–tej serii będzie równe θi i niech nibędzie liczbą prób w tej serii (i = 1, 2, . . . , k). Poszczególne serie prób są niezależne.Weryfikuje się hipotezę, że θ1 = · · · = θk wobec alternatywy, że nie wszystkie θi sąsobie równe. Pokazać, że za podstawę testu można przyjąć statystykę

k∑i=1

ni log

[n

ni

]+ (ni − r) log

[ni − rn− r

],

gdzie n =∑ni/k. Pokazać, że dla dużych r test oparty na tej statystyce jest w

przybliżeniu podobny.

22.68. Przypuśćmy, że za podstawę konstrukcji testu hipotezy θ1 = · · · = θk w po-przednim zadaniu przyjęto koncepcje leżące u podstaw testu chi–kwadrat. Pokazać,że otrzymuje się test oparty na statystyce

r

n(n− r)

k∑i=1

(ni − n)2.

22.69. Wykonuje się k serii niezależnych prób, po n prób w każdej serii. Niechr1, r2, . . . , rk będzie liczbą tych prób w każdej serii, w których zaobserwowano zdarze-nie E. Weryfikuje się hipotezę, że prawdopodobieństwo zdarzenia E jest takie samow każdej próbie wobec alternatywnej, że prawdopodobieństwo tego zdarzenia jeststałe w każdej serii, ale w różnych seriach może być różne. Wyznaczyć statystykęchi–kwadrat.

22.70.Wyznaczyć test chi–kwadrat dla weryfikacji hipotezy o niezależności w tablicykontyngencji.

22.71. Testujemy niezależność dwóch cech z tablicy kontygencji. Jedna z cech przyj-muje n, a druga m możliwych wartości. Ilość obserwacji w każdej z (n ·m) komórekjest wystarczająca, aby zastosować test niezależności chi-kwadrat. Odpowiednia sta-tystyka będzie miała asymptotycznie rozkład chi-kwadrat. Wyznaczyć ilość stopniswobody tego rozkładu.

Copyright c⃝ Stanisław Jaworski & Wojciech Zieliński

Page 145: Zbiór zadań z rachunku prawdopodobieństwa i statystyki

Wersja 3/12/2014 Weryfikacja hipotez statystycznych 145

22.72. Za pomocą testu chi-kwadrat zgodności testowano hipotezę, iż n elementowapróba pochodzi z rozkładu Poissona o wartości oczekiwanej równej jeden. Mamy nie-pełną informację o próbie, na podstawie której przeprowadzono test:

k 0 1 2 3 lub więcejIlość obserwacji n− 70− 4− 25 70 40 25

Wiadomo, iż na poziomie istotności 0.05 nie znaleziono podstaw do odrzucenia hipo-tezy o zgodności. Podać najmniejszą możliwą liczebność próby n.

22.73.Wykonano 120 rzutów dwiema kościami do gry: czarną i białą. 45 razy na bia-łej kości wypadło więcej oczek niż na czarnej, 50 razy na białej kości wypadło mniejoczek niż na czarnej oraz 25 razy na białej kości wypadła ta sama liczba oczek cona czarnej. Rozważmy hipotezę H0 : obie kości są rzetelne i wynik rzutu kością białąjest niezależny od wyniku rzutu kością czarną. W oparciu o podane wyniki przepro-wadzono test chi-kwadrat. Pokazać, że na poziomie istotności 0.1 test nie prowadzido odrzucenia H0.

22.74. Wykonujemy n rzutów kością do gry i weryfikujemy hipotezę H0 mówiącą, żekość jest rzetelna. Standardowy test chi-kwadrat na poziomie istotności 0.001 odrzucahipotezę zerową, jeśli obliczona wartość statystyki testowej przekracza 20.515. Przy-puśćmy, że wykonaliśmy tylko n = 6 rzutów. Jest to zbyt mało, żeby asymptotyczneprzybliżenie rozkładu chi-kwadrat było zadowalające. Wyznaczyć faktyczny rozmiartestu.

22.75. Wykonujemy n rzutów kością do gry i weryfikujemy hipotezę H0 mówiącą,że kość jest rzetelna, tzn. że każda liczba oczek pojawia się z jednakowym prawdo-podobieństwem 16 . Standardowy test chi-kwadrat na poziomie istotności 0.01 odrzucahipotezę zerową, jeżeli wartość statystyki chi-kwadrat przekracza 15.0863 (kwantylrzędu 0.99 rozkładu chi-kwadrat z pięcioma stopniami swobody). Przypuśćmy, że wy-konaliśmy tylko n = 6 rzutów. Jest to zbyt mało, żeby asymptotyczne przybliżenierozkładu chi-kwadrat było zadowalające. Wyznaczyć faktyczny rozmiar testu odrzu-camy H0, jeśli wartość statystyki chi-kwadrat przekroczy 15.0863.

22.76. Zmienna losowa X przyjmuje wartości 1 lub 2 z jednakowym prawdopodo-bieństwem 0.5. Zmienna losowa Y przyjmuje wartości 1, 2, . . . , k. Dysponujemy próbąz łącznego rozkładu prawdopodobieństwa zmiennych losowych X i Y , złożoną z npar obserwacji. Niech nij oznacza liczbę takich par, dla których zmienna X przyjęławartość i, zaś Y wartość j (i = 1, 2; j = 1, 2, . . . , k). W celu weryfikacji hipotezyo niezależności zmiennych X i Y , czyli hipotezy

H0 : P (X = i, Y = j) =12P (Y = j) dla i = 1, 2; j = 1, 2, . . . , k,

używamy statystyki

χ2 =2∑i=1

k∑j=1

(nij − npij)2

npij/2, gdzie pij =

n1j + n2j2

.

Przy n → ∞, rozkład tej statystyki zmierza do rozkładu chi-kwadrat. Wyznaczyćliczbę stopni swobody rozkładu granicznego.

Copyright c⃝ Stanisław Jaworski & Wojciech Zieliński

Page 146: Zbiór zadań z rachunku prawdopodobieństwa i statystyki

146 Weryfikacja hipotez statystycznych Wersja 3/12/2014

22.77. Dysponujemy danymi o liczbie szkód zgłoszonych przez klientów 1, 2, . . . , kw ciągu n lat. Niech Si(n) oznacza sumaryczną liczbę szkód dla klienta numer iw ciągu n lat. Wiemy, że S1(n), . . . , Sk(n) są niezależnymi zmiennymi o rozkładziePoissona. Mamy też pewne przypuszczenia dotyczące intensywności pojawiania sięszkód, czyli wartości oczekiwanych tych zmiennych, ale nie jesteśmy ich pewni. We-ryfikujemy hipotezę statystyczną

H0 : ∀ i = 1, . . . , k zmienna losowa Si(n) ma rozkład Poissona z parametrem nλi.

Hipotetyczne intensywności λ1, . . . , λk są danymi, ustalonymi liczbami dodatnimi.Używamy pewnej odmiany testu chi-kwadrat: obliczamy statystykę

χ2 =k∑i=1

(Si(n)− nλi)2

nλi.

Jaki jest rozkład graniczny tej statystyki, jeśli H0 jest prawdziwa i n→∞?

22.78. W pewnym portfelu ubezpieczeń samochodowych liczącym 450 ubezpieczo-nych odnotowano, że w ciągu roku ubezpieczenia 40 ubezpieczonych kobiet uczestni-czyło w wypadku, 30 ubezpieczonych mężczyzn uczestniczyło w wypadku, 160 ubez-pieczonych kobiet nie uczestniczyło w wypadku oraz 220 ubezpieczonych mężczyznnie uczestniczyło w wypadku. Ile wynosi wartość statystyki testu chi-kwadrat nieza-leżności i czy (na poziomie istotności 0.05) istnieją podstawy do odrzucenia hipotezyo niezależności wystąpienia wypadku od płci ubezpieczonego?

Inne zagadnienia testowania

22.79. Obserwujemy n niezależnych zmiennych losowych X1, . . . , Xn o tym samymrozkładzie o gęstości

fθ(x) =2xθ , dla x ∈ (0, θ),0, poza tym,

gdzie θ > 0 jest nieznanym parametrem. Rozważmy test jednostajnie najmocniejszydla weryfikacji hipotezy H0 : θ = 1 przeciw H1 : θ > 1 na poziomie istotności 0.1. Jaknajmniej liczną próbą należy dysponować, aby moc otrzymanego testu przy alterna-tywie θ = 2/3 była nie mniejsza niż 0.9?

22.80. Niezależne zmienne losowe X1, X2, X3, X4, Y1, Y2, Y3, Y4, Y5 są takie, że X1,X2, X3, X4 mają ten sam rozkład o dystrybuancie Fµ1 , a Y1, Y2, Y3, Y4, Y5 mają tensam rozkład o dystrybuancie Fµ2 . Dystrybuanta Fµ spełnia warunek

Fµ(x) = F (x− µ)

dla pewnej ustalonej, nieznanej, ciągłej, ściśle rosnącej dystrybuanty F . Weryfikujemyhipotezę H0 : µ1 = µ2 przy alternatywie H1 : µ1 = µ2 stosując test o obszarzekrytycznym

K = S : S ≤ 13 ∨ S ≥ 27,

gdzie S jest sumą rang zmiennych losowych X1, X2, X3, X4 w próbie złożonej zewszystkich obserwacji ustawionych w ciąg rosnący. Wyznaczyć rozmiar testu.

Copyright c⃝ Stanisław Jaworski & Wojciech Zieliński

Page 147: Zbiór zadań z rachunku prawdopodobieństwa i statystyki

Wersja 3/12/2014 Weryfikacja hipotez statystycznych 147

22.81. Obserwujemy niezależne zmienne losowe X1, X2, X3, Y1, Y2, Y3, Y4. Zmiennelosowe X1, X2, X3 mają ten sam rozkład o dystrybuancie Fµ1 , a zmienne losoweY1, Y2, Y3, Y4 mają ten sam rozkład o dystrybuancie Fµ2 . Dystrybuanta Fµ spełniawarunek Fµ = F (x− µ) dla pewnej ustalonej, nieznanej, ciągłej, ściśle rosnącej dys-trybuanty F . Weryfikujemy hipotezę H0 : µ1 = µ2 przy alternatywie H1 : µ1 > µ2stosując test o obszarze krytycznym K = S : S > 13, gdzie S jest sumą rang zmien-nych losowych X1, X2, X3 w próbie złożonej ze wszystkich obserwacji ustawionych wciąg rosnący. Wyznaczyć rozmiar testu.

22.82. Na podstawie próby X1, . . . , X20 testowano hipotezę H0 : σ2 = 1 przy alterna-tywie H1 : σ2 > 1, gdzie σ2 jest parametrem odpowiadającym za wariancję zmiennejlosowej Xi, za pomocą testu o obszarze krytycznym K =

∑20i=1X

2i > t

. Wiadomo,

że zmienne losowe mają rozkład zadany gęstością

fθ(x) = θ|x|e−θx2, dla x ∈ R,

gdzie θ > 0 jest nieznanym parametrem. Wyznaczyć wartość krytyczną t tak, by testmiał poziom istotności 0.05.

22.83. Niech X1, . . . , X10 będzie próbą z rozkładu ciągłego o ściśle rosnącej dystrybu-ancie F . Hipotezę H0 : F jest dystrybuantą rozkładu symetrycznego, tzn. takiego żedla każdego x zachodzi: F (−x) = 1−F (x), odrzucamy, gdy spełniona jest nierównośćK > 7 lub K < 3, gdzie K jest liczbą elementów w próbie losowej X1, . . . , X10 owartościach większych od zera. Wyznaczyć rozmiar testu.

22.84. Mamy trzy niezależne, dziesięcioelementowe próby proste pobrane z trzechpopulacji normalnych: Xi,1, . . . , Xi,10 ∼ N(µi, σ2), i = 1, 2, 3 o tej samej (nieznanej)wariancji σ2. W każdym z trzech przypadków policzono średnią Xi = 1

10

∑10i=1Xi,j

oraz wariancję z próby S2i =19

∑10i=1(Xi,j − Xi)2. Uzyskano następujące wyniki:

i 1 2 3Xi 30 31 32S2i 15/9 25/9 20/9

Przeprowadzono testy F analizy wariancji na poziomie istotności 0.05 dla weryfikacjikażdej z następujących hipotez: H12 : µ1 = µ2, H23 : µ2 = µ3, H13 : µ1 = µ3,H123 : µ1 = µ2 = µ3. Które z hipotez zostaną odrzucone, a które nie?

22.85. Rozważamy model K obiektów obserwowanych przez T okresów czasu, gdziezarówno K jak i T są dużymi liczbami. Przyjmujemy następujące założenia:

• dla każdego k = 1, . . . ,K oraz t = 1, . . . , T warunkowy rozkład zmiennej losowejXt,kprzy danej wartości zmiennej µk, jest rozkładem normalnym o wartości oczekiwaneji wariancji (µk, σ2);

• dla każdego k = 1, . . . ,K rozkład zmiennej losowej µk jest rozkładem normalnym owartości oczekiwanej i wariancji (µ, a2).

Copyright c⃝ Stanisław Jaworski & Wojciech Zieliński

Page 148: Zbiór zadań z rachunku prawdopodobieństwa i statystyki

148 Weryfikacja hipotez statystycznych Wersja 3/12/2014

Przyjmijmy typowe oznaczenia dla średnich obiektowych i średniej ogólnej:

Xk =1T

T∑t=1

Xt,k, k = 1, . . . ,K, oraz X =1K

K∑k=1

Xk.

Międzyobiektową i wewnątrzobiektową sumę kwadratów odchyleń oznaczmy:

SSB =K∑k=1

(Xk − X)2, SSW =T∑t=1

K∑k=1

(Xt,k − Xk)2.

Wiadomo, że zmienne losowe SSB i SSW są niezależne,

E(SSB) = (K − 1)(a2 +

σ2

T

), E(SSW ) = K(T − 1)σ2.

Dobrać stałą c tak, by wartość oczekiwana wyrażenia c · SSWSSB wyniosłaσ2

a2T+σ2 .

22.86. Rozpatrzmy standardowy model jednokierunkowej analizy wariancji. NiechXij będą niezależnymi zmiennymi losowymi o rozkładach normalnych (i = 1, . . . , k,j = 1, . . . , ni), przy czym EXij = µi i D2Xij = σ2. Przyjmijmy typowe oznaczenia:

SSW =k∑i=1

ni∑j=1

(Xij − Xi)2, SST =k∑i=1

ni(Xi − X)2,

gdzie

Xi =1ni

ni∑j=1

Xij X =1n

k∑i=1

ni∑j=1

Xij , n =k∑i=1

ni.

Przy założeniu, że hipoteza o jednorodności jest prawdziwa, czyli że µ1 = · · · = µk,obliczyć E

(SSWSST

).

Copyright c⃝ Stanisław Jaworski & Wojciech Zieliński

Page 149: Zbiór zadań z rachunku prawdopodobieństwa i statystyki

Wersja 3/12/2014 Elementy statystyki bayesowskiej 149

23. Elementy statystyki bayesowskiej

Model bayesowski. Niech (X ,B, Pθ, θ ∈ Θ) będzie model statystycznyem. Pa-rametr θ traktujemy jako zmienną losową o rozkładzie prawdopodobieństwa Π nazbiorze Θ.

Rozkład Π nazywamy rozkładem a priori i niech π(·) oznacza gęstość rozkładua priori.

Rozkład Pθ(·) oznaczać będziemy P (·|θ), a jego gęstość przez p(·|θ).

Rozkładem a posteriori nazywamy rozkład prawdopodobieństwa na zbiorze Θ okre-ślony funkcją gęstości.

π(θ|x) = π(θ)p(x|θ)p(x)

, p(x) =∫Θπ(θ)p(x|θ)dθ.

Estymacja bayesowska.

Niech L(·, ·) będzie funkcją straty.

Ryzykiem bayesowskim reguły θ : X → Θ nazywamy∫Θ

[∫XL(θ(x), θ)p(x|θ)dx

]π(θ)dθ =

∫X

[∫ΘL(θ(x), θ)π(θ|x)dθ

]p(x)dx.

Regułę θ nazywamy estymatorem bayesowskim, jeżeli minimalizuje ona stratęa posteriori, czyli ∫

ΘL(θ(x), θ)π(θ|x)dθ.

Jeżeli L(θ, θ) = (θ − θ)2, to estymatorem bayesowskim jest wartość oczekiwana roz-kładu a posteriori.

Bayesowskie przedziały ufności.

Bayesowskim przedziałem ufności na poziomie ufności 1−α nazywamy taki pod-zbiór Kα ⊂ Θ, którego prawdopodobieństwo a posteriori wynosi 1− α, tzn.∫

θ∈Kαπ(θ|x)dθ = 1− α.

Bayesowskie testowanie hipotez.

Rozważmy problem weryfikacji hipotezy H0 : θ = θ1 przeciwko H1 : θ = θ2. Mamynastępujący zbiór decyzji

D = d1 = θ = θ1, d2 = θ = θ2 .

Copyright c⃝ Stanisław Jaworski & Wojciech Zieliński

Page 150: Zbiór zadań z rachunku prawdopodobieństwa i statystyki

150 Elementy statystyki bayesowskiej Wersja 3/12/2014

Przyjmujemy następującą funkcję straty L(d, θ)

θ = θ1 θ = θ2d1 L11 L12d2 L21 L22

Liczby Lij są dodatnie. Zazwyczaj przyjmuje się, że L11 = L22 = 0, czyli że nieponosimy starty przy podjęciu poprawnej decyzji.

Niech rozkład a priori będzie

Pθ = θ1 = π = 1− Pθ = θ2.

Oczekiwana strata a posteriori reguły δ wynosi

δ(x) = d1 : πp(x|θ1)L11 + (1− π)p(x|θ2)L12,δ(x) = d2 : πp(x|θ1)L21 + (1− π)p(x|θ2)L22.

Test bayesowski jest regułą bayesowską o następującym obszarze przyjęć decyzji d2x ∈ X : p(x|θ2)

p(x|θ1)>

π[L21 − L11](1− π)[L12 − L22]

.

Przykład. Niech X1, . . . , Xn będzie próbą z rozkładu D (θ). Zakładamy, że prawdo-podobieństwo θ jest zmienną losową o rozkładzie U (0, 1). Znaleźć

1. bayesowski estymator parametru θ;

2. przedział ufności dla parametru θ;

3. test hipotezy H0 : θ = θ1 przeciwko H1 : θ = θ2 (θ1 < θ2).

Rozwiązanie. Jak wiadomo statystyką dostateczną dla wnioskowania o prawdopo-dobieństwie θ jest T =

∑ni=1Xi, której modelem jest

(0, 1, . . . , n, Bin (n, θ), θ ∈ [0, 1]) .

Rozkładem a priori jest rozkład U (0, 1). Powiedzmy, że zaobserwowano T = t sukce-sów. Znajdziemy rozkład a posteriori π(θ|t):

π(θ|t) = π(θ)p(t|θ)p(t), p(t) =

∫Θp(t|θ)π(θ)dθ, dla t = 0, 1, . . . , n,

gdzie p(t|θ) =(nt

)θt(1− θ)n−t. Mamy

p(t) =(n

t

)∫ 10θt(1− θ)n−tdθ =

(n

t

)B (t+ 1, n− t+ 1) = 1

n+ 1.

Copyright c⃝ Stanisław Jaworski & Wojciech Zieliński

Page 151: Zbiór zadań z rachunku prawdopodobieństwa i statystyki

Wersja 3/12/2014 Elementy statystyki bayesowskiej 151

A zatem

π(θ|t) =(nt

)θt(1− θ)n−tπ(θ)p(t)

= (n+ 1)(n

k

)θt(1− θ)n−t.

W celu znalezienia bayesowskiego estymatora parametru θ przyjmijmy kwadratowąfunkcję straty L(θ, θ) = (θ − θ)2. Wówczas estymatorem bayesowskim jest wartośćoczekiwana rozkładu a posteriori:

θ(t) =∫ 10θπ(θ|t)dθ = (n+ 1)

(n

t

)∫ 10θt+1(1− θ)n−tdθ

= (n+ 1)(n

t

)B (t+ 2, n− t+ 1)

=t+ 1n+ 2

Bayesowski przedział ufności (na poziomie ufności 1 − α) jest zbiorem tych wartościparametru θ, których prawdopodobieństwo a posteriori wynosi 1−α. Szukamy zatemtakich dwóch wartości θ i θ, że

∫ θθ

π(θ|t)dθ = 1− α,

π(θ|t) = π(θ|t).

Dla danego n oraz zaobserwowanej liczby sukcesów t powyższy układ można rozwiązaćnumerycznie. Na poniższym wykresie przedstawiona jest gęstość rozkładu a posteriori(dla n = 10 i t = 2) wraz z zaznaczonym przedziałem ufności dla parametru θ.

..................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................

.................................................................................................................................................................................................................................................................................................................................................................................................................

.....

.....

.....

.....

.

.....

.....

.....

.....

.

θ θ

1− α

Skonstruujemy bayesowski test hipotezy H0 : θ = θ1 przeciwko H1 : θ = θ2 (θ1 < θ2).Rozważany model statystyczny ma postać

0, 1, . . . , n, Bin (n, θ), θ ∈ Θ = θ1, θ2 ,

Copyright c⃝ Stanisław Jaworski & Wojciech Zieliński

Page 152: Zbiór zadań z rachunku prawdopodobieństwa i statystyki

152 Elementy statystyki bayesowskiej Wersja 3/12/2014

a rozkładem a priori jest

P (θ = θ1) = π = 1− P (θ = θ2).Mamy następujący zbiór decyzji

D = d1 = θ = θ1, d2 = θ = θ2 .Przyjmując funkcję straty

θ = θ1 θ = θ2d1 L11 L12d2 L21 L22

otrzymujemy bayesowski obszar przyjęć decyzji d2t ∈ 0, 1, . . . , n : p(t|θ2)

p(t|θ1)>

π[L21 − L11](1− π)[L12 − L22]

.

Po dokonaniu odpowiednich przekształceń, otrzymujemy obszar przyjęć decyzji d2:t ∈ 0, 1, . . . , n :

[θ2(1− θ1)θ1(1− θ2)

]t> γ

[1− θ11− θ2

]n.

Tutaj γ = π[L21−L11](1−π)[L12−L22] .

Mamy więc następującą regułę bayesowską podjęcia decyzji d2:

t > nlog[1−θ11−θ2

]log[θ2θ1

]+ log

[1−θ11−θ2

] + log γ.Niech na przykład π = 0.5 oraz niech funkcja straty ma postać

θ = θ1 θ = θ2d1 0 1d2 1 0

Reguła bayesowska podjęcia decyzji d2 ma postać:

k > nlog[1−θ11−θ2

]log[θ2θ1

]+ log

[1−θ11−θ2

] .Zauważmy, że przy rozważanej funkcji straty ryzykiem reguły bayesowskiej jest praw-dopodobieństwo podjęcia błędnej decyzji.

Zadania do samodzielnego rozwiązania

23.1. Niech prawdopodobieństwo θ sukcesu w każdej z niezależnych prób ma rozkłada priori U (0, 1). Pokazać, że prawdopodobieństwo otrzymania r sukcesów w n próbachjest równe 1

n+1 , r = 0, 1, . . . , n. Pokazać, że jeżeli w n pierwszych próbach otrzymanor sukcesów, to prawdopodobieństwo sukcesu w następnej próbie wynosi r+1n+2 .

Copyright c⃝ Stanisław Jaworski & Wojciech Zieliński

Page 153: Zbiór zadań z rachunku prawdopodobieństwa i statystyki

Wersja 3/12/2014 Elementy statystyki bayesowskiej 153

23.2. Niech X1, . . . , Xn będzie próbą z rozkładu U (0, θ). Zakładamy, że nieznanyparametr θ jest zmienną losową o rozkładzie a priori U (0, 1). Wyznaczyć gęstośćrozkładu a posteriori parametru θ.

23.3. NiechX1, X2, . . . , Xn będzie próbą z rozkładu N(θ, σ2

), w którym wariancja σ2

jest znana. Niech rozkład a priori parametru θ będzie rozkładem N(µ, τ2

). Pokazać,

że rozkład a posteriori jest rozkładem N(µn, τ

2n

), gdzie

µn =nX/σ2 + µ/τ2

n/σ2 + 1/τ2oraz τ−2n = nσ

−2 + τ−2.

23.4. Produkuje się duże serie lamp elektrycznych. Czas życia (trwałość) lampy jestzmienną losową o rozkładzie E (1/θ). Serię uważa się za udaną, gdy średnia trwałośćlamp w serii jest większa od t. Parametr θ w poszczególnych partiach lamp zmieniasię zależnie od jakości wolframu, z którego produkuje się włókna żarzenia; zmiennośćtego parametru opisuje się za pomocą rozkładu a priori G (k, 1). Z pewnej serii pro-dukcyjnej wybrano losowo n lamp i w wyniku zmierzenia ich trwałości otrzymanoX1, X2, . . . , Xn. Obliczyć na tej podstawie prawdopodobieństwo a posteriori, że seriata jest udana.

23.5. Zakłada się, że liczba cząstek wypromieniowanych w czasie T przez pewneradioaktywne źródło ma rozkład Po (λT ), gdzie λ jest intensywnością źródła. Zare-jestrowano, że w czasie T dwa niezależne źródła o nieznanych intensywnościach λ1i λ2 wypromieniowały odpowiednio X i Y cząstek. Przed dokonaniem tych obserwa-cji zakłada się, że λ1 i λ2 są niezależnymi zmiennymi losowymi o rozkładach E (1).Przy założeniu, że δ jest małe i X oraz Y duże, obliczyć prawdopodobieństwa a priorii a posteriori, że λ1/λ2 ma wartość z przedziału (1− δ, 1 + δ).

23.6. Zmienna losowaN ma rozkład Po (λ) z nieznanym λ > 0. O parametrze λ zakła-damy, że podlega rozkładowi a priori gamma G (2, 8). Zmienna losowa θ ma rozkładBet (1, 2). Zmienne N i θ są niezależne oraz zmienne λ i θ są niezależne. Obserwu-jemy zmienną losową X, która przy znanych wartościach N i θ ma rozkład Bin (N, θ).Wyznaczyć wartości a i b najlepszego liniowego predyktora zmiennej losowej N , toznaczy liczby a i b minimalizujące wielkość E(N − aX − b)2.

23.7. Niech X będzie zmienną losową o rozkładzie Ge (θ). Załóżmy, że nieznany pa-rametr θ jest realizacją zmiennej losowej Θ o rozkładzie a priori Pow (3). Wyznaczyćwartość bayesowskiego estymatora parametru θ, przy kwadratowej funkcji straty, ob-liczoną na podstawie zaobserwowanej wartości X = 0, czyli E(Θ|X = 0).

23.8. Niech X1, . . . , Xn będzie próbą z rozkładu Par (0, θ). Zakładamy, że nieznanyparametr θ jest zmienną losową o rozkładzie a priori E (1/λ). Wyznaczyć bayesowskiestymator parametru θ przy kwadratowej funkcji straty.

23.9. NiechX1, . . . , Xn będzie próbą z rozkładu Par (θ, 3), gdzie θ > 0 jest nieznanymparametrem. Dla parametru θ zakładamy rozkład a priori o gęstości

π(θ) =θ2 , dla θ ∈ (0, 2),0, poza tym.

Copyright c⃝ Stanisław Jaworski & Wojciech Zieliński

Page 154: Zbiór zadań z rachunku prawdopodobieństwa i statystyki

154 Elementy statystyki bayesowskiej Wersja 3/12/2014

Wyznaczyć wartość estymatora bayesowskiego parametru θ przy kwadratowej funkcjistraty, jeżeli zaobserwowano próbę spełniającą warunek minX1, . . . , Xn = 1.

23.10. Niech X1, . . . , Xn będzie próbą z rozkładu E (1/θ), gdzie θ > 0 jest nieznanymparametrem. Dla parametru θ zakładamy rozkład a priori G (2, 1/3). Estymujemyparametr θ przy funkcji straty postaci

L(θ, a) = e(θ−a) − (θ − a)− 1.Wyznaczyć estymator bayesowski a parametru θ.

23.11. Niech X1, . . . , Xn, gdzie n > 1, będzie próbą z rozkładu Wei (2, 1/θ), gdzieθ > 0 jest nieznanym parametrem. Zakładamy, że parametr θ ma rozkład a prioriG (α, 1/β). Wyznaczyć estymator bayesowski θ parametru θ przy funkcji straty Es-schera L(θ, θ) = ecθ(θ − θ)2, gdzie c = 0 jest ustaloną liczbą.

23.12. Niech X1, X2, . . . , Xn będzie próbą z rozkładu N (θ1, θ2) o nieznanych para-metrach θ1 i θ2 i niech rozkład a priori parametru θ = (θ1, θ2) ma „gęstość”

π(θ) ∝ 1θ2

(−∞ < θ1 <∞, θ2 > 0).

Pokazać, że rozkład a posteriori parametru θ jest taki, że wielkość√n(n− 1)(θ1 −

X)/√varX ma rozkład t (n− 1). Wyznaczyć najkrótszy bayesowski przedział ufności

na poziomie ufności 0.95.

23.13. W każdym z niezależnych doświadczeń z prawdopodobieństwem θ może po-jawić się pewne zdarzenie E; prawdopodobieństwo θ nie jest znane, ale przypuszczasię, że jest małe. W celu zorientowania się co do wielkości θ przeprowadza się seriędoświadczeń, którą kontynuuje się dopóty, dopóki nie pojawi się E. Przypuśćmy, żezdarzenie po raz pierwszy pojawia się w n-tym doświadczeniu. Niech θ ma rozkłada priori o gęstości m(1− θ)m−1 (0 < θ < 1). Pokazać, że najkrótszy bayesowski prze-dział ufności na poziomie ufności 1−α jest dla dużych m+n w dobrym przybliżeniurówny [

c1(m+ n)

,c2

(m+ n)

],

gdzie c1e−c1 = c2e−c2 , e−c1 − e−c2 = 1− α.

23.14. Niech X1, . . . , X8 będzie próbą z rozkładu N (θ, 1). Nieznany parametr θ jestz kolei zmienną losową o rozkładzie N (0, 1). Wyznaczyć bayesowski przedział ufnościdla parametru θ, to znaczy przedział [a, b], gdzie

a = a(X1, . . . , X8), b = b(X1, . . . , X8),

taki, że P (θ < a|X1, . . . , X8) = 0.05 = P (θ > b|X1, . . . , X8).

23.15. NiechX1, X2, X3, X4 będzie próbą z rozkładu U (0, θ). Zakładamy, że nieznanyparametr θ jest zmienną losową o rozkładzie a priori G (5, 1/2). Hipotezę H0 : θ ≤ 3przy alternatywie H1 : θ > 3 odrzucamy dla tych wartości x1, x2, x3, x4, dla którychprawdopodobieństwo a posteriori zbioru θ : θ > 3 jest większe niż 0.5. Wyznaczyćobszar krytyczny testu.

Copyright c⃝ Stanisław Jaworski & Wojciech Zieliński

Page 155: Zbiór zadań z rachunku prawdopodobieństwa i statystyki

Wersja 3/12/2014 Podejmowanie decyzji statystycznych 155

24. Podejmowanie decyzji statystycznych

Model statystycznyX , Pθ : θ ∈ Θ

1. Zbiór obserwacji X

2. Zbiór stanów natury Θ

3. Zbiór decyzji D

4. Funkcja straty L(d, θ) : D ×Θ→ R

5. Reguła decyzyjna δ : X → D

6. Ryzyko reguły δ: Rδ(θ) = EθL(δ(X), θ)

Zadanie: znaleźć regułę δ „optymalizującą” ryzyko

Optymalizacja:

1. jednostajna minimalizacja ryzyka

2. zasada minimaksu

3. reguła BayesaEstymacja

1. Zbiór decyzji D = Θ = R

2. Funkcja straty L(d, θ) = (d− θ)2

3. Reguła decyzyjna δ: estymator parametru θ

4. Ryzyko reguły δ: błąd średniokwadratowy

Jeżeli ograniczymy się do takich reguł δ, że

Eθδ(X) = θ, ∀θ ∈ Θ

to reguła jednostajnie minimalizująca ryzyko jest ENMW.Weryfikacja hipotez

1. Zbiór decyzjiD = d1 = θ ∈ Θ0, d2 = θ ∈ Θ0

2. Funkcja straty L(d, θ)θ ∈ Θ0 θ ∈ Θ0

d1 0 1d2 1 0

3. Reguła decyzyjna δ: test ϕ

4. Ryzyko reguły δ: prawdopodobieństwo błędnego wnioskowania

Copyright c⃝ Stanisław Jaworski & Wojciech Zieliński

Page 156: Zbiór zadań z rachunku prawdopodobieństwa i statystyki

156 Podejmowanie decyzji statystycznych Wersja 3/12/2014

Jeżeli ograniczymy się do takich reguł δ, że

Eθδ(X) ≤ α, ∀θ ∈ Θ0

to reguła jednostajnie minimalizująca ryzyko jest testem jednostajnie najmoc-niejszym.

Optymalizacja

1. Jednostajna minimalizacja ryzyka

Znaleźć taką regułę δ, że jeżeli δ′ jest jakąkolowiek inną regułą, to

Rδ(θ) ≤ Rδ′(θ) ∀θ ∈ Θ

2. Zasada minimaksu

Znaleźć taką regułę δ, że jeżeli δ′ jest jakąkolowiek inną regułą, to

maxθRδ(θ) ≤ max

θRδ′(θ)

3. Zasada Bayesa

Znaleźć taką regułę δ, że jeżeli δ′ jest jakąkolowiek inną regułą, to∫ΘRδ(θ)Π(dθ) ≤

∫ΘRδ′(θ)Π(dθ)

gdzie Π jest taką miarą na zbiorze Θ, że∫ΘΠ(dθ) = 1

Zadania do samodzielnego rozwiązania

24.1. Sprzedawca jest zainteresowany maksymalizacją zysku ze sprzedaży pewnego,łatwo psującego się towaru. Zakup jednego opakowania kosztuje go $20, zaś sprzedajeje za $50. Po jednym dniu niesprzedany towar należy wyrzucić jako niezdatny dospożycia. W ciągu stu dni sprzedawca zaobserwował, że klienci kupowali następująceilości towaru:

Ilość towaru 10 11 12 13Ilość dni 15 20 40 25

Ile towaru powinien sprzedawca zamówić, by mógł oczekiwać największego zysku?

24.2. Przedsiębiorca zainteresowany jest zatrudnieniem w swojej firmie samochodowejkilku mechaników. Na kolejny rok przewidywane są następujące ilości godzin pracydla mechaników:

Ilość godzin 10000 12000 14000 16000Prawdopodobieństwo .2 .3 .4 .1

Planowana zapłata za jedną godzinę pracy mechanika wynosi $9 zaś spodziewanyzysk z jednej godziny pracy — $16. Mechanik może pracować 40 godzin w tygodniuoraz ma prawo do dwutygodniowego urlopu. Na podstawie podanych informacji podaćoptymalną liczbę mechaników, która powinna być zatrudniona.

Copyright c⃝ Stanisław Jaworski & Wojciech Zieliński

Page 157: Zbiór zadań z rachunku prawdopodobieństwa i statystyki

Wersja 3/12/2014 Podejmowanie decyzji statystycznych 157

24.3. Przedsiębiorstwo lotnicze otrzymuje propozycję zakupienia dziesięciu używa-nych samolotów, przy czym wszystkie są mniej więcej w takim samym stanie tech-nicznym. Pewna nieznana liczba θ tych samolotów może latać 1000 godzin bez po-trzeby większych napraw i każdy z takich samolotów przyniesie zysk w wysokości1000p; każdy z pozostałych samolotów dozna jakiegoś poważniejszego uszkodzenia wciągu pierwszych 1000 godzin eksploatacji, co przyniesie przedsiębiorstwu stratę wwysokości 1000q. Należy zdecydować, czy przyjąć czy odrzucić ofertę. Przed podję-ciem decyzji przedsiębiorstwo może otrzymać pewne dalsze informacje, a mianowicieza cenę 1000r może otrzymać jeden samolot do prób, eksploatować go przez 1000 go-dzin i uzależnić swoją decyzję od tego, czy ten samolot latał 1000 godzin bez awarii,czy nie. Podać wszystkie reguły decyzyjne i ich ryzyka. Wybrać optymalną regułędecyzyjną.

24.4. Pewna osoba zamierza sprzedawać napójMigotka w trakcie meczu piłki nożnej imusi zawczasu zdecydować o wielkości zamówienia. Przypuśćmy, że na każdym sprze-dawanym w trakcie gry litrze zyskuje m, zaś traci c na każdym zamówionym, lecznie sprzedanym. Załóżmy, że popyt na Migotkę w trakcie gry, mierzony w litrach, jestciągłą zmienną losową X o funkcji gęstości f i dystrybuancie F . Przy jakiej wysokościzamówienia oczekiwany zysk będzie maksymalny?

24.5. Rozważmy zagadnienie decyzyjne, w którym Θ = θ1, θ2 oraz D = d1, d2, d3,funkcja straty określona jest w następujący sposób:

d1 d2 d3θ1 0 10 3θ2 10 0 3

Niech obserwowana zmienna losowa X ma rozkład

P (X = 1|θ = θ1) = 0.75; P (X = 0|θ = θ1) = 0.25;P (X = 1|θ = θ2) = 0.25; P (X = 0|θ = θ2) = 0.75

Zmienna losowa może być obserwowana n krotnie. Niech Pθ = θ1 = p = 1−Pθ =θ2 (0 ≤ p ≤ 1). Określić bayesowską regułę decyzyjną na podstawie obserwacjiX1, . . . , Xn i naszkicować jej ryzyko jako funkcję prawdopodobieństwa p. Zakładając,że koszt każdej obserwacji wynosi c wyznaczyć optymalną wielkość n. Wyznaczyćoptymalną wielkość próby, gdy koszt obserwacji o wartości 1 wynosi c1, zaś kosztobserwacji o wartości 0 wynosi 0.

24.6. Niech X1, X2, . . . , Xn będzie próbką losową z rozkładu N(µ, σ2) o nieznanychµ i σ2 i niech rozkład a priori tych parametrów będzie taki, że µ i log σ są niezależne,a brzegowy rozkład każdej z tych wielkości jest jednostajny. Pokazać, że estymatorembayesowskim parametru µ przy kwadratowej funkcji strat L(µ, µ) = (µ− µ)2 jest X.Ile wynosi ryzyko bayesowskie tego estymatora?

24.7. NiechX będzie zmienną losową o rozkładzie N(θ, 1) i niech strata spowodowanaszacowaniem θ za pomocą θ(X) ma postać

aθ(X)− θ, gdy θ(X) ≥ θ,bθ − θ(X), gdy θ(X) < θ,

Copyright c⃝ Stanisław Jaworski & Wojciech Zieliński

Page 158: Zbiór zadań z rachunku prawdopodobieństwa i statystyki

158 Podejmowanie decyzji statystycznych Wersja 3/12/2014

gdzie a > 0 oraz b > 0. Pokazać, że ryzyko estymatora θk postaci

θk(X) = X − k

wyraża się wzorem(a+ b)φ(k) + kΦ(k) − ka,

gdzie φ i Φ są odpowiednio gęstością i dystrybuantą rozkładu N(0, 1). Następnie po-kazać, że w klasie θk : k rzeczywiste istnieje estymator o jednostajnie minimalnymryzyku i że to minimalne ryzyko jest równe

(a+ b)φ[Φ−1

(a

a+ b

)].

24.8. Bochenek chleba musi ważyć co najmniej w gramów. W pewnej piekarni ciężarchleba w dużym wypieku jest zmienną losową o rozkładzie N(µ, 1/τ). Parametr µjest wielkością regulowaną, natomiast τ zmienia się od wypieku do wypieku wedługrozkładu chi–kwadrat o ν stopniach swobody. Koszt produkcji bochenka chleba, gdyśredni ciężar jest równy µ wynosi k + lµ, a cena zbytu bochenka o prawidłowymciężarze jest równa m. Bochenki o zbyt małym ciężarze nie przynoszą zysku. Pokazać,że średni zysk na bochenku, gdy wypiek ustawiony jest na wielkość µ, wynosi

mΨ(µ− w)√n − (k + lµ),

gdzie Ψ jest rozkładem t o ν stopniach swobody. Wyznaczyć na tej podstawie najlep-szą wartość µ.

24.9.W procesie mierzenia zawartości RNA w pewnych komórkach pojawia się trud-ność związana z tym, że dwie komórki mogą znajdować się tak blisko siebie, iż stająsię nierozróżnialne. Wykonuje się dwa niezależne pomiary X1 i X2, przy czym każdyz nich może odnosić się do jednej lub dwóch (niezależnych) komórek. Należy zdecy-dować, czy dana para pomiarów dotyczy dwóch pojedynczych komórek, jednej poje-dynczej komórki i jednej pary, czy też dwóch par komórek.

Przypuśćmy, iż wiadomo, że zawartość pojedynczej komórki, mierzona w odpowied-nich jednostkach, ma rozkład o gęstości xe−x (x ≥ 0) i że prawdopodobieństwo apriori tego, że pomiar dotyczy dwóch komórek zamiast jednej wynosi π. Przypuśćmyrównież, że strata jest równa zeru, gdy decyzja jest prawidłowa i jest równa jedności,gdy decyzja jest błędna. Naszkicować na płaszczyźnie (x1, x2) rozwiązanie bayesow-skie tego zagadnienia.

24.10. Niech X1, X2, . . . , Xn będą kolejnymi pomiarami intensywności sygnału ra-diowego rejestrowanymi za pomocą pewnego odbiornika. Jeżeli był nadawany pewiensygnał, to wynik pomiaru ma postać Xj = aj + εj , gdzie a1, a2, . . . , an są znane, alosowe zakłócenia ε1, ε2, . . . , εn są realizacją wielowymiarowej zmiennej losowej o roz-kładzie normalnym ze średnią równą zeru i z macierzą kowariancji V . Jeżeli sygnałnie był nadawany, to Xj = εj (j = 1, 2, . . . , n). Należy zdecydować, czy sygnał został

Copyright c⃝ Stanisław Jaworski & Wojciech Zieliński

Page 159: Zbiór zadań z rachunku prawdopodobieństwa i statystyki

Wersja 3/12/2014 Podejmowanie decyzji statystycznych 159

rzeczywiście nadany. Prawdopodobieństwo a priori tego zdarzenia wynosi p. Stratyzwiązane z nieprawidłowym orzeczeniem, że sygnał został lub nie został nadany, sąrówne odpowiednio L − 1 i L2. Wyznaczyć regułę decyzyjną realizującą minimumoczekiwanych strat.

Przypuśćmy, że decyzję podejmuje się zgodnie z tą optymalną regułą i że pL2 =(1− p)L1. Jak wygląda optymalny ciąg ai sygnałów, jeżeli analiza mocy transmisjiprowadzi do ograniczenia

∑a2i = 1?

24.11.W celu podjęcia decyzji, którą z dwóch odmian pszenicy wprowadzić do maso-wej produkcji, wykonuje się eksperyment polegający na tym, że każdą z odmian badasię na n poletkach doświadczalnych. Obserwowane plony Xij (i = 1, 2, j = 1, 2, . . . , n)są niezależnymi zmiennymi losowymi o rozkładzie normalnym ze średnimi µi i warian-cją σ2, przy czym rozkład a priori parametru (µ1, µ2) jest taki, że µ1 i µ2 są niezależnei mają rozkłady brzegowe normalne o średnich równych odpowiednio α1 i α2 i wa-riancji σ20 . Wyznaczyć rozkład a posteriori (µ1, µ2) przy założeniu, że wariancja σ

2

jest znana. Pokazać, że gdy funkcje strat mają postać Li = −kµi (i = 1, 2), wtedyoczekiwane ryzyko osiąga minimum dla decyzji: wybrać odmianę 1, gdy X1·−X2· > club odmianę 2, gdy X1· −X2· < c, gdzie nXi· =

∑j Xij oraz c = (α2 − α1)σ2/(nσ20).

24.12. Niech (Xn) będzie ciągiem niezależnych zmiennych losowych o rozkładzie Pois-sona z jednakową średnią θ. W celu oszacowania θ obserwuje się ten ciąg sekwencyjnie.Zakładamy, że: początkowa wiedza o θ opisana jest za pomocą niewłaściwego rozkładua priori o stałej gęstości na przedziale (0,∞); strata spowodowana oszacowaniem θprzez θ wynosi (θ−θ)2; koszt każdej obserwacji jest równy c. Udowodnić, że optymalnabayesowska sekwencyjna reguła decyzyjna ma postać: przerwać obserwacje, gdy tylko∑ni=1Xi + 1 < cn

2(n+ 1) i za oszacowanie θ przyjąć∑ni=1(Xi + 1)/n.

24.13. Niech X1, X2, . . . , X10 będzie próbką losową z rozkładu normalnego N(0, θ).Wyznaczyć rozkład a posteriori parametru θ, gdy rozkład a priori tego parametrujest taki sam jak rozkład zmiennej losowej θ0ν0/χ2(ν0), gdzie θ0 i ν0 są dodatnimistałymi.

Wyznaczyć najlepszy bayesowski estymator punktowy θ, gdy funkcja straty ma postać(θ − θ)2. Wykazać, że gdy ν0 → 0 przy stałym θ0, wtedy

θ → 18

∑X2i .

Porównując estymator 18∑X2i z estymatorem różniącym się od niego pewnym mnoż-

nikiem pokazać, że jest to estymator niedopuszczalny.

Copyright c⃝ Stanisław Jaworski & Wojciech Zieliński

Page 160: Zbiór zadań z rachunku prawdopodobieństwa i statystyki

160 Statystyki próbkowe Wersja 3/12/2014

25. Statystyki próbkowe

Niech X1, . . . , Xn będzie próbą i niech X1:n ≤ · · · ≤ Xn:n będzie próbą uporządko-waną.

Kwantyl próbkowy. Kwantylem próbkowym rzędu q nazywamy X⌊qn⌋:n.

Mediana próbkowa. Medianą próbkową nazywamy kwantyl próbkowy rzędu 0.5,czyli X⌊0.5n⌋:n. Medianę próbkową oznaczamy przez medX1, . . . , Xn.

Średnia arytmetyczna.

X =1n

n∑i=1

Xi.

Suma kwadratów odchyleń.

varX =n∑i=1

(Xi −X)2.

Niech (X1, Y1), . . . , (Xn, Yn) będzie próbą dwuwymiarową.

Suma iloczynów odchyleń.

cov(X,Y ) =n∑i=1

(Xi −X)(Yi − Y ).

Copyright c⃝ Stanisław Jaworski & Wojciech Zieliński

Page 161: Zbiór zadań z rachunku prawdopodobieństwa i statystyki

Wersja 3/12/2014 Bibliografia 161

Bibliografia

ABT S. 1972: Matematyczno-statystyczne podstawy analizy rynku, PWE, Warszawa.

BOX G. E. P., HUNTER W. G., HUNTER J. S. 1978: Statistics for experimenters,Wiley.

BOX G. E. P., JENKINS G. M. 1983: Analiza szeregów czasowych, PWN, Warszawa.

BOŻYK Z., RUDZKI W. 1977: Metody statystyczne w badaniu jakości produktówżywnościowych i chemicznych, WNT, Warszawa.

BRANDT S. 1976: Metody statystyczne i obliczeniowe analizy danych, PWN, War-szawa.

BROSS J. B. 1965: Jak podejmować decyzje, PWN, Warszawa.

CRAMER H. 1957: Metody matematyczne w statystyce, PWN, Warszawa.

DĄBKOWSKI J. 1992:, Statgraphics, Komputerowa Oficyna Wydawnicza „HELP”,Warszawa.

DĄBROWSKI A., GNOT S., MICHALSKI A., SRZEDNICKA J. 1994: Statystyka,15 godzin z pakietem Statgraphics, Wydawnictwo Akademii Rolniczej, Wrocław.

DITTMANN P. 1998: Metody prognozowania sprzedaży w przedsiębiorstwie, wydanie3, Wydawnictwo Akademii Ekonomicznej im. Oskara Langego, Wrocław.

DOMAŃSKI C. 1979: Statystyczne testy nieparametryczne, PWE, Warszawa.

DRAPER N. R., SMITH H. 1966: Applied Regression Analysis, Wiley.

ELANDT R. 1964: Statystyka matematyczna w zastosowaniu do doświadczalnictwarolniczego, PWN, Warszawa.

FISZ M. 1958: Rachunek prawdopodobieństwa i statystyka matematyczna, PWN,Warszawa.

GAWĘCKI J., WAGNER W. 1984: Podstawy metodologii badań doświadczalnychw nauce o żywieniu i żywności, PWN, Warszawa.

GNANADESIKAN R. 1982: Statistical data analysis, Proceedings of Symposia inApplied Mathematics, Vol 28, American Mathematical Society, Providence, RhodeIsland.

GOLDBERGER A. S. 1975: Teoria ekonometrii, PWE, Warszawa.

GÓRCZYŃSKI J. 1993: Podstawy statystyki z przykładami w arkuszach kalkulacyj-nych, Fundacja „Rozwój SGGW”, Warszawa.

GREŃ J. 1984: Statystyka matematyczna. Modele i zadania, PWN, Warszawa

GUPTA R. P. 1975: Applied Statistics, North-Holland.

HALD A. 1957: Statistical Theory with Engineering Applications, Wiley.

HELLWIG Z. 1975: Elementy rachunku prawdopodobieństwa i statystyki matema-tycznej, PWN, Warszawa.

Copyright c⃝ Stanisław Jaworski & Wojciech Zieliński

Page 162: Zbiór zadań z rachunku prawdopodobieństwa i statystyki

162 Bibliografia Wersja 3/12/2014

JAJUGA K. 1993: Statystyczna analiza wielowymiarowa, Biblioteka ekonometryczna,PWN, Warszawa.

JAWORSKI S., KOBUS P., KOZIOŁ D., PIETRZYKOWSKI R., ZIELIŃSKI W.2001: Zbiór zadań z podstaw statystyki i ekonometrii, WSEI Warszawa

JAWORSKI S., KOBUS P., KOZIOŁ D., PIETRZYKOWSKI R., ZIELIŃSKI W.2005: Zbiór zadań z podstaw ekonometrii, WSEI Warszawa

JÓŹWIAK J., PODGÓRSKI J. 1993: Statystyka od podstaw, PWE, Warszawa.

KALA R. 1996: Elementy wnioskowania parametrycznego dla przyrodników, Wydaw-nictwo Akademii Rolniczej w Poznaniu, Poznań.

KASSYK-ROKICKA H. 1997: Statystyka. Zbiór zadań, PWE, Warszawa.

KASSYK-ROKICKA H. 1998: Mierniki statystyczne, PWE, Warszawa.

KLEIN L. R. 1965: Wstęp do ekonometrii, PWE, Warszawa.

KOBUS P., PIETRZYKOWSKI R., ZIELIŃSKIW. 2000: Statystyka z pakietem STA-TISTICA, wydanie II, Fundacja „Rozwój SGGW”, Warszawa.

KRISHNAIAH P. R. 1980: Handbook of Statistics, vol. 1 – Analysis of Variance,North-Holland.

KRYSICKI W., BARTOS J., DYCZKA W., KRÓLIKOWSKA K., WASILEWSKIM. 1994: Rachunek prawdopodobieństwa i statystyka matematyczna w zadaniach,Część II. Statystyka matematyczna, wyd. 2, PWN, Warszawa.

KRZYŚKO M. 1994: Statystyka matematyczna, UAM Poznań

KRZYŚKO M. 1997: Statystyka matematyczna, Część II, UAM Poznań

MICHALSKI T. 2000: Statystyka, WSiP, Warszawa.

NIEMIROW. 1999: Rachunek prawdopodobieństwa i statystyka matematyczna, Szko-ła Nauk Ścisłych, Warszawa

NOWAK E. 1994: Zarys metod ekonometrii, Zbiór zadań, PWN, Warszawa.

LANGE O. 1958: Wstęp do ekonometrii, PWN, Warszawa.

LEVIN R. I. 1987: Statistics for managament, Prentice-Hall.

LUSZNIEWICZ A., SŁABY T. 1997: Statystyka stosowana, PWE, Warszawa.

OKTABA W. 1982: Elementy statystyki matematycznej i metodyka doświadczalnic-twa, PWN, Warszawa.

OKTABA W. 1982: Metody statystyki matematycznej w doświadczalnictwie, PWN,Warszawa.

PAWŁOWSKI Z. 1978: Ekonometria, PWN, Warszawa.

PAWŁOWSKI Z. 1981: Statystyka matematyczna, PWN, Warszawa.

PLATT C. 1981: Problemy rachunku prawdopodobieństwa i statystyki matematycz-nej, PWN, Warszawa.

Copyright c⃝ Stanisław Jaworski & Wojciech Zieliński

Page 163: Zbiór zadań z rachunku prawdopodobieństwa i statystyki

Wersja 3/12/2014 Bibliografia 163

PODGÓRSKI J. 1993: Statystyka z komputerem, Pakiet STATGRAPHICS, „DIA-GRAM”, Warszawa.

RAO C. R. 1982: Modele liniowe statystyki matematycznej, PWN, Warszawa.

RAO C. R. 1994: Statystyka i prawda, PWN, Warszawa.

REICHMANN W. J. 1968: Drogi i bezdroża statystyki, PWN, Warszawa.

RÓSZKIEWICZ M. 1993: Statystyka – kurs podstawowy, SGH, Warszawa.

SCHEFFE H. 1959: The Analysis of Variance, Wiley.

SEARLE E. S. R. 1971: Linear models, Wiley.

SEARLE E. S. R. 1987: Linear Models for Unbalanced Data, Wiley.

SEBER G. A. F. 1977: Linear Regression Analysis, Wiley.

SRIVASTAVA J. N. 1975: A Survey of Statistical Design and Linear Models, North--Holland.

SILVEY S. D. 1978: Wnioskowanie statystyczne, PWN, Warszawa.

SOBCZAK M. 1997: Statystyka, PWE, Warszawa.

STANISZ A. 2001: Przystępny kurs statystyki w oparciu o program STATISTICAPL na przykładach z medycyny, Tom I, wydanie II, StatSoft Polska, Kraków.

STANISZ A. 2000: Przystępny kurs statystyki w oparciu o program STATISTICAPL na przykładach z medycyny, Tom II, StatSoft Polska, Kraków.

STANISZ T. 1993: Funkcje jednej zmiennej w badaniach ekonomicznych, Bibliotekaekonometryczna, PWN, Warszawa.

TUKEY J. W. 1977: Exploratory data analysis, Addison-Wesley Publishing Company.

WELFE W. 1977: Ekonometryczne modele rynku, tom 1, metody ekonometryczne,PWE, Warszawa.

WELFE W. 1990: Gospodarki Polski w okresie transformacji. Zasady modelowaniaekonometrycznego, PWE, Warszawa

WÓJCIK A. R. 1987: Statystyka matematyczna z elementami rachunku prawdopo-dobieństwa i statystyki opisowej, SGGW, Warszawa.

WÓJCIK A. R., LAUDAŃSKI Z. 1989: Planowanie i wnioskowanie statystyczne w do-świadczalnictwie, PWN, Warszawa.

ZIELIŃSKI R. 1976: Rachunek prawdopodobieństwa z elementami statystyki mate-matycznej, wyd. II, WSiP, Warszawa.

ZIELIŃSKI R. 1990: Siedem wykładów wprowadzających do statystyki matematycz-nej, http://www.impan.pl/∼rziel/Books.html

ZIELIŃSKI R., ZIELIŃSKI W. 1987: Podręczne tablice statystyczne, WNT, War-szawa.

ZIELIŃSKI R., ZIELIŃSKI W. 1990: Tablice statystyczne, PWN, Warszawa.

Copyright c⃝ Stanisław Jaworski & Wojciech Zieliński

Page 164: Zbiór zadań z rachunku prawdopodobieństwa i statystyki

164 Bibliografia Wersja 3/12/2014

ZIELIŃSKI T. 1999: Jak pokochać statystykę, czyli STATISTICA do poduszki, Stat-Soft Polska, Kraków

ZIELIŃSKI W. 1998: Analiza regresji, Fundacja „Rozwój SGGW”, Warszawa

ZIELIŃSKI W. 1999: Wybrane testy statystyczne, wydanie II poprawione, Fundacja„Rozwój SGGW”, Warszawa

ZIELIŃSKI W. 2000: Tablice statystyczne, wydanie IV poprawione, Fundacja „Roz-wój SGGW”, Warszawa

ZIELIŃSKI W. 2007: Teoretyczne podstawy ekonometrycznych jednorównaniowychmodeli liniowych, Wydawnictwo SGGW

ZIELIŃSKI W. 2010: Estymacja wskaźnika struktury, Wydawnictwo SGGW

Copyright c⃝ Stanisław Jaworski & Wojciech Zieliński