bağımlı kukla değişkenler öğr · bağımlı kukla değişkenler •bağımlı değişken...
TRANSCRIPT
Bağımlı Kukla Değişkenler
•Bağımlı değişken özünde iki değer alabiliyorsa yani bir özelliğin varlığı ya da yokluğu söz konusu ise bu durumda bağımlı kukla değişkenler söz konusudur.
•Bu durumdaki modelleri tahmin etmek için dört yaklaşım vardır:
-Doğrusal Olasılık Modeli
-Logit Modeli
-Probit Modeli
-Tobit Modeli
Doğrusal Olasılık Modeli
Yi = b1 + b2Xi +ui (1)
Yi= 1Eğer i. Birey istenen özelliğe sahipse(iki durumlu bağımlıdeğişken)
0 Diğer Durumlarda
Xi= Bağımsız değişken
Model, iki durumlu Y bağımlı değişkenini X’in doğrusal fonksiyonu olarak gösterir. Buna doğrusal olasılık modeli denir. Bu modele olasılıklı model denmesinin nedeni Y’nin X için şartlıbeklenen değerinin, Y’nin X için şartlı olasılığına eşit olmasıdır
E(Yi|Xi)=Pr(Yi=1| Xi)= b1 + b2Xi (2)
Basit doğrusal olasılıklı model şöyledir:
Olasılık 0 ile 1 arasında olduğundan aşağıdaki sınırlama daima geçerlidir:
0 ≤ E(Yi |Xi) ≤ 1
E(Yi |Xi)= b1 + b2Xi
2 nolu denklem şöyle ispatlanır:
Bilindiği gibi:
E(ui) = 0
Ayrıca
E(Yi|Xi)=Pr(Yi=1| Xi)= b1 + b2Xi (2)
Doğrusal Olasılık Modeli
Doğrusal Olasılık Modeli
E(Yi |Xi) = ΣYiPi=0.(1-Pi) + 1.(Pi) = Pi
E(Yi |Xi)= b1 + b2Xi = Pi
Beklenen değer tanımına göre
Yi Olasılık
0 1-Pi
1 Pi
Toplam 1
DOM Tahminindeki Sorunlar
ui hata teriminin normal dağılmayışı(binom dağılımlıdır)•Normallik varsayımının sağlanmaması durumunda tahmin ediciler sapmasızlıklarını korurlar.
•Nokta tahminde normallik varsayımı gözardı edilir.
•Örnek hacmi sonsuza giderken EKK tahmincileri çoğunlukla normal dağılıma uyarlar
•DOM ile yapılan istatistiksel çıkarsamalar normallik varsayımıaltındaki EKK sürecine uyarlar.
ui=Yi-b1-b2X (3)Yi=0 için ui=-b1-b2XYi=1 için ui=1-b1-b2X
DOM Tahminindeki Sorunlar
Yi ui İhtimal=P(ui)0 -b1-b2X (1-Pi)1 1-b1-b2X Pi
2 2i 1 2 i 1 2 iVar(u ) ( b b X) (1 P ) (1 b b X) (P )= − − − + − −
i 1 2 1 2Var(u ) (b b X)(1 b b X)= + − −
i i i i iVar(u ) E(Y | X )[1 E(Y | X )] P (1 P )= − = −
ui hata teriminin değişen varyanslı olması:
u ların varyansı farklıdır . u’nun varyansı Y’nin X için şartlıolasılığına bağlıdır. u’nun varyansı X’in değerine bağlıdır ve eşit değildir.
Yi ui İhtimal=P(ui)0 -b1-b2X (1-Pi)1 1-b1-b2X Pi
2 2i 1 2 i 1 2 iVar(u ) ( b b X) (1 P ) (1 b b X) (P )= − − − + − −
i 1 2 1 2Var(u ) (b b X)(1 b b X)= + − −
ui hata teriminin değişen varyanslı olması:
DOM Tahminindeki Sorunlar
0 ≤ E(Yi |Xi) ≤ 1 varsayımının yerine gelmeyişi:
Y tahminlerin 0’dan küçük ya da 1’den büyük çıkmasıdurumunda veri seti az ise 0’dan küçük değerlere “0”, 1’den büyük değerlere “1” değeri verilir. Eğer veri seti büyük ise gözlemler çıkartılabilir.
Belirlilik katsayısının güvenli olmaması:
Belirlilik katsayısı düşük çıktığından model seçiminde belirlilik katsayısı dikkate alınmaz.
Doğrusal Olasılık Modeli
Di = b1 + b2Mi +b3 Si +ui
Di= 1 Eğer i. Kadının bir işi varsa ya da iş arıyorsa
0 Diğer Durumlarda
Mi= 1 Eğer i. Kadın evliyse ve diğer durumlarda 0
Si = i.kadının yıl olarak aldığı eğitim
Di Mi Si Di Mi Si
1 0 16 1 0 101 1 14 1 1 141 1 16 0 1 100 0 9 0 1 121 0 12 1 0 130 1 12 1 0 141 0 14 1 1 121 0 10 0 1 70 0 12 0 1 111 0 8 0 1 121 0 11 1 1 101 0 14 1 0 150 1 12 0 1 101 1 13 0 1 110 1 9 1 1 12
Kadının İşgücüne KatılımıModeli:
Di= 1 i.Kadının bir işi varsa ya da iş arıyorsa
0 Diğer Durumlarda
Mi= 1 i. Kadın evliyse
0 diğer durumlarda
Si = i.kadının yıl olarak aldığı eğitim
Kadının İşgücüne KatılımıModeli
Di = b1 + b2Mi +b3 Si +ui
Dependent Variable: DI
Included observations: 30
Variable Coefficient Std. Error t-Statistic Prob.
C -0.284301 0.435743 -0.652452 0.5196
MI -0.381780 0.153053 -2.494430 0.0190
SI 0.093012 0.034598 2.688402 0.0121
R-squared 0.363455 Mean dependent var 0.600000
Adjusted R-squared 0.316304 S.D. dependent var 0.498273
S.E. of regression 0.412001 Akaike info criterion 1.159060
Sum squared resid 4.583121 Schwarz criterion 1.299179
Log likelihood -14.38590 F-statistic 7.708257
Durbin-Watson stat 2.550725 Prob(F-statistic) 0.002247
White Heteroskedasticity Test:F-statistic 1.759076 Probability 0.168742Obs*R-squared 6.589061 Probability 0.159265
Dependent Variable: RESID^2Included observations: 30Variable Coefficient Std. Error t-Statistic Prob. C -0.390620 0.700490 -0.557639 0.5821MI -0.410659 0.315325 -1.302336 0.2047MI*SI 0.036202 0.026225 1.380429 0.1797SI 0.132421 0.116635 1.135344 0.2670SI^2 -0.007102 0.004809 -1.476822 0.1522R-squared 0.219635 Mean dependent var 0.15277Adjusted R-squared 0.094777 S.D. dependent var 0.16180S.E. of regression 0.153942 Akaike info criterion -0.75347Sum squared resid 0.592452 Schwarz criterion 0.51994Log likelihood 16.30209 F-statistic 1.75907Durbin-Watson stat 1.963424 Prob(F-statistic) 0.16874
DOM’de Farklı Varyansı Önleme
ui hata teriminin değişen varyanslı olması:•Var(ui) = Pi(1-Pi)
1 2 i i
i i i i
b b X uYv v v v
= + +
i i i i iv E(Y | X )[1 E(Y | X )] P (1 P )= − = −
i i iˆ ˆv Y (1 Y )= −
Ancak burada anakütle değerleri
E(Yi |Xi)= Pi
bilinmediğinden, örnek tahmini ler hesaplanarak iYelde edilir.
DOM’de Farklı Varyansı Önleme
Dependent Variable:
Included observations: 30
Variable Coefficient Std. Error t-Statistic Prob.
-0.184154 0.316834 -0.581231 0.5659
-0.362893 0.135229 -2.683551 0.0123
0.081678 0.022231 3.674022 0.0010
R-squared 0.872710 Mean dependent var 2.190469
Adjusted R-squared 0.863281 S.D. dependent var 2.514662
S.E. of regression 0.929809 Akaike info criterion 2.786965
Sum squared resid 23.34273 Schwarz criterion 2.927085
Log likelihood -38.80448 F-statistic 92.55700
Durbin-Watson stat 2.583787 Prob(F-statistic) 0.000000
i 1 2 i 3 i iD v b v b M v b S v u v= + + +D / v
1/ vM / v
S/ v
UYGULAMA:Cep telefonunun kullanılıp kullanılmamasını ifade eden bağımlı kukla değişken 50 kişiye yapılan anket sonuncunda yaş ve aylık ortalama gelir ile açıklanmıştır.(Y=1, cep telefonuna sahip ise, Y=0 cep telefonuna sahip değilse)
Kişi Y X(Gelir) Z(Yaş) Kişi Y X(Gelir) Z(Yaş)1 1 250 23 26 0 185 212 1 350 21 27 1 250 213 0 150 23 28 1 500 214 1 600 22 29 1 790 235 1 200 22 30 1 500 226 0 150 20 31 1 675 227 1 390 27 32 1 490 228 0 200 18 33 1 500 21
9 0 900 25 34 1 760 2110 0 150 18 35 1 550 2611 0 255 18 36 1 400 2412 0 300 20 37 1 200 2113 1 640 25 38 0 220 2114 1 500 27 39 1 175 2315 1 300 22 40 1 840 2116 0 550 19 41 1 150 2317 1 800 18 42 1 200 2318 1 875 21 43 1 200 2319 0 600 17 44 1 485 2320 0 500 20 45 1 250 2121 0 500 19 46 1 300 2022 1 500 21 47 1 470 1923 1 550 22 48 1 800 2324 1 750 21 49 0 250 2125 1 225 23 50 0 130 23
Dependent Variable: YMethod: Least SquaresIncluded observations: 50
Variable Coefficient Std. Error t-Statistic Prob. C -1.373086 0.585035 -2.347017 0.0232X 0.000492 0.000259 1.900372 0.0635Z 0.086130 0.026781 3.216041 0.0024
R-squared 0.240106 Mean dependentvar0.700000Adjusted R-squared 0.207770 S.D. dependent var0.462910S.E. of regression 0.412024 Akaike info criterion1.122653Sum squared resid 7.978889 Schwarz criterion 1.2373Log likelihood -25.06633 F-statistic 7.425357Durbin-Watson stat 1.552777 Prob(F-statistic)0.001577
White Heteroskedasticity Test:F-statistic 2.305076 Probability 0.060504Obs*R-squared 10.37848 Probability 0.065195
Dependent Variable: RESID^2Included observations: 50Variable Coefficient Std. Error t-Statistic Prob. C 2.341377 2.147612 1.090224 0.2815X -0.004404 0.001530 -2.878146 0.0062X^2 1.63E-06 6.58E-07 2.475147 0.0172X*Z 0.000132 6.84E-05 1.927924 0.0603Z -0.116457 0.191111 -0.609369 0.5454Z^2 0.001301 0.004396 0.295915 0.7687R-squared 0.207570 Mean dependent var0.159578Adjusted R-squared 0.117521 S.D. dependent var 0.225222S.E. of regression 0.211574 Akaike info criterion -0.156314Sum squared resid 1.969602 Schwarz criterion 0.073128Log likelihood 9.907860 F-statistic 2.305076Durbin-Watson stat 2.375111 Prob(F-statistic) 0.060504
Kişi Kişi Kişi Kişi1 0.7308 16 0.5338 31 0.8536 46 0.49702 0.6077 17 0.5705 32 0.7627 47 0.49443 0.6817 18 0.8658 33 0.6815 48 1.00124 0.8167 19 0.3861 34 0.8093 49 0.55865 0.6201 20 0.5953 35 1.1367 50 0.67186 0.4233 21 0.5092 36 0.89077 1.1442 22 0.6815 37 0.53408 0.2756 23 0.7922 38 0.54389 1.2226 24 0.8044 39 0.6939
10 0.2510 25 0.7185 40 0.848611 0.3026 26 0.5266 41 0.681712 0.4970 27 0.5586 42 0.706213 1.0948 28 0.6815 43 0.706214 1.1982 29 0.9963 44 0.846315 0.6693 30 0.7676 45 0.5586
Y∧
Y∧
Y∧
Y∧
Dependent Variable: Method: Least Squares
Included observations: 50Variable Coefficient Std. Error t-Statistic Prob.
0.211853 0.604622 0.350388 0.7276-0.000120 0.000249 -0.481933 0.63210.029798 0.023603 1.262427 0.2130
R-squared 0.769835 Mean dependent var 2.679190Adjusted R-squared 0.760041 S.D. dependent var 3.426238S.E. of regression 1.678363 Akaike info criterion 3.931639Sum squared resid 132.3944 Schwarz criterion 4.046361Log likelihood -95.29098 F-statistic 78.60087Durbin-Watson stat 1.419773 Prob(F-statistic) 0.000000
1/ v
Y / v
X / vZ / v
DOM’e Alternatif Model Arama
•DOM ile ilgili sayılan sorunların hepsi bir şekilde aşılabilir
•Ancak, DOM
Pi=E(Y=1|X) olasılığının X’le doğrusal olarak arttığınıvarsayar. Yani X’deki marjinal veya küçük bir artış hep sabittir. Gerçek hayatta ise bu beklenen bir durum değildir.
•DOM ile ilgili sorunlar şu iki özellik sayesinde aşılabilir:
1.Xi arttıkça Pi=E(Y=1|X)’de artar ancak 0 ile 1 aralığının dışına çıkmaması istenir,
2.Pi ile Xi arasındaki ilişkinin doğrusal olmaması istenir.
DOM’e Alternatif Model AramaYukarıdaki özelliği taşıyan modelin şekli aşağıda verilmiştir:
0
1P
-∞ +∞X
KDF
•Yukarıdaki eğri kümülatif dağılım fonksiyonuna benzemektedir.
•Bu fonksiyon bağımlı kukla değişkenli regresyon modellerinde kullanılabilir.
Logistik Dağılım Fonksiyonu
i
i
P 1 1.1-P 1
zz
z z
e ee e
−
− −
+= =
+
1 2 ii (b b X )
1P =E(Y=1|X)1 e− +=+
11 iZe−=+
i1 1 11 - P 1
1 1 1
i i
i i i
z z
z z ze e
e e e
− −
− − −
+ −= − = =
+ + +
Bahis ya da olabilirlik oranı
Zi = b1 + b2Xi
Logit Model
•Zi, -∞ ile +∞ arasında değerler alırken Pi’nin aldığı değerler ise 0 ile 1 arasında değişmektedir.
•Zi ile Pi arasındaki ilişki doğrusal değildir.
1 2ln1
ii i
i
PL Z b b XP
⎡ ⎤= = = +⎢ ⎥−⎣ ⎦
Kümülatif logistik fonksiyon
Li fark oranı logaritması olup hem X hem de bi parametrelerine göre doğrusaldır.
Logistik modelde b2 katsayısı, X’deki bir birimlik artışın L’de(yani ev sahibi olma lehine fark oranında ) yapacağı artışı gösterir.
Logit Model
Logit Modelin Özellikleri
Pi=1 ⎥⎦⎤
⎢⎣⎡=⎥⎦
⎤⎢⎣⎡−
=⎥⎦
⎤⎢⎣
⎡− 0
1ln11
1lnP1
Plni
i = +∞
Pi=0 ⎥⎦⎤
⎢⎣⎡=⎥⎦
⎤⎢⎣⎡−
=⎥⎦
⎤⎢⎣
⎡− 1
0ln01
0lnP1
Plni
i= -∞
1. Pi, 0’dan 1’e kadar değer aldığında, Logitte -∞ile +∞ arasında değer alır.
2. Logit, X’e göre doğrusal iken olasılıklara göre değildir.
3. Logit modelin b2 katsayısı şu şekilde yorumlanır: Bağımsız değişkendeki bir birimlik değişme karşısında Logitteki değişmeyi gösterir.
4. Logit model tahmin edildikten sonra, X bağımsız değişkeninin belirli bir değeri için logitin gerçekleşme olasılığı hesaplanabilir.
Logit Modelin EKKY İle Tahmini
1.Adım: olasılıkları hesaplanır.i i iP n N=
2.Adım: fark oranı logaritmaları hesaplanır.i i iL ln(P 1 P )= −
3.Adım: orijinal lojistik modeli tahminlenir.i 1 2 i iL b b X u= + +
i i i iL ln[n (N n )]= −
Farklı varyans durumu söz konusu ise; orijinal lojistik modelin her iki tarafı da ile çarpılarak dönüşümlü lojistik model elde edilir.iv
i 1 2 i iL b b X u= + + i i i iv N P (1 P )= −
Farklı varyans durumu söz konusu ise; orijinal lojistik modelin her iki tarafı da ile çarpılarak dönüşümlü lojistik model elde edilir.
iv
i i 1 i 2 i i i iv L b v b v X v u= + +
Logit Modelin EKKY İle Tahmini
* *1 i 2 i iL b v b X w= + + Dönüşümlü veya Tartılı
EKK Lojistik Modeli
i i i iv N P (1 P )= −
i i iw u v=
Logistik Model Uygulaması300 aileden oluşan küçük bir kasabada ailelerin, yıllık gelirleri (Xi) ve ev sahibi olanların sayısı (ni) aşağıdaki tabloda gösterilmiştir.
XMilyon TL)
Aile Sayısı=Ni
Ev Sahibi Olan Aile Sayısı=ni
Nispi Frekanslar
Pi=ni/Ni
12 20 5 0.2516 25 6 0.2420 35 10 0.2826 45 15 0.3330 50 25 0.5040 34 18 0.5350 30 20 0.6660 26 16 0.6170 20 15 0.7580 15 10 0.67
ΣNi = 300 Σni = 140
Logistik Model UygulamasıXi
112162026304050607080
Ni
220253545503430262015
ni
356
1015251820161510
Pi
4=3/20.250.240.280.330.500.530.660.610.750.67
1-Pi
5=1-40.750.760.720.670.500.470.340.390.250.33
Pi /1- Pi
6=4/50.330.310.390.491.001.131.941.563.002.03
Li
7=ln(6)-1.1086-1.1712-0.9416-0.71330.00000.12220.66260.44461.09860.7080
Logistik Model Uygulaması
Dependent Variable: L
Method: Least Squares
Included observations: 10
Variable Coefficient Std. Error t-Statistic Prob.
C -1.409706 0.215776 -6.533192 0.0002
X 0.032669 0.004667 7.000011 0.0001
R-squared 0.859649 Mean dependent var -0.089870
Adjusted R-squared 0.842106 S.D. dependent var 0.835010
S.E. of regression 0.331799 Akaike info criterion 0.808280
Sum squared resid 0.880723 Schwarz criterion 0.868797
Log likelihood -2.041402 F-statistic 49.00015
Durbin-Watson stat 1 .582165 Prob(F-statistic) 0.000113
Logistik Model Uygulamasıv=N.P.(1-P)
8=2.4.53.754.567.059.95
12.508.476.736.183.753.31
√vi
9= √81.93652.13542.65523.15433.53552.91032.59422.48591.93651.8193
L*10=7.9-2.1468-2.5009-2.5001-2.49990.00000.35561.71891.10522.12741.2880
X*11=1.923.237934.166653.103682.0134
106.0660116.4130129.7112149.1576135.5544145.5472
Logistik Model Uygulaması
Li*= -1.38056 √vi + 0.03363 Xi
*, s= 0.8421
s(bi): (0.2315) (0.00556) , R2= 0.80
t= (-5.9617) (6.0424) , d= 1.649, F= 36.95
Gelir bir birim arttığında ev sahibi olma lehine fark oranının logaritması 0.033 artmaktadır.
Bu fark oranından hareketle belli bir gelir düzeyinde ev sahibi olma olasılığı bulunabilir:
X=40 ise
Li*= -1.38056 (2.9103) + 0.03363 (116.413)=-0.10288
antilog(-0.10288))=0.9022
(P/1-P)=0.9022 ise P=0.4743
40 birim gelirli bir ailenin ev sahibi olma olasılığı%47.43’dür.
Logistik bir modelde belli bir gelir düzeyinde, gelirdeki bir birim artışın ev sahibi olma olasılığını ne ölçüde arttıracağı tahmin edilebilir:
b2(1-P)P formülünden
X=40 iken
gelir bir birim daha arttığında ev sahibi olma olasılığı
(0.03363)(1-0.4743).0.4743=0.00838
Probit Model
12
0 2 22
πσμ σ
−∞− −∫
Z Ze z( ) /F(z)= P R O B İ T (NORMAL) MODEL
FAYDA İNDEKSİ Ii= b1 + b2 Xi
Ii* ≤ Ii ifadesi faydanın belli bir eşik değerinden sonra söz konusu olabileceğini
gösterir.
Normal dağılım varsayımıyla Ii* ın Ii den küçük veya eşit olma ihtimali şu
standartlaştırılmış normal KDF ile hesaplanabilir:
Pi=Pr(Y=1)=Pr(Ii*≤ Ii)=F(Ii)
=π ∫ ∞−
−i 2I 2/t dte21 1
2
2 21 2π
e dttb b Xi −−∞
+∫ /
Probit Model
0
1Pi=F(Ii)
-∞ +∞
0
1Pi=F(Ii)
-∞ +∞
Pi
Ii= b1 + b2 Xi
Pi
Ii=F-1(Pi )
Ii verilmişken, ordinatta Pi ihtimali bulunur
Pi verilmişken, absiste Ii bulunur.
Probit Modelin Tahmin Aşamaları1. Pi= ni/Ni hesaplanır.
2. Ii = F-1 (Pi)= normal eşdeğer sapma bulunur.
3. Ii = b1 + b2 Xi + ui EKK ile tahmin edilir.
4. İstenirse, Ii yerine, (Ii + 5)=probit değerleri alınarak, EKKY ile (13.19) tahmin edilir.
5. modelinin hata terimi ui farklı varyanslıdır. Bu sebepten dönüşümlü değerler alınarak TEKKY uygulanabilir:=
=σ2u
P PN f
i i
i i
( )1− fi= F-1 (Pi) ifadesine eşit standart normal yoğunluk fonksiyonudur.
6. Büyük örnekler için bi'lerin güven aralıkları ve hipotez testleri uygulanarak, anakütlede durumun geçerliliği araştırılabilir.
7. Belirlilik katsayısı R2, modelin fonksiyonel biçiminin iyi seçilip seçilmediği konusunda bize fikir vermez.
Probit Model Uygulaması
Pi
0.250.240.280.330.500.530.660.610.750.67
Ii=F-1(Pi)-0.6745-0.7063-0.5828-0.43990.00000.07520.41240.27930.67450.4399
Probitler=Zi=(Ii+5)4.32554.29374.41724.56015.00005.07525.41245.27935.67455.4399
Xi12162026304050607080
Probit Model Uygulaması
Ii= -0.8587 + 0.0200 Xi , r2= 0.8628 r= 0.9289
s(bi) (0.0028) s= 0.2 d= 1.59
t= (7.094)
Zi= 4.1324 + 0.0201 Xi , r2= 0.8621 r= 0.9285
s(bi) (0.0028) s= 0.2 d= 1.5637
t= (7.071)
Probit Model Uygulaması
Ii= -0.8587 + 0.0200 Xi , r2= 0.8628 r= 0.9289
X =12 için Ii = -0.62 ve P = 0.26
X =30 için Ii = -0.26 ve P = 0.39
Wooldridge Example 17.1
inlf kidslt6 kidsge6 age educ exper nwifeincexpersq
Obs: 753
1. inlf =1 işgücüne katılıyorsa2. kidslt6 6 < yaşında küçük çocuk sayısı3. kidsge6 6-18 yaşları arasındaki çocuk sayısı4. age kadının yaşı5. educ eğitim yılı6. exper deneyim7. nwifeinc (ailegeliri – ücret*saat)/10008. expersq deneyimkare
Wooldridge Example 17.1-DOMDependent Variable: INLF
Method: Least Squares Included observations: 753
Variable Coefficient Std. Error t-Statistic Prob.
NWIFEINC -0.003405 0.001448 -2.350840 0.0190
EDUC 0.037995 0.007376 5.151194 0.0000
EXPER 0.039492 0.005673 6.961866 0.0000
EXPERSQ -0.000596 0.000185 -3.226959 0.0013
AGE -0.016091 0.002485 -6.476014 0.0000
KIDSLT6 -0.261810 0.033506 -7.813888 0.0000
KIDSGE6 0.013012 0.013196 0.986077 0.3244
C 0.585519 0.154178 3.797683 0.0002
R-squared 0.264216 Mean dependent var 0.568393
Adjusted R-squared 0.257303 S.D. dependent var 0.495630
S.E. of regression 0.427133 Akaike info criterion 1.147124
Sum squared resid 135.9197 Schwarz criterion 1.196251
Log likelihood -423.8923 F-statistic 38.21795
Durbin-Watson stat 0.493840 Prob(F-statistic) 0.000000
Wooldridge Example 17.1-LOGİTDependent Variable: INLF Method: ML - Binary Logit Included observations: 753
Variable Coefficient Std. Error z-Statistic Prob.
NWIFEINC -0.021345 0.008421 -2.534621 0.0113
EDUC 0.221170 0.043440 5.091443 0.0000
EXPER 0.205870 0.032057 6.422002 0.0000
EXPERSQ -0.003154 0.001016 -3.104093 0.0019
AGE -0.088024 0.014573 -6.040235 0.0000
KIDSLT6 -1.443354 0.203585 -7.089695 0.0000
KIDSGE6 0.060112 0.074790 0.803750 0.4215
C 0.425452 0.860369 0.494500 0.6210
Mean dependent var 0.568393 S.D. dependent var 0.495630
S.E. of regression 0.425963 Akaike info criterion 1.088354
Sum squared resid 135.1762 Schwarz criterion 1.137481
Log likelihood -401.7652 Hannan-Quinn criter. 1.107280
Restr. log likelihood -514.8732 Avg. log likelihood -0.533553
LR statistic (7 df) 226.2161 McFadden R-squared 0.219681
Probability(LR stat) 0.000000
Obs with Dep=0 325 Total obs 753
Obs with Dep=1 428
Wooldridge Example 17.1-PROBİTDependent Variable: INLF Method: ML - Binary Probit Included observations: 753
Variable Coefficient Std. Error z-Statistic Prob.
NWIFEINC -0.012024 0.004840 -2.484327 0.0130
EDUC 0.130905 0.025254 5.183485 0.0000
EXPER 0.123348 0.018716 6.590348 0.0000
EXPERSQ -0.001887 0.000600 -3.145205 0.0017
AGE -0.052853 0.008477 -6.234656 0.0000
KIDSLT6 -0.868329 0.118522 -7.326288 0.0000
KIDSGE6 0.036005 0.043477 0.828142 0.4076
C 0.270077 0.508593 0.531027 0.5954
Mean dependent var 0.568393 S.D. dependent var 0.495630
S.E. of regression 0.425945 Akaike info criterion 1.087124
Sum squared resid 135.1646 Schwarz criterion 1.136251
Log likelihood -401.3022 Hannan-Quinn criter. 1.106050
Restr. log likelihood -514.8732 Avg. log likelihood -0.532938
LR statistic (7 df) 227.1420 McFadden R-squared 0.220581
Probability(LR stat) 0.000000
Obs with Dep=0 325 Total obs 753
Obs with Dep=1 428
Regresyon Katsayılarının En Çok Olabilirlik Tahminleri
EKKY dışında en çok kullanılan alternatif bir yöntem En Çok
Olabilirlik Yöntemi’dir. Büyük örneklerde her iki yöntemde
yakın sonuçlar vermektedir. Küçük örneklerde ise En Çok
Olabilirlik Yönteminde s2 sapmalıdır. Oysa EKKY’de s2
sapmasızdır.
9
Y’lerin olasılık yoğunluk fonksiyonları.
X
Y
Xi
β1
β1 + β2Xi
Y = β1 + β2X
2
21 21
21)(
⎟⎠⎞
⎜⎝⎛ −−
−= σ
ββ
πσ
ii XY
i eYf
Regresyon Katsayılarının En Çok Olabilirlik Tahminleri
10
Ortak yoğunluk fonksiyonları her bir yoğunluk fonksiyonunun çarpımına eşittir.
2
21 21
21)(
⎟⎠⎞
⎜⎝⎛ −−
−= σ
ββ
πσ
ii XY
i eYf
2
212
21
1
211211
21...
21)(...)(
⎟⎠⎞
⎜⎝⎛ −−
−⎟⎠⎞
⎜⎝⎛ −−
−××=×× σ
ββσββ
πσπσ
nn XYXY
n eeYfYf
Regresyon Katsayılarının En Çok Olabilirlik Tahminleri
11
Olabilirlik fonksiyonunu β1, β2 ve σ ya göe kısmi türevlerini alarak en çok olabilirlik tahminlerini elde edebiliriz.,
2
21 21
21)(
⎟⎠⎞
⎜⎝⎛ −−
−= σ
ββ
πσ
ii XY
i eYf
2
212
21
1
211211
21...
21)(...)(
⎟⎠⎞
⎜⎝⎛ −−
−⎟⎠⎞
⎜⎝⎛ −−
−××=×× σ
ββσββ
πσπσ
nn XYXY
n eeYfYf
( )2
212
21
121
211211
21...
21,...,|,,
⎟⎠⎞
⎜⎝⎛ −−
−⎟⎠⎞
⎜⎝⎛ −−
−××= σ
ββσββ
πσπσσββ
nn XYXY
n eeYYL
Regresyon Katsayılarının En Çok Olabilirlik Tahminleri
12
2
21 21
21)(
⎟⎠⎞
⎜⎝⎛ −−
−= σ
ββ
πσ
ii XY
i eYf
2
212
21
1
211211
21...
21)(...)(
⎟⎠⎞
⎜⎝⎛ −−
−⎟⎠⎞
⎜⎝⎛ −−
−××=×× σ
ββσββ
πσπσ
nn XYXY
n eeYfYf
( )2
212
21
121
211211
21...
21,...,|,,
⎟⎠⎞
⎜⎝⎛ −−
−⎟⎠⎞
⎜⎝⎛ −−
−××= σ
ββσββ
πσπσσββ
nn XYXY
n eeYYL
⎟⎟⎟
⎠
⎞
⎜⎜⎜
⎝
⎛××=
⎟⎠⎞
⎜⎝⎛ −−
−⎟⎠⎞
⎜⎝⎛ −−
−2XY
212XY
21 n21n1211
e2
1...e2
1lnLln σββ
σββ
πσπσ
Regresyon Katsayılarının En Çok Olabilirlik Tahminleri
⎟⎟⎟
⎠
⎞
⎜⎜⎜
⎝
⎛××=
⎟⎠⎞
⎜⎝⎛ −−
−⎟⎠⎞
⎜⎝⎛ −−
−2XY
212XY
21 n21n1211
e2
1...e2
1lnLln σββ
σββ
πσπσ
221i2 XY
212ln
2nln
2nLln ∑ ⎟
⎠⎞
⎜⎝⎛ −−
−−−=σ
ββπσ
( ) ( ) 01XY2*21Lln
221i
1=−∑ −−
−=∂∂
σββ
β∑ ∑+= i21i XnY ββ
( ) ( ) 0XXY2*21Lln
i2i21i
2=−∑ −−
−=∂∂
σββ
β∑ ∑+∑= 2
2i1ii iXXYX ββ
Regresyon Katsayılarının En Çok Olabilirlik Tahminleri
( )4
221i
22XY*2*
211
2nLln
σσββ
σσ∑ −−
−−=∂∂
( ) 0XYnLln3
221i
2
2 =∑ −−+−=
∂∂
σββσ
σ
( )n
XY 221i2 ∑ −−
=ββσ
Regresyon Katsayılarının En Çok Olabilirlik Tahminleri
Örnek
Kadının İşgücüne KatılımıModeli:
Di= 1 i.Kadının bir işi varsa ya da iş arıyorsa
0 Diğer Durumlarda
Mi= 1 i. Kadın evliyse
0 diğer durumlarda
Si = i.kadının yıl olarak aldığı eğitim
Ai= i. Kadının Yaşı
Logit Model TahminleriDependent Variable: DI
Method: ML - Binary Logit
Included observations: 30
Convergence achieved after 5 iterations
Covariance matrix computed using second derivatives
Variable Coefficient Std. Error z-Statistic Prob.
C -5.895933 3.324731 -1.773356 0.0762
MI -2.586110 1.180162 -2.191318 0.0284
SI 0.690368 0.315828 2.185899 0.0288
Mean dependent var 0.600000 S.D. dependent var 0.498273
S.E. of regression 0.399177 Akaike info criterion 1.085128
Sum squared resid 4.302237 Schwarz criterion 1.225248
Log likelihood -13.27693 Hannan-Quinn criter. 1.129954
Restr. log likelihood -20.19035 Avg. log likelihood -0.442564
LR statistic (2 df) 13.82685 McFadden R-squared 0.342412
Probability(LR stat) 0.000994
Obs with Dep=0 12 Total obs 30
Obs with Dep=1 18
UYGULAMA: Kasımpatı yaprak bitkilerini öldüren bir ilaçtan 1 Ltsuya konan dozlar (X, Miligram), yaklaşık 50cl.’lik bit grupları(Ni) üzerine sıkılmış ve ölen bit sayısı (ni) aşağıdaki gibi tesbit edilmiştir:
Doz(Litre başına mg) XGruplardaki yaprak
biti sayısı (Ni)Ölen (ni) Li
2.6 50 6 ‐1.993.8 48 16 ‐0.695.1 46 24 0.097.7 49 42 1.7910.2 50 44 1.99
Bu verilerle ilgili Logit tahmin modeli aşağıdaki gibidir:
Dependent Variable: LIMethod: Least SquaresIncluded observations: 5
Variable Coefficient Std. Error t-Statistic Prob. C -2.850133 0.602091 -4.733723 0.0179X 0.525044 0.092785 5.658686 0.0109
bir ilaçtan 1 Lt suya konan dozlar (X, Miligram),
50cl.’lik bit grupları(Ni)
ölen bit sayısı (ni)
a) Katsayı tahminlerini yorumlayınız
b) X=7.7 miligram doz seviyesinde ölüm ihtimali P’yihesaplayınız.
ii
i
PL ln( ) 2.85 0.525X1 P
= = − +−
ii
i
PL ln( ) 2.85 0.525(7.7) 1.1921 P
= = − + =−
i
i
Pln( ) 1.19251 P
=−
i
i
P 2.831 P
=− iP 0.739=
UYGULAMA: Aşağıda bir okulun eğitimi ile ilgili verileri kullanarak Probit denklemini çıkartınız.
GRADE: Yeni bir tekniğin uygulanması sonucu öğrencilerin elde ettiği başarıPSI: Yeni Öğretme YöntemiGPA: Çocuğun Ortalama DerecesiTUCE: Sınav Öncesi Konu ile ilgili Bilgi SKoru
Dependent Variable: GRADEMethod: ML - Binary ProbitIncluded observations: 32Convergence achieved after 5 iterations
Variable Coefficient Std. Error z-Statistic Prob. C -7.452320 2.542472 -2.931131 0.0034GPA 1.625810 0.693882 2.343063 0.0191PSI 1.426332 0.595038 2.397045 0.0165TUCE 0.051729 0.083890 0.616626 0.5375
GRADE: Yeni bir tekniğin uygulanması sonucu öğrencilerin elde ettiği başarıPSI: Yeni Öğretme YöntemiGPA: Çocuğun Ortalama DerecesiTUCE: Sınav Öncesi Konu ile ilgili Bilgi Skoru
Dependent Variable: GRADEMethod: ML - Binary LogitSample: 1 32
Variable Coefficient Std. Error z-Statistic Prob. C -13.02135 4.931317 -2.640541 0.0083GPA 2.826113 1.262940 2.237726 0.0252PSI 2.378688 1.064563 2.234426 0.0255TUCE 0.095158 0.141554 0.672235 0.5014
GRADE: Yeni bir tekniğin uygulanması sonucu öğrencilerin elde ettiği başarıPSI: Yeni Öğretme YöntemiGPA: Çocuğun Ortalama DerecesiTUCE: Sınav Öncesi Konu ile ilgili Bilgi SKoru