ankara Ünİversİtesİ fen bİlİmlerİ enstİtÜsÜ doktora...
Post on 27-Dec-2019
5 Views
Preview:
TRANSCRIPT
ANKARA ÜNİVERSİTESİ FEN BİLİMLERİ ENSTİTÜSÜ
DOKTORA TEZİ
ÖRÜNTÜ TANIMA ve GÖRÜNTÜ ANALİZİNDE RASGELE YAPAY SİNİR AĞI KULLANIMIYLA BOOLEAN RASGELE KÜMELERİN MODELLENMESİ
Tansu KÜÇÜKÖNCÜ
İSTATİSTİK ANABİLİM DALI
ANKARA 2007
Her hakkı saklıdır.
Prof. Dr. Ömer L. GEBİZLİOĞLU danışmanlığında, Tansu KÜÇÜKÖNCÜ tarafından hazırlanan “Örüntü Tanıma ve Görüntü Analizinde Rasgele Yapay Sinir Ağı Kullanımıyla Boolean Rasgele Kümelerin Modellenmesi” adlı tez çalışması 22/03/2007 tarihinde aşağıdaki jüri tarafından oy birliği ile Ankara Üniversitesi Fen Bilimleri Enstitüsü İstatistik Anabilim Dalı’nda DOKTORA TEZİ olarak kabul edilmiştir.
Başkan : Doç. Dr. Sibel TARI
Orta Doğu Teknik Üniversitesi, Müh. Fak.,
Bilgisayar Mühendisliği Bölümü
Üye : Prof. Dr. Ömer L. GEBİZLİOĞLU
İstatistik A.B.D.
Üye : Prof. Dr. Ayşen APAYDIN
İstatistik A.B.D.
Üye : Prof. Dr. Fikri ÖZTÜRK
İstatistik A.B.D.
Üye : Doç. Dr. H. Gökhan İLK
Elektronik Mühendisliği A.B.D.
Yukarıdaki sonucu onaylarım.
Prof. Dr. Ülkü MEHMETOĞLU
Enstitü Müdürü
i
ÖZET
Doktora Tezi
ÖRÜNTÜ TANIMA ve GÖRÜNTÜ ANALİZİNDE RASGELE YAPAY SİNİR AĞI KULLANIMIYLA BOOLEAN RASGELE KÜMELERİN MODELLENMESİ
Tansu KÜÇÜKÖNCÜ
Ankara Üniversitesi Fen Bilimleri Enstitüsü İstatistik Anabilim Dalı
Danışman : Prof. Dr. Ömer L. GEBİZLİOĞLU
Doğrusal ya da doğrusal olmayan işleçlerle şekillerden elde edilen çıktılara istatistiksel yöntemlerin uygulanmasına dayanan istatistiksel şekil inceleme çalışmaları, Rasgele Kümeler ve Boolean modeli gibi şekilleri tanımlayıcı ve Matematiksel Morfoloji gibi şekillerin incelenmesinde kullanılan işleçler ve yöntemler sağlayıcı ve Rasgele Yapay Sinir Ağları (RYSA) gibi genel amaçlı çözüm yöntemleri sağlayıcı kuramsal çalışmalarla desteklenmektedir. Bu çalışmada Boolean rasgele kümeler RYSA yardımıyla görüntü analizi ve örüntü tanıma çerçevesinde modellenmiştir. Rasgele Kümeler ve Boolean modeli, Matemetiksel Morfoloji ve RYSA ilk kez bir uygulamada bir arada kullanılmıştır. Boolean rasgele kümelerin incelenmesinde ve modellenmesinde ilk kez yapay sinir ağlarından yararlanılmıştır. Çok girdili VE ve VEYA işleçleri RYSA ile ilk kez gerçeklenmiştir. Morfolojik işleçler, RYSA ile ilk kez gerçeklenmiştir. Geliştirilen yöntem, düzgün sınırlı kesikli Boolean rasgele küme (DSKBRK) görüntülerinin incelenmesi için tasarlanmıştır. Yöntem, sentetik, doğal, ve farklı algılayıcılardan elde edilen DSKBRK görüntülerinin incelenmesine uygun olup, geniş bir yelpazede uygulama gizilgücüne sahiptir. Bu çalışmada Boolean model parametresi olarak büyüklük ölçüleri, şekil büyüklüğü dağılımı, yoğunluğu, spektrumu, ve beklenen değeri kullanılmıştır. Boolean model parametreleri, DSKBRK görüntülerinin morfolojik eleklerden geçirilerek elde edilen verilerle, deneysel tahmin edici yöntemi, ve Monte Carlo tahmin edici yöntemi kullanılarak tahmin edilmiştir. Monte Carlo yönteminde Boolean Rasgele Kümelerin benzetişimi, iki boyutlu Poisson benzetişim yöntemi ile yapılmıştır. Morfolojik elekler, aşınma ve genişleme kombinasyonları olan açılış ve kapanış işlemleridir, ve çok girdili VE ve VEYA işlemlerinin kombinasyonlarını yerine getiren RYSA mimarileri ile gerçeklenmiştir. 2007 , 165 sayfa Anahtar Kelimeler : Rasgele Küme, Boolean Modeli, Matematiksel Morfoloji, Matematiksel Biçimbilim, Rasgele Yapay Sinir Ağı, Deneysel Tahmin Edici, Monte Carlo Tahmin Edicisi, Şekil Analizi, Görüntü Analizi, Örüntü Tanıma
ii
ABSTRACT
Ph.D. Thesis
MODELLING BOOLEAN RANDOM SETS FOR PATTERN RECOGNITION AND IMAGE ANALYSIS BY USING RANDOM NEURAL NETWORK
Tansu KÜÇÜKÖNCÜ
Ankara University Graduate School of Natural and Applied Sciences
Department of Statistics
Supervisor : Prof. Dr. Ömer L. GEBİZLİOĞLU Statistical shape analysis studies, which are based on application of statistical methods to data extracted from shapes via linear or nonlinear operators, are supported with theoretical studies such as Random Sets and Boolean model, which are descriptive for shapes, and Mathematical Morphology, which provides operators and methods to analyze shapes, and Random Neural Networks (RNN) that provide general purpose solution methods. In this study, Boolean random sets are modelled by using RNN from the perspective of image analysis and pattern recognition. For the first time Random Sets and Boolean Model, Mathematical Morphology, and RNN are used together in an application. Also among the firsts that are done in this thesis work comprise neural networks to analyze and to model Boolean random sets, and multiple input AND and OR functions and morphological operators that are implemented by using RNN. The developed method is designed to analyze uniformly bounded discrete boolean random sets (UBDBRS). It is appropriate for analyzing images which can be synthetic, natural, and obtained from different sensors. It also has an application potential in a wide spectrum. In this study, size measures such as shape size distribution, density and spectrum, and expected value are used as Boolean model parameters. Boolean model parameters are estimated by using experimental estimator and Monte Carlo Estimator, with data obtained morphologically sieving UBDBRS images. Boolean Random Sets are simulated for Monte Carlo method via two dimensional Poisson simulation. Morphological sieves are opening and closing functions which are combinations of erosion and dilation, and are implemented via RNN architectures which performs multiple input AND and OR functions. 2007 , 165 pages Key Words : Random Set, Boolean Model, Mathematical Morphology, Random Neural Network, Experimental Estimator, Monte Carlo Estimator, Shape Analysis, Image Analysis, Pattern Recognition
iii
CAN YOLDAŞIM BİRİCİK EŞİM ’e ve
UTKUCUM ’a
iv
TEŞEKKÜR
Bu tez çalışması, pek çok kişinin sağladığı destekle tamamlanabilmiştir. Öncelikle İstatistik konusunda ufkumu açan danışmanım Prof. Dr. Ömer L. Gebizlioğlu’na, bilgi birikimimi Belirsizliğin Bilimiyle birleştirmeme ve İstatistik doktorası yapmaya yönlendiren Yrd. Doç. Dr. Levent Özbek’e, Matematiksel Morfolojiyle tanıştırdığı ve ilgimi çektirdiği için Dr. Luc Vincent’e teşekkürlerimi sunarım. Sorularıma cevapları, yaklaşım ve kodlama önerileri, ve çalışmalarını ister istemez dakikalar içinde ilettiği için Asst. Prof. Dr. Krishnamoorthy Sivakumar’a (Washington State University, ECE Dept., USA), tez kitabına son halini verirkenki önerileri için Doç. Dr. Sibel Tarı’ya (ODTÜ Bilgisayar Müh. Böl.), önerileri için Prof. Dr. Mümtaz Yılmaz'a (EE Müh. Böl.), Prof. Dr. Ayşen Apaydın'a, Doç. Dr. Gökhan İlk'e (Elektronik Müh. Böl.), Yrd. Doç. Dr. Murat Hüsnü Sazlı'ya (Elektronik Müh. Böl.), çalışmalarını (basılmış, basılmamış, makale, bildiri, kitap, kitap bölümü, kitap taslağı, doktora tezi, teknik rapor, ders notu) yüzyüze görüşmelerimizde, postayla, e-postayla, ya da ftp ile kısa sürede sağlayan Prof. Dr. Erol Gelenbe’ye (Imperial College, ECE Dept., UK), Prof. Dr. Uğur Halıcı’ya (ODTÜ EE Müh. Böl), Doç. Dr. Sibel Tarı’ya, Prof. Dr. Ilya Molchanov’a (Uni. of Bern, Mathematical Statistics Dept., CH), Prof. Dr. John Ioannis Goutsias’a (JHU, ECE Dept., USA), Dr. Luc Vincent’e (Google, USA), Prof. Dr. Henk J.A.M. Heijmans’a (CWI, NL), Prof. Dr. Marie-Colette (M.N.M.) van Lieshout’a (CWI, NL), Dr. Robert L. Coultrip’e (USA), Dr. Gerasimos Potamianos’a (IBM Research, USA), Dr. Sinan Batman’a (Eastman Kodak Health Imaging, USA), C++ ile yazdığı RNN kaynak kodunu geliştirdiğim yazılıma uyarlayarak kullandığım Dr. Christopher Eric Cramer’e (Duke Uni., ECE Dept., USA), çalışmalarını internetten paylaşan kaynak yazarlarına, yazılım geliştirmede kullandığım QT (GNU) platformunu geliştirenlere, pek çok kaynağı edinebilmemi sağlayan, hediye eden Özgürcüm’e, Tano’ya, Lemi’ye, Tansel’e, Şükrü’ye, ODTÜ Kütüphanesi görevlisi arkadaşlara, sağladıkları donanım desteği için Ülküsel ve Selma’ya, diğer her türlü destekleri için Işık’a, Özgürcüm’e, vd arkadaşlarıma da teşekkürlerimi sunarım. Yapay sinir ağlarıyla ilk kez tanıştıran ve ilgimi çektiren Assoc. Prof. Dr. Gürsel Serpen’e (Uni. of Toledo, USA), görüntü analizi ve örüntü tanımayı öğreten ve sevdiren Prof. Dr. Fatoş Tünay Yarman-Vural’a (ODTÜ Bilgisayar Müh. Böl.) da teşekkürlerimi sunarım. Sağlık desteği için Tevfik’e, Naci abiye, vd doktor arkadaşlarıma, hukuk desteği için Koray’a ve Güler teyzeye, tez çalışmamın son aylarında müzikleriyle moral desteği için Okay Temiz’e de teşekkürlerimi sunarım. İstatistik Bölümünde Prof. Dr. Fikri Öztürk ve Yrd. Doç. Dr. Levent Özbek ile felsefi sohbetlerimiz ayrıca keyif vericiydi. Destekleri ve harika yemekleri için gönül zengini ikinci annemle ikinci babama. Kendileri için yaşamayıp “bir lokma, bir hırka” felsefesiyle çocukları için yaşayan ve ömürleri yokluk ve zorluklarla onurlu bir şekilde mücadele ederek geçen rahmetli Anişkom’a, ve Babişkom’a ayrıca teşekkür ederim.
v
Her türlü güçlüğe birlikte göğüs gerdiğimiz, birlikte yıkılmayıp birlikte ayakta kaldığımız, her zaman alnımız açık, göğsümüzü gere gere birlikte dimdik durduğumuz “can yoldaşım biricik eşim”e, ve verdiği her türlü destekle bu çalışmayı bitirebilmemi sağlayan biricik Utkucum’a, yine de yetersiz kalacak olsa da, sonsuz teşekkürlerimi, en güzel melodiler, ve en güzel görüntüler eşliğinde sunarım.
Yaşadıklarımdan Öğrendiğim Bir Şey Var (Ataol Behramoğlu , 1977, Kuşatmada) Yaşadıklarımdan öğrendiğim bir şey var: Yaşadın mı, yoğunluğuna yaşayacaksın bir şeyi Sevgilin bitkin kalmalı öpülmekten Sen bitkin düşmelisin koklamaktan bir çiçeği İnsan saatlerce bakabilir gökyüzüne Denize saatlerce bakabilir, bir kuşa, bir çocuğa Yaşamak yeryüzünde, onunla karışmaktır Kopmaz kökler salmaktır oraya Kucakladın mı sımsıkı kucaklayacaksın arkadaşını Kavgaya tüm kaslarınla, gövdenle, tutkunla gireceksin Ve uzandın mı bir kez sımsıcak kumlara Bir kum tanesi gibi, bir yaprak gibi, bir taş gibi dinleneceksin İnsan bütün güzel müzikleri dinlemeli alabildiğine Hem de tüm benliği seslerle, ezgilerle dolarcasına İnsan balıklama dalmalı içine hayatın Bir kayadan zümrüt bir denize dalarcasına Uzak ülkeler çekmeli seni, tanımadığın insanlar Bütün kitapları okumak, bütün hayatları tanımak arzusuyla yanmalısın Değişmemelisin hiç bir şeyle bir bardak su içmenin mutluluğunu Fakat ne kadar sevinç varsa yaşamak özlemiyle dolmalısın Ve kederi de yaşamalısın, namusluca, bütün benliğinle Çünkü acılar da, sevinçler gibi olgunlaştırır insanı Kanın karışmalı hayatın büyük dolaşımına Dolaşmalı damarlarında hayatın sonsuz taze kanı Yaşadıklarımdan öğrendiğim bir şey var: Yaşadın mı büyük yaşayacaksın, ırmaklara, göğe, bütün evrene karışırcasına Çünkü ömür dediğimiz şey, hayata sunulmuş bir armağandır Ve hayat, sunulmuş bir armağandır insana Tansu KÜÇÜKÖNCÜ Ankara, Mart 2007
vi
İÇİNDEKİLER ÖZET ....................................................................................................................... i ABSTRACT ............................................................................................................. ii TEŞEKKÜR ............................................................................................................ iv İÇİNDEKİLER ....................................................................................................... vi SİMGELER DİZİNİ ............................................................................................... viii ŞEKİLLER DİZİNİ ................................................................................................ x ÇİZELGELER DİZİNİ .......................................................................................... xii 1. GİRİŞ ................................................................................................................... 1 1.1 Tez Organizasyonu .......................................................................................... 2 1.2 Matematiksel Morfoloji ................................................................................... 2 1.2.1 Ek kaynaklar (bütünlügü bozmadan atlanabilir) ...................................... 4 1.3 Rasgele Kümeler .............................................................................................. 5 1.3.1 Ek kaynaklar (bütünlügü bozmadan atlanabilir) ...................................... 8 1.4 Rasgele Yapay Sinir Ağları ............................................................................. 10 1.4.1 Ek kaynaklar (bütünlügü bozmadan atlanabilir) ....................................... 11 2. KURAMSAL TEMELLER ............................................................................... 13 2.1 Matematiksel Morfoloji ................................................................................... 13 2.1.1 Matematiksel temel kavramlar .................................................................... 13 2.1.2 İki-değerlikli temel morfolojik işlemler ...................................................... 16 2.1.2.1 Aşınma ve Genişleme ................................................................................. 16 2.1.2.2 Açılış ve Kapanış ........................................................................................ 21 2.1.2.3 İsabet etme - İsabet etmeme .................................................................... 27 2.1.3 Morfolojinin geometrik yönleri ................................................................... 29 2.1.4 Kafes Kuramsal yaklaşım ............................................................................ 30 2.1.5 Gri seviyeli görüntülerde morfolojik işlemler ............................................ 30 2.1.6 İki-değerlikli görüntülerin morfolojik ifadesi ............................................ 32 2.1.6.1 Granülometriler ......................................................................................... 32 2.1.6.2 Büyüklük dağılımı ..................................................................................... 38 2.1.6.3 Kesikli büyüklük dağılımı ........................................................................ 40 2.1.6.3.1 Doğrusal örüntü spektrumunun momentleri ..................................... 46 2.2 Rasgele Kümeler .............................................................................................. 48 2.2.1 Rasgele Kümelerin bazı özellikleri .............................................................. 49 2.2.1.1 Durağan Rasgele Kümeler ........................................................................ 49 2.2.1.2 Dışbükey Rasgele Kümeler ....................................................................... 49 2.2.2 Rasgele Kümelerin Dağılımları ................................................................... 50 2.2.2.1 Sığa Fonksiyonelleri ................................................................................... 51 2.2.2.2 Sığalar ......................................................................................................... 53 2.2.2.3 Choquet Teoremi ....................................................................................... 53 2.2.3 Rasgele Kümeler ve nokta süreçleri ........................................................... 54 2.2.4 Düzgün sınırlı kesikli Rasgele Kümeler .................................................... 55 2.2.5 Boolean modeller .......................................................................................... 57 2.2.6 İstatistiksel çıkarım ...................................................................................... 61 2.2.7 Kompakt kümelerin istatistikleri ............................................................... 62 2.2.8 Rasgele Kümeler ve büyüklük kavramı ..................................................... 63 2.3 Rasgele Yapay Sinir Ağları ............................................................................. 66
vii
2.3.1 Temel kavramlar ve temel özellikler ........................................................... 66 2.3.2 RYSA ile formüllü sinir ağlarının benzerlikleri ......................................... 74 2.3.3 RYSA öğrenme algoritması .......................................................................... 76 2.3.3.1 RYSA öğrenme algoritmasıyla ilgili çalışmalar ...................................... 81 3. MATERYAL VE YÖNTEM .............................................................................. 84 3.1 Büyüklük Dağılımının Ölçülmesi ................................................................... 84 3.1.1 Bir deneysel büyüklük dağılımı tahmin edicisi ........................................... 86 3.1.2 Monte Carlo büyüklük dağılımı tahmin edicileri ...................................... 89 3.2 Rasgele Yapay Sinir Ağı Mimarisi ................................................................. 94 3.3 Boolean Rasgele Kümelerin Benzetişimi ........................................................ 97 4. BULGULAR VE TARTIŞMA .......................................................................... 98 4.1 Yöntem ve Uygulama Bağlamında Değerlendirmeler .................................. 102 5. SONUÇ ................................................................................................................ 133 KAYNAKLAR ........................................................................................................ 136 EK 1 Yazılım Akış Algoritmaları .......................................................................... 162 ÖZGEÇMİŞ ............................................................................................................ 165
viii
SİMGELER DİZİNİ R , Rd 1-boyutlu , ve d-boyutlu Öklid uzayı Z , Zd 1-boyutlu , ve d-boyutlu tam sayı uzayı ∅ Boş küme P(E) E’nin güç kümesi ∈ Elemanıdır ⊆ , ⊂ Att kümesi veya eşit, alt kümesi ⊇ , ⊃ Kapsar veya eşit , kapsar ∩ , ∪ Kesişim , Birleşim \ Fark ⇒ , ⇐ Gösterir ki (Tek yönlü gerektirme) ⇔ Sadece ve sadece (Çift yönlü gerektirme) ∀ Her Λ , V En küçük , en büyük / ve , veya / infimum (inf) , supremum (sup) Π Çarpım Σ Toplam ; sigma cebir ∞ Sonsuz ε Aşınma (erosion) δ Genişleme (dilation) ο Açılış • Kapanış α Alan açılışı κ Alan kapanışı ⊕ Minkowski toplaması Θ Minkowski çıkarması ⊗ , H İsabet etme - etmeme (hit or miss) T Sığa fonksiyoneli Q Üreten fonksiyoneli B- B’nin yansıması W* W işlecinin ikilisi (dual) M(W) W işlecinin çekirdeği (kernel) N(W) W işlecinin temeli (base) I(W) W işlecinin değişmezlik değer kümesi (invariance domain) B(W) W işlecinin ikili-çekirdeği (dual kernel) C(X) , conv X’in dışbükey kabuğu A(F) F’nin alanı Ω , S , D Büyüklük dağılımı , örüntü spektrumu Ω Örnek uzay Σ(Ω) Ω’da tanımlı sigma cebir Φ Normalleştirilmiş büyüklük dağılımı s Büyüklük yoğunluğu E(.) Beklenen değer ; Hata
X X’in örteni Xc X’in tümleyeni
ix
∂ Türev ; sınır ↑ , ↓ Artma , azalma ||A|| A’nın normu
p+(i, j) Sinire başka sinirden uyarıcı imge gelme sıklığı
p-(i, j) Sinire başka sinirden bastırıcı imge gelme sıklığı p(i, i) Sinire imge gelme sıklığı d(i) Sinirin ağ dışına imge gönderme sıklığı r(i) Sinirin ateşleme oranı
w+(i, j) Sinirler-arası ağırlık
w-(i, j) Sinirler-arası ağırlık q(i) Sinir gizilgücü k(i) Durağan durumda sinir gizilgücü Λ(i) Sinire dışarıdan uyarıcı imge gelme sıklığı λ(i) Sinire dışarıdan bastırıcı imge gelme sıklığı η RYSA öğrenme RYSA Rasgele Yapay Sinir Ağı DSKRK Düzgün Sınırlı Kesikli Rasgele Küme DSKBRK Düzgün Sınırlı Kesikli Boolean Rasgele Küme
x
ŞEKİLLER DİZİNİ Şekil 2.1.a. Örnek görüntü F .................................................................................... Şekil 2.1.b. Aşınma işlemi, F Θ Bk , sonucu ........................................................... Şekil 2.1.c. Genişleme işlemi, F ⊕ Bk , sonucu ....................................................... 26 Şekil 2.1.d. Açılış işlemi, F ο Bk , sonucu ............................................................... Şekil 2.1.e. Kapanış işlemi, F • Bk , sonucu (B : paralel kenar tipi, k=5) ............... 27 Şekil.2.2 RYSA modeli, imge grafikleriyle gösterim (Gelenbe and Halıcı 1994) ... 73 Şekil.2.3 RYSA modeli, tek sinir gösterimi (Gelenbe and Halıcı 1994) .................. 73 Şekil.2.4 RYSA modeli, etkileşimli gösterim (Koçak 2001) ................................... 74 Şekil 3.1.a. n-girdili ve işleci RYSA mimarisi (girdiler: nokta renk değerleri) ....... Şekil 3.1.b. Aşınma işleci, ε(.) , RYSA mimarisi (girdiler: yapıtaşı elemanı satırlarının n-girdili ve işlemi çıktısı) ........................................................... 95 Şekil 3.2.a. Açılış tabanlı morfolojik elek (elek büyüklüğü k sabit) RYSA mimarisi ........................................................................................................ Şekil 3.2.b. n-girdili veya işleci RYSA mimarisi (girdiler: nokta renk değerleri) .... 96 Şekil 3.3 Genişleme işleci, δ(.) , RYSA mimarisi (girdiler: yapıtaşı elemanı satırlarının n-girdili veya işlemi çıktısı) ....................................................... 96 Şekil 3.4 Kapanış tabanlı morfolojik elek (elek büyüklüğü k sabit) RYSA mimarisi ....................................................................................................... 96 Şekil 4.1 4-komşuluklu (paralel kenar, elmas, baklava dilimi) yapıtaşı elemanı ailesinin k=1,2,3 üyeleri ............................................................................... 99 Şekil 4.2 8-komşuluklu (kare) yapıtaşı elemanı ailesinin k=1,2,3 üyeleri ............... 99 Şekil 4.3.a. Daire yapıtaşı elemanı ailesinin k=3,4 üyeleri (k=1,2 üyeler, kare ile aynı) ......................................................................................................... Şekil 4.3.b. Daire yapıtaşı elemanı ailesinin k=5 üyesi ............................................ 100
Şekil 4.4.a. DSKBRK örnek-1, şekil_tipi=1, kmax+=6 (o+dS (kmax+)= 0.322021) .......
Şekil 4.4.b. Örnek-1'den MC yöntemi için benzetişimle üretilen görüntülerden biri Şekil 4.4.c. (+) k.ş.b.k. spektrumu deneysel tahmini ................................................ Şekil 4.4.d. (+) k.ş.b.k. spektrumu Monte Carlo tahmini ......................................... 105
Şekil 4.4.e. o+ds , (+) k.ş.b.k. yoğunluğu deneysel tahmini ......................................
Şekil 4.4.f. o+mcs , (+) k.ş.b.k. yoğunluğu Monte Carlo tahmini ...............................
Şekil 4.4.g. o+dS , (+) k.ş.b.k. dağılımı deneysel tahmini .........................................
Şekil 4.4.h. o+mcS , (+) k.ş.b.k. dağılımı Monte Carlo tahmini ................................. 106
Şekil 4.4.i. (-) k.ş.b.k spektrumu deneysel tahmini ..................................................
Şekil 4.4.j. (-) k.ş.b.k. spektrumu spektrumu Monte Carlo tahmini .........................
Şekil 4.4.k. o-ds , (-) k.ş.b.k. yoğunluğu deneysel tahmini ........................................
Şekil 4.4.l. o-mcs , (-) k.ş.b.k. yoğunluğu Monte Carlo tahmini ................................ 107
Şekil 4.4.m. o-dS , (-) k.ş.b.k. dağılımı deneysel tahmini ..........................................
Şekil 4.4.n. o-mcS , (-) k.ş.b.k. dağılımı Monte Carlo tahmini ..................................
Şekil 4.4.o. E( o+S (k)) , (+) k.ş.b.k. dağılımı karelendirilmiş göreceli tahmin hatası
xi
Şekil 4.4.p. (+) k.ş.b.k.'nın beklenen değerinin MC yinelemelerindeki tahmin hatası, Eλ+(y) ; (örnek-1) .............................................................................. 108
Şekil 4.5.a. DSKBRK örnek-2, şekil_tipi=1, kmax+=6 (o+dS (kmax+)= 0.322021) .......
Şekil 4.5.b. Örnek-2'den MC yöntemi için benzetişimle üretilen görüntülerden biri Şekil 4.5.c. (+) k.ş.b.k. spektrumu deneysel tahmini ................................................ Şekil 4.5.d. (+) k.ş.b.k. spektrumu Monte Carlo tahmini ......................................... 109
Şekil 4.5.e. o+ds , (+) k.ş.b.k. yoğunluğu deneysel tahmini ......................................
Şekil 4.5.f. o+mcs , (+) k.ş.b.k. yoğunluğu Monte Carlo tahmini ...............................
Şekil 4.5.g. o+dS , (+) k.ş.b.k. dağılımı deneysel tahmini .........................................
Şekil 4.5.h. o+mcS , (+) k.ş.b.k. dağılımı Monte Carlo tahmini ................................. 110
Şekil 4.5.i. (-) k.ş.b.k spektrumu deneysel tahmini ..................................................
Şekil 4.5.j. (-) k.ş.b.k. spektrumu spektrumu Monte Carlo tahmini .........................
Şekil 4.5.k. o-ds , (-) k.ş.b.k. yoğunluğu deneysel tahmini ........................................
Şekil 4.5.l. o-mcs , (-) k.ş.b.k. yoğunluğu Monte Carlo tahmini ................................ 111
Şekil 4.5.m. o-dS , (-) k.ş.b.k. dağılımı deneysel tahmini ..........................................
Şekil 4.5.n. o-mcS , (-) k.ş.b.k. dağılımı Monte Carlo tahmini ..................................
Şekil 4.5.o. E( o+S (k)) , (+) k.ş.b.k. dağılımı karelendirilmiş göreceli tahmin hatası
Şekil 4.5.p. (+) k.ş.b.k.'nın beklenen değerinin MC yinelemelerindeki tahmin hatası, Eλ+(y) ; (örnek-2) .............................................................................. 112
Şekil 4.6.a. DSKBRK örnek-3, şekil_tipi=1, kmax+=6 (o+dS (kmax+)= 0.322021) .......
Şekil 4.6.b. Örnek-3'ten MC yöntemi için benzetişimle üretilen görüntülerden biri Şekil 4.6.c. (+) k.ş.b.k. spektrumu deneysel tahmini ................................................ Şekil 4.6.d. (+) k.ş.b.k. spektrumu Monte Carlo tahmini ......................................... 113
Şekil 4.6.e. o+ds , (+) k.ş.b.k. yoğunluğu deneysel tahmini ......................................
Şekil 4.6.f. o+mcs , (+) k.ş.b.k. yoğunluğu Monte Carlo tahmini ...............................
Şekil 4.6.g. o+dS , (+) k.ş.b.k. dağılımı deneysel tahmini .........................................
Şekil 4.6.h. o+mcS , (+) k.ş.b.k. dağılımı Monte Carlo tahmini ................................. 114
Şekil 4.6.i. (-) k.ş.b.k spektrumu deneysel tahmini ..................................................
Şekil 4.6.j. (-) k.ş.b.k. spektrumu spektrumu Monte Carlo tahmini .........................
Şekil 4.6.k. o-ds , (-) k.ş.b.k. yoğunluğu deneysel tahmini ........................................
Şekil 4.6.l. o-mcs , (-) k.ş.b.k. yoğunluğu Monte Carlo tahmini ................................ 115
Şekil 4.6.m. o-dS , (-) k.ş.b.k. dağılımı deneysel tahmini ..........................................
Şekil 4.6.n. o-mcS , (-) k.ş.b.k. dağılımı Monte Carlo tahmini ..................................
Şekil 4.6.o. E( o+S (k)) , (+) k.ş.b.k. dağılımı karelendirilmiş göreceli tahmin hatası
Şekil 4.6.p. (+) k.ş.b.k.'nın beklenen değerinin MC yinelemelerindeki tahmin hatası, Eλ+(y) ; (örnek-3) .............................................................................. 116
xii
ÇİZELGELER DİZİNİ Çizelge 4.1. (şekil_tipi=1, kmax=2) elde edilen Boolean model parametreleri (+) .... 117 Çizelge 4.2. (şekil_tipi=1, kmax=3) elde edilen Boolean model parametreleri (+) .... 117 Çizelge 4.3. (şekil_tipi=1, kmax=4) elde edilen Boolean model parametreleri (+) .... 117 Çizelge 4.4. (şekil_tipi=1, kmax=5) elde edilen Boolean model parametreleri (+) .... 118 Çizelge 4.5. (şekil_tipi=1, kmax=6) elde edilen Boolean model parametreleri (+) .... 118 Çizelge 4.6. (şekil_tipi=1, kmax=7) elde edilen Boolean model parametreleri (+) .... 119 Çizelge 4.7. (şekil_tipi=1, kmax=8) elde edilen Boolean model parametreleri (+) .... 119 Çizelge 4.8. (şekil_tipi=1, kmax=9) elde edilen Boolean model parametreleri (+) .... 119 Çizelge 4.9. (şekil_tipi=1, kmax=10) elde edilen Boolean model parametreleri (+) .. 120 Çizelge 4.10. (şekil_tipi=1, kmax=11) elde edilen Boolean model parametreleri (+) 120 Çizelge 4.11. (şekil_tipi=1, kmax=12) elde edilen Boolean model parametreleri (+) 121 Çizelge 4.12. (şekil_tipi=1, kmax=13) elde edilen Boolean model parametreleri (+) 121 Çizelge 4.13. (şekil_tipi=1, kmax=14) elde edilen Boolean model parametreleri (+) 121 Çizelge 4.14. (şekil_tipi=1, kmax=15) elde edilen Boolean model parametreleri (+) 122 Çizelge 4.15. (şekil_tipi=2, kmax=2) elde edilen Boolean model parametreleri (+) .. 122 Çizelge 4.16. (şekil_tipi=2, kmax=2) elde edilen Boolean model parametreleri (+) .. 122 Çizelge 4.17. (şekil_tipi=2, kmax=4) elde edilen Boolean model parametreleri (+) .. 123 Çizelge 4.18. (şekil_tipi=2, kmax=5) elde edilen Boolean model parametreleri (+) .. 123 Çizelge 4.19. (şekil_tipi=2, kmax=6) elde edilen Boolean model parametreleri (+) .. 124 Çizelge 4.20. (şekil_tipi=2, kmax=7) elde edilen Boolean model parametreleri (+) .. 124 Çizelge 4.21. (şekil_tipi=2, kmax=8) elde edilen Boolean model parametreleri (+) .. 125 Çizelge 4.22. (şekil_tipi=2, kmax=9) elde edilen Boolean model parametreleri (+) .. 125 Çizelge 4.23. (şekil_tipi=2, kmax=10) elde edilen Boolean model parametreleri (+) 125 Çizelge 4.24. (şekil_tipi=2, kmax=11) elde edilen Boolean model parametreleri (+) 126 Çizelge 4.25. (şekil_tipi=2, kmax=12) elde edilen Boolean model parametreleri (+) 126 Çizelge 4.26. (şekil_tipi=2, kmax=13) elde edilen Boolean model parametreleri (+) 127 Çizelge 4.27. (şekil_tipi=2, kmax=14) elde edilen Boolean model parametreleri (+) 127 Çizelge 4.28. (şekil_tipi=2, kmax=15) elde edilen Boolean model parametreleri (+) 127 Çizelge 4.29. (şekil_tipi=3, kmax=4) elde edilen Boolean model parametreleri (+) .. 128 Çizelge 4.30. (şekil_tipi=3, kmax=5) elde edilen Boolean model parametreleri (+) .. 128 Çizelge 4.31. (şekil_tipi=3, kmax=6) elde edilen Boolean model parametreleri (+) .. 129 Çizelge 4.32. (şekil_tipi=3, kmax=7) elde edilen Boolean model parametreleri (+) .. 129 Çizelge 4.33. (şekil_tipi=3, kmax=8) elde edilen Boolean model parametreleri (+) .. 130 Çizelge 4.34. (şekil_tipi=3, kmax=9) elde edilen Boolean model parametreleri (+) .. 130 Çizelge 4.35. (şekil_tipi=3, kmax=10) elde edilen Boolean model parametreleri (+) 130 Çizelge 4.36. (şekil_tipi=3, kmax=11) elde edilen Boolean model parametreleri (+) 131 Çizelge 4.37. (şekil_tipi=3, kmax=12) elde edilen Boolean model parametreleri (+) 131 Çizelge 4.38. (şekil_tipi=3, kmax=13) elde edilen Boolean model parametreleri (+) 132 Çizelge 4.39. (şekil_tipi=3, kmax=14) elde edilen Boolean model parametreleri (+) 132 Çizelge 4.40. (şekil_tipi=3, kmax=15) elde edilen Boolean model parametreleri (+) 132
1
1. GİRİŞ
Bu çalışmanın başlıca amacı, Boolean rasgele kümelerin rasgele yapay sinir ağları
yardımıyla görüntü analizi ve örüntü tanıma çerçevesinde modellenmesidir.
Problem ve önerilen çözüm, üç bileşenden oluşmaktadır. Birinci bileşen, problemin
tanımlandığı Rasgele Kümeler Kuramıdır. Modellenmesi hedeflenen Boolean (Boole)
Rasgele Kümeler, bu kuramın bir alt kümesidir. Diğer iki bileşen, problemin
tanımlanmasını, modellemeyi (Ripley 1977, Rosenfeld 1980) kuramsaldan uygulamaya
taşıyan gereçlerdir. İkinci bileşen, görüntü verilerinden Boolean rasgele kümelerin elde
edilmesi için işleçler sağlayan Matematiksel Morfolojidir (Biçimbilim). Üçüncü
bileşense, matematiksel morfoloji işleçlerini gerçeklemede kullanılan Rasgele Yapay
Sinir Ağıdır (RYSA). Her üç bileşen de istatistik, matematik, elektronik mühendisliği,
bilgisayar mühendisliği, ve bilişsel bilimlerin çalışma konuları arasındadır ve geniş bir
yelpazede uygulama alanına sahiptir.
Rasgele kümelerin incelenmesinde, ve rasgele küme uygulamalarında matematiksel
morfolojiden yararlanılması yaygındır. Matematiksel morfoloji işleçlerini farklı yapay
sinir ağı modelleriyle gerçekleyen çalışmalar (Shih and Moh 1992, Moh 1995, Morales
and Ko 1997, Lee et al. 1997) ve morfolojik işleçlerin gerçeklenmesine yönelik
morfolojik yapay sinir olarak adlandırılan model ve mimariler (Maragos 1996, Pessoa
1997, Pessoa and Maragos 1998, 2000) mevcuttur.
Bu çalışmada mekansal istatistiğe (Bartlet 1975, Cliff and Ord 1981, Upton 1985, 1989,
Pitman 2005), görüntü analizi, ve örüntü tanımaya (Fukunaga 1972, Duda and Hart
1973, Errington 1973, Devijver and Kitler 1982, Pao 1989, Banks 1990, Hazout and
Nguyen 1991, Gelenbe 1992a, Haralick and Shapiro 1992, 1993, Kosko 1992,
Schurmann 1996), ve yapay sinir ağlarına (Beale and Jackson 1990, Freeman and
Skapura 1991, Carpenter and Grossberg 1992, Schalkoff 1992, Bishop 1995, Ripley
1996, Cramer 1998) getirilen yenilikler,
2
1) Rasgele Kümeler, ve Boolean (Boole) modeli, Matematiksel Morfoloji
(Biçimbilim), ve RYSA'nın ilk kez bir uygulamada bir arada kullanılması önerilmiş ve
kullanılmış,
2) Boolean rasgele kümelerin incelenmesinde ve modellenmesinde ilk kez yapay sinir
ağlarından yararlanılmış,
3) çok girdili ve ve veya işleçlerinin RYSA ile ilk kez gerçeklenmiş,
4) morfolojik işleçlerin RYSA ile ilk kez gerçeklenmiş olmasıdır.
1.1 Tez Organizasyonu
Matematiksel Morfoloji, Rasgele Kümeler, ve Boolean modeli, ve RYSA’yı tanıtıcı
bilgiler, ve önceki çalışmalara başlıca örnekler, aşağıda Giriş bölümünün devamındaki
alt bölümlerde (1.2, 1.3, 1.4) verilmiştir. Bunlar hakkında bu çalışma çerçevesindeki
kuramsal bilgiler, Kuramsal Temeller başlıklı İkinci Bölümde verilmiştir. Boolean
modelini tanımlamada kullanılan başlıca model parametresi, büyüklük ölçüleridir. Bu
çalışmada Boolean model parametresi olarak Minkowski fonksiyonellerinden şekil
büyüklüğü dağılımı, yoğunluğu, spektrumu, ve beklenen değeri kullanılmıştır. Bunların
ölçüm yöntemi, deneysel tahmin edici yöntemi, ve Monte Carlo tahmin edici yöntemi,
Boolean Rasgele Kümelerin benzetişimi yöntemi, ve kullanılan RYSA mimarisi,
Materyal ve Yöntem başlıklı Üçüncü Bölümde anlatılmıştır. Geliştirilen modelleme
yöntemi, sentetik olarak rasgele üretilmiş görüntüler üzerinde sınanmıştır. Bunlardan
elde edilen Boolean model parametreleri, Bulgular ve Tartışma başlıklı Dördüncü
Bölümde verilmiş ve yorumlanmıştır. Sonuç başlıklı Beşinci Bölümde ise bu çalışmanın
genel değerlendirmesi yapılmıştır.
1.2 Matematiksel Morfoloji
Matematiksel Morfoloji (Biçimbilim), sayısal görüntü işleme ve analizinin, cebirsel
(küme kuramı, tam kafesler gibi) ve geometrik (öteleme, uzaklık, dışbükeylik gibi)
kavramları kullanan, bir dalıdır. Matematiksel morfoloji, ilk olarak George Matheron'un
Random Sets and Integral Geometry (1975) başlıklı kitabıyla tanıtıldı. Bu kitap
3
matematiksel morfolojinin temelini atmış oldu, ve görüntü işleme ve analizi için yeni
bir yöntem getirdi. Matematiksel morfoloji, Serra'nın Image Analysis and Mathematical
Morphology (1982) başlıklı oldukça ilgi gören kitabıyla zenginleşti ve yaygınlaştı.
Orijinal haliyle, matematiksel morfoloji, Öklid ötelenmeleri gurubu altında
"değişmeyen" iki değerlikli görüntü dönüşümlerinin bir kuramıdır (Klein and Serra
1972, Roerdink 2000).
Her iki araştırmacı da Paris School of Mines (Fontainableau) ’dandır. Petrografi ve
minerolojideki problemler üzerinde çalışmışlardır. Amaçları, geometrik yapılarını
inceleyerek, belirli malzemelerin (kayaların bölümleri, polikristalin, seramikler gibi)
fiziksel ve mekanik (gözenekli ortamın geçirgenliği gibi) özelliklerini karekterize
etmekti. Onların öncül çalışmaları sayesinde, matematiksel morfoloji, görüntü işleme,
örüntü tanıma, malzeme bilimi, mikroskopik görüntüleme, tıbbi görüntüleme,
bilgisayarlı görüş gibi alanlarda uygulamaları olan güçlü bir araç konumuna geldi.
Matheron ve Serra'nın çalışmaları iki-değerlikli görüntüler üzerindeydi. İki-değerlikli bu
görüntüler, iki-boyutlu uzayın alt-kümeleri, genellikle iki-boyutlu Öklid düzlemi R2, iki-
boyutlu kesikli düzlem Z2, veya bunların bazı alt kümeleri, olarak ifade edilir. İki-
değerlikli bir görüntüden geometrik bilgi, görüntünün, yapıtaşı elemanı olarak bilinen
küçük bir temel şekille incelenmesiyle elde edilir. Yapıtaşı elemanının seçimi, eldeki
görüntüye ve uygulamaya bağlıdır (Serra 1982).
Yuille et al. (1991, 1992)’de temel morfolojik işlemlerin istatistiksel fizik yaklaşımıyla
ele alınabileceği, dolayısıyla morfolojinin Bayes yaklaşımı ve Markov (Gibbs dağılımı)
yaklaşımıyla ilişkilendirilebileceği gösterilmiştir. Brockett and Maragos 1992, 1994,
Arehart et al. 1993, Boomgaard and Smeulders 1994, ve Heijmans 2001'de ise
matematiksel morfoloji işleçlerinin kısmi diferansiyel denklemlerle (Hamilton-Jacobi)
ilişkilendirilebileceği gösterilmiştir.
4
1.2.1 Ek kaynaklar (bütünlügü bozmadan atlanabilir)
Aynı zamanda son 30 yıl içinde kuramsal temellerin iyice oturtulması yönünde de
çalışmalar yapıldı (bkz. Haas et al. 1967, Maragos and Schafer 1987a,b, Stoyan et al.
1987, Serra 1988, Vincent 1988, 1989a,b, 1990, Haralick et al. 1989, Maragos 1989b,
1996, Shih and Mitchell 1989, 1991, Heijmans and Ronse 1990, Ronse 1990, Banon
and Barrera 1991, 1993, Heijmans 1991, 1992, 1993, 1994b,c,d, 1995b, 1996, 1997,
1999, 2001, Heijmans and Toet 1991, Ronse and Heijmans 1991, Dougherty and
Haralick et al. 1992, Wilson 1992, Sapiro et al. 1993, Boomgaard and Smeulders 1994,
Sidiropoulos et al. 1994, Sivakumar and Goutsias 1994, 1996, 1997a, Goutsias et al.
1995, Heijmans and Tuzikov 1996, Heijmans and Maragos 1997, Lee et al. 1997, Sand
and Dougherty 1997, 1999, Vincent 1997, Goutsias 1998, Goutsias and Sivakumar
1998, Heijmans and Molchanov 1998, Heijmans and Roerdink 1998, Tuzikov and
Heijmans 1998, Agam and Dinstein 1999, Barrera and Dougherty 1999, Heijmans and
Ronse 1999, Razaz and Hagyard 1999, Teixera and Leite 1999, Boomgaard and
Heijman 2000, Cheng and Venetsanopoulos 2000, Goutsias and Heijmans 2000a,b,
Heijmans and Goutsias 1998a,b, 2000a,b, Heijmans and Keshet 2000, 2001, Hirate et
al. 2000, Roerdink 2000, Saryazdi et al. 2000, Sivakumar 2000, Vlassis et al. 2000,
Tuzikov et al. 2000, Keshet and Heijmans 2001, Sossa-Azuela et al. 2001, Theera-
Umpon et al. 2001, Boutalis et al. 2002, Louverdis et al. 2002, Soille 2002, Naegel et
al. 2007a).
Günümüzde matematiksel morfoloji, bölütleme (Vincent 1989b, 1998a, Soille and
Vincent 1990, Vincent and Soille 1991, Dougherty and Pelz et al. 1992, Vincent and
Dougherty 1994, Vachier and Vincent 1995, Lee and Wong 1996, Meyer 1999, Teixeira
and Leite 1999, Weickert 2001, Hajer et al. 2006, Said et al. 2006), cildin yüzey
görüntüsünden yaş belirleme (Nomine et al. 1987), çizge kuramı (Vincent 1988,
1989a,b, Heijmans et al. 1992, Heijmans and Vincent 1992), dalgacık (wavelet)
dönüşümü (Cha 1993, Huang 1996, Morales and Shih 2000), denizaltı belirleme ve
sınıflandırma (Rosen and Vincent 1994), deniz mayınlarının belirlenmesi (Lange and
Vincent 2000), desen analizi (Klein and Serra 1972, Sivakumar and Goutsias 1999),
desen modelleme (Jones and Jackway 2000), desen sınıflandırma (Dougherty, Newell et
5
al. 1992, Chen and Dougherty 1994, Batman and Dougherty 1997), doğrusal
özelliklerin belirlenmesi (Vincent 1998b), fraktal boyut tahmini (Huang 1996), görüntü
keskinleştirme (Schavemaker et al. 2000), görüntü işleme ve analizi (Serra 1971, 1994,
Pitas and Maglara 1991, Vincent 1998a, Naegel et al. 2007b), görüntü onarma (Harvey
and Marshall 1999) ve yeniden oluşturma (Vincent 1992b, 1993, Yu and Yan 2001),
görüntü sıkıştırma (Edgar et al. 1995), hareket analizi (Fuh et al. 1991, 1993), hedef
belirleme ve bölütleme (Peli et al. 1993), hedef tanıma (Cardillo and Sid-Ahmed 1996),
imge modelleme ve imge analizi (Cha 1993, Huang 1996), kenar belirleme (Chen et al.
2002, Krishnamurty et al. 1994), kırık ilerleyişinin ve kimyasal yayılımın incelenmesi
(Vincent and Jeulin 1989), kümelendirme (Luo et al. 2006), örüntü eşleştirme
(Bloomberg and Vincent 1995, 2000), örüntü onarma (Schonfeld 1991, Schonfeld and
Goutsias 1991), örüntü tanıma (Trahanias 1992, Xiagi and Baozong 1995, Cardillo and
Sid-Ahmet 1996, Batman and Goutsias 2000, Han et al. 2000), özellik ayıklama (Ronse
1998), plankton tanıma (Tang et al. 1998), renkli görüntü işleme (Louverdis et al.
2002), süreç denetimi (Dougherty and Pelz 1991), şekil ve görüntü modelleme
(Maragos and Schafer 1986, Maragos 1989a,b, Pitas and Venetsanopoulos 1990a,b, Ji
and Piper 1992, Shih and Pu 1992, Xiaogi and Baozong 1995, Reinhardt and Higgins
1996, Xu 1996, Kresh and Malah 1998, 2001, Saryazdi et al. 2000), şekil tanımlama (Li
and Dougherty 1993, Heijmans 1994c), tortu kayaların yuvarlaklığının belirlenmesi
(Drain and Vincent 2002), tıbbi görüntü analizi (Vincent and Masters 1992), uzaklık ve
fraktal boyut tahmini (Popov 1999), veri sıkıştırma (Cha 1993, Huang 1996), yüz
tanıma (Gordon and Vincent 1992), yüzey profili elde etme (Barshan and Başkent 1999,
2001) gibi pek çok alanda uygulamaları olan güçlü bir gereç olarak kabul edilmektedir.
Matematiksel morfolojik işleçlerin donanımla gerçeklendiği çalışmalara örnek olarak
Gasteratos (1998), Andreadis (2000), ve Vlassis et al. (2000)'e bakılabilir.
1.3 Rasgele Kümeler
Küme kuramının doğuşu 1874'te Cantor'un makalesinin yayınlanışı olarak kabul
edilebilir (Johnson 1972). Cantor'un tanımına göre, bir küme, sezgilerimizin veya
zihnimizin belirli (öyle ki, bir küme ve bir nesne verildiğinde, o nesnenin, o kümenin
elemanı olup olmadığını anlayabilmek olanaklı olacak), ayırtedilebilir (bir kümenin
6
elemanı olarak nitelendirilen bir çift nesne verildiğinde, bunların aynı mı, yoksa
birbirlerinden farklı mı olduklarını anlayabilmek olanaklı olacak) nesnelerinin bir bütün
olarak kavranabilecek şekilde bir araya toplanmış halidir. Bu nesneler, kümenin elemanı
veya ögesi olarak adlandırılırlar. Bir küme, tamamıyla elemanları tarafından belirlenir
(Fraenkel 1966, Lemmon 1968, Fraenkel et al. 1973, Stoll 1993). Cantor'un kuramının
köşetaşı, hangi nesnelerin bir kümenin elemanı olup, hangilerinin olmadıklarına karar
verirken sezgilerimiz tarafından yönlendiriliyor oluşumuzdur. Bu nedenle sıklıkla
sezgisel küme kuramı olarak da anılır (Stoll 1993).
Mantığın temel nosyonlarına ek olarak, küme kuramının ilkel terimleri küme ve ∈'dir
(elemanı olma). Temel varsayımımız, X bir küme ve x bir oluşsa, X ve ∈'nin bir cümle
oluşturduğudur. Aynı zamanda her bir kümenin de bir oluş olduğunu ve böylece bir
başka kümenin elemanı olabileceğini de varsayarız (Hayden and Kennison 1968).
Küme kuramı, özellikle bu yüzyılın ilk on yılında matematikle mantık arasında en
önemli bağlayıcı unsur haline gelmiştir (Fraenkel 1966).
Küme kavramı, günlük yaşamdaki kullanımından matematik ve felsefeye geniş bir
anlam yelpazesine sahiptir. Dolayısıyla, rasgele küme için çeşitli tanımlar vermek
olanaklıdır (Molchanov 1999b) :
Biyometrik tanım : Gözlerinizi kapatıp bir ormanda bir km. ilerleyin. Gözlerinizi
açtığınızda göreceğiniz bir rasgele kümedir.
İşletme yöneticisine göre tanım : Tüm kümeleri alıp bir listesini yapın. Bu listeden
rasgele olarak bir küme seçin.
Ev hanımına göre tanım : Bir bardak kırmızı şarap alıp, kahverengi bir halının üzerine
dökün. Göreceğiniz leke bir rasgele kümedir.
Görüntü analizcisine göre tanım : Bir pencere oluşturan noktaları alın. Eğer bu
noktalardan bazıları, rasgele olarak siyah veya beyaz renkliyse, ortaya çıkan görüntü bir
rasgele kümedir.
İstatistiksel tanım : Bir rasgele küme, tahmin edilen bir parametre için bir güven
aralığıdır.
7
Matematiksel tanım : İlgili tüm kümelerin (genellikle kapalı kümeler) ailesini ele
alalım. Bunu bir σ-cebir ile donatıp, bir rasgele kümeyi, verilen bir olasılık uzayından
bu kümelerin uzayına bir ilişkilendirme olarak tanımlayalım.
Bu çalışmada, rasgele kümelerin olasılıksal ve istatistiksel sonuçlarını tartışabilmek için
matematiksel tanım üzerinde durulacaktır. Rasgele küme kuramı, geometrik olasılık,
stereoloji, ve stokastik geometri (Cox and Miller 1965, Gikhman and Skorokhod 1969,
Bhat 1972, Ripley 1976b, Basawa and Rao 1980, Luetgen 1993, Tijms 1995) arasındaki
bulanık çizgilerden kaynaklanan fikirlerin bir birleşimidir (Stoyan et al. 1987). Rasgele
kapalı kümelerin matematiksel kuramı esas olarak Kendal (Harding and Kendal 1974)
ve Matheron’un (1975), Choquet (1953)'ün sonuçlarını temel alan çalışmalarına
dayanır. Matheron (1975), Choquet’in koniler üzerinde pozitif tanımlı
fonksiyonlarından yola çıkarak, rasgele kümelerin dağılımlarını karekterize etmiş,
integral geometri ve matematiksel morfolojiye pek çok doğal bağlantı oluşturmuştur.
Ortaya çıkmasının üzerinden çeyrek yüzyıldan fazla zaman geçmesine rağmen,
istatistikçi ve mühendislerin büyük çoğunluğu, rasgele küme kuramından uzak durmayı
tercih etmektedir. Bunun başlıca nedenleri, konuyla ilgili ilk çalışmaların oldukça soyut
olması, pek çok kimsenin küme biçimindeki verilerden hoşlanmaması, ve
uygulamacıların kuramın ve uygulamalarının potansiyelini tam olarak
kavramamasından kaynaklanmıştır. Bu zaman içinde rasgele küme kuramı (özellikle
Öklid uzayındaki rasgele kümeler için), az sayıda araştırmacı ve araştırma gurubunun
çalışmaları sonucunda, dikkate değer bir şekilde gelişmiştir. Kuramın altında yatan
temel kavramlar iyice anlaşılmıştır, ve pek çok klasik yapının karşılığı ve olasılık
kuramının sonuçları (örneğin ergodik kuramlar, büyük sayılar kanunu gibi) rasgele
kümeler için geliştirilmiştir. Bununla birlikte rasgele değişkenlerle rasgele kümeler
arasında temel farklar vardır; n-boyutlu uzayda noktalardan kümelere geçiş,
yöntemlerde ciddi değişiklikler yapmaya zorlar. Problemin yönsellik konusundaki
zayıflığı, geleneksel gereçler kullanılmasını engeller. Özellikle, toplam küme
sıralamasının olmayışı işleri daha da güçleştirir. Rasgele değişkenler, birikimli dağılım
fonksiyonlarıyla (b.d.f.) tam olarak belirtilebilirler. Rasgele kümeler için b.d.f.'nin bir
karşılığı bulunmasına rağmen, genel olarak bununla çalışılabilmesi zordur. Bu,
8
doğrudan, toplam küme sıralamasının bulunmayışıyla ilgilidir. Bu durumda anlamlı bir
yoğunluk kavramı bulunabilmesi için bakış açısında değişiklik yapmak gerekir.
Rasgele kümeleri genel olarak sürekli ve kesikli olmak üzere iki temel gurup altında
toplamak mümkündür. Bu tezde rasgele kümelerin Boolean rasgele kümeler olarak
adlandırılan özel bir sınıfının modellenmesiyle ilgilenilmiştir. Tezin çerçevesi, kesikli
değer kümesiyle sınırlandırılmıştır. Dolayısıyla, düzgün sınırlı kesikli Boolean rasgele
kümeler (DSKBRK) üzerinde çalışılmıştır. Ele alınan rasgele kümeler, Öklid
uzaylarında tanımlıdır. Kesikli rasgele kümeler düzenli ya da düzensiz bir noktalar
kafesi üzerinde tanımlanır. Düzgün sınırlı terimi, kafesin sonlu çoklukta noktadan
oluştuğunu belirtmek üzere kullanılmıştır. Düzgün sınırlı kesikli rasgele kümeler,
sürekli rasgele kümelerin sınırlı bir halidir. Sürekli rasgele kümeler kuramı oldukça
gelişmiş olmasına rağmen, düzgün sınırlı kesikli rasgele kümeler özel sınıfı için kuram
henüz aynı düzeyde gelişmemiştir. Bu sınıfı özel yapan başlıca neden, hemen hemen
bütün uygulamalarda sonlu çokluktaki veri noktalarıyla ilgilenilmesidir. Günümüzde
görüntü işleme, analizi, ve sentezi işlemlerinin çok büyük bir kısmı, sonlu, kesikli
görüntüler üzerinde işlem yapan bilgisayarlarla yapılmaktadır. Bu yüzden,
uygulamacının bakış açısına göre bir düzgün sınırlı kesikli rasgele kümeler kuramı,
temel olarak yeterlidir. Düzgün sınırlı kesikli rasgele kümelerin (DSKRK) ikinci önemli
özelliği, sürekli biçimdeki karşılıklarına göre daha kolay oluşturulabilmeleridir. Bu,
aynı zamanda onları, uygulamacılar için daha ilgi çekici hale getirir. Bu sayede,
uygulamacı, modelin problemlerinden endişelenmek yerine, kendi problemlerine
(örneğin, filtreleme, istatistiksel analiz vb.) odaklanabilir. Örneğin, sürekli rasgele
kümeler için belirgin bir olasılık yoğunluğu kavramı yokken, düzgün sürekli kesikli
rasgele kümeler için standart olasılık kütlesi kavramı geçerlidir.
1.3.1 Ek kaynaklar (bütünlügü bozmadan atlanabilir)
Rasgele kümeler hakkındaki literatür kabaca iki örtüşen kısma ayrılabilir. İlki, Choquet
teoremi, büyük sayılar kanunu, merkezi limit teoremi, sonsuz bölünebilirlik, yarı-
Markovluk, ergodik özellikler, vb. gibi, rasgele küme kuramının temel yanlarına yönelik
9
çalışmaları içerir (örneğin, Choquet 1953, Klein and Serra 1972, Matheron 1972, 1975,
Kendall 1974, Arstein and Vitale 1975, Ripley 1976a, Davy 1978, Serra 1980, 1982,
1988, Vitale 1983, Norberg 1984, Stoyan et al. 1987, Sidiropoulos 1991a, c, Cressie
1993, Goutsias 1993, Molchanov 1993a,b,c,d, 1996b, 1997b,c, 1998a,b, 1999a,b,
Molchanov and Stoyan 1994b, Molchanov et al. 1995, Stoyan and Stoyan 1995, Stoyan
and Molchanov 1997, Hess 1999, Kendall et al. 1999, Molchanov 1999c, Thönnes and
Lieshout 1999). Bu guruptakilerin bir kısmı, rasgele küme kuramı ve geometrik olasılık
arasındaki geçişin ortasında yer alırlar (Kendall 1989). İkinci kısımdakiler, rasgele
küme modelleri (Weil and Wieacker 1988, Baddaley and Moller 1989, Goutsias and
Wen 1990, 1991, Cressie 1991, 1993, Goutsias 1993, Lieshout 1997a,b, 1999a,b,
Molchanov 1997a, Hess 1999, Kendall and Thonnes 1999, Last and Holtmann 1999,
Lieshout 1999a, Nippe and Ohser 1999, Sidiropoulos 1999, Weill 1999), ve onların
istatistiksel çıkarımıyla ilgili çalışmalardır (örneğin, Serra 1980, 1982, 1988, Jensen and
Gundersen 1985, Kellerer 1985, Cressie and Laslett 1987, Stoyan et al. 1987,
Molchanov 1990, 1992, 1994, 1995, 1996a, 1997a, Schmitt 1991, Sidiropoulos et al.
1991b, Molchanov and Stoyan 1994a, 1996, Stoyan and Stoyan 1995, Goutsias 1997,
Sivakumar and Goutsias 1997b,c, Friel and Molchanov 1999, Garcia-Sevilla and Petrou
1999, Hall and Molchanov 1999, Handley and Dougherty 1999, Weil 1999, Aubert and
Jeulin 2000, Goutsias and Batman 2000, Molchanov and Chiu 2000, Batman and
Dougherty 2001, Balagurunathan and Dougherty 2002, Marmarelis et al. 2006,
Sebastian et al. 2006). İstatistiksel çıkarım, model uydurma (parametre tahmini),
hipotez testi (sınıflandırma), ve imge tahminini (süzgeçleme) içermektedir. İkinci
kısımdaki literatürün neredeyse tamamında durağan Boolean modeli üzerinde
çalışılmıştır. İlgi merkezi, parametre tahmini olurken, hipotez testi ve imge tahmini
oldukça nadir ilgi görmüştür.
Rasgele kümeler, görüntü analizinde, tümör büyümesiyle ilgili olarak görüntülerin
modellenmesi, biyometri (Cressie and Hulting 1992, Cressie 1993), kırsal alanda
çalıların mekansal örüntüsü (Cressie 1993), yağmur bombası etkisinin modellenmesi
(Cressie 1993), kağıdın mikro-yapısının incelenmesi (Molchanov 1993), gürültü
modelleme (Dougherty and Handley 1995), filtreler (Goutsias 1995), orman
yangınlarının modellenmesi (Stoyan and Syoyan 1995), öncel dağılımlar (Lieshout
10
1995), bombalamanın verdiği zararların belirlenmesi (Molchanov 1997a), toz ve duman
taneciklerinin incelenmesi, sedimentology (Stoyan and Molchanov 1997), biyomedikal
görüntü analizi (Gousias and Batman 2000), örtme süreçleri, sinir etkinliği modelleme
(Molchanov 2000) gibi uygulama alanları bulmaktadır.
Rasgele küme kuramının tekniklerini kullandığı matematik alanları : topoloji, kapasite
kuramı, dışbükey ve integral geometri, en-iyileme, set-değerli tahmin edicilerin
istatistiksel çalışmaları (Molchanov 1999a).
Olasılık kuramı ve matematiksel istatistik içinde, rasgele kümeler, nokta süreçleri,
durağan rasgele alanlar (Hassner and Sklensky 1980, Adler 1981, Cross and Jain 1983,
Hassner et al. 1984, Derin et al. 1987, Geman and Graffigne 1987, Mardia 1988, Perez
1998), stokastik süreçlerin yerel özellikleri, fonksiyon uzayları için limit teoremleri, uç
değerler kuramı, deneysel ölçüler, ve mekansal istatistik ile pek çok ilişkisi
bulunmaktadır.
Diğer yandan, rasgele kümeler, başta verilen tanımların da yer aldığı pek çok alanda bir
çok uygulamaları vardır (Serra 1982, 1988, Cressie 1993, Goutsias et al. 1997).
Molchanov (1999b)'de Boole modelinin uygulama örnekleri olarak, sinir liflerinin
bozulması, hamurun mikroyapısı, süt işleme, polimerlerdeki hatalar, polimer
kristalleşmesi, metal kristalleşmesi ve kristal büyümesi, malzemelerin yapıları, alaşım
yapıları, jeolojik yataklar, su damlası sistemleri, ve fotoğraf oluşumunun
incelenmesinde yoğun bir şekilde kullanıldığı da gösterilmektedir.
1.4 Rasgele Yapay Sinir Ağları
Yapay sinir ağları ve bağlantılı yöntemlerin ilişkili bellek (Gelenbe 1991a), bilgisayar
iletişimi, kombinatorik, eniyileme problemleri, sistem tanıma ve denetleme, fonksiyon
yaklaşımlama, örüntü tanıma (Bakırcıoğlu and Gelenbe 1998a,b), ve işaret işleme gibi,
11
problemlerin açıkça tanımlanamadığı ya da formülleştirilebilmesinin güç olduğu,
doğrudan gerçek yaşamdaki mühendislik uygulamaları için güçlü gereçler olduğu
kanıtlanmıştır. Yapay sinir ağlarının, diğer yöntemlere üstünlük sağlayan özellikleri
vardır. Paralel mimarileri nedeniyle, hesaplamadaki pek çok güçlüğü aşabilirler. Örnek
veriler üzerinde eğitildikleri için, yeni girdilerin işlenişi sırasında da eğitimin devam
etmesine izin vererek, girdi verilerindeki değişikliklere daha çok uyum sağlayabilirler.
Yüksek bağlantı seviyesi, yapay sinir ağlarının kendiliğinden organize olabilmelerine
olanak sağlar. Bu durum, verilerin yapısı önceden bilinmediğinde yarar sağlar. Yapay
sinir ağlarıyla sinirsel biyolojik sistemler arasındaki benzerlik nedeniyle, bilinen
biyolojik ağlar, yapay sinir ağlarının tasarımında kullanılabilir (Gelenbe and Batty
1992).
1.4.1 Ek kaynaklar (bütünlügü bozmadan atlanabilir)
Gelenbe (1989) tarafından RYSA modelinin geliştirilmesinin ardından, Gelenbe
(1990)'daki çalışmasında modelin ileri beslemeli olmadığı durumlarda da kararlı
olabilmesinin koşullarına açıklık getirmiştir. Gelenbe and Stafylopatis (1991),
homojenlik, yani tüm sinirlerin aynı stokastik karekteristiğe sahip olması, söz konusu
olduğunda modelin genel davranışını incelemiştir. RYSA öğrenme algoritmasının
geliştirilmesinin (Gelenbe 1993a) ardından uygulamaya yönelik çalışmalar ortaya
çıkmaya başlamıştır. Gelenbe and Halıcı (1994) ve Bakırcıoğlu and Koçak (2000),
RYSA uygulamalarının bir kısmını gözden geçirmişlerdir.
RYSA modelinin hem ileri-beslemeli hem de tamamen tekrarlamalı mimaride
kullanıldığı çeşitli uygulamalarda başarılı olduğu kanıtlanmıştır. Pek çok problemde,
RYSA, eğitim için kullanılan veri seti, gerçek test verilerine göre küçük olduğunda
bile, güçlü genelleştirme becerileri sergiler. Ağırlık güncelleme sürecindeki hesaplama
kolaylığına bağlı olarak, modelde hızlı öğrenme elde edilir. RYSA ile bugüne dek
yapılan uygulama çalışmaları özetlenecek olursa :
a) Görüntü işleme (Atalay and Gelenbe 1992, Atalay et al. 1992, Bakırcıoğlu and
Gelenbe 1997, Bakırcıoğlu et al. 1997, Gelenbe, Bakırcıoğlu and Koçak 1998, Teke
12
and Atalay 2004) : bölütleme (Lu and Shen 2005), hareketsiz görüntü sıkıştırma
(Gelenbe and Sungur 1994a, b , Gelenbe et al. 1994, Cramer et al. 1996, Cramer et al.
1998, Sungur 1998), hareketli görüntü sıkıştırma (Gelenbe and Sungur 1994, Gelenbe
et al. 1994, Cramer et al. 1996, Gelenbe et al. 1996), gelişmiş görüntü büyütme
(Bakırcıoğlu and Gelenbe 1997, Bakırcıoğlu et al. 1997), algılayıcı görüntü birleştirme
(Bakırcıoğlu et al. 1997, Gelenbe et al. 1998, Koçak 2001), biyomedikal görüntüleme
(Gelenbe, Feng and Khrishnan 1996), desen yaratma (Atalay and Gelenbe 1992,
Atalay et al. 1992),
b) örüntü tanıma (Mokhtari 1992, Bakırcıoğlu and Gelenbe 1998b) : manyetik
rezonans görüntülerinin sınıflandırılması (Gelenbe et al. 1996), otomatik hedef
algılama (Gelenbe et al. 1996, Bakırcıoğlu and Gelenbe 1997, Bakırcıoğlu and
Gelenbe 1998), mayın bulma (Gelenbe and Cao 1998, Gelenbe, Labed and Cao 1998,
Gelenbe and Koçak 2000, Koçak 2001, Abdelbaki et al. 2005, Koçak and Draper
2006), hatalı ürün bulma (Koçak 2001),
c) eniyileme (Gelenbe and Batty 1992, Gelenbe 1993c, Gelenbe et al. 1994,
Ghanwani 1994),
d) diğer : ağlar (Gelenbe, Ghanwani and Srinivasan 1997, Gelenbe, Kotia and
Krauss 1997, Koçak et al. 2003, Terzioğlu and Koçak 2004, Hey et al. 2005),
benzetişim (Gelenbe and Şeref 2001), ilişkili bellek (Gelenbe 1991, 92b, Gelenbe et al.
1991a,b, Likas and Stafylopatis 1991, Hubert 1992a,b, Jo et al. 2005), imge algılama
ve sınıflama (Gelenbe, Harmancı and Krolik 1998), imge işleme (Fourneau and
Gelenbe 1992), fonksiyon yaklaşımlama (Gelenbe et al. 1998, 2004), kuyruk kuramı
(Gelenbe, Glynn and Sigman 1991, Gelenbe and Schassberger 1992, Gelenbe 1993d,e,
Gelenbe and Labed 1998, 2000, Harrison 1998, Anjelo 2000, Fourneau et al. 2000,
Gelenbe et al. 2000, Gelenbe and Shachnai 2000, Harrison et al. 2000, Gelenbe and
Fourneau 2002, Fourneau and Gelenbe 2004), RYSA'nın donanımla gerçeklenmesi
(Gelenbe 1989, Sungur 1995, Badaroğlu et al. 1997, Çerkez et al. 1997a,b, Çerkez vd.
1997c, Halıcı et al. 1997, Aybay et al. 1998).
13
2. KURAMSAL TEMELLER
2.1 Matematiksel Morfoloji
2.1.1 Matematiksel temel kavramlar
Pek çok görüntü işleme ve analizi uygulamasında, verilen bir F görüntüsü, bir W
görüntü işleci kullanılarak, G = W(F) olacak şekilde, bir G görüntüsüne dönüştürülür.
Görüntü işleçleri, belirli işlevleri, örneğin bir görüntüyü gürültüden arındırıp önemli
görüntü özelliklerini (nesne sınırları v.b.) korumak gibi, yerine getirmek üzere
tasarlanırlar.
Bir görüntü işlecinin, genellikle, iki temel özelliği sağlaması istenir : dağılabilirlik, ve
ötelenmeden etkilenmeme. Örneğin, F1 ve F2 görüntülerinin verilen bir Y işlemiyle
birleşiminden elde edilmiş bir F görüntüsü verilmiş olsun. F üzerine bir dağılabilir W
işleci uygulandığında elde edilecek G görüntüsü, sırasıyla F1, ve F2 görüntülerine W
işlecinin uygulanmasıyla elde edilen G1, ve G2 görüntülerinin Y işlemiyle birleşiminden
elde edilecek görüntüye eşit olur. Matematiksel olarak :
W(Y(F1, F2)) = Y(W(F1), W(F2)) (2.1.1)
Bu ifade
W(Y(Fi)) = Y(W(Fi)) , i = 1, 2, .... (2.1.2)
biçiminde genelleştirilebilir. Bu özellik, birleşimlerle elde edilmiş görüntülerde W
işleciyle elde edilen etkilerin, görüntünün tek tek bileşenlerine uygulanarak elde
edilebilmesini garantiler. Diğer yandan, çoğu uygulamada, bir görüntü nesnesinin,
görüntü düzleminin neresinde bulunursa bulunsun aynı şekilde işlenmesi gerekir. Eğer
Fh = F + h = f + h | f ∈ F, bir F kümesinin, h ∈ E ile ötelenmesine karşılık geliyorsa,
bir küme işleci, W, ∀h ∈ E için,
14
W(F + h) = W(F) + h (2.1.3)
ise ötelenmeden etkilenmeyendir. Bir başka deyişle ötelenmeden etkilenmeyen bir W
işleci :
G = W(F) ⇔ Gh = W(Fh) (2.1.4)
şeklinde bir gerektirmeye yol açar. Bu özellik, W işlecinin, aynı görüntünün ötelenmiş
hallerine uygulandığında, ötelenme çerçevesinde aynı sonucu vermesini garantiler.
Ötelenmeden etkilenmeme, görüntü işleme ve analizinde önemli bir rol oynar.
Bir W işleci,
F1 ⊂ F2 ⇒ W(F1) ⊂ W(F2) (2.1.5)
gerektirmesini sağlıyorsa monoton artan ya da kısaca artandır. Bir artan W işleci bir F2
nesnesi tarafından örtülen bir F1 nesnesinin işlemden sonra görünür olmasına engel olur
(yani, W(F1) de W(F2) tarafından örtülecektir).
Bir küme işleci, artan olup, ötelenmeden etkilenmeyen olmayabilir, veya tersi. Bununla
beraber, sıklıkla kullanılan işleçler, hem artan hem de ötelenmeden etkilenmeyendir.
Dağılabilir görüntü işleçleri sınıfı, görüntülerin birleştirilme yöntemine bağlıdır.
Görüntüler, standart toplama işlemiyle (yani, her denk düşen her nokta için renk
değerlerinin toplanmasıyla) birleştirildiğinde, bir W dağılabilir işleci, her F görüntüsü
ve c sabiti için
W(c . F) = c . W(F) (2.1.6)
şeklindeki ölçekleme özelliğini de sağlıyorsa, bir doğrusal işleç olarak adlandırılır. Bir
doğrusal ve ötelenmeden etkilenmeyen W işleci için, her (x, y) ∈ E2 noktasında,
15
G(x, y) = W(F)(x, y) = ∫∞
∞−∫∞
∞−
h(x-u, y-v) F(u, v) du dv (2.1.7)
şeklindeki ifade, konvolüsyon eşitliği (ya da konvolüsyon integrali) olarak bilinir. E2
sembolü, sürekli uzayda tanımlı görüntüler söz konusu olduğunda iki-boyutlu Öklid
uzayı R2 yerine, sayısallaştırılmış görüntüler söz konusu olduğundaysa iki-boyutlu
kesikli uzay Z2 yerine kullanılacaktır. Buradaki h(x, y), W doğrusal işlecinin nokta
yayılım fonksiyonudur. Bu durumda, bir W görüntü işlecinin tasarımı, uygun bir h(x, y)
nokta yayılım fonksiyonunun oluşturulmasına denktir.
Yukarıdaki biçimdeki görüntü işleçleri, görüntü işleme ve analizinde yoğun bir şekilde
kullanılırlar. Bunun başlıca nedeni, bu ifadenin
G(wx , wy) = H(wx , wy) . F(wx , wy) , -∞ ≤ wx , wy ≤ ∞ (2.1.8)
çıkarımına yol açmasıdır. Burada, F(wx , wy), bir F(x, y) görüntüsünün 2-boyutlu
Fourier dönüşümü, H(wx , wy) ise W işlecinin frekans tepkisidir. Bu eşitlik, bir
öncekinden çok daha kolaydır, ve matematiksel hesaplama ve sayısal gerçekleştirimleri
büyük ölçüde kolaylaştırır. Bununla birlikte, bu biçimlerdeki işleçlerin, görüntü işleme
ve analizinde rahatça kullanılabilmelerini engelleyen bazı olumsuz yanları vardır. Bu
çalışma açısından en önemli olumsuzluk, iki-değerlikli (siyah ve beyaz) görüntülere
uygulanamamalarıdır. Bunun nedeni, bu biçimdeki doğrusal işleçlerin, görüntülerin
standart toplamayla birleştirildiğini varsaymalarıdır. Oysa bu, iki-değerlikli durum için
olanaklı değildir. İki-değerlikli görüntülerin birleştirilmeleri ya da üst üste bindirilmeleri
söz konusu olduğunda küme kuramı yaklaşımı tercih edilir. Bir iki-değerlikli görüntü
(nesne) F(x, y), E2 'den 0, 1'e bir fonksiyon, ya da F = (x, y) ∈ E2 | F(x, y) = 1
şeklinde tanımlanan bir F kümesi olarak ele alınabilir. Küme yaklaşımı söz konusu
olduğunda, kümenin tümleyeni Fc = (x, y) ∈ E2 | F(x, y) = 0 ifadesiyle verilir. Çakışan
iki nesneye , F1 ve F2, baktığımızda, ya ikisini birlikte tek bir nesne olarak algılarız
(yani, birleşimini, F1 ∪ F2), ya da örtüşen (F1 ∩ F2) veya örtüşmeyen (F1 \ F2 = F1 ∩ F c2
veya F2 \ F1 = F2 ∩ F c1 ) kısımlarını algılarız. Bu, iki-değerlikli görüntülerin birleşme ve
16
kesişme işlemleriyle üst üste bindirilebileceği sonucuna yol açar. Bir görüntü işlecinin
sağlaması istenen özelliklere dönecek olursak, bir dağılabilir küme işleci W,
W(F1 ∩ F2) = W(F1) ∩ W(F2) (2.1.9)
veya
W(F1 ∪ F2) = W(F1) ∪ W(F2) (2.1.10)
eşitliklerini sağlar (Matheron 1975, Serra 1982, Vincent 1991a, Goutsias 1992,
Heijmans 1994, Batman 1998, Soille 1999, Sivakumar 2000).
2.1.2 İki-değerlikli temel morfolojik işlemler
Metamatiksel morfoloji (biçimbilim), iki değerlikli ve gri seviyeli görüntülerden
geometrik bilgi çıkartan bir araçtır. Bir görüntü işleci elde etmek için yapıtaşı elemanı
olarak bilinen bir şekil göstergeci kullanılır. Görüntü işlecinin çıktısı, bu göstergecin
verilen görüntüyle örtüşüp örtüşmediğine bağlıdır. Çıkarılan bilginin kullanılan
göstergecin şekline ve büyüklüğüne bağlı olacağı açıktır.
2.1.2.1 Aşınma ve Genişleme
Aşınma ve genişleme, matematiksel morfolojinin en temel işleçleridir.
F1 ve F2 , birer küme olmak üzere, her (F1 , F2) iki-değerlikli görüntü ikilisi için,
W(F1 ∩ F2) = W(F1) ∩ W(F2) (2.1.11)
eşitliğini sağlayan her hangi bir küme işleci, W, iki-değerlikli aşınma (Şekil 2.1.b), ve
17
W(F1 ∪ F2) = W(F1) ∪ W(F2) (2.1.12)
eşitliğini sağlayan herhangi bir küme işleci, W, ise bir iki-değerlikli genişleme (Şekil
2.1.c), olarak adlandırılır. Aşınma, ε, genişlemeyse δ sembolüyle ifade edilecektir. Bu
eşitliklerin doğrudan bir sonucu olarak, aşınma ve genişleme, artan işleçlerdir (yani, F1
⊆ F2 ⇒ ε(F1) ⊆ ε(F1 ∩ F2) = ε(F1) ∩ ε(F2) ⊆ ε(F2), ve F1 ⊆ F2 ⇒ δ(F1) ⊆ δ(F1 ∩ F2) =
δ(F1) ∩ δ(F2) ⊆ δ(F2)) (Matheron 1975, Serra 1982, Vincent 1991a, Goutsias 1992,
Heijmans 1994, Batman 1998, Soille 1999, Sivakumar 2000).
Ötelenmeden etkilenmeyen her aşınma, ve her genişleme aşağıdaki şekillerde ifade
edilir :
ε(F) = IBb∈
F - b = F Θ B (2.1.13)
δ(F) = UBb∈
F + b = F ⊕ B (2.1.14)
burada B, bir yapıtaşı elemanıdır (bkz. Şekil 2.1.b,c ve Şekil 4.1, 4.2, 4.3.a,b).
E bir küme olduğunda, P(E), E’nin tüm alt kümelerini içine alan, güç kümesi, Ed, E’nin
d-boyutlu çarpımı olsun. Ed gösterimini kullanmak, Zd kesikli durumu ve Rd sürekli
durumuyla aynı anda ilgilenebilmemizi sağlar. Pratik durumlarda E = Z veya E = R ve
toplanabilir gurup yapısındadır.
F girdi görüntü, B yapıtaşı elemanı, ve B + z = b + z : b ∈ B olmak üzere, aşınma,
ε(F) = z : B + z ⊂ F (2.1.15)
şeklinde tanımlandığında, ε(F), B'nin F içinde kalacak şekildeki tüm ötelenmelerindeki
B'nin orijin noktalarını içerir. Bu durumda, genişleme,
18
δ(F) = U F + b : b ∈ B (2.1.16)
şeklinde tanımlanır.
F, B ⊆ Ed şeklinde iki küme verildiğinde,
F ⊕ B = f + b | f ∈ F , b ∈ B (2.1.17)
şeklinde tanımlanan işlem Minkowski toplaması,
F Θ B = h | b + h ∈ F , ∀b ∈ B (2.1.18)
şeklinde tanımlanan işlemse Minkowski çıkarması olarak adlandırılır.
Küme kuramında ötelenmeden etkilenmeyen aşınma, Minkowski çıkarması olarak
bilinir :
F Θ B = h ∈ E | (B+h) ⊆ F (2.1.19)
şeklinde de gösterilir. Burada, B bir yapıtaşı elemanıdır. Bu ifade, ötelenmeden
etkilenmeyen aşınmanın bir geometrik yorumunu verir. Buna göre, bir F kümesinin
(şeklinin) bir B yapıtaşı elemanıyla ötelenmeden etkilenmeyen aşınmayı, h'de konumlu
B yapıtaşı elemanı tamamen F içinde yer alacak şekildeki (yani, B'nin merkezi h'de
olduğunda, B'nin tümü F ile kesişecek) tüm h ∈ E noktalarını içerir. Aşınma işlemi
uygulanan bir F kümesi, yapıtaşı elemanı B'nin şekline ve büyüklüğüne bağlı olarak
küçülür (yani, F Θ B ⊆ F). Yapıtaşı elemanı, orijini içerdiği sürece bu daima doğrudur.
Genel olarak, her F görüntüsü için W(F) ⊆ F olan bir W küme işleci, genişlemeyen
olarak adlandırılır.
19
Küme kuramında, ötelenmeden etkilenmeyen genişleme, Minkowski toplaması olarak
bilinir :
F ⊕ B = h ∈ E | (B-+h) ∩ F ≠ ∅ (2.1.20)
burada B- = -b | b ∈ E , B'nin orijine göre yansımasıdır. Buna göre, bir F kümesinin
(şeklinin) bir B yapıtaşı elemanıyla ötelenmeden etkilenmeyen genişlemeyi, h'ye
ötelenmiş yansımış yapıtaşı elemanı B- tamamen F içinde yer alan (F ile kesişen) tüm h
∈ E noktalarını içerir. Genişleme işlemi uygulanan bir F kümesi, yapıtaşı elemanı B'nin
şekline ve büyüklüğüne bağlı olarak büyür (yani, F ⊆ F ⊕ B). Yapıtaşı elemanı orijini
içerdiği sürece bu daima doğrudur. Genel olarak, her F görüntüsü için W(F) ⊇ F olan
bir W küme işleci, genişleyen olarak adlandırılır.
Bu işlemler, matematiksel morfolojinin temel bileşenlerini oluştururlar. Morfolojik
işleçler, bir kısım bilgiyi silerler. Genişleme ve aşınmadan sonra görüntünün aslını
yeniden elde edebilmek, genellikle, olanaklı değildir.
Matematiksel morfolojinin temel önermesi Matheron gösterimidir. Ötelenmeden
etkilenmeyen, ve artan her küme işleci aşınmaların bir birleşimi ya da genişlemelerin bir
kesişimi olarak ifade edilebilir. Tam tersi de geçerlidir; bir işleç (filtre veya küme
eşleştirmesi), W, sadece ve sadece çekirdek elemanlarının aşınmalarının birleşimi (veya
genişlemelerinin kesişimi) olarak gösterilebiliyorsa ötelenmeden etkilenmeyen ve
artandır (Matheron 1975) :
W(Y) = UM(W)B∈
F Θ B = U F Θ B : B ∈ M(W) (2.1.21)
veya
W(Y) = I)M(WB *∈
F ⊕ B- = I F ⊕ B- : B ∈ M(W*) (2.1.22)
20
burada M(W), W işlecinin çekirdeği, M(W) = B | W(B) orijini içerir, W* , W* (F) =
[W(Fc)]c , ise W işlecinin ikilisidir. Bu sonuç, kuramsal açıdan önemli olmakla birlikte,
uygulamada çekirdek oldukça geneldir. Genellikle, W'nin dikgen eksen ailesi olarak
bilinen M(W) çekirdeğinin bir alt kümesi N(W) bulunur. N(W), W işlecinin temeli,
yani, çekirdek içindeki en küçük yapıtaşı elemanları sınıfıdır. Bu çekirdekten oldukça
küçüktür, fakat işleci temsil etmek için yeterlidir (Maragos and Schafer 1987b). Bu
durumda, W'yi,
W(Y) = U F Θ B : B ∈ N(W) (2.1.23)
veya
W(Y) = I F ⊕ B- : B ∈ N(W*) (2.1.24)
şeklinde ifade edebilmek mümkün olur. (2.1.23) ve (2.1.24), (2.1.21) ve (2.1.22)'den
daha kullanışlıdır.
İki-değerlikli aşınmanın bazı özellikleri aşağıda verilmiştir (Matheron 1975, Serra 1982,
Vincent 1990, 1991b,d,e, 1992c, 1995, Goutsias 1992, Haralick and Shapiro 1992,
Heijmans 1994, Batman 1998, Soille 1999, Goutsias and Batman 2000, Sivakumar
2000) : (2.1.25)
F Θ h = F - h
(F + h) Θ B = F Θ (B - h) = (F Θ B) + h Ötelenmeden etkilenmeme
F Θ B1 ⊇ F Θ B2 , eğer B1 ⊆ B2 ise Yapıtaşı elemanına göre küçülürlük
F Θ (B1 ∪ B2) = (F Θ B1) ∩ (F Θ B2) Paralel birleştirme
(F1 ∩ F2) Θ B = (F1 Θ B) ∩ (F2 Θ B) Kesişimin dağılması
F Θ (B1 ∩ B2) ⊇ (F Θ B1) ∪ (F Θ B2) Paralel birleştirme eşitsizliği
(F1 ∪ F2) Θ B ⊇ (F1 Θ B) ∪ (F2 Θ B) Paralel birleştirme eşitsizliği
(F Θ B1) Θ B2 = F Θ (B1 ⊕ B1) Seri birleştirme
F1 ⊆ F2 ⇒ F1 Θ B ⊆ F2 Θ B Şekle göre artanlık
21
kF Θ kB = k(F Θ B) Homojenlik
F Θ B ⊆ F , eğer B orijini içeriyorsa Genişlemeyenlik
F Θ B = (Fc ⊕ B-)c Simetrik ikililik
Burada kF = kf | f ∈ F , F'nin k ile ölçeklenmiş halidir (yani, k katıdır).
Benzer şekilde iki-değerlikli genişlemenin bazı özellikleri aşağıda yer almaktadır :
(2.1.26)
F ⊕ h = F + h
F ⊕ B = B ⊕ F Yer değişebilirlik
(F + h) ⊕ B = F ⊕ (B + h) = (F ⊕ B) + h Ötelenmeden etkilenmeme
F ⊕ B1 ⊆ F ⊕ B2 , eğer B1 ⊆ B2 ise Yapıtaşı elemanına göre büyürlük
F ⊕ (B1 ∪ B2) = (F ⊕ B1) ∪ (F ⊕ B2) Paralel birleştirme
(F1 ∪ F2) ⊕ B = (F1 ⊕ B) ∪ (F2 ⊕ B) Birleşimin dağılması
F ⊕ (B1 ∩ B2) ⊇ (F ⊕ B1) ∪ (F ⊕ B2) Paralel birleştirme eşitsizliği
(F1 ∪ F2) ⊕ B ⊇ (F1 ⊕ B) ∪ (F2 ⊕ B) Paralel birleştirme eşitsizliği
(F ⊕ B1) ⊕ B2 = F ⊕ (B1 ⊕ B1) Seri birleştirme
F1 ⊆ F2 ⇒ F1 ⊕ B ⊆ F2 ⊕ B Şekle göre artanlık
kF ⊕ kB = k(F ⊕ B) Homojenlik
F ⊕ B ⊇ F , eğer B orijini içeriyorsa Genişleyenlik
F ⊕ B = (Fc Θ B-)c Simetrik ikililik
Seri birleştirme özelliği, yapıtaşı elemanlarının daha küçük parçalara ayrılabilmesi için
bir yöntem sağlar.
2.1.2.2 Açılış ve Kapanış
Genel olarak, aşınma ve genişleme, sıklıkla istenen yinelemede değişmezlik özelliği
(yani, W(W(F)) = W(F)) göstermeyen işleçlerdir. Yinelemede değişmezlik özelliği olan
bir işleç, tek bir uygulamadaki tüm bilgiyi çıkarır. Aynı işlecin ardışık uygulanması aynı
22
etkiyi göstermez. Bununla birlikte, bir ötelenmeden etkilenmeyen aşınma, F Θ B, bir
ötelenmeden etkilenmeyen genişlemeyle, F ⊕ B, birleştirildiğinde, hangi sırada
birleştiği farketmeksizin, ortaya çıkan işleç yinelemede değişmezdir. (F Θ B) ⊕ B
birleşimi açılış (veya morfolojik açılış) (Şekil 2.1.d), (F ⊕ B) Θ B birleşimi kapanış
(veya morfolojik kapanış) (Şekil 2.1.e) olarak adlandırılır. Açılış, α, kapanışsa, κ,
sembolleriyle ifade edilecektir.
Açılış ve kapanış kavramlarına daha genel olarak bakacak olursak : artan (yani, F1 ⊆ F2
⇒ W(F1) ⊆ W(F2) ), genişlemeyen (yani, W(F) ⊆ F), ve yinelemede değişmeyen
(W(W(F)) = W(F)) bir küme işleci W, cebirsel açılış ya da kısaca açılış olarak
adlandırılır. W, aynı zamanda ötelenmeden etkilenmeyense τ-açılışı olarak adlandırılır.
Artan, genişleyen (yani, F ⊆ W(F)), ve yinelemede değişmeyen bir küme işleci W ise
cebirsel kapanış ya da kısaca kapanış olarak adlandırılır. W, aynı zamanda ötelenmeden
etkilenmeyense τ-kapanışı olarak adlandırılır (Matheron 1975, Batman 1998). Açılışlar,
ve kapanışlar, sırasıyla, birleşim, ve kesişime göre kapalıdırlar. Bu, açılışların
birleşiminin bir açılış, kapanışların kesişimininse bir kapanış olduğu anlamına gelir.
F ο B = (F Θ B) ⊕ B (2.1.27)
işleci, bir B yapıtaşı elemanı içerdiği için yapısal açılış (bkz. Şekil 2.1.d ve Şekil 4.1,
4.2, 4.3.a,b) olarak da adlandırılır.
F ο B = U B + h | h ∈ E ve (B + h) ⊆ F (2.1.28)
şeklindeki ifade yapısal açılışın bir geometrik yorumunu verir. Buna göre, F ο B, F içine
uyan tüm ötelenmiş yapıtaşı elemanlarının, B + h, birleşimidir. Bir F şeklini bir B
yapıtaşı elemanıyla açmak F'nin B'den küçük tüm bileşenlerini çıkarır. Açma
işleminden sonra F'nin B'nin herhangi bir ötelenmiş yansımasını içeren bir bileşeni
kalmaz. Böylece, açma işleci, bir düzleyici filtre gibi davranır. Düzlemenin miktarı ve
tipi, kullanılan yapıtaşı elemanının şekli ve büyüklüğü tarafından belirlenir.
23
Benzer şekilde,
F • B = (F ⊕ B) Θ B (2.1.29)
işleci, bir B yapıtaşı elemanı içerdiği için yapısal kapanış (bkz. Şekil 2.1.e ve Şekil 4.1,
4.2, 4.3.a,b) olarak da adlandırılır (Heijmans 1995a, Goutsias and Batman 2000).
F • B = d ∈ E | d ∈ B- + h ⇒ (B- + h) ∩ F ≠ ∅ (2.1.30)
ifadesine göre, F • B, d'yi içeren tüm ötelenmiş yansımış yapıtaşı elemanları, B- + h, ile
F’nin kesişimindeki tüm d noktalarının kümesidir. Bir F şeklini bir B yapıtaşı
elemanıyla kapamak Fc 'nin B- 'den küçük tüm bileşenlerini çıkarır. Kapama işleminden
sonra Fc 'nin B- 'nin herhangi bir ötelenmiş yansımasını içeren bir bileşeni kalmaz. Bu,
doğrudan, yapısal açılış ve kapanış işlemleri arasındaki ikililiğin, F • B = (Fc ο B-)c, bir
sonucudur. Böylece, kapama işleci de, bir düzleyici filtre gibi davranır. Düzlemenin
miktarı ve tipi, kullanılan yapıtaşı elemanının şekli ve büyüklüğü tarafından belirlenir
(Goutsias and Batman 2000).
Diğer yararlı bir açılış işleci, iki-değerlikli alan açılışıdır. Bu işleç, alanı, verilen bir a
değerinden daha küçük olan tanecikleri, bir iki-değerlikli görüntüden çıkarır. Bir F
görüntüsünün bir taneciği, F'nin bir Fi bağlı bileşenidir. Bir Fi ⊆ F ⊆ E bileşeni, Fi 'de
iki nokta verildiğinde, bu iki noktayı birleştiren ve tamamen Fi içinde yer alan en az bir
yol varsa, bağlıdır. Matematiksel olarak, iki-değerlikli alan açılışı
α(F, a) = U Fi | |Fi| ≥ a (2.1.31)
burada Fi | i = 1, 2, ...., F'nin tanecikleridir, ve |F|, F'nin alanına karşılık gelir (F,
kesikli bir küme olduğunda, |F|, elemanlarının sayısıdır). a'nın sabit bir değeri için, bu
işlecin, artan, genişlemeyen, ve yinelemede değişmeyen, dolayısıyla bir açılış olduğu
kolayca görülebilir. Alan açılışı, verilen değerden daha küçük alanı olan tanecikleri
eleyip, alanı bu değerden daha büyük olanları geçiren bir morfolojik filtredir.
24
İkililikten yararlanılarak, iki-değerlikli alan kapanışı işlemi
κ(F, a) = [α(Fc, a)]c (2.1.32)
şeklinde tanımlanır. Alan kapanışı, bir iki-değerlikli görüntüdeki, alanı verilen bir a
değerinden daha küçük olan boşlukları doldurur.
B, orijini içermeyen bir simetrik yapıtaşı elemanıysa, (F ⊕ B) ∩ F işleci bir açılış
tanımlar. Artan, genişlemeyen, yinelemede değişmeyen bu işleç, halkasal açılış olarak
bilinir. Halkasal açılışın ikilisi, (F Θ B) ∪ F bir kapanıştır ve artan, genişleyen,
yinelemede değişmeyen bu işleç ise halkasal kapanış olarak bilinir. Halkasal açılış, bir
görüntüdeki belli şekil ve büyüklükteki parçacıkları işaretlemek için yararlı bir işleçtir
(Goutsias and Batman 2000).
Matheron gösterimi, açılılış ve kapanış için de geçerlidir. Ötelenmeden etkilenmeyen
her açılış, α, (yani, artan, genişlemeyen, yinelemede değişmeyen bir ötelenmeden
etkilenmeyen işleç) yapısal açılışların bir birleşimi olarak ifade edilebilir. Benzer
şekilde, ötelenmeden etkilenmeyen her kapanış, κ, (yani, artan, genişleyen, yinelemede
değişmeyen bir ötelenmeden etkilenmeyen işleç) yapısal kapanışların bir kesişimi
olarak ifade edilebilir (Matheron 1975) :
α(F) = U)Inv(B α∈
F ο B (2.1.33)
κ(F) = I)Inv(B κ∈
F • (B-)c (2.1.34)
burada I(W) = F | W(F) = F, W işlecinin değişmezlik değer kümesine karşılık gelir.
Bir τ-açılışının değişmezlik sınıfı I(W), W(F) = F olan tüm kümelerden oluşur.
25
Eğer I[W], ötelenme ve birleşim altında bir N alt kümesinin örtüsüyse, N, I[W]'nin bir
temelidir. τ-açılışını buna bağlı olarak ifade edecek olursak, bir W işleci, sadece ve
sadece aşağıdaki eşitliği sağlayan bir N kümeleri sınıfı varsa τ-açılışıdır :
W(F) = UNB∈
F ο B (2.1.35)
F ο B = F ise, F kümesi, B'ye göre açıktır. Diğer bir deyişle, F, B'ye göre değişmezdir.
Bir A kümesi, B'ye göre açıksa, herhangi bir F kümesi için, F ο A ⊂ F ο B olur. Tüm k
≥ 1 için kG, sadece ve sadece G dışbükey ise G'ye göre açıktır. Üstelik G, kompakt ve
dışbükeyse, a ≥ b > 0 için, F ο aG ⊂ F ο bG olur.
Açılış ve kapanış, artan işleçler oldukları için, aşınmaların birleşimi veya genişlemelerin
kesişimi olarak çözümlenebilirler. Bununla birlikte, ötelenmeden etkilenmeyen açılış
ve kapanışları, bu tür çözünmeler kullanarak tasarlamak zahmetli ve güçtür. Diğer
yandan, ötelenmeden etkilenmeyen açılış ve kapanışları, (2.1.33) ve (2.1.34)'deki
eşitlikleri kullanarak tasarlamak ve gerçeklemek daha kolaydır.
İki-değerlikli yapısal açılışın bazı özellikleri aşağıda verilmiştir (Matheron 1975, Serra
1982, Vincent 1990, 1991b,d,e, 1992c, 1995, Goutsias 1992, Heijmans 1994, Batman
1998, Soille 1999, Goutsias and Batman 2000, Sivakumar 2000) : (2.1.36)
F ο h = F
(F + h) ο B = (F ο B) + h Ötelenmeden etkilenmeme
F ο (B + h) = F ο B
F1 ⊆ F2 ⇒ F1 ο B ⊆ F2 ο B Şekle göre artanlık
kF ο kB = k(F ο B) Homojenlik
F ο B ⊆ F Genişlemeyenlik
(F ο B) ο B = F ο B Yinelemede değişmezlik
F ο B = (Fc • B-)c Simetrik ikililik
Benzer şekilde iki-değerlikli yapısal kapanışın bazı özellikleri aşağıda yer almaktadır
(Matheron 1975, Serra 1982, Vincent 1990, 1991b,d,
Heijmans 1994, Batman 1998, Soille 1999, Sivakumar 2000) :
F • h = F
(F + h) • B = (F
F • (B + h) = F
F1 ⊆ F2 ⇒ F1
kF • kB = k(F
F ⊆ F • B
(F • B) •B = F
F • B = (Fc ο B
26
değerlikli yapısal kapanışın bazı özellikleri aşağıda yer almaktadır
(Matheron 1975, Serra 1982, Vincent 1990, 1991b,d,e, 1992c, 1995, Goutsias 1992,
Heijmans 1994, Batman 1998, Soille 1999, Sivakumar 2000) :
B = (F • B) + h Ötelenmeden etkilenmeme
(B + h) = F • B
• B ⊆ F2 • B Şekle göre artanlık
kB = k(F • B) Homojenlik
Genişleyenlik
B = F • B Yinelemede değişmezlik
B-)c Simetrik ikililik
(a)
(b)
değerlikli yapısal kapanışın bazı özellikleri aşağıda yer almaktadır
e, 1992c, 1995, Goutsias 1992,
(2.1.37)
Ötelenmeden etkilenmeme
Şekle göre artanlık
Genişleyenlik
Yinelemede değişmezlik
Simetrik ikililik
(c)
27
(d) (e)
Şekil 2.1.a. Örnek görüntü F, b. Aşınma işlemi sonucu, F Θ Bk , c. Genişleme işlemi sonucu, F ⊕ Bk , d. Açılış işlemi sonucu, F ο Bk , e. Kapanış işlemi sonucu, F • Bk ; (B : paralel kenar tipi, k=5) 2.1.2.3 İsabet etme - İsabet etmeme
Verilen bir iki-değerlikli görüntünün bir yapıtaşı elemanıyla içini veya dışını incelemek
yerine, belirli uygulamalarda hem ön-planı hem de arka-planı aynı anda incelemek daha
verimli olabilir. İsabet etme - isabet etmeme (kısaca isabet etme-etmeme ya da kesişme-
kesişmeme) işleci, bu düşünceyi formülleştirir :
H(F) = F ⊗ (C, B) = h ∈ C | (C + h) ⊆ F ve (B + h) ⊆ Fc (2.1.38)
burada C ve B, C ∩ B = ∅ olan iki yapıtaşı elemanıdır. Bu ifade, bir h noktasının, F ⊗
(C, B) isabet etme-etmeme dönüşümüyle elde edilmiş küme içinde, sadece ve sadece,
ötelenmiş yapıtaşı elemanı C + h 'nin Fc ile kesişmemesi (veya denk bir ifadeyle, F
içinde yer alması), ve ötelenmiş yapıtaşı elemanı B + h 'nin F içine düşmemesi (veya
denk bir ifadeyle, Fc içinde yer alması) durumunda yer aldığını söyler.
F ⊗ (C, B) = (F Θ C) ∩ (Fc Θ B) (2.1.39)
olduğu kolayca gösterilebilir.
28
Bu şekilde, isabet etme-etmemeyle elde edilmiş küme, aynı anda ön-plan F 'nin bir C
yapıtaşı elemanıyla aşınması ve arka-plan Fc 'nin bir B yapıtaşı elemanıyla aşınması
sonucu ortaya çıkan tüm noktaları içerir. İsabet etme-etmeme işleci, bir nesne içinde
belirli yerel geometrik özellikleri olan noktaların (ayrık noktalar, kenar noktaları, köşe
noktaları vb gibi) belirlenmesi için oldukça uygundur (Serra 1982, Dougherty 1992 ,
Goutsias 1992, Heijmans 1994, Batman 1998). İsabet etme-etmeme, ilk kez Klein and
Serra'nın (1971) çalışmasıyla yazılım ve donanımla gerçeklenmiştir.
Her hangi bir ötelenmeden etkilenmeyen küme işleci, isabet etme-etmeme işleçlerinin
bir birleşimi olarak ifade edilebilir (Banon and Barrera 1991). Bu, artan ve ötelenmeden
etkilenmeyen işleçlerin, aşınmaların birleşimi veya genişlemelerin kesişimiyle ifade
edilebilmesine göre daha güçlü bir sonuçtur. Bunun için ilk başta iki tanıma
gereksinimimiz var. İki küme, C ve B, verildiğinde [C, B] aralığı, C ⊆ F ⊆ B ifadesini
sağlayan tüm F kümelerinin kümesidir. Bir W küme işleci verildiğinde, W'nin ikili-
çekirdeği B(W),
B(W) = (B, C) | [B, C] ⊆ M(W) (2.1.40)
şeklinde tanımlanır. Burada M(W), (2.1.21)'de verilen çekirdek işlecidir. Öyleyse,
herhangi bir küme işleci W için,
W(F) = UB(W)C) (B, ∈
F ⊗ (B, Cc) (2.1.41)
İki değerlikli morfolojik işleçlerin tasarımı, sıklıkla büyük bir eğitim kümesine
gereksinim duyduğu için bazı uygulamalarda kullanılabilmesi güçtür.
İsabet etme - isabet etmeme işlecinin bazı özellikleri aşağıda verilmiştir (Matheron
1975, Serra 1982, Goutsias 1992, Heijmans 1994, Batman 1998, Soille 1999, Goutsias
and Batman 2000, Sivakumar 2000) : (2.1.42)
(F + h) ⊗ (C, B) = [F ⊗ (C, B)] + h Ötelenmeden etkilenmeme
29
F ⊗ (C, B) = F ⊗ (B, C)
F ⊗ (C + h , B + h) = [F ⊗ (C, B)] - h Şekle göre artanlık
kF ⊗ (kC, kB) = k[F ⊗ (C, B)] Homojenlik
C = ∅ ⇒ F ⊗ (C, B) = Fc Θ B Azalan işleç
B = ∅ ⇒ F ⊗ (C, B) = F Θ C Artan işleç
C ∩ B ≠ ∅ ⇒ F ⊗ (C, B) = ∅
2.1.3 Morfolojinin geometrik yönleri
Kümelerin, morfolojideki en önemli özelliği, dışbükeyliktir. X, Y ⊆ Rd olsun.
a) X, sadece ve sadece, r, s ≥ 0 için, rX ⊕ sX = (r+s) X
b) X, ve Y dışbükey ise X ⊕ Y de dışbükeydir.
c) C(X ⊕ Y) = C(X) ⊕ C(Y)
burada, C(X), X'in dışbükey kabuğu, yani, X'i içeren en küçük dışbükey kümedir.
r ≥ 1, ve bir dışbükey B için rB, B'ye göre açıktır, ve her X için X ο rB ⊆ X ο B 'dir.
X kapalı ve B sınırlı ise, X • B ⊆ C(X) , X dışbükey ise, X • B = X 'tir.
Bir dışbükey cisim, kompakt, dışbükey, ve içi boş olmayan bir kümedir. Bazı e > 0, ve
kapalı birim küre A için, eğer B ο εA = B ise, B dışbükey cismi, düzgün olarak
adlandırılır. Kapalı bir daire düzgündür, fakat bir dikdörtgen değildir (Heijmans 1995a).
B, bir düzgün dışbükey cisim olsun. Her F kompakt kümesi için r'ye göre artan F • rB
kapanışlar ailesi, r→∞ iken C(F)'e yakınsar, yani
I0r
rB F>
• = C(F) (2.1.43)
'dır.
30
2.1.4 Kafes Kuramsal yaklaşım
Kuramsal açıdan baktığımızda, matematiksel morfoloji, tam kafes yapılar (yani, kısmi
sıralılık ilişkisiyle donatılmış, her alt kümenin bir infimumu ve supremumu olan, boş
olmayan kümeler) arasındaki işleçler üzerinde çalışır. Nesne uzayının bir tam kafes
olması varsayımından (Ritter et al. 1990) yola çıkılarak morfoloji için genel bir çalışma
zemini elde edilebileceği ilk olarak Matheron and Serra (1988) tarafından gözlenmiştir.
Bu fikir, Heijmans and Ronse (1990, 1991) tarafından geliştirilmiştir. Tam kafes
yapıların, matematiksel morfoloji için doğru çalışma zemini olmasının nedenleri Ronse
(1990)'de bulunabilir. Matematiksel morfolojiye kafes kuramsal yaklaşımlar için Serra
and Vincent 1989 ve 1992 (açılış, kapanış, ve morfolojik filtreleme), ve Heijmans
(1991)'e bakılabilir. Heijmans ve Boomgaard 2002’de, kafes yaklaşımı için bir altyapı
ortaya koymuşlardır. Matematiksel morfolojinin gücü, tam kafes yapılar arasındaki,
ötelenmeden etkilenmeyen herhangi bir işlecin temel morfolojik işleçlerle temsil
edilebilmesinden gelir (Banon and Barrera 1991, 1993). Bir görüntü işleci, temel
morfolojik işleçlerin birleşimiyle oluşturulabilir. Bununla birlikte, bu yaklaşım kimi
zaman çok miktarda temel işleç gerektirdiği için kullanışlı olmayabilir. Bereket, çoğu
uygulamayla morfolojik işleç sayısı sınırlı tutularak tatmin edici bir şekilde
ilgilenilebilir. Görüntü analizcisinin anahtar görevi, ister şekil tanıma, çıkarımsama,
veya filtreleme için olsun, eldeki bir problem için gereken morfolojik işleçler ailesini
belirlemektir.
2.1.5 Gri seviyeli görüntülerde morfolojik işlemler
Aşınma ve genişleme kavramları gri seviyeli duruma kolaylıkla genelleştirilebilir.
Bunun için eşik çözümleme adı verilen bir yöntem kullanılır. Bu yöntemde gri seviyeli
bir görüntü, bir iki değerlikli görüntüler kümesiyle biricik olarak ifade edilir. Kümeyi
oluşturan görüntüler kesişen bölümler olarak bilinir. Eşik çözümleme kullanıldığında,
birleşim ve kesişimin eşdeğerleri, sırasıyla, supremum ve infimumdur (veya, sonlu
sayıda görüntü olması durumunda en-büyük ve en-küçük) (Eşik çözümlemeyle ilgili
detaylı bilgi için Muroga 1971’e bakılabilir). Böylece, gri seviyeli morfoloji söz konusu
31
olduğunda, iki gri seviyeli görüntü, F1 ve F2, F1 Λ F2 ve F1 V F2 görüntülerini elde
etmek için en-küçük veya en-büyük ile birleştirilir :
(F1 Λ F2)(x, y) = F1(x, y) Λ F2(x, y) (2.1.44)
(F1 V F2)(x, y) = F1(x, y) V F2(x, y) (2.1.45)
burada Λ ve V, sırasıyla infimum ve supremum yerine kullanılmıştır. Bu bağlamda, bir
dağılabilir gri seviyeli W işleci,
W(F1 Λ F2) = W(F1) Λ W(F2) (2.1.46)
veya
W(F1 V F2) = W(F1) V W(F2) (2.1.47)
eşitliğini sağlar. (2.1.46)’yı sağlayan gri seviyeli aşınma, (2.1.47)’yi sağlayansa gri
seviyeli genişleme olarak adlandırılır. Bir gri seviyeli ötelenmeden etkilenmeyen
aşınma, ε, için
ε(F)(x, y) = vu,Λ [F(u, v) - B(u - x, v - y)] (2.1.48)
bir gri seviyeli ötelenmeden etkilenmeyen genişleme, δ, içinse
δ(F)(x, y) = vu,V [F(u, v) + B(x - u, y - v)] (2.1.49)
olur. Burada B(x, y), yapıtaşı elemanı olarak bilinen bir gri seviyeli görüntüdür. (2.1.48)
ve (2.1.49)’daki formüller, (2.1.7)'deki konvolüsyon formülüyle benzerlik gösterir,
(2.1.7)'deki integral supremumla, nokta yayılım fonksiyonu yapıtaşı elemanıyla, çarpma
toplamayla, değiştirildiğinde (2.1.49)’daki genişleme ifadesi, benzer şekilde integral
infimumla, nokta yayılım fonksiyonu yapıtaşı elemanıyla, çarpma çıkarmayla,
değiştirildiğindeyse (2.1.48)’deki aşınma ifadesi elde edilir (Serra 1982, Haralick et al.
32
1987, Haralick and Shapiro 1992). Bu yüzden (2.1.48) ve (2.1.49)’daki eşitlikler, kimi
zaman morfolojik konvolüsyonlar olarak adlandırılır.
Gri-seviyeli morfoloji hakkında daha detaylı bilgi için Shih and Mitchel (1989, 1991),
Heijmans (1991), Vincent (1992a, 1993, 1994a,b, 1996)'ya bakılabilir. Deng and
Heijmans (2002)’de ise gri-seviyeli morfoloji, bulanık mantık temeline dayandırılarak
ele alınmıştır.
2.1.6 İki-değerlikli görüntülerin morfolojik ifadesi
Görüntü ifade etme, bilgiye kolay ulaşılabilmesi için, görüntü verisini özlü bir biçime
dönüştürmeyi amaçlayan çok önemli bir problemdir. Görüntü ifade etme, görüntü
tanımlama ve sıkıştırma tekniklerine de yol gösterebilir. Literatürde oldukça çok sayıda
görüntü ifade etme teknikleri yer alsa da (örneğin, Fourier dönüşümü (Jensen 1986,
Gonzales and Wintz 1987, Jain 1989, Pratt 1991), dalgacık dönüşümü (Meyer and Ryan
1993, Hubbard 1996, Chui 1997, Antoine 1998) ve fraktallar (Feder 1988, Barsley
1993, Stoyan and Stoyan 1995, Wornell 1996) gibi, matematiksel morfoloji, özellikle
iki-değerlikli görüntüler için, bazı çok yararlı teknikler üretmiştir. Bunların başında
kesikli büyüklük dağılımı gelmektedir (Maragos 1986, 1989, Pitas and Venetsanapoulos
1990a,b, Reinhardt and Higgins 1996).
2.1.6.1 Granülometriler
Matheron (1975), granülometrileri, iki-değerlikli tanecikli görüntüleri rasgele kümeler
bağlamında incelemek için önermiştir. İki-değerlikli granülometrileri, ilk olarak
Matheron, rasgele kümelerin büyüklük ve şekil bilgilerini ifade edebilmek için ileri
sürmüştür. Matheron, elek filtrelerinin ifadesi için granülometrileri aksiyomatik olarak
tanımlamış, ve genel bir gösterim kuramı geliştirmiştir.
33
Morfolojik granülometriler, ve ilişkili büyük dağılımları ve yoğunlukları, rasgele
kümeler için önemli şekil büyüklüğü bilgileridir (Matheron 1975). Şekil ve desen analizi
(Serra 1982), çok ölçekli şekil sunumu (Maragos 1989), desen analizi, bölütlenmesi, ve
sınıflandırması (Dougherty and Pelz 1991, Dougherty and Cheng 1995), gürültü
filtreleme, morfolojik şekil filtreleme ve onarımı (Schonfeld and Goutsias 1991), ve
gözlenen bir görüntünün verilen bir rasgele küme modeline uygunluğunun uyumun-
iyiliği testiyle sınanması (Archambault and Moore 1993) gibi birçok görüntü işleme ve
analizi uygulamasında başarıyla kullanılmışlardır. Granülometriler hakkında detaylı
bilgi için Matheron (1975), Serra (1982), Heijmans (1994), Vincent (1995), Batman
(1998), ve Sivakumar (2000)'e bakılabilir. Gri seviyeli granülometriler için Vincent
(1994a, b, 1996)'ya bakılabilir. Vincent (1994b)'de hızlı gri seviyeli granülometrik
algoritmalar önermiştir.
Bir granülometri, Gk, k arttıkça daha büyük azaltma sağlayan bir parametreli filtre
sınıfıdır.
Matheron (1975), Öklid uzayında P güç kümesi üzerinde, P 'den P 'ye bir Gkk=1,2,....
eşleştirmeler ailesi şeklinde bir granülometri tanımlamıştır. Bu aile, ∀ F ∈ P için,
aşağıdaki özellikleri sağlar :
i) Gk , genişlemeyen (Gk(F) ⊂ F),
ii) Gk , artan (F ⊂ H ⇒ Gk(F) ⊂ Gk(H)),
iii) ∀ i, j > 0, Gi Gj = Gj Gi = Gmax(i, j)
Tamlığı sağlamak için, k=0 için Gk(F)= F şeklinde tanımlanır. Yani, G0 , P üzerindeki
birim eşleştirmedir. ∀ F ∈ P için G0(F) = F 'dir.
Gkk=0,1,.... , sadece ve sadece, G0 , P üzerindeki birim eşleştirme,ve Gkk=1,2,.... , i ≥ j ⇒
Gi ⊆ Gj özelliğini sağlayan bir açılışlar ailesiyse, P üzerinde bir granülometridir.
P üzerinde bir Gkk=0,1,.... granülometrisi verildiğinde, Jk(F) = (Gk(F
c))c olan, Gkk=0,1,....
'nin P'deki simetrik ikilisi bir Jkk=0,1,.... eşleştirmeler ailesi, Gkk=0,1,.... ile ilişkili karşı-
granülometri olarak bilinir.
34
Jkk=0,1,.... , sadece ve sadece, J0 , P üzerindeki birim eşleştirme, ve Jkk=1,2,.... , i ≥ j ⇒
Ji ⊇ Jj özelliğini sağlayan bir kapanışlar ailesiyse, P üzerinde bir granülometridir.
ε0(F) = δ0(F) = F , k = 1, 2, .... olmak üzere, εk(F) = F Θ kB , δk(F) = F ⊕ kB morfolojik
işleçlerini ele alalım. Burada B, orijini içeren bir simetrik sonlu yapıtaşı elemanıdır.
εkk=0,1,.... eşleştirmeleri, yukarıda verilen granülometri olmanın ilk iki koşulunu (i ve ii)
sağlar, fakat δs , εs 'nin simetrik ikilisi olduğu için üçüncüyü (iii) sağlamaz. Bu yüzden
εss=0,1,.... verilen tanıma göre katı anlamda granülometri değildir. εss=0,1,.... , aşınmaya
dayalı bir sahte granülometri, ve δs s=0,1,.... , onunla ilişkili sahte karşı-granülometridir.
Uygulamada en yararlı granülometri ve karşı-granülometriler, G0(F) = J0(F) = F , ve k =
1, 2, .... olmak üzere Gk(F) = F ο kB , ve Jk(F) = F • kB 'dir. Burada B, bir simetrik
sonlu yapıtaşı elemanıdır, kB, 0B = (0, 0) ile tekrarlanarak tanımlanır ve k = 1, 2, ....
için kB = (s - 1) B ⊕ B 'dir. Bunlar, sırasıyla morfolojik granülometri ve morfolojik
karşı-granülometri olarak bilinir.
Eğer, her Gk , aynı zamanda ötelenmeden etkilenmeyense (Gk(F + h) = Gk(F) + h), Gk ,
bir τ-granülometrisi olarak adlandırılır. Eğer Gk , herhangi bir k>0 ve herhangi bir F
görüntüsü için Öklid koşulunu (Gk(F) = kGk(k
F)) sağlayan bir τ-granülometrisiyse
Matheron (1975) bunu Öklid granülometrisi olarak adlandırır. Matheron'un Öklid
granülometrilerine bağlı temel gösterimi şöyledir :
T = Bi, bir kümeler ailesiyse,
Gk(F) = U (U (F ο jBi) : j ≥ k) , k > 0 (2.1.50)
şeklinde tanımlanan bir Gk , üreteci T = Bi olan bir Öklid granülometrisidir, ve tersi,
Öklid granülometrileri bu şekilde ortaya çıkar. Burada T, granülometrinin üreteci olarak
adlandırılır. Matheron gösterimine göre, k > 0 olmak üzere bir Gk eşleştirmeleri ailesi,
35
sadece sadece aşağıdaki koşulu sağlayan bir kümeleri sınıfı varsa, bir Öklid
granülometrisidir :
Gk(F)= UTB∈Ukj≥
F ο jB (2.1.51)
T'deki kümeleri kompakt kabul ettiğimizde, Matheron'un (1975) anahtar teoremlerinden
biri uyarınca, (2.1.51)’deki çift birleşim sadece ve sadece T'deki kümeler dışbükeyse
teke iner :
Gk(F)= UTB∈
F ο kB (2.1.52)
Bu durumda, granülometrinin dışbükey olduğu söylenir. (2.1.52)'den Gk(F)'nin içiçe
geçmiş sıralı kümelerin bir azalan dizisi oluşturduğu, ve kompakt F için yeterince büyük
k için Gk(F)'nin boş olduğu görülür. Tek birleşim parametreleştirilmiş bir τ-açılışını
gösterir. Gk'nin başlıca özellikleri :
i) i ≥ j ⇒ Gi(F) ⊂ Gj(F)
ii) i ≥ j ⇒ I(Gi) ⊂ I(Gj)
iii) Gk cebirsel bir açılıştır.
iv) Eğer, T bağlı kümelerden oluşuyorsa, ve F1, F2, .... herbiri birbiriyle karşılıklı
olarak ayrık kümelerse,
Wt(U∞
=1i
Fi) = U∞
=1i
(Fi) (2.1.53)
olur.
Bağlantısız birleşimler üzerinde dağılan bir granülometri, dağılabilir olarak adlandırılır.
Her bir k için, kB, Gk 'nin bir temelidir. Gk 'nin değişmezlik kümesi, I[Gk], Gk(F) = F
olan tüm kümeleri içerir, ve temeldeki kümelerin ötelenmelerinin birleşiminden oluşur.
36
En önemli Öklid granülometri sınıfı, homojen (eşit) doğrusal olarak ölçeklenmiş
yapıtaşı elemanlarıyla gerçekleşmiş sıradan açılışların birleşimiyle ifade edilenlerdir.
Matheron'un önerdiği kilit granülometriler sınıfı, dışbükey, kompakt yapıtaşı
elemanlarınca ölçeklendirilmiş sıradan açılışların birleşimleri şeklinde ifade
edilenlerdir. Burada ölçekleme homojendir, her yapıtaşı elemanı aynı faktörle ölçeklenir
ve burada ölçekleme doğrusaldır, her biri aynı k değeriyle çarpılır. Batman (1998),
çalışmasında heterojen granülometrilere, ve çok-değişkenli granülometrilere de yer
vermiştir.
En basit granülometri B = B 'ye sahiptir, ve bir F ο tB açılışlar sınıfına indirgenir.
T, T = B1, B2, ...., Bn şeklinde sonlu olarak tanımlanmış kompakt ve dışbükey
kümeler topluluğu olduğunda, k>0 olmak üzere,
Gk = Un
1i=
F ο kBi (2.1.54)
şeklinde tanımlanan bir Gk filtresinin oluşturduğu Gk ailesi, üreteci T olan bir sonlu
üreteçli Öklid granülometrisidir. Bütünlüğü sağlamak için, k=0 için W0(F) = F olarak
tanımlanır.
Elimizde, j ≥ k için B(j), B(k)'ye göre açık olmak üzere, B(k) | k > 0 parametrik
yapıtaşı elemanları ailesi olsun. αk(F) = F ο B(k) açılışları aşağıdaki yarı-gurup
özelliğini sağlar :
αk αj = αj αk = αj , j ≥ k (2.1.55)
Bu özelliğe sahip açılışlar ailesi, bir granülometri olarak adlandırılır. Ed = Rd için bu
aile, ölçek-uyumluysa (yani, αk(kF) = kα1(F) , k > 0) ve her αk ötelenmeden
etkilenmeyense, Minkowski granülometrisi olarak adlandırılır.
37
P(Rd) üzerindeki her Minkowski granülometrisi, αk | k > 0, aşağıdaki biçimdedir
(Matheron 1975, Serra 1982, Heijmans 1994, 1995a) :
αk(X) = Uk j≥ULB∈
F ο jB (2.1.56)
burada L ⊆ P(Rd), yapıtaşı elemanlarından rasgele seçilmiş bir kümedir. Kompakt bir B
⊆ Rd yapıtaşı elemanı verildiğinde, P(Rd) üzerindeki αk(F) = F ο kB açılışları, sadece ve
sadece, B dışbükey ise bir Minkowski granülometrisi tanımlar. Granülometriler
hakkında detaylı bilgi Matheron (1975), Serra (1982), Dougherty (1992), Heijmans
(1994, 1995a), Vincent (1995, 2000a,b), Goutsias and Sivakumar (1997a,c), Batman
(1998), Goutsias and Batman (2000), ve Sivakumar (2000)'de bulunabilir.
Çift birleşim, sadece ve sadece ∀ j ≥ k ve ∀i için jBi ο kBi = jBi olması durumunda tek
birleşime indirgenir. Bu, ∀ k ≥ 1 ve ∀i için kBi 'nin Bi 'ye göre açık olmasına eşittir.
Matheron'un söylediğinin derin bir sonucu olarak, Bi 'yi kompakt kabul edersek, ∀ k ≥ 1
için kBi , sadece ve sadece Bi dışbükey ise Bi 'ye göre açık olacaktır.
Tüm j ≥ k üzerinde birleşim olması nedeniyle (2.1.56)'da verilen granülometriler,
pratikte kullanışlı değildir. (2.1.52)'deki indirgenmiş gösterimle verilenler uygulamada
kullanılır. Uygulama için, bir Gk granülometrisiyle görüntü özelliklerini yaratmak
gerekir.
Klasik tek yapıtaşı elemanlı granülometriler marjinal büyüklük dağılımı ortaya koyarlar.
Tek değişkenli granülometrilerle, normalleştirilmiş büyüklük dağılımının (örüntü
spektrumu), bir olasılık dağılım fonksiyonu olduğu kolayca gösterilebilir.
Yapıtaşı elemanı B, genellikle Z2 'nin sınırlı bir alt kümesinde sabit, diğer yerlerde ise -
∞ kabul edilir. Bu durumda işleçler (aşınma, genişleme, açılış, kapanış) düz olarak
38
bilinir (Sivakumar 2000). Bu çalışmada, sadece Z2 'nin sınırlı alt kümelerinde 0 değerini
alan düz işleçler ve düz yapı-fonksiyonlarıyla ilgilenilmiştir.
Vincent (2000a)’da granülometrilerin hesaplanması için hızlı algoritmalar önermiştir.
2.1.6.2 Büyüklük dağılımı
Örüntü spektrumu, diğer bir deyişle büyüklük dağılımı, çeşitli uygulamalarda kendisine
yer bulmuştur. Gerçekte, morfolojik görüntü analizindeki en derinlik sağlayıcı
gereçlerden birisidir. Örüntü spektrumu, sıklıkla şekil/büyüklük (Blum 1973, Shapiro
1980, Small 1988) tanımlayıcı olarak kullanılır. Şekil ve desen analizi (Serra 1982),
çoklu-çözünürlüklü şekil ifade etme (Maragos 1989), morfolojik şekil filtreleme ve
onarımı (Schonfield and Goutsias 1991, Sivakumar and Goutsias 1997), ve desenlerin
analizi, bölütlenmesi, ve sınıflandırılması (Sivakumar and Goutsias 1997, Dougherty et
al. 1992, Dougherty and Cheng 1995) gibi bir çok görüntü işleme ve analizi
uygulamasında kullanılmıştır. Bununla birlikte, hesaplanması zaman alıcı olabilir.
Literetürde bu problemle ilgili olarak çeşitli etkin algoritmalar ileri süren çalışmalar
vardır.
m Lebesque ölçüsü (alan) (bkz. Goldfarb 1992) olmak üzere, sabit t için Ω(t) =
m[Wt(F)] tanımlayalım. Ω(t), t'nin bir azalan fonksiyonudur, ve bir büyüklük dağılımı
olarak bilinir. F kompaktsa, yeterince büyük t için Ω(t) = 0 'dır (Matheron 1975, Serra
1982, Heijmans 1994, Batman 1998, Sivakumar 2000).
Normalleştirilmiş büyüklük dağılımı,
Φ(t) = 1 - )0(
)t(
ΩΩ
(2.1.57)
39
0'dan 1'e artar, ve soldan süreklidir. O yüzden bir olasılık dağılımı fonksiyonudur. Ω(0)
= m(F)'dir. Φ(t)'nin genelleştirilmiş türevi
Φ'(t) = dt
)t(dΦ (2.1.58)
karışık tipte bir olasılık yoğunluk fonksiyonudur. Φ(t) dağılımı ve Φ'(t), F'nin B
üretecine göre granülometrik büyüklük dağılımı, örüntü spektrumu veya granülometrik
spektrumu (Matheron 1975, Batman 1998) olarak bilinirler. Granülometrik ve
morfolojik spektra tartışmaları için Dougherty, Newell, and Pelz (1992)'ye bakılabilir.
Φ'(t), bir olasılık yoğunluğu olduğu için momentleri vardır. Momentler, desen
sınıflandırmada kullanılırlar (Dougherty, Newell, and Pelz 1992). Pek çok rasgele küme
modeli için, tanecik sayısı arttıkça, momentler asimptotik olarak Gauss'tur.
Granülometrilerin desen sınıflandırmaya uygulanması, özellik olarak Φ(t)'nin
momentlerinin kullanılmasına bağlıdır. F, bir rasgele süreç olarak modellendiği için,
örüntü spektrumu bir rasgele fonksiyondur. Momentleri, rasgele değişkendir, ve bu
momentler, F rasgele sürecine bağlı olasılık dağılımına sahiptir.
Granülometrik momentlerle ilgili kilit soru, dağılımların davranışıdır. Klasik sistem
terminolojisinde, F sürecinin girdi parametreleri verildiğinde, momentlerin dağılımıyla
ilgili ne söylenebilir, granülometrik sistemin çıktıları nelerdir ? Girdi süreci ve
granülometrinin üreteci üzerindeki daha genel koşullar altında bu soru, görüntü
taneciklerinin örtüşmediği ve görüntüdeki taneciklerin sayısına göre asimptotik limitin
görüntü içinde olduğu durumlarda asimptotik olarak çözülmüştür (Batman 1998).
A(F), kompakt iki-değerlikli görüntü F'nin alanı olsun. Dışbükey bir B'ye göre büyüklük
dağılımı, k → A(F ο kB) artmayan fonksiyonu olarak tanımlanır. Maragos (1989), SF(k,
B) ile gösterdiği büyüklük dağılımını, örüntü spektrumu olarak adlandırmıştır ve
aşağıdaki şekilde tanımlamıştır :
40
SF(k, B) = - dk
d A(F ο kB) , k ≥ 0. (2.1.59)
kapanış kullanılarak, (2.1.59), -k büyüklüklerine genelleştirilebilir :
SF(-k, B) = - dk
d A(F • kB) , k ≥ 0. (2.1.60)
Örüntü spektrumu, teriminin seçilmesinin nedeni, F ο kB açılışının, kB+z⊆F olmak
üzere, tüm kB+z 'lerin, yani, z’de konumlu, B’ye benzer k büyüklüğündeki, F’nin içine
sığan, tüm şekillerin birleşimi olmasıdır. Büyüklük parametresi k, ölçeği belirler.
Böylece, A(F ο kB), F’nin kB örüntüsüne göre, örüntü içeriğinin bir ölçüsüdür. Hem k,
hem de B’nin şekli değiştirilerek F’nin şekil-büyüklük spektrumu elde edilir; bu, F’nin,
F içine sığabilecek örüntülere göre örüntü spektrumudur. B sabit tutularak, F’nin B’ye
göre büyüklük histogramı elde edilir.
2.1.6.3 Kesikli büyüklük dağılımı
F, Z2 'de bir kesikli rasgele küme (bir başka deyişle, iki değerlikli rasgele alan ya da
fonksiyon) olsun. fF(w), Z2 'den Z∞ = Z ∪ -∞ , ∞ 'ye bir fonksiyon olsun :
sups≥0 | w∈Gs(F) , w∈F
fF(w) = (2.1.61)
- infs≥1 | w∈Js(F) , w∈Fc
Bu fonksiyon, her w∈F noktasını, w noktasını içeren en küçük Gs(F) kümesinin s
büyüklüğüyle, her w∈Fc noktasınıysa, w noktasını içeren en küçük Js(F) kümesinin -s
büyüklüğüyle ilişkilendirir (Delfiner 1971, Matheron 1975, Sivakumar and Goutsias
1996).
41
Her s≥0 için, Gs(F) = w∈Z2 | fF(w) ≥ s, ve Js(F) = w∈Z
2 | fF(w) ≥ -s 'dir. Verilen bir
w∈Z2 için, fF(w) bir rasgele değişkendir. Her w ∈ Z2 için
P[w∈Gs(F)] , s ≥ 0
SF(w, s) = P[fF(w) ≥ s] = (2.1.62)
P[w∈Js(F)] , s ≤ -1
fonksiyonu, F kesikli rasgele kümesinin (Gss=0,1,....) granülometrisine göre (kesikli)
büyüklük dağılımı olarak adlandırılır.
sF(w, s) = SF(w, s) - SF(w, s+1) , w∈Z2 , s∈Z∞ (2.1.63)
fonksiyonuysa F'nin (kesikli) büyüklük yoğunluğudur. 1 - SX(w, s) , bir olasılık
fonksiyonu olduğundan, her w∈Z2 , ve her s1 ≥ s2 için SF(w, s1) ≤ SF(w, s2) 'dir (yani,
SF(w, s) , s'nin bir azalan fonksiyonudur).
−∞→s
lim SF(w, s) = 1 , ve
∞→s
lim SF(w, s) = 0 'dır.
Her s∈Z∞ için, sF(w, s) ≥ 0
∑∞
−∞=s
sF(w, s) = 1 , ve
SF(w, s) =∑∞
=sr
sF(w, r) 'dir.
Genel olarak, F, bir durağan kesikli rasgele küme olmadıkça, SF(w, s) ve sF(w, r), w∈Z
2
'ye bağlıdır. Bununla birlikte, bir sınırlı W veri gözlem penceresi, W ⊂ Z2 , kümesi
üzerinde bu niceliklerin bir mekansal ortalaması ele alınabilir. Bu durumda, SX(w, s) ve
sX(w, s) mekansal ortalamaları ( |W| ≠ 0 varsayımıyla),
42
SF(s) = |W|
1 ∑∈Ww
SF(w, s) (2.1.64)
sF(s) = |W|
1 ∑∈Ww
sF(w, s) (2.1.65)
şeklinde tanımlanır. (2.1.64) ve (2.1.65)’ten
SF(s) = |W|
1
≤∩
≥∩
için -1s , |]W(F)JE[|
için 0s , |]W(F)GE[|
|s|
s (2.1.66)
(her s∈Z∞ için sx(s) = Sx(s) - Sx(s+1) olduğundan, Gs+1 ⊆ Gs ve Js ⊆ Js+1 olması
nedeniyle)
sF(s) = |W|
1
≤∩
≥∩+
için -1s , |]W(F))J\ (F)(JE[|
için 0s , |]W(F))G \ (F)(GE[|
-1|s||s|
1ss (2.1.67)
Burada, E[.], beklenen değerdir. s ≥ 0 için
|W| SF(s) = ∑∈Ww
P[w∈Gs(F)] = ∑∈Ww
E[Is(x)G (w)] = ∑
∈Ww
E[|Gs(F) ∩ w|]
= E[ ∑∈Ww
|Gs(F) w| ] = E[| UWw∈
[Gs(F) ∩ w]|]
= E[|Gs(F) ∩ [ UWw∈
w]|] = E [|Gs(F) ∩ W|]
'dir. Benzer ifade, (2.1.66) yardımıyla s ≤ -1 için de elde edilir.
SF(s) ve sF(s), SF(w, s) ve sF(w, s) ile benzer özelliklere sahiptir (Sivakumar and
Goutsias 1996, 1997a,c, Sivakumar 2000).
43
Goutsias and Batman (2000)'de iki-değerlikli bir F görüntüsü verildiğinde, bir B
yapıtaşı elemanına göre, F'nin kesikli büyüklük dönüşümü ya da kesikli büyüklük
dağılımı (KBD),
F → (..., D-k(F, B), ..., D-1(F, B), D0(F, B), D1(F, B), ..., Dk(F, B), ...)
şeklinde tanımlanmıştır. Burada
F ο kB \ F ο (k+1)B , k = 0, 1, .... için
Dk(F, B) = (2.1.68)
F • |k|B- \ F • (|k|-1)B- , k = -1, -2, .... için
ve
orijin , k = 0 için
kB = (2.1.69)
B ⊕ B .... ⊕ B (k-1 genişleme) , k ≥ 1 için
'dır. Dikkat edilirse, k = 0, 1, .... için
F ο (k+1)B ⊆ F ο kB
ve
F • |k|B- ⊆ F • (|k|-1)B-
'dir. Böylece, k ≠ m için, Dk(F, B) ∩ Dm(F, B) = ∅, ve bir iki-değerlikli görüntüyü
bağlantısız bileşenlerine ayırması bakımından, KBD bir dikgen şekil ayrıştırma
şemasıdır. Buna ek olarak,
F = U0k≥
Dk(F, B) = [ U1k −≤
Dk(F, B)]c (2.1.70)
44
Böylece, KBD, aynı zamanda bir geri dönüşümlü görüntü ayrıştırma şemasıdır (yani,
bir F görüntüsü, Dk(F, B) k ≥ 0 veya Dk(F, B) k ≤ -1 KBD bileşenlerinden yeniden
elde edilebilir).
F, (örtüşmeyen) Fi , i = 1, 2, .... , tanecikleri içerdiğinde, k ≥ 0 için F ο kB açılışı,
içinden sadece k'den küçük büyüklükteki taneciklerin geçmesine izin veren, k
genişliğinde bir elek ağı olarak görülebilir. Bu durumda, Fi ∩ (F ο kB) ≠ ∅ fakat Fi ∩
(F ο (k+1)B) = ∅ ise, bir Fi taneciğinin k büyüklüğünde olduğu söylenebilir. Bu, F ο
kB , k ≥ 0 gözleminin, k artttıkça azalan bir çoklu-çözünürlüklü görüntü ayrıştırma
şeması olmasına yol açar. Bununla birlikte, burada çözünürlük kavramı, alışılmış çoklu-
çözünürlüklü tekniklerde olduğu gibi, F'nin frekans içeriğiyle ilişkili değildir, fakat
büyüklük içeriğiyle ilişkilidir (Maragos 1989a). Dikkat edilirse, büyüklük kavramı,
doğrudan, kullanılan B yapıtaşı elemanıyla ilişkilidir : F'nin bir Fi taneciği, kB 'nin Fi
'nin içine sığan en az bir ötelenmiş kopyası varsa, fakat (k+1)B 'nin Fi 'nin içine sığan
bir ötelenmiş kopyası yoksa, k büyüklüğündedir. Benzer ifadeler, F içindeki boşluklara
karşılık gelen F • (|k|-1)B- , k ≤ -1 için de geçerlidir.
B’nin dışbükeyliği, örüntü spektrumunun tüm k∈R için negatif olmayan olmasını
garantiler; çünkü eğer k<j ise, F∈R2 ve B⊆R2 olmak üzere, FοkB ⊇ FοjB ‘dir (Maragos
1989a).
Bu ifadelere dayanarak, KBD'nın, artan büyüklükteki yapıtaşı elemanıyla açılış ve
kapanışların ardışık farklarının terimleriyle, bir çoklu-çözünürlüklü görüntü ayrıştırma
şeması olduğu açıktır. k ≥ 0 içi n, KBD'nın k. (k'inci) bileşeni, sadece k büyüklüğünde
tanecikler içerir. Diğer yandan, k ≤ -1 için, KBD'nın k. bileşeni, sadece k büyüklüğünde
boşluklar içerir.
KBD, Fourier dönüşümün morfolojik karşılığı olarak düşünülebilir. Her iki dönüşüm de
bir görüntüyü, yeniden oluşturulması için yeterli dikgen bileşenlere ayırır. Fourier-
temelli görüntü işleme ve analizi tekniklerinde, görüntülerin, açı bilgisini göz ardı
45
ederek, Fourier spektrumu olarak bilinen, Fourier dönüşümünün şiddetleri kullanılarak
karekterize edilmesi oldukça yaygındır. Benzer bir yaklaşım, morfolojik durum için de
geçerlidir. Bir görüntü, örüntü spektrumu olarak bilinen, KBD'nın şiddetiyle karekterize
edilir :
|F ο kB \ F ο (k+1)B| , k = 0, 1, .... için
SF,B(k) = |Dk(F, B)| = (2.1.71)
|F • |k|B- \ F • (|k|-1)B-| , k = -1, -2, .... için
burada |X|, X kümesinin eleman sayısıdır. Dikkat edilirse, örüntü spektrumu, kullanılan
B yapıtaşı elemanına bağlıdır (yani, verilen bir görüntü için, farklı yapıtaşı
elemanlarıyla, farklı örüntü spektrumları elde edilir).
Fourier spektrumunda olduğu gibi, bir F görüntüsünün örüntü spektrumuyla taşınan
bilgi, F'yi yeniden oluşturmak için yeterli değildir. Bununla birlikte, örüntü spektrumu,
iki-değerlikli bir görüntünün şekil/büyüklük içeriği hakkında bazı yararlı bilgiler taşır
(Goutsias and Batman 2000) :
a) F'nin sınır düzensizliği, B yapıtaşı elemanına bağlı olarak, düzgün olmayan bir
sınır için örüntü spektrumunun alçak kısmında, düzgün bir sınır içinse örüntü
spektrumunun yüksek kısmında gözükür.
b) B örüntüsünün ortaya çıkardığı F'deki uzun veya büyük çıkıntılar, örüntü
spektrumunun artı büyüklüklerinde yalıtılmış darbeler veya sıçramalar olarak gözükür.
c) Eksi değerlerdeki büyük sıçramalar, F'deki kolayca gözlemlenebilen girinti veya
çıkıntıların varlığını gösterir.
Bütün bu özellikler, Fourier spektrumundaki benzer özelliklerin morfolojk
karşılıklarıdır.
Fourier spektrumu ve örüntü spektrumunun karşılaştırılması (Goutsias ve Batman
2000):
1) Bir düzgün görüntü, Fourier spektrumunda düşük frekanslarda büyük değerler,
yüksek frekanslarda küçük veya sıfır değerleriyle karekterize edilir.
46
Bir çok büyük düzgün nesnelere ve hiç veya az sayıda küçük nesnelere sahip olan bir
şekil, örüntü spektrumunun yüksek kısmında büyük değerler, ve örüntü spektrumunun
alçak kısmında küçük değerler veya sıfır değerleriyle karekterize edilir.
2) Hızlı gri seviye değişimleri olan bir görüntü, Fourier spektrumunda düşük
frekanslarda küçük veya sıfır değerleri ve yüksek frekanslarda büyük değerlerle
karekterize edilir.
Bir çok küçük ve düzensiz nesnelere ve hiç veya az sayıda büyük ve düzgün
nesnelere sahip olan bir şekil, örüntü spektrumunun yüksek kısmında küçük değerler
veya sıfır değerleriyle, ve örüntü spektrumunun alçak kısmında büyük değerlerle
karekterize edilir.
3) Fourier spektrumu, bir görüntüyü ifade eden karmaşık (sayı) sinüzoidlerin
dağılımının bir histogramıdır.
Örüntü spektrumu, bir görüntüyü ifade eden çeşitli nesnelerin büyüklüklerinin
dağılımının bir histogramıdır.
4) Gerçek görüntü sadece Fourier spektrumundan kurtarılamaz; açı spektrumunun
bilgisine de gereksinim vardır.
Gerçek görüntü örüntü spektrumundan kurtarılamaz.
2.1.6.3.1 Doğrusal örüntü spektrumu momentleri
V, bir birim uzunluğunda bir doğru parçası, F, dikey olarak kompakt bir küme (yani, F
= U (F I Lk) olacak şekilde F, birbirinden ayrık bağlı doğrusal parçaların
birleşimine ayrıştırılabilir. Burada Lk , x = k noktasından geçen dikey doğrudur.) Bir
dışbükey küme, dikey olarak dışbükeydir; hatta, bir dışbükey küme, istenen herhangi bir
yöndeki bağlı doğrusal parçalara ayrıştırılabilir (Dougherty and Sand 1995, Batman
1998).
Herhangi bir k için, h(k) uzunluk fonksiyonu, F I Lk 'nin uzunluğu olsun. F, kompakt
olduğu için h(k) sınırlıdır, kompakt bir desteğe sahiptir, ve integrali alınabilirdir. V'nin
yarattığı granülometri, F ο kV, aşağıdaki büyüklük dağılımına sahiptir :
47
Ω(k) = m(F ο kV) = ∫∞
∞−
h(j) H[h(j) - k] dt (2.1.72)
burada m, Lebesque ölçüsüdür (alan), ve H[h(j) - k],
H[h(j) - k] = ≥
d.d.,0
kh(j),1 (2.1.73)
şeklinde tanımlanan Heaviside fonksiyonudur. h, kompakt bir desteğe sahip olduğu için
(2.1.72)'deki integral gerçekten bir kompakt küme üzerindedir.
F(k) = j : h(j) = k, ve m, F'nin bir ölçüsü olsun. h,
h(j) =
=≤≤
=≤≤
+
+
o ...., 2, 1, r , i j i , (j)k
n ...., 2, 1, p , j j j , (j)h
1rrl
1ppa (2.1.74)
şeklinde tanımlansın. h(j), kendi değer kümesinde bire-bir ve türevi alınabilirdir (değer
kümesinin sınır noktalarında, tek yanlı türevleri vardır), ve kl bir sabittir. Öyleyse, her
hj'nin, değer kümesi Vj olan türevi alınabilen bir ters fonksiyonu, h-1j , vardır, ve
Φ'(k) = m
k ∑∈ jVr
| dr
dh 1j− (k) | + ∑
=
m
1i m
k )F(k ii δ(k - ki) (2.1.75)
'dir. Yukarıdaki koşullar altında örüntü spektrumunun (büyüklük dağılımının) p-inci
momenti
µ(p) = ∫∞
0
[m
k 1p+
∑∈ jVk
| dk
dh 1j− (k) |] dk + ∑
=
m
1i m
k )F(k 1pii+
δ(k - ki) (2.1.76)
ile verilir. p = 1, örüntü spektrumu beklenen değeri, p = 2 ise örüntü spektrumu varyansı
için bir ifade verir. Uzunluk fonksiyonu h(j), yapıtaşı elemanıyla bağlantısını açıkça
48
ifade etmek için h(j, θ) şeklinde yazılabilir. h(t, θ), iki değerlikli kompakt ve dışbükey
şeklin Radon dönüşümüdür, ve (2.1.75) ile verilen granülometrik örüntü spektrumu ise
bunun normalleştirilmiş alan histogramıdır. Bu bağlamda, örüntü spektra'nın bir tam
fakat genel şekil tanımı yapılabilmesini sağlar. Kompakt bir nesnenin parametrik tanımı,
iki-değerlikli yapısıyla birlikte, öncül bilgi olarak verildiğinde, örüntü spektrumu
momentlerinin bir örneği şeklin durumunu tamamen tanımlayabilir (Dougerty and Sand
1995, Batman 1998).
2.2 Rasgele Kümeler
O, L, ve K, Rd 'nin açık, kapalı, ve kompakt alt kümeleri olan uzaylar olsun. L'deki
kümelerin aşağıdaki kümelerini ele alalım :
LixO = L'ix ∈ L | L'ix ∩ Oix ≠ ∅ , Oix ∈ O (2.2.1)
LixK = Lix ∈ L | L'ix ∩ Kix = ∅ , Kix ∈ K (2.2.2)
İlk küme, L'deki, bir Oix açık kümesine isabet eden tüm kümelerini içerir. İkinci
kümeyse, L'nin bir Kix kompakt kümesine isabet etmeyen tüm kümelerini içerir. LixO ,
Oix ∈ O ve LixK , Kix ∈ K kümelerinin kümesi, L üzerinde bir T(L) topolojisi
(Bhattacharya et al. 1994) yaratır. Bu topoloji, isabet etme-etmeme topolojisi olarak
bilinir, ve L'de yakınsama ve sürekliliğin çalışılabilmesini sağlar. (L, T(L)) topolojik
uzayının açık kümelerinin sayılabilir birleşimleri ve kesişimleri alınarak, L üzerinde bir
Σ(L), σ-cebri yaratılır.
Bir rasgele kapalı küme, kısaca rasgele küme, X, bir (Ω, Σ(Ω), P) olasılık uzayından (L,
Σ(L)) ölçülebilir uzayına bir ölçülebilir eşleştirmedir. Bir X rasgele kümesi, Σ(L)
üzerinde bir biricik PL olasılığı üretir (Matheron 1967, 1975 , Serra 1982, Sidiropoulos
1992).
49
Görüntü analizine yönelik olmak üzere, sürekli rasgele kümelerin çeşitli yanlarıyla
ilgilenen çok miktarda çalışmalara örnek olarak, Matheron (1967, 1975), Kendall
(1974), Davy (1978), Serra (1980, 1982), Cressie ve Laslett (1987), ve Goutsias
(1993)'e bakılabilir.
2.2.1 Rasgele Kümelerin bazı özellikleri
2.2.1.1 Durağan Rasgele Kümeler
X ve Y rasgele kapalı kümeler olsun. X ∪ Y, X ∩ Y, cX (X'in tümleyeninin, Xc = Rd \
X, örteni), ∂X (X'in sınırı), C(X) (= Conv(X) ) (X'in kapalı dışbükey kabuğu), YX⊕
(X⊕Y = x + y | x∈X, y∈Y Minkowski toplamının örteni) de rasgele kapalı
kümelerdir (X, hemen hemen kompaktsa, X⊕Y, ve C(X) (= conv(X)) kapalıdır).
∀a∈Rd için, X rasgele kümesi, X+a ile aynı dağılıma sahipse (X d
~ X+a) durağan
olarak adlandırılır. X, sadece ve sadece TX(K), ötelenmeden etkilenmiyorsa durağandır.
∀g∈(Rd 'de dönme işlemleriyle elde edilen gurup) için, X rasgele kümesi, gX ile aynı
dağılıma sahipse (X d
~ gX) isotropik olarak adlandırılır.
X durağansa, a∈Rd olmak üzere, Pa∈X a'ya bağlı değildir, ve P0∈X'e eşittir.
P0∈X = Eµ(X∩W)/µ(W), herhangi bir Kix ve σ-sonlu ölçüye göre, X'in hacim oranı
(veya X bir yüzeyin alt kümesiyse alan oranı) olarak adlandırılır, ve hacmin X
tarafından kapsanan kısmını karekterize eder (Molchanov 1999b).
2.2.1.2 Dışbükey Rasgele Kümeler
Bir X rasgele kümesi, C, Rd 'deki dışbükey kümelerin ailesi olmak üzere, eğer hemen
50
hemen X ∈ C ise, dışbükey olarak adlandırılır. Eğer X, değerlerini dışbükey kompakt
kümelerin C0 kümesinden alıyorsa, X, bir rasgele dışbükey kompakt küme (ya da rasgele
cisim) olarak adlandırılır (Molchanov 1999b).
Matheron (1975)'e göre bir rasgele kompakt X kümesi, hemen hemen X = ∅ olmadıkça
durağan olamaz. Bir rasgele dışbükey kapalı X kümesi, durağansa ya X = ∅ ya da X =
Rd 'dir. Kısaca, kompakt veya dışbükey kapalı rasgele kümeler durağan olamazlar.
Rasgele dışbükey kümeler, sığa fonksiyonellerinin özellikleri kullanılarak karekterize
edilebilirler.
Bir rasgele X cisminin dağılımı, Kix ∈ C0 olmak üzere, P(X ⊆ Kix) fonksiyonelinin
(içerilme) değerleriyle belirlenir (Vitale 1983, Molchanov 1984, 1999b).
2.2.2 Rasgele Kümelerin dağılımları
Rd Öklid uzayındaki rasgele kümelerle ilgili pek çok sonucun kolaylıkla bir sayılabilir
topolojik temeli olan kompakt uzaylara genelleştirilebilmesi olanaklıdır. Kix , Rd `nin
topolojik olarak tüm kapalı alt kümelerinin bir uzayıdır. Eğer (Ω, Σ, P) bir olasılık uzayı
olduğunda X : Ω → P ölçülebilir ilişkilendirmesi, bir rasgele küme olarak adlandırılır.
Tüm kompakt kümeler için, ölçülebilirlik,
w : X(w) ∩ Kix ≠ ∅ ∈ Σ (2.2.3)
olması nedeniyle garantilenir (Matheron 1975). Bu, X'in bir gerçeklenimi
gözlendiğinde, her zaman, X’in bir Kix kompakt kümesinim içinde ya da dışında
olduğunun söylenebileceği anlamına gelir. Burada X, değerleri kapalı kümeler olan bir
fonksiyondur. Bu tür fonksiyonlar, küme-değerli analizin bir nesnesidir.
51
Bu tanım esnektir, ve ilginç rasgele kümeleri içine alır. Aynı zamanda, tanım, pek çok
f(X) fonksiyonelinin ölçülebilir olmasını, yani rasgele değişken olmalarını, garantiler.
Örneğin X’in d-boyutlu Lebesque ölçüsü, yüzey alanı (eğer iyi tanımlanmışsa), ve
dışbükey geometriden bilinen diğer pek çok fonksiyonel ölçülebilirdir.
Bazı küme-kuramsal işleçlerin ölçülebilirliği, ilişkili ilişkilendirmelerin topolojik
özelliklerinden (yarı-süreklilik olarak adlandırılır) türetilebilir.
Örneğin, eğer X, ve Y rasgele kümeler ise, X ∪ Y, X ∩ Y , cX (X’in tümleyenin, Xc =
Rd \ X, kapanışı), ∂X (X’in sınırı), C(X) (= conv(X)) (X’in kapalı dışbükey kabuğu),
Y X⊕ (Minkovski toplamının, X ⊕ Y = x + y | x ∈ X, y ∈ Y , kapanışı), rasgele
kümelerdir. (Eğer X, hemen hemen kompakt ise, X ⊕ Y, ve C(X) (= conv(X)),
kapalıdır). Pek çok ilginç rasgele kapalı küme örneği, rasgele fonksiyonlarla ilişkilidir.
f(x), x∈Rd , bir sürekli rasgele fonksiyonsa, seviyesi (eve dönüş) f(x) = t, bir rasgele
kümedir (Molchanov 1999b). Adler (1981), seviye kümelerinin yapılarını durağan
rasgele kümeler ve rasgele alanlar için incelemiştir. Molchanov (1999b)'de f(X)'in
Wiener süreci olması durumu (ve bazı koşullarda fraktallarla ilişkisi), ve Markov
stokhastik süreci olması durumunu, rasgele kümelerin limit teoremlerini ve çeşitli
koşullar altında yakınsamasını kapsamlı bir şekilde inceleyen çalışmalara örnekler
verilmektedir.
2.2.2.1 Sığa fonksiyonelleri
Değer kümesinin elemanları, fonksiyonlar, kümeler, veya benzerleri olan, ve sayısal
değerler üreten bir fonksiyon, fonksiyonel olarak adlandırılır.
∀a∈Rd için, f(a) ≤
∞→xlim inf f(x) ise, f fonksiyonu alt yarı-sürekli olarak adlandırılır (bu
durumda (-f), üst yarı-süreklidir denir).
52
Bir X rasgele kümesinin, Rd `deki K kompakt kümeler ailesinin bir üyesi olan Kix’e
isabet etme olasılığı
T(Kix) = TX(Kix) = PX ∩ Kix ≠ ∅ , Kix ∈ K (2.2.4)
olarak tanımlanır. Bu T : K → [0, 1] fonksiyoneli, X’in sığa fonksiyoneli olarak
adlandırılır. Sığa fonksiyonelinin bazı özellikleri (Sidiropoulos 1992, Molchanov
1999b) : (2.2.5)
T1. T(∅) = 0.
T2. Eğer K1 ⊆ K2 ise T(K1) ≤ T(K2). T, bir monoton fonksiyoneldir.
T3. T, K üzerinde üst yarı-süreklidir. Yani, Kn ↓ Kix oldukça, T(Kn) ↓ T(Kix).
T4. U1 (K0 ; Kix) = T(K0 ∪ Kix) – T (K0)
.... ....
Un (K0 ; K1, ...., Kn) = Un-1 (K0 ; K1, ...., Kn-1) - Un-1 (K0 ∪ Kn ; K1, ...., Kn)
∀ n ≥ 0, ve K'den K0 , K1 , ...., Kn için negatif-olmayandır.
Bu madde, (2.) maddedeki monotonluğu güçlendirir.
Un (K0 ; K1, ...., Kn), X'in K0 'a isabet etmeyip, diğer kümelerin, K1....Kn , herbirisine
isabet etmesinin olasılığına eşittir. T'nin özellikleri, dağılım fonksiyonununkilere
benzer. Bununla birlikte, ölçülerin aksine, T fonksiyoneli, toplanabilir değil, fakat alt-
toplanabilirdir, yani,
T(K1 ∪ K2) ⊆ T (K1) ∪ T(K2). (2.2.6)
Sığa fonksiyoneli, X rasgele kümesi hakkındaki tüm bilgiyi içerir. Choquet (1953)'in
ileri sürüp Kendall (1974), ve Matheron (1967, 1975)'un birbirlerinden bağımsız olarak
rasgele küme kuramında yer verdikleri teoreme göre, ∀Kix∈K için bir TX(Kix)
verildiğinde, ∀Kix∈K i in PX(F ∈ Fm) = TX(Kix) eşitliğini sağlayan, Σ(L) üzerinde bir
biricik PX ölçülebilir uzayı vardır. Choquet (1953) bunu soyut bir kurguyla, Matheron
(1967, 1975), şekil-büyüklük dağılımları kuramı çerçevesinde kanıtlamıştır. Kendall
(1974), özellikle istatistiksel şekil kuramıyla ilgilenmiş, ve Choquet teoreminin rasgele
kümelerle bağlantılı kanıtlanması paralelinde rasgele kümelerin oluşturulması için
bağımsız bir katkıda bulunmuştur.
53
2.2.2.2 Sığalar
Eğer M ⊆ M' → C(M) ≤ C(M'), Mn ↑ M → C(Mn) ↑ C(M), ve Kn ile Kix kompakt
kümeler olmak üzere, Kn ↓ Kix → C(Kn) ↓ C(Kix) ise, C : P → [-∞, ∞] şeklindeki bir
eşleştirme, sığa olarak adlandırılır (Choquet 1953, Molchanov 1999b).
(2.2.5)'te verilen (T4) özelliğini sağlayan sığalar, tamamen dalgalı, veya sonsuz-
derecede dalgalı olarak adlandırılır. Sadece U1(. ; .) ve U2(. ; . , .) eksi-olmayansa,
ilişkili sığa 2-dalgalı olarak adlandırılır.
Pek çok sığa, ölçülerin üst zarfları olarak gözükür.
Eğer, tüm kompakt K1, K2 için, T(K1 ∪ K2) = max(T(K1), T(K2)) ise, T sığa
fonksiyoneli, en-büyükleştirici olarak adlandırılır. Özel durumlar olarak, hem rasgele
kapalı kümeleri hem de rasgele yarı-sürekli fonksiyonları içeren rasgele sığalar
tanımlayabilmek de mümkündür.
Sığa kavramı, matematiksel fiziğe dayanır. Elektrostatikte sığa, eklenebilecek en-büyük
yük miktarını ifade etmek için kullanılır. Newton sığası, R3 'te Brown hareketi
yörüngeleri olarak elde edilen rasgele kümelere karşılık gelir (Molchanov 1999b).
2.2.2.3 Choquet teoremi
Bir rasgele kapalı kümenin sığa fonksiyoneli, (2.2.5)'da verilen T1..T4 koşullarını
sağlar. Sığa fonksiyoneli, bir rasgele kapalı kümenin dağılımını biricik olarak belirler.
T: K → [0, 1] olsun. Sadece ve sadece T'nin T1-T4 koşullarını sağlaması durumunda,
PX ∩ Kix ≠ ∅ = T olacak şekilde, Rd 'de T sığa fonksiyoneline (veya ilişkili σ-cebri
üzerinde biricik olasılığa) sahip bir biricik rasgele küme vardır (Choquet 1953, Kendall
1974, Matheron 1975, Molchanov 1999b).
54
Tüm kompakt kümelerin ailesi çok büyük olduğu için, tüm Kix ∈ K için T(Kix)'yi
belirlemek güçtür. Bununla birlikte, Kix'nin, uygun merkez ve yarıçapla, Rd 'deki kapalı
kürelerin tüm sonlu birleşimlerinin B ailesinden seçilmesi durumunda, T(Kix), ilgili
rasgele kapalı kümenin dağılımını belirleyecektir. Sığa fonksiyonellerinin
oluşturulmasına uygun etkin yöntemlerin elde edilmesi önemlidir.
2.2.3 Rasgele Kümeler ve nokta süreçleri
Nokta süreçleri de rasgele kümelerin özel bir sınıfı olarak düşünülebilir. Bununla
birlikte, nokta süreçleri kuramı, gelişmiş, amacı ve yöntemleri rasgele
kümelerinkilerden belirgin bir şekilde uzaklaşan ayrı bir konudur. Bu yüzden
çalışmamızda üzerinde durulmamıştır. İlişkili ve ilgi çekici bazı sonuçlar için, Snyder
(1975), Ripley (1976a,b, 1981, 1984, 1988), Stoyan et al. (1987), Baddaley and Moller
(1989), Lieshout (1999) 'a bakılabilir.
Bir rasgele kapalı küme kavramı, bir nokta süreci olgusunu genelleştirir. Her küme
bileşeni olan noktalardan oluşmasına rağmen, nokta süreci olgusu, ilgili noktalar
kümesinin yerel olarak sonlu olduğu anlamına gelir, yani, her sınırlı küme, bu kümeden
en çok sonlu bir sayıda noktalar içerir.
Genel bir nokta süreci, n≥o, Kix∈K olmak üzere, Nix ∈ N : Nix(Kix) = n tarafından
yaratılan bir σ-cebir ile donatılmış, sayma ölçülerinin N uzayındaki bir rasgele eleman
olarak görülebilir.
Rd üzerinde bir Q nokta süreci, bir (Ω, Σ(Ω), P) olasılık uzayından (Y, Σ(Y)) ölçülebilir
uzayına bir ölçülebilir eşleştirmedir. Burada Y, Rd 'nin aşağıdaki koşullarını sağlayan
tüm y alt kümelerinin ailesidir (Sidiropoulos 1992) :
a) y, yerel sonludur (Rd 'nin her sınırlı alt kümesi, y'deki sadece sonlu sayıdaki
noktayı içermelidir)
b) y, basittir (y'deki hiçbir iki nokta çakışmaz)
55
Σ(Y), tüm y → |y ∩ B| eşleştirmelerini ölçülebilir yapan Y'deki en küçük σ-cebirdir. B,
Rd 'nin sınırlı Borel kümeleridir.
Rd 'deki bir nokta süreci, Rd üzerine saçılmış noktaların bir rasgele örüntüsü olarak
düşünülebilir. B(Rd), Rd 'nin Borel-alanı olmak üzere, (Rd , B(Rd)) ölçülebilir uzayını
ele alalım. M, B(Rd) üzerinde bir ölçü, ve tüm sınırlı B ∈ B(Rd) 'ler için B'nin ölçüsü
M(B), sınırlı olsun. M ölçüsüne Radon ölçüsü denir. Eğer, Lebesque ölçüsünde olduğu
gibi, M, tek bir noktanın kütlesini sıfır alıyorsa, M, bir yaygın Radon ölçüsü olarak
adlandırılır.
B(Rd) 'de bir M Radon ölçüsüyle (veya ortalama ölçü) donatılmış, Rd 'de bir Poisson
nokta süreci, Q, aşağıdaki özelliklerle tam olarak tanımlanabilen bir nokta sürecidir
(Sidiropoulos 1992) :
a) Nokta sayılarının Poisson dağılımı; bir B ∈ B(Rd) sınırlı kümesindeki noktaların
sayısı, ortalaması M(B) olan bir Poisson dağılımına sahiptir :
P(Q(B) = m) = m!
(M(B)) M(B)m −e , m = 0, 1, 2, .... (M(B)) (2.2.7)
b) Bağımsız saçılım; k ayrık Borel kümesindeki noktaların sayısı, k bağımsız
değişken oluşturur.
2.2.4 Düzgün sınırlı kesikli Rasgele Kümeler
Bu çalışmada rasgele kümelerin özel bir sınıfı olan düzgün sınırlı kesikli rasgele
kümelerle (DSKRK) ilgilenilmiştir. Kesikli rasgele kümeler, bir noktalar kafesi (düzenli
ya da düzensiz) üzerinde tanımlanırlar. Kesikli kümeler, doğal olarak, kapalı
kümelerdir. "Düzgün sınırlı" terimi, bu kafesin sınırlı sayıda noktalardan oluştuğunu
ifade etmek için kullanılır. Sürekli rasgele kümelerden kesikli rasgele kümelere geçiş
oldukça problemlidir (Serra 1982, Sidiropoulos 1992). Uygulamada genellikle sabit bir
pencerede yer alan bir iki-değerlikli görüntü parçası örnekleriyle uğraşılır (yani, bir
56
düzgün sınırlı kesikli rasgele küme gerçeklenmesiyle). Çoğu görüntü analizi
uygulamasında sonlu uzaylar üzerinde çalışılır. Yakın zamanlarda, kafes kuramı, yarı
gurupların harmonik analizi, küme-değerli analiz, ve optimizasyonla olan ilişkiler daha
belirgin hale gelmiştir.
Kesikli rasgele kümelere bir başlangıç yapmak için başlıca üç yol vardır :
Birincisi, sürekli rasgele kümeleri örneklemektir (sayısallaştırma) (Matheron 1975,
Serra 1982). Bunun, özellikle kafese bağlı, çeşitli güçlükleri vardır (örneğin örnekleme,
Euler-Poincare karekteristiğini korumaz (Serra 1980)). Genel olarak, sadece
örneklenmiş gerçeklenimine bakarak sürekli yapının çeşitli önemli özellikleri
(dışbükeylik gibi) hakkında bir şey söylemek olanaksızdır.
İkinci yaklaşım, rasgele alanlar kuramına dayanır (Ripley 1976). Markov rasgele
alanları (MRA) olarak adlandırılan özel bir rasgele alan sınıfı rasgele desenleri
modellemek için başarıyla kullanılmıştır. Bununla birikte, bu modeller, karmaşık
geometrik yapıları tanımlamakta kullanılamazlar. Bu modeller, görüntü verisinin
morfolojik özelliklerini yakalamakta, genellikle, başarılı değildir. Diğer yandan, rasgele
küme kuramı, özellikle niceliksel şekil tanıma problemini hedef alan, doğrusal olmayan
bir görüntü cebri olan matematiksel morfolojiyle yakından ilişkilidir. Bu bağlantının bir
sonucu olarak, rasgele küme kuramı, görüntülerin hem morfolojik (sentetik) hem de
istatistiksel özelliklerini modellemek için birleşik bir zemin sağlar.
Üçüncü yaklaşım, düzgün sınırlı kesikli rasgele kümelerin doğrudan sonlu bir kafes
üzerinde tanımlanmasıdır (Goutsias and Wen 1990, 1991, Sidiropoulos 1992). Bu
aksiyomatik yaklaşımın çeşitli yararları vardır. Pek çok güçlükten kaçınılmasını ve
uygulamada önemli olan problemlere odaklanılmasını sağlar. Rasgele küme kuramının
belirli önemli sonuçları, belirgin bir şekilde düzgün sınırlı kesikli rasgele kümelerle
güçlendirilebilir. Elbette, bunun belirli bir bedeli vardır. Bu durumda, altta yatan sürekli
fiziksel yapının çözünürlüğümüz altındaki detaylarını ihmal ederiz. Bu kayıp, bir
yandan sayısal görüntüleme sisteminin sınırlarının yarattığı bir zorunluluktur
(Sidiropoulos 1992).
B, Z2 'nin orijini içeren bir sınırlı alt kümesi olsun. Σ(Ω), Ω üzerinde bir σ-cebire, Σ(B),
B'nin güç kümesine (yani, tüm alt kümelerinin kümesi), Σ(Σ(B)) ise, Σ(B)'nin güç
57
kümesine karşılık gelsin. B üzerinde bir düzgün sınırlı kesikli rasgele küme, veya kısaca
kesikli rasgele küme (KRK), X, (Ω, Σ(Ω), P) olasılık uzayından (Σ(B), Σ(Σ(B)))
ölçülebilir uzayına bir eşleştirmedir. B üzerinde bir X kesikli rasgele kümesi, Σ(Σ(B))
üzerinde bir biricik olasılık ölçüsü, PX , oluşturur.
TX(k) = PX(X ∩ k ≠ ∅) , k ∈ Σ(B) (2.2.8)
fonksiyoneli, X kesikli rasgele kümesinin sığa fonksiyoneli olarak adlandırılır.
QX(k) = PX(X ∩ k = ∅) = 1 - TX(k) , k ∈ Σ(B) (2.2.9)
fonksiyoneli, X kesikli rasgele kümesinin üreten fonksiyoneli olarak adlandırılır. Kesikli
rasgele kümeler için üreten fonksiyoneli, birikimli dağılım fonksiyonunun kesikli
rasgele değişkenler için oynadığı rolü oynar (Sidiropoulos 1992).
2.2.5 Boolean modeller
Tamamen gözlemlenebilir b.b.d. rasgele küme örneklemleri, sadece ortalamaları değil,
fakat dağılımları hakkında da bilgi sağlarlar. Fakat b.b.d. rasgele kümeler, doğrudan
gözlemlenemediklerinde yeni durumlar ortaya çıkar. Örneğin, bir gözlemci, çoğu zaman
uzaydaki b.b.d. rasgele kümelerin sadece küçük bir topluluğunu görebilir. Basit
bileşenlerden karmaşık şekil kümelerini üretmek için topluluk modelleri kullanılır.
Bazen, tanecikleri el yordamıyla birbirinden ayırt edebilmek mümkündür. Böylece,
problem, bir b.b.d. örneklemin analizine indirgenmiş olur.
Deneme yanılmaya dayalı topluluk kavramı matematiksel olarak Boolean (Boole)
modeli şeklinde tanımlanabilir. Çakışan tanecik sistemlerinin bu en çok kullanılan
modeli aşağıdaki şekilde tanımlanabilir : İlk olarak b.b.d. D0, D1, D2, .... rasgele
kümelerini ele alalım. Ardından Rd 'deki λ yoğunluğuna sahip ∏λ = xi , i ≥ 1 Poisson
nokta süreci düşünelim. Son olarak, her Di 'yi ilgili xi noktasına yerleştirip,
birleşimlerini alalım :
58
D = Uλix:i ∏∈
(Di + xi) (2.2.10)
Bu küme, Boolean (Boole) modeli olarak adlandırılır (Matheron 1975, Molchanov
1999b). xi noktaları tohum, D0 rasgele kümesi tipik tanecik olarak adlandırılır. Boolean
rasgele kümelerin, basit bir rasgele şekli (kümeyi; rasgele büyüklükte bir disk gibi),
düzlemdeki noktaların Poisson alanının noktalarını merkez alacak şekilde yerleştirilip,
ardından ortaya çıkan kümelerin birleşimini alarak elde edildiği söylenebilir. Poisson
alanının farklı noktalarını merkez alan rasgele şekillerin bağımsız ve istatistiksel olarak
eşit oldukları kabul edilir (Pitman 2005). Bir bakıma, Boolean modelin, "beyaz
gürültü"nün, bir rasgele şekil oluşturan doğal bir gerçeklenimi olarak görülebilir.
Boolean modelinin kilit amacı, gözlenmiş bir Boolean modeli verildiğinde,
parametrelerini, yani, tohum sürecinin yoğunluğunu ve taneciklerin dağılımını tahmin
etmektir.
Verilmiş bir zaman aralığında ya da uzayın verilmiş bir bölgesinde başarıların sayısı X
rasgele değişkeni olsun. Aşağıdaki koşulları sağlayan X'e bir Poisson rasgele değişkeni
denir :
1) İki ayrık zaman aralığında veya uzayın bölgelerindeki başarıların sayıları
bağımsızdırlar.
2) Küçük bir zaman aralığı veya uzayın küçük bir bölgesi için başarı olasılığı,
uzaydaki bölge ya da zaman aralığının uzunluğu ile orantılıdır.
3) Küçük bir zaman aralığı veya uzayın küçük bir bölgesinde iki ya da daha çok
başarının olasılığı önemsizdir.
X = 0, 1, 2, ..... değerlerini alabilen bir Poisson rasgele değişkeninin olasılık yoğunluğu
f(x) = P(X = x) = e-λλx / x! , x = 0, 1, 2, ..... ; λ > 0 (2.2.11)
'dir. Burada e = 2,71828.... (Euler sayısı, Napier sabiti, doğal logaritmanın tabanı)'dır, λ,
uzayın bir bölgesinde veya verilmiş bir zaman aralığında elde edilen başarıların
ortalamasıdır. Bu, Poisson dağılımını oluşturur.
59
∑∞
=0xf(x) = ∑
∞
=1x (e-λλx / x!) = e-λ ∑
∞
=1x(λx / x!) = e-λeλ = 1 (2.2.12)
'dır.
∑∞
=0x(λx / x!) = 1 + λ/1! + λ2/2! + ..... = eλ (2.2.13)
olduğu için. Poisson dağılımının ortalaması,
µ = E(X) = λ (2.2.14)
'dır, ve varyansı,
σ2 = E(X2) - [E(X)]2 = λ (2.2.15)
'dır.
Nokta süreçlerinin istatistiklerinde olduğu gibi, tahmin edicilerin tüm özellikleri,
kuramsal olarak sınırsızca büyüyen bir W gözlem penceresi için geliştirilir.
Boolean modelinin istatistikleri, λ, ve taneciğin Minkowski fonksiyonellerinin (ortalama
alan, hacim, çevre gibi) tahmin edilmesiyle başlar. Kimi zaman, bazı parametrik aileler
verildikten sonra, uygun bir dağılım bulmak olasıysa da, genelde bu değerler, B0
taneciğinin dağılımını elde edebilmek için yeterli değildir.
Taneciğin dağılımını bilmeden altta yatan Boolean modelinin benzetişimini yapabilmek
ve benzetişime dayalı testler uygulayabilmenin olanaksız olduğu açıktır.
Örneğin tanecik bir küreyse, d. dereceye kadar momentlerine bakarak yarıçap dağılımın
belirleyebilmek, genelde, olanaksızdır. Fakat, dağılım, parametrik bir ailedense, örneğin
60
log-normal gibi, bu momentlerle belirlenir.
Choquet teoremine göre, D0 'ın dağılımı, ilgili
0DT (Kix) sığa fonksiyoneliyle belirlenir.
Boolean modelinin sığa fonksiyoneli D aşağıdaki şekilde elde edilir (Matheron 1975 ,
Stoyan et al. 1987, Sidiropoulos 1992, Cressie 1993) :
TD (Kix) = PD ∩ Kix ≠ ∅ = 1 – exp-λ E µd (D0 ⊕ K −ix ) (2.2.16)
burada K −ix = -x : x ∈ Kix 'dir. Fubini teoremi kullanılarak aşağıdaki ifade elde edilir :
TD (Kix) = 1 – exp -λ ∫dR
0DT (Kix+x) dx (2.2.17)
Bu eşitliğin sol tarafı, tüm D kümesi tarafından belirlenir ve D'den alınan gözlemlerle
tahmin edilebilir. Bununla birlikte, eşitliğin sağ tarafındaki integral teriminin doğrudan
çözülebileceği şüphelidir.
Boolean kümelerin gözlemlenebilir karekteristikleri ve parametrelerinin tahmin
yöntemlerine Stoyan et al. (1987) ve Molchanov (1997a)'da genişçe yer verilmiştir.
Gözlemlenebilir karekteristikler, deneysel karşılıklarıyla değiştirildiklerinde, ilgili
parametreler için tahmin ediciler sağlar.
En basit durumda, D hakkında ulaşılabilir bilgi, sadece D'nin kapladığı hacim oranıdır
(Molchanov 1999b).
Boolean modeli için ilk istatistiksel yöntem, temas dağılım fonksiyonları veya
kovaryans için en az zıtlık yöntemidir. Esası, kompakt kümelerin bazı alt aileleri (toplar,
iki-noktalı kümelerin bölütleri gibi) için TD 'nin değerlerinin belirlenmesidir. Serra
(1982)'de 70'lerde Fontainebleau okulunda yapılan çalışmalar yer almaktadır. Diğer bir
yöntem, yoğunluklar yöntemidir. Hacim oranı, en basit mekansal ortalamadır. Birim
61
hacim başına düşen ortalama alan, Euler-Poincare karekteristikleri, veya, daha genel
olarak, genişletilmiş Minkowski ölçülerinin yoğunlukları gibi diğer mekansal
ortalamaları ele almak da mümkündür. Düzlem söz konusu olduğunda mekansal
ortalamalar olarak, tanecik çevresinin ortalaması, ve alan ortalaması (alan oranı, nokta
sürecinin yoğunluğu, ve birim alandaki Boolean kümesinin sınırının beklenen değerinin
gözlenebilen değerlerini kullanarak) kullanılabilir (Matheron 1975, Serra 1982, Weil
and Wieacker 1984, Stoyan et al. 1987, Cressi 1991, 1993, Molchanov and Stoyan
1994, Molchanov 1995, 1999b).
Boolean rasgele kümeler, en önemli rasgele küme modelleridir. Teorik ve uygulamaya
ilişkin çalışmalara örnek olarak Serra 1980, 1982 1988, Cressie and Laslett 1987,
Stoyan et al. 1987, Cressie 1993 gösterilebilir. Tipik uygulama alanlarına örnek olarak :
tozların rasgele kümelenmesi, toz tanecikleri, jeolojik yapıların modellenmesi, bomba
alanları, fotoğrafik emulsiyon örüntüleri, jel halinde tanecikler (colloid), yapısal
homojen-olmayış (Stoyan et al. 1987), tümor büyümesi (Cressie and Laslett 1987),
çalıların mekansal örüntüleri, hücre yapılarının görüntülerinde parça sayma ve büyüklük
analizi, ve kızıl-altı görüntülerde saçınımların modellemesi gösterilebilir (Sidiropoulos
1992).
2.2.6 İstatistiksel çıkarım
Kapalı küme L∈Rd, kayıt uzayının doğrusal olmayan yapısı, rasgele kümelerin
istatistiklerinde pek çok karışıklıklara yol açar, Bunun temel nedenleri (Molchanov
1999b):
a) L uzayından iyi çıkarma işlemi yoktur. Birleşme işlemiyle veya Minkowski
toplamıyla donatılmış L uzayı, sadece bir yarı-gurup yapısına sahiptir. Bu, beklenen
değerleri ve özellikle, varyansın da dahil olduğu, yüksek momentleri tanımlarken
sorunlara yol açar (Stoyan and Stoyan 1995). Genellikle, rasgele kümelerin
dağılımlarını, sıfır beklenen değerine sahip rasgele kümeler elde edilecek şekilde
yerleştirebilmek mümkün değildir.
b) Sıklıkla, rasgele küme dağılımları, küme değerli parametrelerle belirlenir.
62
c) Bir rasgele kümenin dağılımı, K üzerinde bir ölçü olmayan TX(Kix) sığa
fonksiyoneli tarafından belirlenir. L üzerinde Lebesque ölçüsü için 'iyi bir karşılık'
yoktur, ve rasgele kesikli kümeler için bir algılanabilir yoğunluk tanımlamak güçtür.
Genel bir problem, tahmin edicilerin yeterliği ve en çok olabilirlik yönteminin bir
karşılığının bulunmamasıdır.
2.2.7 Kompakt kümelerin istatistikleri
Yeterince değişken şekil kümeleri sağlayan ve değerlendirme yapılabilmeye izin veren
modellerin (veya rasgele küme dağılımlarının) olmayışı nedeniyle, kompakt rasgele
kümelerin istatistiksel çalışmaları güçtür. Gerçekten rasgele şekiller istendiğine, tek
eleman veya küreler içeren rasgele kümeler bunun dışındadır.
Yaklaşımlardan birisi, Kix kompakt kümesinin şeklinin şekil oranı (veya kompaktlık)
olarak adlandırılan sayısal parametreler tarafından verilmesidir (Stoyan and Stoyan
1994, 1995). Örneğin alan-çevre oranı, A(Kix), Kix'in alanı, ve Ç(Kix), Kix'in çevresi
olmak üzere 4πA(Kix) / Ç(Kix) ile verilir. Çembersellik şekil oranı, A(Kix) alanına sahip
bir çemberin çapının, Kix'yi içine alabilen en küçük çemberin çapına oranıdır. Tüm şekil
oranları, hareketten etkilenmeyen fonksiyonellerdir. Bu yüzden değerleri,
ötelenmelerden, dönmelerden ve Kix'in ölçek dönüşümlerinden etkilenmez. Stoyan and
Stoyan (1995)'de kompakt rasgele kümelerin istatistiksel karekteristiği incelenmiştir.
Tipik olarak başlangıç noktası bir rasgele kompakt kümenin b.b.d. gerçeklenimidir.
Kümelerin yerleri, yönlenmeleri verilmediğinde şekil istatistiklerine bakılır. Bunun
aksine, kümelerin konumları biliniyorsa, kümelerin istatistikleri hakkında konuşulabilir.
Mühendislikle ilgili kaynaklarda, genellikle, K1, ...., Kn kümelerinden alınan bir
örneklem üzerinde, örneklemdeki her küme için çeşitli şekil oranları hesaplanarak,
istatistiksel analiz gerçekleştirilir. Buradaki tek problem, çoğu rasgele küme modeli
için, sadece çok az özel durumda düşük momentleri bilinse bile, şekil oranlarının
dağılımının kuramsal olarak bilinmemesidir.
63
Molchanov (1999b)'de mozaiklerdeki tipik poligonlar, sonlu dışbükey kabuklar, ve
dışbükey-kararlı kümeler, ve rasgele kümelerin beklenen değerleri üzerine yapılmış
çalışmalara örnekler verilmektedir.
Çoğu zaman, bir gözlemci, küme örneklemleri yerine şekil örneklemleriyle ilgilenir. Bu,
kümelerin konumlarının problemle ilgisi olmadığı anlamına gelir. Amaç, örneklemdeki
kümeler için, ortalama şekli bulmaktır. Böyle bir durum, taneciklerin çalışılması
durumunda ortaya çıkar (toz tanecikleri, kum tanecikleri, zımpara gibi). Taneciklerin
konum ve yönelimleri rasgele olduğu için problem güçtür. Tamamen çakışan tanecikler
denk kabul edilir, yani, iki kompakt küme, ilk haldeki biçimlerini kaybetmeden hareket
ettirildiklerinde tamamen üst üste bindirilebiliyorsa denktir.
2.2.8 Rasgele Kümeler ve büyüklük kavramı
Bir kümenin büyüklüğü, aynı şekle sahip bir birim kümeyle benzerlik oranının
belirlenmesi olarak tanımlanır. Her bir küme için, kendi şekline sahip birim küme
bulabilmek uygulamada mümkün değildir. Bunu genelleştirmek için, eldeki bir
nesneyle, B’nin benzerlerinden oluşan bir xB ailesi karşılaştıracaktır. Bu ailenin bir
üyesinin B’ye göre x kat büyüklüğü, eldeki nesne için bir ölçü gibi davranacaktır
(Delfiner 1971).
Eğer eldeki nesne, parçalardan oluşuyorsa, her bir parçanın büyüklüğünü hesaplayıp,
büyüklük histogramını oluşturabiliriz. Bu aşamaya, nesneyi oluşturan kümede yer alan
her bir ayırtedilebilir parçanın, ölçü olarak kullandığımız B’ye göre büyüklüğünün F
içinde yer alan en büyük B olduğu varsayımıyla yaklaşabiliriz (Örneğin, içerilen
dairenin yarıçapı, nesne içinde yer alan belirli yönlerdeki doğru parçaları, ya da belirli
bir yönde nesnenin herhangi iki noktası arasındaki en fazla uzaklık, gibi). Bu durumda,
herhangi bir nesnenin herhangi bir p noktasındaki büyüklüğü, p noktasını içerecek
şekilde, nesne içinde yer alabilen en büyük xB olarak tanımlanacaktır. Verilen bir x
ölçüsünün a noktalarının kümesi, xB’ye göre açılışla ilişkilidir. Açılışın bu geometrik
dönüşümü, elekten geçirme sürecininkine benzer matematiksel özelliklere sahiptir, ve
64
büyüklük dağılımın matematiksel morfoloji tarafından genelleştirilmiş haline temel
oluşturmaktadır.
Öteleme, ve dönme çerçevesinde, düz bir bölüm, bir birim bölümle benzerlik oranına
eşit olan, uzunluğu ile karekterize edilir. Benzer şekilde, küre veya daireler,
yarıçaplarıyla tam olarak tanımlanırlar. Bu basit durumların ötesinde, gerçek yaşam
problemlerin pek çoğunda, fiziksel gerçeklik, herhangi bir değişkenin, büyüklüğü
ölçmek için kullanılabilmesini olanaklı kılmaz. Örneğin, düzensiz şekillere sahip
taneciklerin yarıçaplarının belirlenebilmesi güçtür. Çünkü, standard olarak
kullanılabilecek ortak bir birim şekil kullanılamaz. Bunun sonucunda, araştırmacılar, bu
tür uygulamalarda, kendilerine ve çalışma alanlarına göre değişkenlik gösteren
tanımlardan yararlanırlar (Blum 1973, Kendall 1989, Lieshout 1997b, 1999a).
Ölçmeyle ilişkili olarak matematiksel morfoloji içerisinde tanımlanan önemli
kavramların başında “yapıtaşı elemanı” (Haas et al. 1967, Matheron 1967, 1969, 1971,
Serra, 1969, 1971, Delfiner 1971) gelmektedir. Büyüklük ölçülmesi amacyla, seçilen bir
yapıtaşı elemanının (B), incelenen nesneyle (F) benzerliğinin karşılaştırılması yaygın
olarak kullanılmaktadır. Bu karşılaştırma, bir bakıma, F'nin B’ye göre büyüklüğünü
vermektedir.
Rasgele olmasına rağmen, yapıtaşı elemanının seçilmesinde dikkat edilmesi gereken
özellikler vardır; farklı şekilerdeki B’ler F’nin çeşitli özelliklerini gösterirler. Eğer B,
bir doğru parçasıysa, büyüklükte yön bilgisi öne çıkacaktır. B, küre ya da daire
olduğunda, büyüklük yönden bağımsız hale gelecektir. Bu nedenle, küre, veya iki
boyutlu cisimler için daire, ve doğru parçası, en yaygın uygulama alanına sahiptir. Kimi
durumlarda, verilen problem icin, dairelerin yerine altıgenlerin kullanılması gibi, farklı
seçimlerin , fiziksel olarak daha algılanabilir, daha yararlı, veya kısaca, ölçümler için
daha uygun olması olanaklıdır. Eldeki nesneyle yapıtaşı çeşitli şekillerde
ilişkilendirilebilir. B’yi w yönünde bir doğru parçası olarak seçtiğimizde, nesne içinde
w yönünde yer alan en büyük doğru parçasını, ya da w yönündeki kalınlığı, yani w’ye
dik yönde F’yi kesen güzlemler arasındaki mesafenin üst sınırını, dikkate alabiliriz.
65
Benzer şekilde, sınırlı bir F kümesini, bir küreyle ilişkilendirdiğimizde, F’nin içinde yer
alabilecek ya da F’yi içine alabilecek küreler aklımıza gelecektir. B ile F’nin aynı
hacme sahip oldukları varsayımından yola çıkıp bu durumda olması gereken yarıçapın
hesaplanması şeklinde daha karmaşık yaklaşımlar da uygulanabilir.
Ölçümleri otomatik olarak yapabilmek için, olabildiğince basit ilişkiler seçilmesi
gerekmektedir. Bu bakımdan, nesne içinde birden fazla eleman yer aldığında, her
elemanın ayrı ayrı değerlendirilmesi gerektiği için, içerilen şekillerin, ya da nominal
değerlerin hesaplanması, oldukça karmaşıklık yaratacaktır. Bu durumda, her bir ayrık
elemanın, diğerlerinden tamamen ayrılmış olarak algılanması gerekmektedir. Bu da pek
kolay bir iş değildir. F ile B arasındaki en basit ilişkiler, B ⊂ F (B, F’nin altkümesidir,
ya da F, B’yi içerir), veya B ∩ F ≠ Φ (B ile F kesişir), şeklinde olanlardır. Matematiksel
morfoloji, bu ilişkiler, ve bu ilişkilerin, kesişme, birleşme, ve değil mantıksal
işlemleriyle biraraya getirilmesiyle elde edilen ilişkilerle ilgilenir. (Matheron 1967,
Serra 1969).
Büyüklüğün, bu gibi ilişkilere dayanarak sayısal betimlemesi, örneklemdeki tanecikler
gibi, küme içinde yer alan ayırtedilebilir alt kümelerin varlığından bağımsızdır.
Böylece, akciğerler gibi, oldukça çok miktarda gözenekler içeren, çok daha karmaşık
geometrik yapıya sahip nesnelere uygulanabilir.
Bu çalışmada Boolean rasgele kümeler için model parametreleri olarak tanecik yarıçap
(dolayısıyla alan) ortalama değeri, ve büyüklük dağılımı (dolayısıyla büyüklük
yoğunluğu) kullanılmıştır. Bu kavramlar, hesaplanabilirlik açısından en uygun olan,
açılış ve kapanış morfolojik işlemlerine göre belirlenmiştir.
Tanecik yarıçap (dolayısıyla alan) ortalama değeri, ve büyüklük dağılımı (dolayısıyla
büyüklük yoğunluğu) tahmin edilebilmesinde, tahminin güvenilirliğinin artması için,
deneysel tahmin edicinin yanısıra, diğer tahmin yöntemleri arasında hesaplanabilirlik
açısından en uygun olan Monte Carlo yöntemine dayanan tahmin edicilerden
yararlanılmıştır.
66
2.3 Rasgele Yapay Sinir Ağları
2.3.1 Temel kavramlar ve temel özellikler
Gelenbe (1989) tarafından geliştirilen nokta-süreci tipindeki rasgele yapay sinir ağı
(RYSA) modelinde imgeler, birim şiddetteki darbeler halinde sinirler arasında dolaşır
(bkz. 2.2.a). Artı imgeler uyarılma, eksi imgeler bastırılmaya karşılık gelir. Her bir
sinirin durumu, ki(t), eksi olmayan bir tam sayıdır ve o sinirin gizil-gücü olarak
adlandırılır. Bir sinirin gizil-gücü, o sinire bir uyarı imgesi geldiğinde artar, bastırma
imgesi geldiğinde ise azalır. Böylece, bir uyarıcı imge, alıcı bir sinirde "+1" imgesi
olarak yorumlanır, bir bastırıcı imgeyse "-1" imgesi olarak.
Sinir gizil-gücü, sinir ateşlendiğinde de azalır. Böylece, ister uyarılma, ister bastırılma
imgesi olsun, bir darbe yayan bir i siniri, bir birim gizil-güç kaybederek, değeri ki olan
bir durumdan, değeri ki -1 olan bir duruma geçecektir. n sinirden oluşan bir ağın t
anındaki durumu, eksi olmayan tam sayılardan oluşan k(t) = (k1(t),..., kn(t)) vektörü ile
gösterilir. Burada ki (t), i sinirinin gizil-gücü veya tam sayı durumudur, ve ki ≥ 0 , ∀ i
'dir. i siniri, eğer gizil-gücü artıysa, uyarılmış hale gelecek, ve darbeler gönderebilecek,
yani ateşleyebilecektir. Darbeler, bir i sinirinden diğer sinirlere ya da ağın dışına, eşit
ve üstel dağılmış aralıklarla, r(i) sıklığında gönderilir. Bir i siniri ateşlediğinde, ardışık
imge yayımları arasındaki zamanlar, ortalama değeri )(
1
ir olan üstel dağılımlı rasgele
değişkenlerdir. Darbeler, bir j sinirine p+(i,j) olasılığıyla uyarıcı, p-(i,j) olasılığıyla
bastırıcı imgeler olarak gidecektir (bkz. Şekil 2.2, 2.3, 2.4).
p(i, j) = p+(i, j) + p-(i, j) (2.3.1)
olsun. p(i, j), imgelerin sinirler arasındaki hareketini temsil eden bir Markov zincirinin
geçiş olasılığıdır.
67
Kendi kendine bastırmaya izin verilirse, bir sinirin durumunun değeri, bir anda 2 birim
eksilebilir. Fakat bu durum ele alınmayacaktır. Aynı zamanda, kendi kendine
uyarmaya da izin verilmeyecektir. Çünkü bunun olması halinde, sinirin gizil-gücü
sınırsız olarak yükselebilir, ve beraberinde kararsız durumun oluşmasına neden
olabilir. Böylece, p(i, i) = 0 , ∀ i. Bazı geçişlerin oluşmasını engelleyen sınır koşulları
da vardır. Herşeyden önce, bir sinir sadece pozitif gizil-güce sahip olduğunda
ateşleyebilir. İkincisi, eğer bir sinirin gizil-gücü 0'sa, yeni gelen bastırıcı imgeler, onun
değerini daha fazla eksiltmezler.
Bir sinir, d(i) olasılığıyla, ağın dışına da imgeler gönderebilir, ve
d(i) + ∑=
n
1j
[p+(i, j) + p-(i, j)] = 1 , 1 ≤ i ≤ n (2.3.2)
d(i) + ∑=
n
1j
p (i, j) = 1 , 1 ≤ i ≤ n (2.3.3)
dir. Bu olasılıkları kolay çalışılabilir hale getirmek için,
w(i, j) = r(i) . p(i, j) (2.3.4)
w+(i, j) = r(i) . p+(i, j) , w-(i, j) = r(i) . p-(i, j) (2.3.5)
olsun. Öyleyse, i sinirinin ateşleme oranı
r(i) = ∑=
n
1j
[w+(i, j)+ w-(i, j)] (2.3.6)
dir. Burada "w"ler, özellikle uyarıcı ve bastırıcı darbe yayılımının sıklıklarını veriyor
olsalar da, bağlantısal modellerdeki sinaptik ağırlıklarınkine benzer bir rol oynarlar,.
Bir i sinirine ağ dışından gelen uyarıcı ve bastırıcı imgeler, sırasıyla Λ(i) ve λ(i)
sıklıklarına sahip Poisson süreçlerini oluştururlar. Λ(i) ve λ(i), sıklıkları ifade etseler
de, benzer şekilde, bağlantısal modellerdeki girdi sinirlerine uygulanan girdilere
Açıklama [S1]:
Açıklama [S2]:
68
karşılık gelmektedirler. Bu, rasgele yapıdaki bir tekrarlayan ağ modelidir, yani geri
besleme döngüsü içerebilir (Gelenbe 1989, 1990, 1991a, 1993a).
Bu aşamada, olası durum geçişlerine bakarak RYSA modelinin dinamikleri ele
alınabilir. ∆t kadar zaman aralığı içinde bir sinirin ki(t) durumunu değiştirecek çeşitli
geçişler olabilir :
a) Bir sinir ateşlediğinde, yaydığı imge ne olursa olsun (uyarıcı ya da bastırıcı), o
sinirin ki(t) gizil-gücü 1 eksilecektir. Sinire ağın dışından bastırıcı bir imge geldiğinde
de, t+∆t 'de sinirin gizil-gücü ki(t)-1 'e düşer. Bunun ötesinde sinir, bir başka sinirden
bastırıcı bir darbe imgesi aldığında da etki aynı olur, ve t anında ki(t),1 eksilir,
b) Sinire ağın dışından ya da bir başka sinirden uyarıcı bir imge geldiğinde sinir
gizil gücü 1 artarak ki(t)+1 olacaktır,
c) Yukarıdaki olaylardan herhangi birisi olmazsa sinirin durumu değişmeyip aynı
kalacaktır.
k(t) = ( k1(t), ....., kn(t) ), t anındaki imge gizil-güçlerinin vektörü, k = ( k1, ....., kn ) ise
vektörün bir kısmi değeri olsun. p(k, t) = P[k(t) = k] olasılığı tanımlansın. Ağ
durumunun olasılık dağılımının davranışı aşağıdaki eşitliklerden türetilebilir. k(t) :
t≥0 , bir sürekli zaman Markov zinciri olduğu için, bir Chapman-Kolmogorov
eşitlikleri’ nin sonsuz sistemine karşılık gelir. Yani, a, b, x durumlar, ve tb > tx >ta ≥ 0
herhangi zamanlar olmak üzere, herhangi bir ta anındaki a durumundan herhangi bir tb
anındaki b durumuna geçiş olasılığı :
pa, b(ta , tb) = ∑x
pa, x(ta , tx) . px, b(tx , tb) (2.3.7)
şeklinde ifade edilebilir. Bu, kullanılan modele uygulandığında :
p(k, t+∆t) = ∑i
[ p(k +i , t) . r(i) . d(i) . ∆t + p(k
−i , t) . Λ(i) . ∆t . 1[ki(t) > 0]
+ p(k +i , t) . λ (i) . ∆t
69
+ p(ki, t) . (1 - Λ(i) . ∆t) . (1 - λ (i) . ∆t) . (1 - r(i) . ∆t) . 1[ki(t) > 0]
+ ∑j
p(k −+ij , t) . r(i) . p+(i,j) . ∆t . 1[kj(t) > 0]
+ p(k ++ij , t) . r(i) . p-(i, j) . ∆t
+ p(k +i , t) . r(i) . p-(i, j) . ∆t . 1[kj(t) = 0] ] + o(∆t) (2.3.8)
Burada,
k +i = ( k1, ...., ki + 1 , ...., kn ) , k
−i = ( k1, ...., ki - 1 , ...., kn ) ,
k −+ij = ( k1, ...., ki + 1 , ...., kj - 1, ...., kn ) ,
k ++ij = ( k1, ...., ki + 1 , ...., kj + 1, ...., kn )
ve
1, eğer x doğruysa
1[x] =
0, aksi taktirde
dir. o(∆t) ise, ∆t süresince hiç bir etkinlik olmaması olasılığına karşılık gelmektedir.
Durağan durum analizi için, durağan durum olasılık dağılımı
p(k) = ∞>t-
lim P[k(t) = k] (2.3.9)
olsun (eğer böyle bir limit varsa). Böylece, durağan durumda, olasılık dağılım
fonksiyonu p(k), genel denge eşitliklerini sağlamak zorundadır :
p(k) . ∑i
[ Λ(i) + ( λ (i) + r(i) ) . 1[ki(t) > 0] ]
= ∑i
[ p(k +i ) . r(i) . d(i)
+ p(k -i , t) . Λ(i) . 1[ki(t) > 0] + p(k
+i , t) . λ (i)
70
+ ∑j
p(k −+ij ) . r(i) . p+(i, j) . 1[kj(t) > 0]
+ p(k ++ij , t) . r(i) . p-(i, j)
+ p(k +i , t) . r(i) . p-(i, j) . 1[kj(t) = 0] ] (2.3.10)
Modele ilişkin durağan durum olasılık dağılımı, ağın çıktısı olarak alınacaktır :
qi = ∞>t-
lim P[ki(t) > 0] , i = 1, ...., n (2.3.11)
Yukarıda (2.3.11)'deki eşitlik
qi = )i( r(i)
)i(−
+
+ λλ
(2.3.12)
ifadesine denktir. Burada, λ+ (i), ve λ- (i) i = 1,...., n için, aşağıdaki doğrusal olmayan
eş-anlı eşitlikleri sağlarlar :
λ+(i) = ∑j
qj w+(j, i) + Λ(i) , λ- (i) = ∑
j
qj w-(j, i)+ λ (i) (2.3.13)
Yani, bir sinirin uyarılmasının durağan durum olasılığı, o sinire gelen uyarıcı imgelerin
sıklıklarının toplamının, o sinire gelen bastırıcı imgelerin sıklıklarıyla o sinirin
ateşleme sıklığının toplamına oranına eşittir.
Eğer, bir i siniri için,
)i( r(i)
)i(−
+
+ λλ
≥ 1 (2.3.14)
ise, o sinir doymuş olarak adlandırılır. Bu durumda, i siniri, durağan durumda sürekli
ateşleyecektir. Doymuş bir sinir için durağan durum olasılığı qi = 1 olarak kabul edilir.
71
Pek çok uygulamada, bazı sinirlerin doymuş olması istenir.
Bu modele ilişkin hesaplamalar, ağ durumunun olasılık dağılımına, p(k, t) = P[k(t) =
k], veya i sinirinin uyarılmasının olasılığına, qi(t) = P[ki (t) > 0], dayanır. Bir sonuç
olarak, modelin zamana bağlı davranışı, Markov süreçleri için Chapman-Kolmogorov
eşitlikleri ile tanımlanan sonsuz bir dizge ile ifade edilebilir.
Bu model, çarpımlarla ifade edilebilen bir çözüme sahiptir (Gelenbe and Mitriani
1980, Gelenbe and Pujolle 1998). Yani, modelin durumunun durağan olasılık dağılımı,
içerdiği tüm sinirlerin tek tek durumlarının (veya gizil-güçlerinin) olasılıklarının
çarpımına eşittir. Bu, ağın durumu için basit ifadelere yol açar. Çarpımlarla ifade
edilebilen çözümlerin sadece artı imgelerin dolaştığı belirli ağlar, yani, bilgisayar ve
iletişim sistemlerinin modellenmesinde ve yöneylem araştırmasında kullanılan
kuyruklama ağları, için varolduğu, bu model geliştirilmeden önce bilinmekteydi
(Gelenbe and Mitriani 1980, Gelenbe and Pujolle 1986).
Eğer, (2.3.12) ve (2.3.13) eşitliklerine her bir qi < 1 olacak şekilde negatif olmayan bir
çözüm varsa, RYSA'nın durağan olasılık dağılımı :
p(k) = ∏=
n
1i
[1 - qi] q iki (2.3.15)
şeklinde ifade edilebilecektir. Nitekim, (2.3.10)'da p(k) yerine (2.3.15)'deki eşidini
yazıp gerekli işlemler yapıldığında, (2.3.15)'in (2.3.10)'u sağladığı görülebilir. Bir
sonuç olarak, bir sinirin durağan durumda sahip olacağı ortalama gizil-güç :
ki = i
i
q-1
q (2.3.16)
olacaktır.
72
Eğer, herhangi bir i1, ...., is, ...., ir, ...., im sinirlerinin oluşturduğu bir dizi için, r > s için
is = ir olması,
∏=
1-m
1v
p(iv , iv+1) = 0 (2.3.17)
olması anlamına geliyorsa, o ağ ileri beslemeli olarak adlandırılır. Bir ağ ileri
beslemeliyse, (2.3.13) ve (2.3.10)'nin çözümleri vardır ve tektir.
Bu modelde, bilgi, darbelerin gezindiği frekans ile taşınır. Gelen uyarıcı ve bastırıcı
darbe dizilerinin sıklıklarını bir şiddete dönüştürdüğü için, sırasıyla her sinir, doğrusal
olmayan bir frekans çözücüsü olarak davranır. Bir i siniri, herhangi bir j sinirine
qi(t).r(i).p+(i, j) sıklığında uyarıcı, ve qi(t).r(i).p-(i, j) sıklığında bastırıcı imgeler
gönderdiği için (bkz. Şekil 2.3), bu modeldeki her sinir, aynı zamanda bir frekans
biçimleyicisidir.
Her bir sinire pozitif veya negatif imgelerin ulaşma sıklığını tanımlayan, ağın imge
akış eşitlikleri doğrusal değildir. Bu yüzden, ileri besleme ağları haricinde varlıklarının
ve tekliklerinin gösterilebilmesi kolay değildir. Gelenbe (1990)'da modelin
kararlılığıyla ilgili koşullara açıklık getirilmiş, imge akış eşitliklerine çözüm varolması
halinde bunun tek olduğu gösterilmiştir. Eğer, qi = qj = q , ∀ i,j , yani, tüm qi 'ler
birbirine eşitse, o RYSA dengeli olarak adlandırılır. Eğer,
r(i) + λ (i) > Λ(i) + ∑j
qj w+(j, i) (2.3.18)
ise, o RYSA sönümlü olarak adlandırılır. Ağ sönümlü olduğunda, qi olacak şekilde,
(2.3.13) ve (2.3.10)'e bir çözüm daima vardır, ve bu tektir. Bir RYSA'da geri besleme
kullanılması durumunda, her seferinde, imge akış eşitliklerinin bir çözümü olup
olmadığı belirlenmelidir. Bir çözüm bulunabilmesi halinde, bunun tek olduğu
rahatlıkla söylenebilir. Geri beslemeli bir RYSA, dengelilik ya da sönümlük
koşullarını sağladığında, bu aynı zamanda, onun imge akış eşitliklerinin bir çözümü
olduğu, dolayısıyla kararlılığını garantilediği anlamına da gelecektir.
Şekil 2.2 RYSA modeli, imge grafikleriyle gösterim (Gelenbe and Halıcı 1994).
Şekil 2.3 RYSA modeli, tek sinir gösterimi (Gelenbe and Halıcı 1994).
73
koşullarını sağladığında, bu aynı zamanda, onun imge akış eşitliklerinin bir çözümü
a kararlılığını garantilediği anlamına da gelecektir.
Şekil 2.2 RYSA modeli, imge grafikleriyle gösterim (Gelenbe and Halıcı 1994).
Şekil 2.3 RYSA modeli, tek sinir gösterimi (Gelenbe and Halıcı 1994).
koşullarını sağladığında, bu aynı zamanda, onun imge akış eşitliklerinin bir çözümü
a kararlılığını garantilediği anlamına da gelecektir.
Şekil 2.2 RYSA modeli, imge grafikleriyle gösterim (Gelenbe and Halıcı 1994).
Şekil 2.3 RYSA modeli, tek sinir gösterimi (Gelenbe and Halıcı 1994).
74
Şekil 2.4 RYSA modeli, etkileşimli gösterim (Koçak 2001).
2.3.2 RYSA ile formüllü sinir ağlarının benzerlikleri
Bir formüllü sinir ağı, n sinirden oluşan bir kümedir. Her bir sinirin durumu, y(i), bir
sigmoid fonksiyonu, y(i) = f(x(i)), kullanılarak bulunur. Girdi imgesi,
x(i) = ∑j
wji . y(j) - θi , (2.3.19)
ağdaki diğer sinirlerin durumlarının ağırlıklı toplamlarından oluşur. Burada, wji ,
ağırlıklar, θi ise, sinir gizil gücü için eşik değeridir. f(.) 'nin en basit biçimi, birim
basamak fonksiyonudur.
75
Çok katmanlı formüllü sinir ağları, ileri beslemeli ağların bir alt kümesidir. İleri
beslemeli ağları göz önünde bulundurduğumuzda, RYSA için λ+(i), ve λ-(i)'nin
çözümlerinin varlığı ve tekliği kolayca garantilenebilmektedir. Bu durumda, RYSA ile
formüllü ağ arasında kolayca ilişki kurabiliriz (Gelenbe 1989, 1990, 1991a, 1993a).
λ-(i), sinirin eşik değerine, θi , karşılık gelmektedir. Çıktı olmayan sinirler için, d(i) = 0
'dır. Eğer wij > 0 ise wij , r(i) . p+(i, j) = wij ile, eğer wij < 0 ise wij , r(i) . p-(i, j) = |wij|
ile ifade edilir. Ateşleme sıklığı,
r(i) = ∑j
|wij| (2.3.20)
'dır. Çıktı sinirleri içinse d(i) = 1, ve r(i), atanan uygun bir değerdir.
Rasgele ağa, dış parametreleri uygulamak için, (+) imgelerin, sinirlere gelme sıklığı,
Λ(i), kullanılır. Formüllü sinir ağına dışarıdan gelen imgeler, 2 değerlikli olduğunda, 0
imgesi, Λ(i) = 0 yaparak, 1 imgesiyse, Λ(i) = Λ yaparak ifade edilebilir. Λ değeri, çıktı
sinirlerinde istenen etkileri yaratacak şekilde belirlenir. Böylece, RYSA'nın, çıktı
sinirlerinin ateşleme sıklıkları ve (+) imgelerin geliş sıklıkları haricindeki, tüm
parametreleri, formüllü ağın parametrelerine denk bir şekilde seçilebilir (bkz. Şekil
2.4).
Formüllü ağın durumu, Y(y1, ...., yn) (yi ∈0, 1), rasgele sinirlerin olasılıklarıyla ifade
edilir.
zi = ∞>t-
lim P[ki(t) > 0] (2.3.21)
olmak üzere, yi ile zi ilişkilendirilebilir. Bu durumda, yi=0 ⇔ zi < 1 - α , ve yi=1 ⇔ zi
≥ 1- α ifadelerini sağlayacak bir kesme noktasına gereksinim vardır.
76
Bu yöntem, ileri beslemeli olmayan herhangi bir sinir ağına da uygulanabilir. d(i), aynı
zamanda, biyolojik sinir ağlarında var olan kaçak akımları ifade etmek için
kullanılabilir. Bu etki, dikkate alınmak istendiğinde, r(i).d(i), i sinirinde elektrik gizil
gücünün kaybı sıklığını verecektir.
Rasgele sinir ağlarının özellikleri, özetlenirse :
a) Biyofiziksel sinir ağlarındaki imgelerin iletilmesini, daha yakın bir şekilde temsil
eder. Çünkü biyofiziksel sinir ağlarında imgeler, sürekli imgeler yerine, darbeler
halinde dolaşırlar,
b) Hesaplama açısından etkindir,
c) Her sinir, basit bir şekilde bir sayaçla ifade dilebildiği için, benzetişiminin
yapılması ve donanımla gerçeklenebilmesi kolaydır,
d) Sinir gizil-gücünü, dolayısıyla uyarılma seviyesini, iki değerlikli bir değişken
yerine, bir tam sayı olarak ifade eder. Bu sayede, dizgenin durumu hakkında daha
detaylı bilgi edinilebilir. Bir sinirin gizil-gücü pozitifse, ateşleme durumunda şeklinde
yorumlanır.
2.3.3 RYSA öğrenme algoritması
RYSA modelinin geliştirilmesinin ardından (Gelenbe 1989, 1990, 1991a,d, 1993a),
RYSA için geri-sürüklenme tipinde geliştirilen öğrenme algoritması (Gelenbe 1993b),
ağa bir girdi/çıktı kümesi uygulandığında, karesel hata fonksiyonunun kademeli
azalması yöntemini kullanır. Algoritma, K girdi-çıktı ikilisi (ı, Y) 'yi öğrenmek için W
ağ parametrelerini seçer. Burada, ardışık girdilerin kümesi ı(ı1, ...., ıK), ve ık = Λk,λk,
her bir sinire ağın dışından giren uyarıcı, ve bastırıcı imge akış sıklıklarıdır :
Λk = (Λk(1), ...., Λk(n)) , λk = (λk(1), ...., λk(n)) (2.3.22)
Ardışık olarak istenen çıktıların vektörü, Y=y1, ...., yK 'dir. Her bir yk = y1k , ....,
ynk, yik∈[0, 1] olmak üzere, her bir sinir için istenen çıktı değerlerine karşılık
77
gelmektedir. Ağ, parametrelerini bir Ek maliyet fonksiyonunun en düşük değerleri
üretmesini sağlayacak şekilde ayarlar :
Ek = 2
1∑=
n
1i
2ikii )y - (q a , ai ≥ 0 (2.3.23)
Bu ağda, tüm sinirler, çıktı siniri olabilecek şekilde genelleştirilmiştir. Böylece, eğer
bir j sinirinin ağ çıktısından çıkartılması gerekiyorsa, hata fonksiyonunda aj = 0
yapmak yeterlidir. Tüm sinirlerin durağan durum çıktı sıklıkları :
qi = )i( r(i)
)i(−
+
+ λλ
(2.3.24)
λ+(i) = ∑j
qj w+(j, i)+ Λ(i) , λ-(i) = ∑
j
qj w+(j, i) + λ(i) (2.3.25)
N(i) = ∑j
qj w+(j, i)+ Λ(i) (2.3.26)
D(i) = r(i) + ∑j
qj w+(j, i) + λ(i) (2.3.27)
qi = D(i)
)i(N (2.3.28)
eşitlikleriyle verilir.
Her iki n x n ağırlık matrisleri de, W+k w
+k (i, j) ve W
-k w
-k (i, j), her girdi
uygulandıktan sonra, her ık = Λk, λk girdisi için yeni bir Wk+ ve Wk
- ağırlık matrisi
değerleri hesaplayarak ayarlanmalıdır.Ağırlık matrisleri, bir sıklık ile bir olasılığın
çarpımından oluştukları için, sadece matristeki tüm değerlerin pozitif olduğu sonuçlar
geçerlidir.
w(u, v), w(u, v) ≡ w+(u, v) ya da w(u, v) ≡ w-(u, v) olabilen, her hangi bir ağırlık
terimine karşılık gelsin. Ağırlıklar kademeli azalma yöntemine göre güncellenmiştir :
78
wyeni(u, v) = weski(u, v) - η v)(u,w+∂
∂E (2.3.29)
Maliyet fonksiyonunun kısmi türevi, güncelleme fark eşitliğini elde etmek için,
hesaplanıp yerine konabilir :
wk(u, v) = wk-1(u, v) - η∑=
n
1i
ai (qi - yik) [ v)w(u,
q i
∂
∂]k (2.3.30)
Burada, η > 0, eğitimin her yinelenmesinde sabit olan öğrenme parametresidir.
a) qik , ık girdisini ve wk(u, v) = wk-1(u, v) 'yi (2.3.24) ve (2.3.25)'te yerine koyarak
hesaplanabilir,
b) [ v)w(u,
q i
∂
∂]k 'nin değeri, qi = qik , w
+k (u, v) = w
+1-k (u, v), ve w
-k (u, v) = w
-1-k (u, v)
değerlerini kullanarak hesaplanabilir. [ v)w(u,
q i
∂
∂]k 'yi hesaplamak için, (2.3.24) ve
(2.3.25)'ten aşağıdaki eşitlik türetilmiştir :
qi = (i) r(i)
)i(-λ
λ+
+
= )i( )i j,( wq r(i)
)i( )i j,( wq
j
-j
jj
λ++
Λ+
∑
∑ +
qi ( )i( )i j,( wq r(i)j
-j λ++∑ ) = )i( )i j,( wq
jj Λ+∑ + (2.3.31)
Buradan
[ v)w(u,
qi∂
∂] =
)i(D
1[ ∑
j v)w(u,
qi∂
∂ [w+(j, i) - w-(j, i)qi]
- 1[u = i]qi + 1[w(u, v) ≡ w+(u, v)]qu - 1[w(u, v) ≡ w
-(u, v)]quqi ] (2.3.32)
q = (q1, ...., qn) olsun. i, j = 1, ...., n olmak üzere, n x n
79
W = )i(D
i)q (j, w- i) (j,w i-+
(2.3.33)
matrisi tanımlansın. Bu durumda, vektör eşitlikleri,
v)w(u,
qi∂
∂ =
v)w(u,
qi∂
∂W + γ(u, v)qu (2.3.34)
v)(u,w
qi+∂∂
= v)(u,w
qi+∂∂
W + γ+(u, v)qu ,
v)(u,w
q-
i
∂
∂ =
v)(u,w
q-
i
∂
∂W + γ-(u, v)qu (2.3.35)
şeklinde yazılabilir. Burada, n-elemanlı γ(u, v) = [γ1(u, v), ...., γn(u, v)] = γ+(u, v) + γ-(u,
v) ve γ+(u, v) = [γ1+(u, v), ...., γn
+(u, v)] , γ-(u, v) = [γ1-(u, v), ...., γn
-(u, v)] vektörlerinin
elemanları :
γ+(u, v) = )i(D
1− , eğer u=i , v≠i ise (2.3.36)
= )i(D
1 , eğer u≠i , v=i ise
= 0 , (u, v) 'nin tüm diğer değerleri için
γ-(u, v) = )i(D
)q (1- i+ , eğer u=i , v=i ise (2.3.37)
= )i(D
1− , eğer u=i , v≠i ise
= )i(D
q- i , eğer u≠i , v=i ise
= 0 , (u, v) 'nin tüm diğer değerleri için
Bu durumda
80
v)(u,w
qi+∂
∂= γ+(u, v)qu [I – W]
-1 , ve
v)(u,w
q-
i
∂∂
= γ-(u, v)qu [I – W]-1 (2.3.38)
olduğuna dikkat ediniz. Burada, I, birim matristir. Böylece, algoritmadaki asıl
hesaplama işi, [I – W]-1 'nin elde edilmesidir. Bunun hesaplama karmaşıklığı, O(n3),
veya değişkenlerin ardışık yaklaşımlarına dayalı bir m-basamaklı gevşeme yöntemi
kullanılırsa, O(mn2) 'dir.
Yukarıdakilerden, ağ için tüm öğrenme algoritması verilebilir. Önce, uygun bir
şekilde, W +0 , ve W
−0 matrislerine başlangıç değerleri atanır. Daha iyi bir yöntem
belirlenemiyorsa, bu ilk an değerleri rasgele olarak atanabilir. Bir öğrenme hızı η
değeri seçilir, ve ardından k=1 'den başlayarak, k'nin her ardışık değeri için, aşağıdaki
basamaklar uygulanır:
(Adım.1) Girdi değerlerini, ık = (Λk, λk) 'e ayarlanır.
(Adım.2) (2.3.24) ve (2.3.25)'te verilen doğrusal olmayan eşitlikler sistemini,
Gauss-Seidel gibi yinelemeli bir yöntem kullanarak, çözülür.
(Adım.3) (2)'nin sonuçlarını kullanarak (2.3.38) çözülür.
(Adım.4) Eşitlik (2.3.30)'u ve (Adım.2) ile (Adım.3)'ün sonuçlarını kullanarak W +0 ,
ve W −0 matrislerini güncelle. Eksi değer olmama koşulunu sağlayan en iyi matrisler
(karesel maliyet fonksiyonunun kademeli azalması cinsinden) arandığı için,
algoritmanın herhangi bir k basamağında, eğer yineleme, bir terim için '-' değer verirse,
iki seçenek vardır :
a) Terimi O'a eşitle, ve bu k basamağında bu terim için yinelemeye son ver. Bir
sonraki k+1 basamağında, k'nin o anki 0 değerinden başlayarak yinelemeleri yeniden
yapılır,
b) Terimin bir önceki değerine dönülür ve daha küçük bir öğrenme hızı η değeri için
yineleme yeniden yapılır.
Bu genel şema, ileri-beslemeli ağlara özelleştirilebilir. [I – W]-1 matrisinin, üçgensel
81
olacağına dikkat edilmelidir. Bu durum, her bir kademe yinelemesi için, hesaplama
karmaşıklığının 0(n3) yerine 0(n2) olmasına yol açar. Bunun ötesinde, ileri-beslemeli
bir ağda, (2.3.24) ve (2.3.25)'teki eşitlikler, j<i için, qi, sadece qj 'e bağımlı olacak
şekilde basitleştirilir. Bu, (2.3.24) ve (2.3.25)'i çözmek için gereken işlem gücünü
azaltır.
2.3.3.1 RYSA öğrenme algoritmasıyla ilgili çalışmalar
Gelenbe'nin tekrarlamalı rasgele ağ modeli için, geri sürüklenme tipinde (Likas and
Stafylopatis 2000, Gelenbe and Hussain 2002), karesel hata fonksiyonunun kademeli
azalmasını kullanan bir öğrenme algoritması geliştirmesinin ardından, bu algoritmanın
geliştirilmesi yönünde çeşitli çalışmalar yapılmıştır (bkz. Halıcı 1995). Halıcı (1997),
bir amaca ulaşmak için bir serileşmiş kararlar dizisine bir destekli öğrenme yöntemi
uygulanmasını önermiştir. Burada serileşmiş kararların toplam maliyetinin
eniyilenmesi hedeflenmektedir. Bu amaçla, RYSA, sağlanan bir destek fonksiyonuyla
birlikte, sistemi modellemede kullanılır. Öğrenme yönteminin performansı, labirent
öğrenme problemine uygulanarak sınanmıştır. Benzetişim sonuçları, sistemin
performansının, büyük ölçüde, seçilen destek fonksiyonuna bağlı olduğunu
göstermiştir. Destek fonksiyonu, son zamanlarda oluş etkisi dikkate aldığında, oldukça
tatmin edici sonuçlar elde edilmiştir. Bu yaklaşım, ödüllendirmeye dayalıdır, ve
durağan ortamda performansı iyidir. Fakat ortam durağan olmadığında, tepkisizleşme,
dikkate alınması gereken önemli bir problem haline gelmektedir.
Halıcı (1998)'de destekli öğrenme yöntemini, desteğin dahili tahminini dikkate alan bir
ağırlık güncelleme kuralıyla genişletmiştir. Böylece, en yüksek ödüllü harekete bir
şekilde yönelimle sonuçlanan bir tepkisizleşme mümkün olmuştur. Genişletme, ödüllü
öğrenmeden, ödüllü/cezalı öğrenmeye geçiş şeklinde olmuştur. Yöntemin davranışı,
öğrenen özişlerlerde kullanılan doğrusal ağırlık güncelleme kuralıyla karşılaştırılmıştır.
Benzetişim sonuçları, yeni yöntemin performansının doğrusal göre açık bir şekilde
üstün olduğunu göstermiştir. Öğrenme aşamasında en iyi ödüle yönelme söz
konusudur. Sistem, ortamdaki değişikliklere duyarlıdır. Böylece istenen tepkisizleşme
82
elde edilebilmektedir. Halıcı 1998 ve 2000’de önerilen yöntem, RYSA dışında desteğe
dayalı diğer öğrenen özişlerler ve diğer akıllı sistemlerin öğretilmesinde de
kullanılabilir.
Gelenbe'nin algoritmasındaki asıl hesaplama işi, bir n x n matrisin tersinin elde
edilmesidir. Halıcı and Karaöz (1998), bu matrisin tersinin bir doğrusal terimle
yaklaşımını almış, ve bu yaklaşımlı algoritmanın etkililiğini, tekrarlamalı RYSA
kendiliğinden ilişkili bellek olarak kullanıldığında, sınamıştır. Bunun sonucunda,
zaman alıcı ve sıkıcı hesaplamaları ortadan kaldırmak için, ters matrisin yerine
doğrusal yaklaşımının başarılı bir şekilde kullanılabileceği gözlenmiştir. Matrisin
"norm"u, ||.|| , 1'den küçük olduğunda, ters matrisin yerine, bir seri açılım kullanılabilir.
Ters matrisi yaklaşık olarak ifade etmek için seri açılımın ilk iki terimi kullanıldığında,
hesaplamalar doğrusal hale gelir, ve bu sayede hesaplamalar kolaylaşır. Norm olarak,
A, bir n x n matris olmak üzere,
||A|| = j
max (∑i
Aij) (2.3.39)
kullanılmıştır. Çünkü
j
max (min
iji
r(i)
w
λ+
∑) < 1 (2.3.40)
olduğunda, ||A|| < 1 koşulu sağlanmaktadır. Bu koşul, uygun λmin değeri seçilerek
sağlanabilir.
||W|| = nj1
max≤≤∑=
n
1i
|)j( wq r(i)
qw w-iji
i
jijij
λ++
−
∑
−+
| (2.3.41)
Böylece,
83
v)(u,w
qi+∂
∂ = γ+(u, v)qu [I + W
1 + W2 + .... + Wm + .... W∞] (2.3.42)
v)(u,w
q-
i
∂
∂ = γ-(u, v)qu [I + W
1 + W2 + .... + Wm + .... W∞] (2.3.43)
olur. Zaman alıcı hesaplamalardan kaçınmak için, bu ifadelerin açılımının sadece ilk m
terimi kullanılarak yaklaşımı alınabilir. m'nin büyük değerleriyle performansın artacağı
beklenmekle birlikte, m=1 olduğunda hesaplamak oldukça kolaydır. Bu, bir doğrusal
yaklaşıma yol açar :
v)(u,w
qi+∂
∂ = γ+(u, v)qu [I + W] (2.3.44)
v)(u,w
q-
i
∂
∂ = γ-(u, v)qu [I + W] (2.3.45)
Atalay (1998), özellikle görüntü desenlerinin yeniden oluşturulmasında kullanılmak
üzere, RYSA'nın öğrenmesi için bir karesel en iyileme yöntemi göstermiştir. Bunun
genelleştirilebilmesinin mümkün olduğu düşünülmektedir. Önerilen algoritma,
RYSA'daki sinirlerin durum eşitliklerinin bir doğrusal sistem biçiminde çözülmesine
dayanır. Görüntü desenlerinin yeniden oluşturulması için sistem gereğinden fazla
belirlenmiş hale gelir, ve çözüm Kuhn-Tucker eniyileme koşullarıyla verilir.
84
3. MATERYAL ve YÖNTEM
3.1 Büyüklük Dağılımının Ölçülmesi
Kendall and Moran (1963) (parçaçıkların büyüklük dağılımı), Underwood (1972)
(büyüklük dağılımı), ve Santalo (1976)'nun (parçaçıkların büyüklük dağılımının,
parçacıkların bölümlerinin büyüklük dağılımlarından türetilmesi) çalışmaları, büyüklük
dağılımının ölçülmesi için yapılan başlıca öncül çalışmalardandır (Norberg 1984).
Büyüklük dağılımının ölçülebilmesi için kullanılabilecek en temel yaklaşımlardan birisi,
deneysel tahmin edicilerden yararlanmaktır. Deneysel tahmin ediciler, büyüklük
dağılımının, görüntünün içerdiği şekillerin büyüklüklerinin, seçilen referans
yaklaşımına göre, tek tek ölçülerek belirlenmesine dayanır. Gözlem penceresi sınırlı
olduğu için, pencerenin boyutları küçüldükçe hata payı artmaktadır. Genel bir kural
olarak, büyüklük dağılımının iyi tahminleri, sadece küçük büyüklüklerde alınabilir. Bu
problemi aşmak için, elimizdeki görüntüler için bir model kabul etmeliyiz.
Büyüklük dağılımının belirlenebilmesinde, Monte Carlo yöntemine dayalı yaklaşımların
hata payının azaltılabilmesi kolay olduğu için, etkilidirler. Bu tür yaklaşımların
tutarlılığı, sadece Monte Carlo işlemlerinin tekrarlanma sayısıyla doğru orantılıdır;
gözlem penceresinin büyüklüğünden bağımsızdır. Gerçekleştirilen Monte Carlo
işlemleri, eldeki ilk görüntüden elde edilen bilgilerin kullanımıyla başlayarak, belirli
kurallar çerçevesinde, aynı dağılıma sahip yeni görüntüler, yani aynı dağılıma sahip
yeni örnekler, elde edilmesine dayanır. Ortaya çıkan her yeni görüntünün dağılımın
belirlenmesi işlemi yeni baştan yapılır. Aslıyla birlikte türetilmiş bütün görüntülerden
elde edilen bilgilerin bir arada değerlendirilmesiyle, ilk görüntüye ait büyük dağılımı ve
büyüklük yoğunluğunun daha gerçekçi ve daha tutarlı bir şekilde elde edilebilmesi
mümkün olur (Potamianos and Goutsias 1991, 1993a,b, 1997, Goutsias 1996). Aslından
başlayarak, ortaya çıkan bir sonraki görüntü, tamamen, bir öncekinden elde edilen
bilgiler kullanılarak türetildiğinde, görüntülerden oluşan bu dizi bir Markov zinciri
oluşturur.
85
Bu konunun gerçek yaşam problemlerine uygulanması için büyüklük dağılımının uygun
bir şekilde hesaplanabilir olması gerekir. Bir çok rasgele küme modeli için, büyüklük
dağılımının analitik olarak hesaplanması olanaklı değildir (Matheron 1975). Bu
uygulamada bir kesikli rasgele kümenin şekil (tanecik) yarıçapı (dolayısıyla şekil alanı),
(kesikli) büyüklük dağılımı ve yoğunluğu, rasgele kümeyi modelleyici başlıca etmen
olarak kullanılmıştır. Bunun için deneysel rasgele tahmin edici ve Monte Carlo tahmin
edicisinden yararlanılmıştır ve elde edilen sonuçlar birbiriyle karşılaştırılmıştır).
Schonfeld and Goutsias (1991) ve Dougherty, Newell and Pelz (1992)'de büyüklük
dağılımı, tek bir görüntüden deneysel olarak tahmin edilmiştir. Dougherty, Haralick et
al. (1992) ve Dougherty and Pelz (1991)'deyse, basit ve kısıtlı bir rasgele küme modeli
için analitik olarak elde edilmiştir. Büyüklük dağılımlarını daha etkin bir şekilde
kullanabilmek için, bu nicelikleri daha genel rasgele küme modelleri için tahmin etmek
kaçınılmazdır (Lieshout 1997b, 1999a).
Büyüklük dağılımını tahmin etmek için doğal bir yöntem, deneysel bir tahmin edici
kullanmaktır. Bu durumda, herhangi bir özel bir görüntü modeli kullanılmaz. Görüntü,
sonlu bir gözlem penceresinden izlenen bir durağan rasgele küme gerçeklenimi olarak
kabul edilir. Deneysel tahmin edici, doğal olarak yansızdır, ve uygun kovaryans
kabulleri altında, gözlem penceresi limitte sonsuza doğru büyüdükçe, tutarlıdır.
Bununla birlikte, uygulamada gözlem penceresinin büyüklüğü sabittir. Dolayısıyla,
deneysel tahmin edicinin ortalama karelendirilmiş hatası üzerinde fazla kontrolumuz
yoktur. Genel bir kural olarak, büyüklük dağılımının iyi tahminleri sadece küçük
büyüklüklerde elde edilebilir. Bu problemi aşmak için, incelenen görüntülere bir rasgele
küme modeli varsayılmalıdır.
Monte Carlo tahmin edicilerinin büyüklük dağılımı ve ilişkili büyüklük yoğunluğunu
belirlemede kullanılabileceği ilk olarak Moore and Archambault (1991) ve Sivakumar
and Goutsias (1994) tarafından önerilmiştir. Yansız ve tutarlı tahmin ediciler ele
alınmıştır. İlk tahmin edici b.b.d. rasgele küme gerçeklenimleri söz konusu olduğunda
uygulanabilirdir. Bu, her zaman olanaklı değildir. Örneğin, en yaygın kesikli rasgele
86
küme modellerinden birisi olarak kullanılan iki-değerlikli Markov rasgele alanı için
b.b.d. örneklemler elde etmek genellikle olanaklı değildir (Geman and Geman 1984,
Dubes and Jain 1989). Bağımlı Markov rasgele alanı gerçeklenimleriyse Markov zinciri
Monte Carlo (MZMC) yaklaşımıyla elde edilebilir (Geyer 1992). Bu durumda büyüklük
dağılımı için, bir alternatif Monte Carlo tahmin edicisi elde edilebilir (Sivakumar and
Goutsias 1994). Böyle bir tahmin edicinin hesaplanması, çok miktada hesaplamayı
gerektirebilir Bu problemi en aza indirmek için, daha iyi hesaplama performansı olan
yöntemler kullanılmalıdır.
3.1.1 Bir deneysel büyüklük dağılımı tahmin edicisi
F, Z2 üzerinde bir kesikli rasgele küme, ve Ms , Z
2 'deki tüm eşleştirmelerin kümesi P
'den kendisine bir morfolojik görüntü işleci olsun. Örneğin, s=0,1,.... olmak üzere, Ms =
As , P üzerinde bir granülometri, ya da Ms = Ks , P üzerinde bir karşı-granülometri
olarak seçilebilir.
F'nin bir artan W1 ⊂ W2 ⊂ .... ⊂ Wm ⊂ .... ⊂ Z
2 sınırlı pencereler zincirinden izlendiği
varsayılsın. Bu durumda gözlemler, X ∩ Wm , m = 1, 2, ...., gerçeklenimleri olacaktır.
W ı
m (s) ⊆ Wm , en büyük boş olmayan alt pencere olsun (öyle bir pencerenin varlığını
varsayarak)
Ms(F) ∩ W ım (s) = Ms(F ∩ Wm) ∩ W ı
m (s) , ∀F∈P (3.1.1)
∆F(s, W; M) = 2ım |)s(W|
1| Ms(F ∩ Wm) ∩ W ı
m (s)|
= 2ı
m |)s(W|
1| Ms(F) ∩ W ı
m (s)| (3.1.2)
morfolojik istatistiğini ele alalım. Bu istatistiğin, ∆F(s, Wm; Ms), R2 'deki rasgele kapalı
kümeler için m→∞ limitinde hemen hemen (h.h.) yakınsaması Moore and Archambault
87
(1991), Z2 'deki yakınsaması Sivakumar and Goutsias (1997c) tarafından ele alınmıştır.
Bir F kesikli rasgele kümesi, eğer E[[M(F)](w)], w∈Z2 'den bağımsızsa, bir Ms : P→P
morfolojik işlecine göre birinci dereceden durağandır.
Eğer F kesikli rasgele kümesi, bir Ms : P→P morfolojik işlecine göre birinci dereceden
durağansa,
E[∆F(s, Wm; Ms)] = E[[M(F)](0)] = es , ∀ m ≥ 1 (3.1.3)
ve
Var[∆F(s, Wm; Ms)]
= 2ı
m |)s(W|
1∑∈ (s)Wwv, ı
m
∑ E[[Ms(F)](v) [Ms(F)](w)] - e2s (3.1.4)
'dır. Burada 0 = (0, 0) 'dır.
Eğer F, bir M : P→P morfolojik işlecine göre birinci dereceden durağansa, ve cs(v, w) :
Z2 x Z2 → R , aşağıdaki koşulları sağlayan bir fonksiyonsa
E[[Ms(F)](v) [Ms(F)](w)] ≤ cs(v, w) + e 2s , ∀ v, w, ∈ Z2 (3.1.5)
ve
+∞→m
lim = 2ı
m |)s(W|
1 ∑∈ (s)Wwv, ı
m
∑ cs(v, w) = 0 (3.1.6)
'dır. m→+∞ , ∆X(s, Wm; Ms) olasılıkta es 'ye yakınsar.
Bunun ötesinde, cs(v, w), a ve b pozitif sonlu sayılar olmak üzere, aşağıdaki özelliği
sağlıyorsa,
88
2
m |)s(W|
1 ∑∈ (s)Wwv, ı
m
∑ cs(v, w) ≤ bım |)s(W|
a (3.1.7)
ve eğer K bir pozitif sonlu sayı, ve O(k), k→∞ iken |k
O(k)| → c < ∞ olmak üzere |W ı
m
(s)| = Kk2 + O(k) ise ∞→k
lim ∆X(s, Wm; M) h.h.
= es 'dir. F'nin M'ye göre birinci dereceden
kesikli rasgele küme olması ve (3.1.5) ve (3.1.6) koşullarını sağlaması halinde (3.1.3) ve
(3.1.4) 'den ∆X(s, Wm; M) 'nin es için yansız, ve k→∞ iken tutarlı bir tahmin edici
olduğu açıktır.
Eğer F, durağan bir kesikli rasgele küme, ve Ms ötelenmeden etkilenmeyense
(çalışmamızda ele alınan granülometri ve karşı-granülometriler için geçerli olan durum),
F, Ms'ye göre birinci dereceden durağandır, ve deneysel tahmin edici
∆F(s, Wm; Gs(F)) , s ≥ 0
FS (s, Wm) = (3.1.8)
∆F(|s|, Wm; Js(F)) , s ≤ -1
SX(s) büyüklük dağılımının, her m ≥ 1 için yansız, ve m→∞ iken tutarlı bir tahmin
edicisi olacaktır. Uygun Ms’nin seçilebilmesi için (3.1.5) ve (3.1.6)’deki koşulların
sağlanması gerekir.
Buna ek olarak, deneysel tahmin edici,
Fs (s, Wm) = FS (s, Wm) - FS (s+1, Wm) (3.1.9)
sF(s) büyüklük dağılımının, her iki s ve s+1 büyüklükleri için, her m ≥ 1 için yansız, ve
m→+∞ iken tutarlı bir tahmin edicisi olacaktır (Sivakumar and Goutsias 1997a,c,
Sivakumar 2000).
89
Uygulamada bu koşulların doğrulanması güçtür. Yapılabildiği bir kaç örnek için Moore
and Archambault (1991) 'e bakılabilir.
Önceki sonuçlar, bu FS ve Fs tahmin edicilerinin, sadece, veriler yeterince büyük
pencerelerden gözlemlendiğinde güvenilir olduklarına işaret etmektedir. Uygulamada,
gözlem penceresi sabit olduğu için bu FS ve Fs tahmin edicilerinin |s| 'nin büyük
değerleri için güvenilir olması beklenmez.
Belli P stokastik süreçleri için SF ve sF , P'nin ürettiği bir F görüntüsünün morfolojik
işleçlerle işlendikten sonra verilen bir noktayı içermesinin olasılk tahmini olarak kabul
edilebilir. P stokastik süreci altında F görüntüsünü üreten teorik fonksiyon biliniyorsa,
SF ile karşılaştırılabilmesi mümkündür (Moore and Archambault 1991).
Stoyan et al. (1987)'de Boolean model parametre tahmini üzerinde durulmuştur.
3.1.2 Monte Carlo büyüklük dağılımı tahmin edicileri
Monte Carlo büyüklük dağılımı tahmin edicileri, Monte Carlo yinelemelerinin (Bayne
et al. 1980, Gelman and Rubin 1992, Winkler 1995, Vo et al. 2004, 2005) sayısı
sonsuza yaklaştıkça, yansız ve tutarlı hale gelir. Böylece istatistiksel davranışları, veri
büyüklüğü tarafından değil, gerçeklenimlerinde kullanılan bilgisayar programı
tarafından kontrol edilir. Bunun ötesinde deneysel tahmin edicidekine benzer şekilde
doğrulanması güç varsayımlara gerek yoktur.
F, Z2 'de tanımlı, bir W penceresi içinde, kendi olasılık kitle fonksiyonundan b.b.d.
örnekler çekilmesi olanaklı bir kesikli rasgele küme olsun; yani, F(k), k = 1, 2, ...., F'in
bir b.b.d. gerçeklenimleri olmak üzere, F(1) ∩ W F(2) ∩ W , .... şeklinde örnekler
çekilebilir. SX(s) büyüklük dağılımının bir Monte Carlo tahmin edicisi (Moore and
Archambault 1991)
90
∑=
sK
1k
|Gs(F(k)) ∩ W| , s ≥ 0
F,1S (s, Ks) = sK
1
|W|
1 (3.1.10)
∑=
sK
1k
|J|s|(F(k)) ∩ W| , s ≤ -1
ile verilir.
E[ F,1S (s, Ks)] = SF(s) 'dir, ve göreceli hata kareleri ortalaması (HKO), SF(s) ≠ 0 olması
koşuluyla, aşağıdaki ifadeyi sağlar
(s)S
](s))S - )K (s, SE[(2X
2XsX,1 ≤
sK
1
(s)S
(s)S1
X
X− (3.1.11)
Böylece, F,1S (s, Ks), SF(s) büyüklük dağılımının, her Ks ≥ 1 için yansız, ve Ks→∞ iken
tutarlı bir tahmin edicisi olacaktır. Buna ek olarak Monte Carlo tahmin edicisi
F,1s (s, Ks , Ks+1) = F,1S (s, Ks) – F,1S (s+1, Ks+1) (3.1.12)
sF(s) büyüklük dağılımının, her Ks , Ks+1 ≥ 1 için yansız, ve Ks , Ks+1 → ∞ iken tutarlı
bir tahmin edicisi olacaktır.
Göreceli HKO, W gözlem penceresinin büyüklüğünden bağımsız olarak doğrudan
Monte Carlo yinelemelerinin sayısıyla, Ks , kontrol edilir. Göreceli HKO, Monte Carlo
yinelemelerinin sayısıyla ters orantılı olarak 0’a yaklaşır. a‘dan büyük olmayacak, tüm s
üzerinde düzgün olarak, bir HKO elde etmek için
Ks = a
1
(s)S
(s)S1
F
F− , ∀ s ∈ Z∞ (3.1.13)
91
şeklinde ayarlamak yeterlidir. Ks 'nin değeri, doğrudan SF(s)'nin o anki değerine
bağlıdır. Tüm s değerleri için aynı göreceli HKO’sı elde etmek amacıyla SF(s)'nin küçük
değerleri, büyük olanlardan daha çok Monte Carlo yinelemesine gerek duyar.
SF(s), önsel olarak bilinmediğinden ve SF(s) → 0+ iken Ks → ∞ olduğu için,
uygulamada sadece önceden belirlenmiş, göreceli HKO’nın a’dan daha büyük olmadığı,
bir t > 0 eşik değerinin üstündeki büyüklük dağılımı değerlerinin tahmin edilmesine
karar verilebilir. Bu durumda
Ks = a.t
t1− , ∀ s ∈ Z∞ (3.1.14)
şeklinde ayarlanabilir.
(3.1.10)’un sayısal gerçeklenimi, s ≥ 0 iken, ve benzer bir değişiklikle s ≤ -1 iken, her F
∈ P için Gs(F) ∩ W* = Gs(F ∩ W) ∩ W* olacak şekilde, W penceresinden daha küçük
bir Wk penceresiyle değiştirilmesini gerektirebilir. Bu, W üzerinde Gs(F(k)) ve Js(F
(k)) ‘yi
hesaplarken sınır etkilerinden kaçınmak için gereklidir.
Açılışa dayalı büyüklük dağılımı için bir Monte Carlo tahmin edicisi, |W Θ 2|s|B| ≠ 0
sağlanması koşuluyla (Sivakumar and Goutsias 1994, 1997a,c) : (3.1.15)
∑=
sK
1k
|[(F(k) ∩ W) ο sB] ∩ (W Θ 2sB)| , s ≥ 0
o
iF,S (s, Ks) = sK
1
|B|s|2 W |
1
Θ
∑=
sK
1k
|[(F(k) ∩ W) • |s|B] ∩ (W Θ 2|s|B)| , s ≤ -1
burada i = 1, 2 , X(k) ‘lerin, k = 1, 2, …., Ks , b.b.d. kesikli rasgele küme olup
olmadıklarına bağlıdır.
92
Diğer yandan aşınmaya bağlı büyüklük dağılımı için bir Monte Carlo tahmin edicisi, |W
Θ 2|s|B| ≠ 0 sağlanması koşuluyla (Sivakumar and Goutsias 1994, 1997a,c) : (3.1.16)
∑=
sK
1k
|[(X(k) ∩ W) Θ sB] ∩ (W Θ sB)| , s ≥ 0
Θ
X,iS (s, Ks) = sK
1
|B|s| W |
1
Θ
∑=
sK
1k
|[(X(k) ∩ W) ⊕ |s|B] ∩ (W Θ |s|B)| , s ≤ -1
burada i = 1, 2 'dir.
(3.1.15) ve (3.1.16)’daki tahmin ediciler, uygulamada en yararlı olanlarıdır. Fakat
hesaplama maliyetleri çok yüksek olabilir. Bu durum, bu ifadelerin, her Monte Carlo
yinelemesinde (3.1.15 için) açılış ve kapanışlar, (3.1.16 içinse) aşınma ve
genişlemelerin yeniden hesaplanmasına gerek duymasından kaynaklanmaktadır. Bu
sorunu gidermek için X’in Gs ve Js 'ye göre birinci dereceden durağan kabul edilebilir.
Bu durumda SF(w, s) = SF(0, s) 'dir, ve büyüklük dağılımı w’den bağımsızdır.
E[[Gs(F)](0)] , s ≥ 0
SF(s) = (3.1.17)
E[[J|s|(F)](0)] , s ≤ -1
Bu, aşağıdaki açılışa dayalı büyüklük dağılımının Monte Carlo tahmin edicisine neden
olur:
∑=
sK
1ksBvV∈(
v sBw ⊕∈Λ F(k)(w)) , s ≥ 0
o
iF,S (s, Ks) = sK
1 (3.1.18)
∑=
sK
1k|Bs|v∈
Λ (v |Bs| w
V⊕∈
F(k)(w)) , s ≤ -1
93
burada i = 1, 2 , F(k) 'lerin, k = 1, 2, …., Ks , b.b.d. kesikli rasgele küme olup
olmadıklarına bağlıdır. V ve Λ, sırasıyla, en-büyük ve en-küçüğe karşılık gelir. Diğer
yandan, aşınmaya dayalı büyüklük dağılımının Monte Carlo tahmin edicisi,
∑=
sK
1ksBw∈Λ F(k)(w) , s ≥ 0
Θ
F,iS (s, Ks) = sK
1 (3.1.19)
∑=
sK
1k|Bs| w
V∈
F(k)(w) , s ≤ -1
burada i = 1, 2 `dir. s ≥ 0 için yukarıdaki ifadeyi ele aldığımızda, her Monte Carlo
yinelemesinde, sadece sB üzerinde F(k) 'nin yerel en-küçüğünü hesaplamaya gerek
duyarız. Böylece, s ≥ 0 için (3.1.19)’teki tahmin edicinin (3.1.16)’dakine göre
hesaplama açısından daha elverişli olması beklenir. Aynı durum, s ≤ -1 için de
geçerlidir. Ve (3.1.18)’deki tahmin ediciyle (3.1.15)’tekini karşılaştırdığımızda da
benzer durum söz konusudur.
Bunun ötesinde (3.1.18)’deki tahmin edici, i = 2 iken, SF(s) için asimptotik olarak
yansız ve Ks → ∞ iken tutarlı bir tahmin edicidir (Sivakumar and Goutsias 1994,
1997a,c).
Benzer üst sınırlar, (3.1.16) ve (3.1.19)`daki tahmin ediciler için de elde edilebilir.
Büyüklük yoğunluğu için tahmin ediciler,
o
iF,s (s, Ks , Ks+1) = o
iF,S (s, Ks) - o
iF,S (s+1, Ks+1) (3.1.20)
Θ
F,is (s, Ks , Ks+1) = Θ
F,iS (s, Ks) - Θ
F,iS (s+1, Ks+1) (3.1.21)
'dır.
94
3.2 Rasgele Yapay Sinir Ağı Mimarisi
Shih and Moh (1992) ve Moh and Shih (1995), morfolojik işlemleri de içeren genel
amaçlı görüntü işlemleri için çok katmanlı bir yapay sinir ağı mimarisi önerdiler. Pessoa
and Maragos (1996) ve Pessoa(1997), morfolojik sinir ağını, her düğümün bir
morfolojik/rank işlemi olduğu, yani, aşınma, genişleme ve medyan işleçlerinin
eşzamanlı ele alındığı, morfolojik/rank yapay sinir ağına genişlettiler, ve Pessoa(1997)
ve Pessoa and Maragos (1998, 2000)'de uygulama örneği verdiler. Uygun eğitim
algoritmalarının geliştirilmesi (bkz. Gray and Mitchel 1992, Araujo et al. 2006) ve
yakınsama üzerinde hala çalışılması gerekse de morfolojik yapay sinir ağı kavramı,
çoğu uygulamalar için çok kullanışlıdır (Won 1995, Ritter and Sussner 1996, Sussner
1997, Oh 1998, Ritter and Beaver 1999, Gader et al. 2000, Hocaoğlu 2000, Zhang et al.
2003, Yun et al. 2004, Hu and Deng 2005, Sussner 2005, Khobou and Solari 2006,
Villaverde et al. 2006).
Morfolojik işleçler, en-küçük ve en-büyük fonksiyonlarının kombinasyonlarıdır. İki-
değerlikli morfolojik işleçlerde bu aynı zamanda ve ve veya fonksiyonlarına denktir.
Dolayısıyla morfolojik işleçler için tasarlanmış yapay sinir ağları, en-küçük ve en-
büyük fonksiyonlarını, iki-değerlikli girdiler içinse ve ve veya fonksiyonlarının,
kombinasyonlarını gerçekleyen mimarilerdir.
Koza and Rice (1992), Beiu and Moore (1998), Cotona and Vassiliadis (1998), ve
Shimada and Saito (2002), Boolean fonksiyonlarını, Morales and Ko (1992) ve Lee et
al. (1997) morfolojik işleçleri (ikincisi açılış ve kapanış işleçlerini), Hohil (1998) ise
çok girdili ve ve veya fonksiyonlarını yapay sinir ağıyla gerçeklemişlerdir. Kim and
Park (1995), Boolean fonksiyonları için çok katmanlı yapay sinir ağı kullanmış ve
öğrenme yöntemi geliştirmiştir. Deolalikar (2000) ise iki katmanlı yapay sinir ağıyla
gerçeklemiş, iki-değerlikli ağırlıklar ve sıfır eşik değerleri kullanmıştır.
Bu çalışmada kullanılan morfolojik işleçleri gerçeklemek için geliştirilen RYSA
mimarileri n-girdi 1-çıktılı, 2 katmanlı ileri beslemelidir. Başlıca işlevleri, n-girdili ve
95
(Şekil 3.1.a) ve n-girdili veya (Şekil 3.1.b) işlemlerini gerçeklemektir. Öğrenme
aşamasında n-girdili ve ve veya işlemlerinin doğruluk tabloları bu RYSA mimarilerine
öğretilmekte, ezberletilmektedir. Ezberleme sayesinde bu RYSA mimarileri, %100
performansla, hatasız sonuç üretmektedir. n-girdili ve işlemlerinin ardaşık
uygulanmasıyla aşınma (Şekil 3.2.a), n-girdili veya işlemlerinin ardaşık uygulanmasıyla
genişleme (Şekil 3.2.b) işleçleri elde edilmektedir. Önce aşınma, ardından genişleme
uygulanmasıyla açılış (Şekil 3.3) işleci, ters sırayla önce genişleme, ardından aşınma
uygulanmasıylaysa kapanış (Şekil 3.4) işleci elde edilmektedir. m>2, m x m noktada
tanımlı yapıtaşı elemanları kullanılmıştır, bu noktaların bir kısmı yapıtaşı elemanınca
içerilmekte, kalan kısmı içerilmemektedir. Yapıtaşı elemanının tanımlı olduğu m x m
nokta satırlarında yapıtaşı elemanının içerdiği noktalar, g-girdili, 2<=g<=m (her satırda
yapıtaşı elemanı farklı sayıda nokta içerebileceği için), ve ve veya işlemlerinin
girdileridir. Satırlarda yapılan işlemlerin çıktılarının m-girdili ve işleminin çıktısı
aşınma, m-girdili veya işleminin çıktısıysa genişlemedir.
(a) (b)
Şekil 3.1.a. n-girdili ve işleci RYSA mimarisi, b. n-girdili veya işleci RYSA mimarisi ; (girdiler: nokta renk değerleri)
96
(a) (b)
Şekil 3.2.a. Aşınma işleci, ε(.) , RYSA mimarisi (girdiler: yapıtaşı elemanı satırlarının n-girdili ve işlemi çıktısı), b.Genişleme işleci, δ(.) , RYSA mimarisi (girdiler: yapıtaşı elemanı satırlarının n-girdili veya işlemi çıktısı)
Şekil 3.3 Açılış tabanlı morfolojik elek (elek büyüklüğü k sabit) RYSA mimarisi
Şekil 3.4 Kapanış tabanlı morfolojik elek (elek büyüklüğü k sabit) RYSA mimarisi
97
Bu çalışmayı gerçekleştirmek için geliştirilen uygulama yazılımı paketi, QT (GNU)
platformunda C++ programlama diliyle geliştirilmiştir. Dr. Erol Gelenbe’nin doktora
öğrencisi Dr. Christopher Eric Cramer’in (Duke Uni., ECE Dept., USA) C++ ile
geliştirdiği ve diğer doktora öğrencilerinin de kullandığı RYSA kodu, geliştirilen
yazılıma uyarlanmıştır.
3.3 Boolean Rasgele Kümelerin Benzetişimi
Monte Carlo tahmin edicisi, Boolean rasgele kümelerin benzetişimi yapılarak elde
edilmiştir. Boolean rasgele kümeler, Poisson dağılımna sahip oldukları, Poisson
süreçleriyle ifade edildikleri için Poisson benzetişimi yapılmıştır (Heikkinen and Arjas
1998, Lantuejoul 2002, Whitt 2005). Chen (2000)'de 2-boyutlu Poisson süreçlerinin
benzetişimi için örnek bir algoritma verilmiştir. Bu çalışmada Poisson benzetişimi için,
anılan çalışmalardan uyarlanan aşağıdaki algoritma kullanılmıştır :
1) rasgele büyüklük üret
2) rasgele konum üret
3) yerleştirilmiş şekillerle ve sınırlarla örtüşme yoksa yerleştir
4) büyüklükler toplamı, örnek Boolean kümenin büyüklükler toplamının belli bir
oranda altında (en düşük değer olarak %10 kullanılmıştır) veya belli bir oranda üstünde
(en yüksek değer olarak %10 kullanılmıştır) ise ve λbenzetişim > λörnek ise dur.
98
4. BULGULAR ve TARTIŞMA
Bu çalışmada geliştirilen yöntem (bkz. Bölüm 3), 256x256 noktalık bir pencerede, W,
sentetik olarak rasgele üretilmiş görüntüler üzerinde sınanmıştır. İncelenen görüntülerin,
Z2 'de tanımlı b.b.d. DSKBRK'lerden oluşmaktadır. DSKBRK'ler, matematiksel
morfolojide yaygın olarak kullanılan başlıca 3 farklı yapıtaşı elemanıyla incelenmiştir.
İncelenen DSKBRK'ler de sentetik olarak aynı yapıtaşı elemanları kullanılarak,
birbiriyle ve gözlem penceresi sınırlarıyla örtüşmeyecek ve örtüşme için özel işlem
gerektirmeyecek şekilde üretilmiştir. Kullanılan yapıtaşı elemanları :
1) 4-komşuluklu (paralel kenar, elmas, baklava dilimi) (Şekil 4.1)
2) 8-komşuluklu (kare) (Şekil 4.2)
3) daire'dir (Şekil 4.3.a,b).
Boolean (Boole) model parametresi olarak şekillerin Minkovski fonksiyonellerinden
şekil büyüklüğü katsayısı (ş.b.k.), k , kullanılmıştır. a ve b sabit sayılar olmak üzere,
ş.b.k.=k olan bir şeklin alanı, Alan(şekilk) = Alan(yapıtaşı elemanı Bk) = f(k) = a.k + b
'dir.
Geliştirilen yöntemle (bkz. Bölüm 3), içerdiği en büyük kesikli şekil büyüklüğü
katsayısı (k.ş.b.k.), k, 2 ile 15 arasında değişen b.b.d. DSKBRK'lerin Boolean model
parametreleri morfolojik açılışa bağlı olarak elde edilmiştir. Her şekil tipi ve her en
büyük (+) kesikli şekil büyüklüğü katsayısı, kmax+ , için 10 ya da 30 farklı b.b.d.
DSKBRK içerikli görüntü kullanılmıştır; paralel kenar şekil tipi (şekil_tipi=1) ve kare
şekil tipi (şekil_tipi=2) ve kmax+=6 ve kmax+=11 için 30, 2 ile 15 arasındaki diğer şekil
büyüklükleri için 10, daire şekil tipi (şekil_tipi=3) kmax+=6 ve kmax+=10 için 30, 4 ile 15
arasındaki diğer şekil büyüklükleri için 10 adet görüntü incelenmiştir.
Şekil 4.1 4-komşuluklu (paralel kenar, elmas, baklava dilimi) yapıtaşı elemanı ailesinin k=1,2,3 üyeleri
Şekil 4.2 8-komşuluklu (kare) yapıtaşı elemanı ailesinin k=1,2,3 üyeleri
99
komşuluklu (paralel kenar, elmas, baklava dilimi) yapıtaşı elemanı ailesinink=1,2,3 üyeleri
komşuluklu (kare) yapıtaşı elemanı ailesinin k=1,2,3 üyeleri
komşuluklu (paralel kenar, elmas, baklava dilimi) yapıtaşı elemanı ailesinin
komşuluklu (kare) yapıtaşı elemanı ailesinin k=1,2,3 üyeleri
100
(a)
(b)
Şekil 4.3.a. Daire yapıtaşı elemanı ailesinin k=3,4 üyeleri (k=1,2 üyeler, kare ile aynı) b. Daire yapıtaşı elemanı ailesinin k=5 üyesi Elde edilen Boolean model parametreleri, (+) şekil büyüklüğü katsayısının beklenen
değerinin deneysel tahmini, λ d+ , (+) şekil büyüklüğü katsayısının beklenen değerinin
Monte Carlo tahmini, λmc+ , (+) şekil büyüklüğü katsayısının beklenen değerinin tahmin
hatası, Eλ+ = λmc+ - λ d+ , şekil büyüklüğü katsayısının beklenen değerinin göreceli
101
tahmin hatası, g_Eλ+ = ( λmc+ - λ d+) / λ d+ , şekil_tipi=1 için Çizelge 4.1....14'te,
şekil_tipi=2 için Çizelge 4.15....28'de, şekil_tipi=3 için Çizelge 4.29....40'ta verilmiştir.
Örnek b.b.d. DSKBRK görüntüsü, Monte Carlo yöntemi uygulanırken benzetişimle
üretilen örnek b.b.d. DSKBRK görüntüsü, (+) ve (-) şekil büyüklükleri için deneysel
olarak ve Monte Carlo yöntemiyle elde edilen açılışa bağlı şekil büyüklüğü katsayısı
spektrumu tahminleri, açılışa bağlı kesikli şekil büyüklüğü katsayısı yoğunluğu
(k.ş.b.k.y.) tahminleri ( o+ds , o
-ds , o+mcs , o
-mcs ) ve açılışa bağlı kesikli şekil büyüklüğü
katsayısı dağılımı (k.ş.b.k.d.) tahminleri ( o+dS , o
-dS , o+mcS , o
-mcS ), (+) şekil büyüklüğü
katsayısının beklenen değerinin Monte Carlo yinelemelerinde tahmin hatası, Eλ+(y), ve
açılışa bağlı (+) kesikli şekil büyüklüğü katsayısı dağılımı karelendirilmiş göreceli
tahmin hatası, E( o+S (k)) = E[( o
+mcS (k) - o+dS (k))2] / ( o
+dS (k))2 , şekil_tipi=1, kmax+=6 (
o+dS (kmax+)=0.322021 , λ d+ =3.853298 , λmc+=3.857644, Eλ+=0.004346 ,
g_Eλ+=0.001128) için Şekil 4.4.a....p 'de, şekil_tipi=2, kmax+=6 (o+dS (kmax+)=0.337357 ,
λ d+ =3.733954 , λmc+=3.740221 , Eλ+=0.006267 , g_Eλ+=0.001678) için Şekil 4.5.a....p
'de, şekil_tipi=3, kmax+=10 (o+dS (kmax+)=0.264679 , λ d+ =6.047331 , λmc+=6.082616 ,
Eλ+=0.035285 , g_Eλ+=0.005833) için Şekil 4.6.a....p 'de görsel ve grafik olarak
verilmiştir. Aynı zamanda o+dS (kmax) = Alantoplam(DSKBRK+) / Alan(W)) 'dir. Burada λ
d+ , λmc+ , Eλ+ ve g_Eλ+ , sırasıyla o+λdˆ , o
+λmcˆ , o+λE ve g_ o
+λE yerine kullanılmıştır.
Boolean model parametreleri elde edilirken (+) şekil büyüklüğü katsayısının beklenen
değerinin tahmin hatası Eλ+ en küçük değerde tutacak şekilde ayarlanmıştır. Diğer
parametrelerin tahmin hataları, ayrı ayrı ya da kombinasyonları, en küçük değerde
tutulacak şekilde ayarlanması da mümkündür.
Kullanılan benzetişim yöntemi (bkz. Bölüm 3.3) sayesinde,
Eλ+ < Alan(yapıtaşı elemanı B(kmax+)) / (o
+mcS . Alan(W)) (4.1)
102
olacak şekilde (+) şekil büyüklüğü katsayısının beklenen değerinin tahmin hatası, Eλ+ ,
elde edebilmek mümkün olmuştur, burada
o+mcS . Alan(W) = Alantoplam(DSKBRKmc+) (4.2)
'dir. (4.1) ve (4.2)'den açıkça görüldüğü üzere, Eλ+ 'nın üst sınırı, incelenen
DSKBRK'nin içerdiği en büyük şeklin şekil büyüklük katsayısı, kmax+ , arttıkça artacak,
gözlem penceresinin, W, büyümesiyle ya da toplam DSKBRK+ alanının büyümesiyle
azalacaktır. Bu sayede yüksek sayıda Monte Carlo yinelemesine gerek kalmaksızın
yüksek hassaslıkla parametre tahmini yapabilmek mümkün olmuştur; aşağıdaki
Şekillerde ve Çizelgelerde verilen tüm bulgularda tahmin hatalarının değerlerinin
düşüklüğü, dolayısıyla parametre tahmininin hassaslığının yüksekliği kolayca
görülebilir. Boolean model parametreleri, morfolojik açılışa göre hesaplanmıştır.
Aşağıdaki Şekillerde ve Çizelgelerde 2 ile 15 arasında değişen şekil büyüklük katsayısı,
kmax+ , ile elde edilen tüm bulgularda kmax+ 'daki artışın etkileri de kolayca görülebilir.
Bulgular 256x256 noktadan oluşan sabit gözlem penceresinde, W, elde edilmiştir. Diğer
parametreler sabit kalmak üzere, daha büyük gözlem pencereleriyle parametre tahminin
hassaslığının artacağı, daha küçükleriyleyse azalacağı (4.1) ve (4.2)'den kolayca
görülebilir, ve Eλ+ 'nın üst sınırının artma ya da azalma oranı ya da kısaca değişim oranı
(4.1) ve (4.2) ile kolayca hesaplanabilir. Eλ+ 'nın üst sınırı azaldıkça, parametre
tahmininin hassaslığı artacaktır, ya da tam tersi, ilki arttıça, ikincisi azalacaktır.
200 civarı Monte Carlo yinelemesinde (+) şekil büyüklüğü katsayısının beklenen
değerinin Monte Carlo yinelemelerinde tahmin hatası, Eλ+(y), değişimlerinin azaldığı
gözlenmiş, o yüzden y=K=200. yinelemedeki Monte Carlo tahmin edicisi değerleri
kullanılmıştır.
4.1 Yöntem ve Uygulama Bağlamında Değerlendirmeler
Geliştirilen yöntem (bkz. Bölüm 3) ve literatürdeki yeri, farklı açılardan
değerlendirilebilir. Geliştirilen ve gerçeklenen yöntem, öncelikle mekansal istatistik,
103
örüntü tanıma, ve görüntü analizi uygulamalarına yönelik, ilk kez önerilen yeni bir
gereçtir (bkz. Giriş ve Sonuç Bölümleri). Özel bir YSA modeli olan RYSA ile
gerçeklenmiş bir gereçtir. Birinci ve İkinci Bölümlerde detaylı bir şekilde açıklandığı
üzere, oldukça geniş bir yelpazeye yayılmış uygulama alanlarına sahiptir. Bütün olarak
bire bir karşılaştırılabileceği başka bir çalışma daha önce yapılmamıştır, literatürde
yoktur. Geliştirilen yöntem, bir çok bileşenden oluşmaktadır; bunları oluşturan temel
atomik işlemler, RYSA mimarileri ile gerçeklenen çok girdili ve ve veya işlemleridir.
Bu işlemler için geliştirilen RYSA mimarilerin performansı, bu işlemleri gerçekleyen
farklı YSA modeli mimarileriyle, ve farklı yöntemlerle karşılaştırılabilir. Böyle bir
karşılaştırmadan, diğerlerinin altında kalmayan bir performans beklenmektedir. Aşınma
ve genişleme işlemleri ile bunların ardaşık uygulanmasından elde edilen açılış ve
kapanış işlemleri ise, temel atomik işlemlerden elde edilen temel moleküler işlemlerdir.
Bu işlemler için geliştirilen RYSA mimarilerinin performansı ise, farklı yöntemlerin
yanısıra özellikle morfolojik YSA'lar ile karşılaştırılabilir; böyle bir karşılaştırmada
temel ölçüt olarak aşağıdaki paragrafta verilen hesaplama karmaşası, O(.), kullanılabilir,
bunun da diğerlerinden yüksek kalmayacağı beklenmektedir; geliştirilen RYSA
mimarilerini üstün kılan, n-girdili ve ve veya işlemlerinin doğruluk tablolarının
ezberletilmesi sayesinde, %100 performansla, hatasız sonuç üretmeleridir, oysa
diğerlerinin belli bir yüzdeyle hatalı sonuç üretebilmesi söz konusudur.
Morfolojik işleçler, bütün görüntü baştan sonra taranarak uygulanmaktadır. Dolayısıyla,
gerekmeyen noktalarda işleç uygulanmaksızın geçilebilmesi sağlanmışsa da, hesaplama
maliyeti yüksektir. DSKRBK'nin bir kez incelenmesinin hesaplama karmaşası yaklaşık
olarak O(m.n).(kmax++kmax-) düzeyindedir, burada m ve n, gözlem penceresinin, yani
incelenen görüntünün, boyutlarıdır. Monte Carlo yönteminin hesaplama karmaşası ise
yaklaşık olarak (O(m.n).(kmax++kmax-,mc)+O(dmc+)).y düzeyindedir, burada y Monte Carlo
yineleme sayısı, kmax-,mc Monte Carlo yinelemelerinde kmax- 'lerin ortalaması, ve dmc+ ise
DSKRBKmc 'lerdeki (+) şekillerin toplam sayısının ortalamasıdır.
Geliştirilen yöntem, kolayca genişletilmeye ve genelleştirilmeye açıktır. Matematiksel
morfolojinin diğer tüm işlemlerini de kapsayan bir gereç haline kolayca genişletilebilir.
b.b.d. DSKBRK görüntülerin herhangi bir yapıtaşı elemanıyla incelenmesine uygundur.
104
Geliştirilen yöntemin, şekillerin gözlem penceresi sınırlarıyla ve birbiriyle örtüştüğü
daha genel DSKRBK görüntülerin, ya da düzgün geometrik şekiller yerine düzgün
olmayan şekillerden oluşan DSKRBK görüntülerin, ya da gri seviyeli DSKRBK
görüntülerin, ya da çok değişkenli (birden fazla şekil tipi içeren ya da birden fazla şekil
tipinde yapıtaşı elemanlarıyla incelenen) DSKRBK görüntülerin incelenmesine
kolaylıkla genelleştirilebilmesi, ya da Markov Rasgele Alanları, Gibbs Rasgele Alanları
gibi parametrik rasgele kümelerin incelenmesine kolaylıkla uyarlanabilmesi
mümkündür. Geliştirilen yöntemle incelenebilecek görüntü türlerinin genişletilmesi,
görüntü türüne göre kullanılacak istatistiksel yöntemlerin de, çok değişkenli istatistiksel
analizi, yüksek derece momentleri, ve bazı özel istatistiksel modelleri de kapsayacak
şekilde genişletilmesi gerekliliğini beraberinde getirecektir; bunlara ilişkin tüm
istatistiksel hesaplamalar, geliştirilen yazılıma kolayca eklenebilir. Benzer gereklilik,
kullanılan benzetişim yönteminin, incelenecek görüntü için varsayılan modelleri de
içerek şekilde genişletilmesi için de söz konusudur.
Geliştirilen yöntem, parametre (Poisson parametresi λ) tahminine dayalıdır. Monte
Carlo yinelemelerinde kullanılan benzetişim yöntemi de parametre tahminine dayalıdır.
Eldeki görüntüyle benzetişimle üretilenler arasındaki benzerlik ölçütü, model
parametresidir. Mekansal korrelasyon dikkate alınmamaktadır. Geliştirilen yöntemin
Markov Rasgele Alanları, Gibbs Rasgele Alanları gibi parametrik rasgele kümelerin de
incelenebileceği şekilde genişletilmesi istendiğinde, bu tür görüntülerin özelliğine
uygun olarak mekansal korrelasyon temelli benzetişim yöntemleri kullanmak
gerekebilecektir.
Geliştirilen yöntem ve bunu gerçekleyen uygulama yazılımı, bu çalışmanın
kapsamındaki görüntülerin incelenmesini gerektiren mekansal istatistiğin,
mühendisliklerin, doğa bilimlerinin, tıbbın ilgi alanına giren problemler için bir çözüm
ortamı sunmaktadır. Tarım arazilerinin, ve yerleşim yerlerinin uydu görüntüleri,
teleskop görüntüleri, mikroskop görüntüleri, tıbbi görüntüler, biyolojik görüntüler,
hammadde ve ürün görüntüleri, mayınlı arazi sonar görüntüleri gibi tanecikli yapıdaki
iki-değerlikli görüntülerin modellenmesi, tanımlanması, sınıflanması, ve ayırtedilmesi
problemleri, uygulama alanlarına örnek olarak gösterilebilir.
105
(a) (b)
(c) (d)
Şekil 4.4.a. DSKBRK örnek-1, şekil_tipi=1, kmax+=6 (o+dS (kmax+)= 0.322021),
b. Örnek-1'den MC yöntemi için benzetişimle üretilen görüntülerden biri, c. (+) k.ş.b.k. spektrumu deneysel tahmini, d. (+) k.ş.b.k. spektrumu Monte Carlo tahmini,
106
(e) (f)
(g) (h)
Şekil 4.4.e. o+ds , (+) k.ş.b.k. yoğunluğu deneysel tahmini,
f. o+mcs , (+) k.ş.b.k. yoğunluğu Monte Carlo tahmini,
g. o+dS , (+) k.ş.b.k. dağılımı deneysel tahmini,
h. o+mcS , (+) k.ş.b.k. dağılımı Monte Carlo tahmini,
107
(i) (j)
(k) (l)
Şekil 4.4.i. (-) k.ş.b.k. spektrumu deneysel tahmini, j. (-) k.ş.b.k. spektrumu spektrumu Monte Carlo tahmini,
k. o-ds , (-) k.ş.b.k. yoğunluğu deneysel tahmini,
l. o-mcs , (-) k.ş.b.k. yoğunluğu Monte Carlo tahmini,
108
(m) (n)
(o) (p)
Şekil 4.4.m. o-dS , (-) k.ş.b.k. dağılımı deneysel tahmini,
n. o-mcS , (-) k.ş.b.k. dağılımı Monte Carlo tahmini,
o. E( o+S (k)) , (+) k.ş.b.k. dağılımı karelendirilmiş göreceli tahmin hatası,
p. (+) k.ş.b.k.'nın beklenen değerinin MC yinelemelerindeki tahmin hatası, Eλ+(y) ; (örnek-1).
109
(a) (b)
(c) (d)
Şekil 4.5.a. DSKBRK örnek-2, şekil_tipi=2, kmax+=6 (o+dS (kmax+)= 0.337357),
b. Örnek-2'den MC yöntemi için benzetişimle üretilen görüntülerden biri, c. (+) k.ş.b.k. spektrumu deneysel tahmini, d. (+) k.ş.b.k. spektrumu Monte Carlo tahmini,
110
(e) (f)
(g) (h)
Şekil 4.5.e. o+ds , (+) k.ş.b.k. yoğunluğu deneysel tahmini,
f. o+mcs , (+) k.ş.b.k. yoğunluğu Monte Carlo tahmini,
g. o+dS , (+) k.ş.b.k. dağılımı deneysel tahmini,
h. o+mcS , (+) k.ş.b.k. dağılımı Monte Carlo tahmini,
111
(i) (j)
(k) (l)
Şekil 4.5.i. (-) k.ş.b.k. spektrumu deneysel tahmini, j. (-) k.ş.b.k. spektrumu spektrumu Monte Carlo tahmini,
k. o-ds , (-) k.ş.b.k. yoğunluğu deneysel tahmini,
l. o-mcs , (-) k.ş.b.k. yoğunluğu Monte Carlo tahmini,
112
(m) (n)
(o) (p)
Şekil 4.5.m. o-dS , (-) k.ş.b.k. dağılımı deneysel tahmini,
n. o-mcS , (-) k.ş.b.k. dağılımı Monte Carlo tahmini,
o. E( o+S (k)) , (+) k.ş.b.k. dağılımı karelendirilmiş göreceli tahmin hatası,
p. (+) k.ş.b.k.'nın beklenen değerinin MC yinelemelerindeki tahmin hatası, Eλ+(y) ; (örnek-2).
113
(a) (b)
(c) (d)
Şekil 4.6.a. DSKBRK örnek-3, şekil_tipi=3, kmax+=10 (o+dS (kmax+)= 0.264679),
b. Örnek-3'ten MC yöntemi için benzetişimle üretilen görüntülerden biri, c. (+) k.ş.b.k. spektrumu deneysel tahmini, d. (+) k.ş.b.k. spektrumu Monte Carlo tahmini,
114
(e) (f)
(g) (h)
Şekil 4.6.e. o+ds , (+) k.ş.b.k. yoğunluğu deneysel tahmini,
f. o+mcs , (+) k.ş.b.k. yoğunluğu Monte Carlo tahmini,
g. o+dS , (+) k.ş.b.k. dağılımı deneysel tahmini,
h. o+mcS , (+) k.ş.b.k. dağılımı Monte Carlo tahmini,
115
(i) (j)
(k) (l)
Şekil 4.6.i. (-) k.ş.b.k. spektrumu deneysel tahmini, j. (-) k.ş.b.k. spektrumu spektrumu Monte Carlo tahmini,
k. o-ds , (-) k.ş.b.k. yoğunluğu deneysel tahmini,
l. o-mcs , (-) k.ş.b.k. yoğunluğu Monte Carlo tahmini,
116
(m) (n)
(o) (p)
Şekil 4.6.m. o-dS , (-) k.ş.b.k. dağılımı deneysel tahmini,
n. o-mcS , (-) k.ş.b.k. dağılımı Monte Carlo tahmini,
o. E( o+S (k)) , (+) k.ş.b.k. dağılımı karelendirilmiş göreceli tahmin hatası,
p. (+) k.ş.b.k.'nın beklenen değerinin MC yinelemelerindeki tahmin hatası, Eλ+(y) ; (örnek-3).
117
Çizelge 4.1. (şekil_tipi=1 , kmax=2) elde edilen Boolean model parametreleri (+)
o+dS (kmax+) λ d+ λmc+ Eλ+ g_Eλ+ 0,080597 1,727755 1,728070 0,000316 0,000183 0,108536 1,697034 1,697324 0,000291 0,000171 0,136673 1,675338 1,675640 0,000302 0,000180 0,163895 1,691370 1,691559 0,000190 0,000112 0,177612 1,652234 1,652442 0,000208 0,000126 0,200272 1,642667 1,642838 0,000171 0,000104 0,222092 1,666644 1,666793 0,000150 0,000090 0,245575 1,674786 1,674915 0,000130 0,000078 0,250397 1,643815 1,643962 0,000148 0,000090 0,277802 1,645996 1,646125 0,000129 0,000078
Çizelge 4.2. (şekil_tipi=1 , kmax=3) elde edilen Boolean model parametreleri (+)
o+dS (kmax+) λ d+ λmc+ Eλ+ g_Eλ+ 0,112656 2,406610 2,407676 0,001066 0,000443 0,147446 2,415192 2,416001 0,000809 0,000335 0,172699 2,349002 2,349764 0,000763 0,000325 0,202545 2,325373 2,326101 0,000728 0,000313 0,228119 2,325752 2,326356 0,000603 0,000259 0,243927 2,344990 2,345511 0,000521 0,000222 0,260071 2,278573 2,279158 0,000585 0,000257 0,275482 2,289299 2,289849 0,000550 0,000240 0,286469 2,258336 2,258858 0,000522 0,000231 0,302551 2,214999 2,215575 0,000576 0,000260
Çizelge 4.3. (şekil_tipi=1 , kmax=4) elde edilen Boolean model parametreleri (+)
o+dS (kmax+) λ d+ λmc+ Eλ+ g_Eλ+ 0,136856 3,124763 3,126838 0,002075 0,000664 0,179810 3,071368 3,073225 0,001857 0,000605 0,210587 3,051953 3,053628 0,001675 0,000549 0,226212 2,907723 2,909425 0,001702 0,000585 0,252411 2,966691 2,968015 0,001325 0,000447 0,260193 2,908281 2,909577 0,001296 0,000446 0,278473 2,875233 2,876534 0,001301 0,000452 0,288162 2,846280 2,847540 0,001260 0,000443 0,296936 2,799332 2,800588 0,001256 0,000449 0,318832 2,788514 2,789796 0,001282 0,000460
118
Çizelge 4.4. (şekil_tipi=1 , kmax=5) elde edilen Boolean model parametreleri (+)
o+dS (kmax+) λ d+ λmc+ Eλ+ g_Eλ+ 0,162598 3,809966 3,813198 0,003232 0,000848 0,205368 3,712312 3,715092 0,002780 0,000749 0,218048 3,493912 3,498285 0,004373 0,001252 0,246918 3,581572 3,584183 0,002611 0,000729 0,261322 3,526217 3,528967 0,002749 0,000780 0,275726 3,473935 3,476484 0,002549 0,000734 0,286972 3,426277 3,428762 0,002485 0,000725 0,288651 3,348787 3,351759 0,002972 0,000887 0,303406 3,356166 3,358874 0,002708 0,000807 0,320435 3,266428 3,269165 0,002736 0,000838
Çizelge 4.5. (şekil_tipi=1 , kmax=6) elde edilen Boolean model parametreleri (+)
o+dS (kmax+) λ d+ λmc+ Eλ+ g_Eλ+ 0,059326 4,581276 4,607319 0,026043 0,005685 0,117966 4,683870 4,691481 0,007611 0,001625 0,128525 4,257390 4,273054 0,015663 0,003679 0,174469 4,420325 4,427064 0,006739 0,001524 0,176041 4,331889 4,340753 0,008864 0,002046 0,193619 4,346284 4,352542 0,006258 0,001440 0,208237 4,174178 4,181650 0,007472 0,001790 0,208786 4,429876 4,435104 0,005228 0,001180 0,217957 4,166900 4,174197 0,007297 0,001751 0,230057 4,086224 4,094144 0,007920 0,001938 0,233932 4,206510 4,212517 0,006007 0,001428 0,248108 3,979274 3,985630 0,006355 0,001597 0,250549 4,242022 4,246488 0,004465 0,001053 0,254028 4,038864 4,045822 0,006959 0,001723 0,261719 4,144706 4,149533 0,004826 0,001165 0,270447 3,946118 3,951488 0,005370 0,001361 0,270828 4,119725 4,124814 0,005089 0,001235 0,273682 4,042428 4,047852 0,005423 0,001342 0,280472 4,126816 4,131326 0,004510 0,001093 0,283554 3,875962 3,881315 0,005353 0,001381 0,284409 3,947207 3,952654 0,005447 0,001380 0,285233 4,040336 4,045573 0,005236 0,001296 0,292313 3,821058 3,827191 0,006134 0,001605 0,295044 3,918494 3,923206 0,004712 0,001202 0,295074 3,859551 3,864480 0,004929 0,001277 0,297241 3,944045 3,948777 0,004732 0,001200 0,304626 3,902825 3,907443 0,004618 0,001183 0,306412 3,920871 3,925415 0,004545 0,001159 0,308182 3,897708 3,902609 0,004901 0,001257 0,321716 3,734917 3,739993 0,005076 0,001359
119
Çizelge 4.6. (şekil_tipi=1 , kmax=7) elde edilen Boolean model parametreleri (+)
o+dS (kmax+) λ d+ λmc+ Eλ+ g_Eλ+ 0,189240 5,125867 5,135688 0,009821 0,001916 0,229355 4,914909 4,923089 0,008179 0,001664 0,232407 4,552492 4,566190 0,013698 0,003009 0,257248 4,580699 4,590680 0,009981 0,002179 0,277603 4,587039 4,596240 0,009201 0,002006 0,285767 4,425032 4,433756 0,008724 0,001972 0,304749 4,524985 4,532555 0,007570 0,001673 0,306183 4,162813 4,172609 0,009796 0,002353 0,312057 4,413623 4,421000 0,007378 0,001672 0,332520 4,281479 4,286633 0,005154 0,001204
Çizelge 4.7. (şekil_tipi=1 , kmax=8) elde edilen Boolean model parametreleri (+)
o+dS (kmax+) λ d+ λmc+ Eλ+ g_Eλ+ 0,194000 5,670521 5,686512 0,015992 0,002820 0,229538 5,439806 5,455511 0,015705 0,002887 0,243896 4,996184 5,015116 0,018932 0,003789 0,262970 5,046130 5,064405 0,018275 0,003622 0,285446 5,082590 5,096026 0,013437 0,002644 0,285904 5,028233 5,042572 0,014338 0,002852 0,300690 5,206739 5,216215 0,009476 0,001820 0,309280 4,817208 4,829443 0,012235 0,002540 0,314514 4,720115 4,731389 0,011274 0,002389 0,328629 4,671031 4,678864 0,007833 0,001677
Çizelge 4.8. (şekil_tipi=1 , kmax=9) elde edilen Boolean model parametreleri (+)
o+dS (kmax+) λ d+ λmc+ Eλ+ g_Eλ+ 0,205688 6,155564 6,183299 0,027735 0,004506 0,221405 5,680083 5,711913 0,031830 0,005604 0,255814 5,771011 5,792478 0,021467 0,003720 0,274887 5,588010 5,609897 0,021887 0,003917 0,279465 5,602730 5,621982 0,019252 0,003436 0,293106 5,563121 5,580716 0,017594 0,003163 0,308411 5,463388 5,477385 0,013997 0,002562 0,315369 5,461293 5,471372 0,010079 0,001846 0,326630 5,221246 5,230782 0,009535 0,001826 0,327911 5,356957 5,362819 0,005862 0,001094
120
Çizelge 4.9. (şekil_tipi=1 , kmax=10) elde edilen Boolean model parametreleri (+)
o+dS (kmax+) λ d+ λmc+ Eλ+ g_Eλ+ 0,211746 6,762917 6,794046 0,031129 0,004603 0,257874 6,552012 6,578533 0,026521 0,004048 0,269333 5,931109 5,965181 0,034072 0,005745 0,271225 6,380928 6,407317 0,026389 0,004136 0,281784 6,014025 6,042068 0,028043 0,004663 0,298569 5,922114 5,946706 0,024592 0,004153 0,301987 5,339649 5,367811 0,028162 0,005274 0,311783 6,074439 6,088842 0,014403 0,002371 0,326630 5,474914 5,486784 0,011870 0,002168 0,331314 5,811542 5,820808 0,009267 0,001594
Çizelge 4.10. (şekil_tipi=1, kmax=11) elde edilen Boolean model parametreleri (+)
o+dS (kmax+) λ d+ λmc+ Eλ+ g_Eλ+ 0,115417 7,797594 7,915314 0,117720 0,015097 0,155243 7,643601 7,717948 0,074347 0,009727 0,177658 6,835695 6,909894 0,074199 0,010855 0,214508 7,216674 7,268282 0,051609 0,007151 0,218262 7,128985 7,180664 0,051679 0,007249 0,241272 6,713888 6,761099 0,047211 0,007032 0,245605 7,040818 7,084953 0,044135 0,006268 0,253265 7,575069 7,606687 0,031617 0,004174 0,263809 6,795014 6,836455 0,041441 0,006099 0,269745 6,397839 6,441679 0,043840 0,006852 0,270111 7,070331 7,106055 0,035723 0,005053 0,272202 6,879926 6,918205 0,038279 0,005564 0,281967 6,690135 6,725077 0,034943 0,005223 0,288086 6,775900 6,807254 0,031354 0,004627 0,288879 6,723114 6,752144 0,029029 0,004318 0,289642 6,353019 6,386550 0,033532 0,005278 0,294250 6,111543 6,143131 0,031587 0,005169 0,294815 7,015475 7,037755 0,022279 0,003176 0,297531 6,463254 6,492680 0,029425 0,004553 0,299133 6,779076 6,800795 0,021719 0,003204 0,303604 6,357742 6,379374 0,021631 0,003402 0,304230 6,563296 6,584183 0,020887 0,003182 0,305786 6,227994 6,252586 0,024592 0,003949 0,306152 6,228718 6,250958 0,022240 0,003571 0,306564 6,047384 6,070495 0,023111 0,003822 0,308868 6,172858 6,195334 0,022476 0,003641 0,310120 6,204733 6,225760 0,021026 0,003389 0,310516 6,356266 6,378014 0,021749 0,003422 0,312180 6,041400 6,063476 0,022076 0,003654 0,320618 6,027461 6,042691 0,015230 0,002527
121
Çizelge 4.11. (şekil_tipi=1, kmax=12) elde edilen Boolean model parametreleri (+)
o+dS (kmax+) λ d+ λmc+ Eλ+ g_Eλ+ 0,234283 7,911033 7,960796 0,049763 0,006290 0,242996 7,753972 7,809423 0,055452 0,007151 0,277527 7,263910 7,311225 0,047315 0,006514 0,281754 7,537503 7,578286 0,040782 0,005411 0,299759 6,939221 6,974738 0,035517 0,005118 0,308502 7,468493 7,489084 0,020591 0,002757 0,314270 7,357837 7,373646 0,015809 0,002149 0,316315 6,841148 6,865913 0,024766 0,003620 0,325134 6,590248 6,610532 0,020284 0,003078 0,329681 6,464038 6,484190 0,020152 0,003118
Çizelge 4.12. (şekil_tipi=1, kmax=13) elde edilen Boolean model parametreleri (+)
o+dS (kmax+) λ d+ λmc+ Eλ+ g_Eλ+ 0,232346 8,428975 8,498374 0,069399 0,008233 0,262314 8,555407 8,608565 0,053159 0,006213 0,269913 7,613941 7,678160 0,064220 0,008434 0,280792 7,671612 7,725382 0,053770 0,007009 0,293533 7,205490 7,245259 0,039769 0,005519 0,309662 7,585937 7,613345 0,027409 0,003613 0,310043 7,131503 7,159734 0,028231 0,003959 0,319824 7,474236 7,498494 0,024258 0,003246 0,323242 7,189058 7,212406 0,023348 0,003248 0,333908 7,308641 7,328754 0,020112 0,002752
Çizelge 4.13. (şekil_tipi=1, kmax=14) elde edilen Boolean model parametreleri (+)
o+dS (kmax+) λ d+ λmc+ Eλ+ g_Eλ+ 0,244125 7,660479 7,761902 0,101423 0,013240 0,250229 8,993719 9,071522 0,077803 0,008651 0,269684 8,361039 8,431118 0,070079 0,008382 0,289398 8,186597 8,230213 0,043616 0,005328 0,293625 7,744479 7,786743 0,042264 0,005457 0,308151 7,655756 7,695461 0,039705 0,005186 0,309982 7,547231 7,585087 0,037856 0,005016 0,312347 6,853737 6,898211 0,044474 0,006489 0,316711 8,523607 8,553682 0,030075 0,003528 0,336456 6,988753 7,040711 0,051959 0,007435
122
Çizelge 4.14. (şekil_tipi=1, kmax=15) elde edilen Boolean model parametreleri (+)
o+dS (kmax+) λ d+ λmc+ Eλ+ g_Eλ+ 0,250702 9,529398 9,626108 0,096710 0,010149 0,275024 9,235242 9,299398 0,064156 0,006947 0,283081 8,510619 8,565379 0,054760 0,006434 0,304337 8,540737 8,586246 0,045509 0,005328 0,304794 8,620075 8,673250 0,053175 0,006169 0,318161 8,640833 8,697554 0,056721 0,006564 0,321320 8,209754 8,247659 0,037905 0,004617 0,329956 8,694876 8,744069 0,049194 0,005658 0,331909 8,450580 8,497212 0,046633 0,005518 0,338257 7,938380 8,007640 0,069260 0,008725
Çizelge 4.15. (şekil_tipi=2 , kmax=2) elde edilen Boolean model parametreleri (+)
o+dS (kmax+) λ d+ λmc+ Eλ+ g_Eλ+ 0,131622 1,725713 1,726114 0,000401 0,000232 0,166260 1,691079 1,691467 0,000388 0,000229 0,194382 1,643065 1,643455 0,000390 0,000237 0,228973 1,670199 1,670468 0,000270 0,000161 0,242569 1,661068 1,661310 0,000242 0,000146 0,266205 1,653101 1,653367 0,000266 0,000161 0,285294 1,653474 1,653675 0,000201 0,000121 0,295624 1,612057 1,612345 0,000288 0,000178 0,317001 1,643803 1,643995 0,000192 0,000117 0,342224 1,640806 1,641007 0,000201 0,000122
Çizelge 4.16. (şekil_tipi=2 , kmax=2) elde edilen Boolean model parametreleri (+)
o+dS (kmax+) λ d+ λmc+ Eλ+ g_Eλ+ 0,167526 2,382822 2,384375 0,001554 0,000652 0,205063 2,358286 2,359454 0,001168 0,000495 0,236465 2,278635 2,279860 0,001225 0,000538 0,247513 2,233709 2,235114 0,001404 0,000629 0,273849 2,270519 2,271539 0,001021 0,000450 0,297195 2,238692 2,239719 0,001027 0,000459 0,309189 2,221833 2,222762 0,000929 0,000418 0,318924 2,188890 2,189898 0,001008 0,000460 0,333984 2,235380 2,236210 0,000830 0,000371 0,349396 2,175780 2,176686 0,000906 0,000416
123
Çizelge 4.17. (şekil_tipi=2 , kmax=4) elde edilen Boolean model parametreleri (+)
o+dS (kmax+) λ d+ λmc+ Eλ+ g_Eλ+ 0,191956 3,072496 3,075936 0,003440 0,001120 0,232178 2,964380 2,967379 0,002999 0,001012 0,254883 2,802502 2,805576 0,003073 0,001097 0,284760 2,845783 2,848370 0,002587 0,000909 0,295883 2,846475 2,848841 0,002366 0,000831 0,310654 2,825286 2,827609 0,002323 0,000822 0,327789 2,728750 2,731245 0,002496 0,000915 0,329697 2,836535 2,838740 0,002205 0,000777 0,339737 2,718302 2,720703 0,002401 0,000883 0,350403 2,730535 2,732651 0,002116 0,000775
Çizelge 4.18. (şekil_tipi=2 , kmax=5) elde edilen Boolean model parametreleri (+)
o+dS (kmax+) λ d+ λmc+ Eλ+ g_Eλ+ 0,214935 3,728880 3,734561 0,005682 0,001524 0,246933 3,535686 3,541991 0,006306 0,001783 0,267563 3,436384 3,442252 0,005867 0,001707 0,287064 3,408973 3,415071 0,006098 0,001789 0,301208 3,276342 3,282648 0,006305 0,001924 0,316574 3,325830 3,331431 0,005600 0,001684 0,326416 3,309695 3,314436 0,004741 0,001433 0,338196 3,290020 3,294260 0,004240 0,001289 0,346161 3,166843 3,171991 0,005148 0,001626 0,357483 3,135223 3,139269 0,004046 0,001291
124
Çizelge 4.19. (şekil_tipi=2 , kmax=6) elde edilen Boolean model parametreleri (+)
o+dS (kmax+) λ d+ λmc+ Eλ+ g_Eλ+ 0,094437 4,488770 4,525999 0,037229 0,008294 0,158218 4,279005 4,304523 0,025518 0,005964 0,203308 4,411888 4,422344 0,010456 0,002370 0,221436 4,264540 4,275879 0,011339 0,002659 0,224762 4,315343 4,326286 0,010943 0,002536 0,250000 4,148560 4,160486 0,011926 0,002875 0,257538 4,224138 4,234526 0,010388 0,002459 0,269440 4,089648 4,101767 0,012119 0,002963 0,271530 4,134420 4,144470 0,010050 0,002431 0,284958 4,035395 4,045515 0,010120 0,002508 0,287811 3,975029 3,985231 0,010202 0,002566 0,290466 3,749475 3,761481 0,012006 0,003202 0,291550 3,947088 3,957432 0,010344 0,002621 0,298782 4,048312 4,057293 0,008981 0,002218 0,304672 3,763159 3,775853 0,012694 0,003373 0,310608 3,894527 3,903774 0,009246 0,002374 0,313828 3,970049 3,979063 0,009014 0,002270 0,314438 3,949046 3,957256 0,008210 0,002079 0,316971 3,711164 3,722115 0,010952 0,002951 0,317001 3,979013 3,987324 0,008311 0,002089 0,320648 3,904112 3,912144 0,008033 0,002057 0,322540 3,612452 3,622898 0,010447 0,002892 0,323532 3,725794 3,735162 0,009368 0,002514 0,333435 3,818049 3,825392 0,007343 0,001923 0,335663 3,693199 3,700519 0,007320 0,001982 0,340332 3,830927 3,836184 0,005256 0,001372 0,341919 3,754016 3,759755 0,005738 0,001529 0,343124 3,778049 3,783274 0,005225 0,001383 0,344864 3,596832 3,602730 0,005897 0,001640 0,354706 3,594468 3,599589 0,005121 0,001425
Çizelge 4.20. (şekil_tipi=2 , kmax=7) elde edilen Boolean model parametreleri (+)
o+dS (kmax+) λ d+ λmc+ Eλ+ g_Eλ+ 0,234253 4,788496 4,807014 0,018518 0,003867 0,261856 4,540062 4,560866 0,020805 0,004582 0,273300 4,453352 4,473451 0,020098 0,004513 0,308472 4,411011 4,424949 0,013938 0,003160 0,316666 4,467257 4,478683 0,011426 0,002558 0,322327 4,229786 4,242435 0,012649 0,002990 0,338608 4,298184 4,306280 0,008096 0,001884 0,339294 4,292768 4,300033 0,007264 0,001692 0,351013 4,112111 4,119928 0,007817 0,001901 0,366287 4,113101 4,119389 0,006287 0,001529
125
Çizelge 4.21. (şekil_tipi=2 , kmax=8) elde edilen Boolean model parametreleri (+)
o+dS (kmax+) λ d+ λmc+ Eλ+ g_Eλ+ 0,253830 5,458491 5,484231 0,025740 0,004716 0,280777 5,090647 5,120322 0,029675 0,005829 0,297485 4,994871 5,019607 0,024736 0,004952 0,311569 5,046525 5,064297 0,017771 0,003521 0,316406 4,945795 4,965597 0,019802 0,004004 0,327911 4,684039 4,700921 0,016882 0,003604 0,340485 4,802187 4,815228 0,013040 0,002716 0,341797 4,693080 4,707797 0,014716 0,003136 0,350052 4,452901 4,464864 0,011963 0,002687 0,353256 4,177314 4,190571 0,013257 0,003174
Çizelge 4.22. (şekil_tipi=2 , kmax=9) elde edilen Boolean model parametreleri (+)
o+dS (kmax+) λ d+ λmc+ Eλ+ g_Eλ+ 0,251633 5,827300 5,876565 0,049266 0,008454 0,283020 5,826127 5,861537 0,035410 0,006078 0,295242 5,550933 5,589352 0,038419 0,006921 0,319397 5,476017 5,497047 0,021030 0,003840 0,320755 4,862280 4,890249 0,027969 0,005752 0,330627 5,538490 5,554112 0,015623 0,002821 0,340424 5,461945 5,475668 0,013723 0,002513 0,356277 5,499636 5,512468 0,012832 0,002333 0,360031 5,131045 5,150175 0,019130 0,003728 0,370499 4,792306 4,812880 0,020573 0,004293
Çizelge 4.23. (şekil_tipi=2 , kmax=10) elde edilen Boolean model parametreleri (+)
o+dS (kmax+) λ d+ λmc+ Eλ+ g_Eλ+ 0,264877 6,202200 6,265902 0,063702 0,010271 0,271713 6,437188 6,492640 0,055453 0,008614 0,292618 5,458153 5,511317 0,053164 0,009740 0,308533 5,764886 5,806255 0,041369 0,007176 0,319931 5,451805 5,480298 0,028493 0,005226 0,324783 5,921259 5,961784 0,040526 0,006844 0,339432 5,389616 5,419205 0,029590 0,005490 0,345703 5,309013 5,336574 0,027561 0,005191 0,345978 5,420393 5,449180 0,028786 0,005311 0,351990 5,176131 5,200151 0,024020 0,004640
126
Çizelge 4.24. (şekil_tipi=2, kmax=11) elde edilen Boolean model parametreleri (+)
o+dS (kmax+) λ d+ λmc+ Eλ+ g_Eλ+ 0,176743 7,791505 7,910760 0,119255 0,015306 0,209061 7,434421 7,544430 0,110009 0,014797 0,257599 6,768630 6,859067 0,090438 0,013361 0,262115 7,327512 7,394843 0,067331 0,009189 0,266129 7,062439 7,140203 0,077764 0,011011 0,268433 6,864086 6,936639 0,072552 0,010570 0,289795 6,013058 6,067113 0,054055 0,008990 0,294373 7,268350 7,312099 0,043749 0,006019 0,306290 6,285408 6,338248 0,052840 0,008407 0,309738 6,329327 6,374702 0,045376 0,007169 0,314667 6,876346 6,927760 0,051415 0,007477 0,315781 6,452815 6,487985 0,035170 0,005450 0,316956 5,992682 6,053574 0,060892 0,010161 0,319092 5,798776 5,847827 0,049051 0,008459 0,319489 6,483857 6,520139 0,036282 0,005596 0,319901 7,131457 7,158241 0,026784 0,003756 0,324356 6,241144 6,277411 0,036267 0,005811 0,325211 6,481490 6,515002 0,033511 0,005170 0,329697 6,452862 6,490642 0,037779 0,005855 0,336716 6,307790 6,342678 0,034888 0,005531 0,341171 5,996959 6,053503 0,056544 0,009429 0,344696 6,210226 6,247525 0,037299 0,006006 0,344894 6,032208 6,068194 0,035987 0,005966 0,354111 6,103934 6,138762 0,034828 0,005706 0,355621 5,932163 5,991123 0,058960 0,009939 0,356461 6,050640 6,090296 0,039656 0,006554 0,357071 6,867912 6,915709 0,047798 0,006960 0,358276 6,203578 6,239862 0,036285 0,005849 0,363358 6,238105 6,271820 0,033714 0,005405 0,372696 5,794923 5,846752 0,051828 0,008944
Çizelge 4.25. (şekil_tipi=2, kmax=12) elde edilen Boolean model parametreleri (+)
o+dS (kmax+) λ d+ λmc+ Eλ+ g_Eλ+ 0,279694 6,959847 7,055530 0,095682 0,013748 0,282898 7,536947 7,625315 0,088368 0,011725 0,305786 7,336227 7,404085 0,067857 0,009250 0,339081 7,072586 7,120893 0,048307 0,006830 0,339508 6,647506 6,703014 0,055509 0,008350 0,341690 6,226142 6,278532 0,052390 0,008415 0,347580 6,871329 6,945955 0,074626 0,010860 0,352783 6,112327 6,161881 0,049554 0,008107 0,359268 6,443449 6,493867 0,050419 0,007825 0,370712 6,023215 6,080056 0,056841 0,009437
127
Çizelge 4.26. (şekil_tipi=2, kmax=13) elde edilen Boolean model parametreleri (+)
o+dS (kmax+) λ d+ λmc+ Eλ+ g_Eλ+ 0,281570 7,959356 8,076686 0,117330 0,014741 0,308334 7,576978 7,663848 0,086870 0,011465 0,309692 8,097113 8,168850 0,071738 0,008860 0,314453 7,525524 7,597520 0,071996 0,009567 0,331680 7,227032 7,292056 0,065023 0,008997 0,334229 6,772918 6,846328 0,073410 0,010839 0,347946 6,668684 6,722122 0,053438 0,008013 0,353333 6,848765 6,933041 0,084276 0,012305 0,354172 7,185559 7,254533 0,068974 0,009599 0,376465 6,520226 6,594461 0,074235 0,011385
Çizelge 4.27. (şekil_tipi=2, kmax=14) elde edilen Boolean model parametreleri (+)
o+dS (kmax+) λ d+ λmc+ Eλ+ g_Eλ+ 0,279083 7,127228 7,266942 0,139714 0,019603 0,282700 8,604037 8,734112 0,130074 0,015118 0,308090 7,795949 7,908275 0,112326 0,014408 0,328400 7,485131 7,558942 0,073810 0,009861 0,337570 7,291507 7,376631 0,085124 0,011674 0,343948 8,303226 8,383578 0,080353 0,009677 0,353073 7,120878 7,184155 0,063277 0,008886 0,357956 7,701564 7,774843 0,073278 0,009515 0,364273 7,022368 7,112074 0,089706 0,012774 0,367249 7,339413 7,427537 0,088124 0,012007
Çizelge 4.28. (şekil_tipi=2, kmax=15) elde edilen Boolean model parametreleri (+)
o+dS (kmax+) λ d+ λmc+ Eλ+ g_Eλ+ 0,298950 8,155472 8,248230 0,092758 0,011374 0,300888 9,316751 9,423805 0,107054 0,011491 0,301788 7,762464 7,910357 0,147893 0,019052 0,332062 8,849370 8,958365 0,108995 0,012317 0,337189 7,827224 7,913091 0,085866 0,010970 0,351059 7,979441 8,122472 0,143030 0,017925 0,354385 7,900667 8,029697 0,129031 0,016332 0,363968 7,848069 7,972480 0,124411 0,015852 0,367935 8,133413 8,256978 0,123565 0,015192 0,378311 7,570807 7,681278 0,110472 0,014592
128
Çizelge 4.29. (şekil_tipi=3 , kmax=4) elde edilen Boolean model parametreleri (+)
o+dS (kmax+) λ d+ λmc+ Eλ+ g_Eλ+ 0,175095 3,002876 3,007653 0,004777 0,001591 0,219681 2,915191 2,918270 0,003080 0,001056 0,237915 2,878976 2,882030 0,003054 0,001061 0,259399 2,785882 2,788397 0,002514 0,000903 0,277100 2,740418 2,743216 0,002797 0,001021 0,293640 2,747142 2,749792 0,002650 0,000965 0,301987 2,743823 2,746267 0,002444 0,000891 0,313202 2,658238 2,660915 0,002677 0,001007 0,320389 2,676239 2,678665 0,002425 0,000906 0,343567 2,616628 2,618929 0,002301 0,000879
Çizelge 4.30. (şekil_tipi=3 , kmax=5) elde edilen Boolean model parametreleri (+)
o+dS (kmax+) λ d+ λmc+ Eλ+ g_Eλ+ 0,196930 3,671626 3,677026 0,005401 0,001471 0,227905 3,509239 3,515462 0,006223 0,001773 0,238663 3,278563 3,285885 0,007322 0,002233 0,268906 3,372127 3,377188 0,005060 0,001501 0,287292 3,251275 3,256942 0,005667 0,001743 0,295731 3,296889 3,301844 0,004955 0,001503 0,302277 3,158960 3,164879 0,005919 0,001874 0,321121 3,187123 3,191380 0,004257 0,001336 0,324158 3,173037 3,177512 0,004475 0,001410 0,331055 3,122188 3,126291 0,004103 0,001314
129
Çizelge 4.31. (şekil_tipi=3 , kmax=6) elde edilen Boolean model parametreleri (+)
o+dS (kmax+) λ d+ λmc+ Eλ+ g_Eλ+ 0,086090 4,478376 4,511961 0,033585 0,007499 0,156052 4,366285 4,380387 0,014102 0,003230 0,166458 4,102118 4,124454 0,022336 0,005445 0,201035 4,209715 4,221415 0,011700 0,002779 0,209839 4,205788 4,215941 0,010153 0,002414 0,221939 4,062908 4,074783 0,011875 0,002923 0,227524 3,885118 3,897715 0,012596 0,003242 0,246460 3,839029 3,851324 0,012295 0,003203 0,249695 4,043999 4,054061 0,010062 0,002488 0,251160 3,812454 3,823782 0,011328 0,002971 0,253738 4,122256 4,130443 0,008186 0,001986 0,254425 3,848926 3,859295 0,010369 0,002694 0,264694 3,829999 3,841036 0,011037 0,002882 0,275864 3,832292 3,842051 0,009760 0,002547 0,276199 3,743108 3,752939 0,009831 0,002627 0,276840 3,776057 3,785183 0,009126 0,002417 0,283585 3,786656 3,796157 0,009501 0,002509 0,295517 3,792792 3,800150 0,007358 0,001940 0,296036 3,766816 3,774555 0,007739 0,002054 0,297485 3,828888 3,836053 0,007165 0,001871 0,298004 3,647005 3,656243 0,009238 0,002533 0,298874 3,727881 3,736131 0,008250 0,002213 0,299103 3,835527 3,842485 0,006958 0,001814 0,307831 3,588381 3,596202 0,007821 0,002179 0,313599 3,458301 3,467606 0,009305 0,002691 0,314331 3,748447 3,753412 0,004966 0,001325 0,315277 3,559239 3,566049 0,006810 0,001913 0,318817 3,562123 3,567747 0,005624 0,001579 0,323364 3,606927 3,611019 0,004092 0,001134 0,324692 3,427229 3,433513 0,006285 0,001834
Çizelge 4.32. (şekil_tipi=3 , kmax=7) elde edilen Boolean model parametreleri (+)
o+dS (kmax+) λ d+ λmc+ Eλ+ g_Eλ+ 0,208542 4,661448 4,681949 0,020501 0,004398 0,239807 4,285887 4,309221 0,023334 0,005444 0,261597 4,342627 4,360252 0,017625 0,004059 0,284836 4,323994 4,336656 0,012661 0,002928 0,295334 4,433790 4,441312 0,007522 0,001697 0,303619 4,041210 4,053511 0,012301 0,003044 0,303970 4,014307 4,024694 0,010387 0,002588 0,306473 4,250037 4,256401 0,006364 0,001497 0,313522 4,019224 4,027377 0,008153 0,002028 0,325287 3,996388 4,007238 0,010850 0,002715
130
Çizelge 4.33. (şekil_tipi=3 , kmax=8) elde edilen Boolean model parametreleri (+)
o+dS (kmax+) λ d+ λmc+ Eλ+ g_Eλ+ 0,225067 5,337559 5,363891 0,026332 0,004933 0,234863 5,122726 5,153333 0,030607 0,005975 0,266037 5,054259 5,077692 0,023433 0,004636 0,270721 4,769192 4,793051 0,023859 0,005003 0,287460 4,605499 4,624617 0,019118 0,004151 0,298431 4,382094 4,398092 0,015998 0,003651 0,298981 4,445392 4,459119 0,013727 0,003088 0,309021 4,469090 4,480069 0,010979 0,002457 0,325943 4,428679 4,435384 0,006706 0,001514 0,332886 4,726439 4,734522 0,008082 0,001710
Çizelge 4.34. (şekil_tipi=3 , kmax=9) elde edilen Boolean model parametreleri (+)
o+dS (kmax+) λ d+ λmc+ Eλ+ g_Eλ+ 0,221115 5,564902 5,588348 0,023446 0,004213 0,247818 5,457607 5,476369 0,018762 0,003438 0,260269 5,032245 5,056689 0,024444 0,004857 0,281174 5,109133 5,121856 0,012722 0,002490 0,286957 5,025098 5,036232 0,011134 0,002216 0,302048 4,933417 4,949318 0,015901 0,003223 0,306412 4,857876 4,870647 0,012772 0,002629 0,307465 5,029280 5,036266 0,006986 0,001389 0,312958 4,795270 4,806026 0,010755 0,002243 0,326111 4,627597 4,634321 0,006724 0,001453
Çizelge 4.35. (şekil_tipi=3 , kmax=10) elde edilen Boolean model parametreleri (+)
o+dS (kmax+) λ d+ λmc+ Eλ+ g_Eλ+ 0,236679 6,137386 6,193903 0,056517 0,009209 0,243439 5,927918 5,983439 0,055521 0,009366 0,263672 6,294792 6,326170 0,031378 0,004985 0,268417 5,586038 5,630418 0,044380 0,007945 0,280746 5,142562 5,171750 0,029188 0,005676 0,285629 5,408996 5,434319 0,025323 0,004682 0,293808 5,153415 5,178838 0,025423 0,004933 0,302185 5,224247 5,247056 0,022809 0,004366 0,314240 5,120083 5,138942 0,018858 0,003683 0,320633 5,156094 5,178022 0,021929 0,004253
131
Çizelge 4.36. (şekil_tipi=3 , kmax=11) elde edilen Boolean model parametreleri (+)
o+dS (kmax+) λ d+ λmc+ Eλ+ g_Eλ+ 0,151291 7,300656 7,371590 0,070934 0,009716 0,183182 7,508288 7,548246 0,039957 0,005322 0,217957 6,854522 6,899268 0,044746 0,006528 0,230743 6,546290 6,597335 0,051045 0,007798 0,233170 6,450167 6,500553 0,050386 0,007811 0,235733 6,401256 6,454286 0,053031 0,008284 0,246643 6,239978 6,288099 0,048122 0,007712 0,251465 5,884769 5,940244 0,055475 0,009427 0,257675 6,424113 6,457459 0,033346 0,005191 0,263596 6,143560 6,177099 0,033539 0,005459 0,276016 6,514622 6,533986 0,019364 0,002972 0,276855 5,701720 5,740417 0,038698 0,006787 0,278610 6,147763 6,167938 0,020175 0,003282 0,281174 6,228144 6,252980 0,024837 0,003988 0,281342 6,013288 6,035256 0,021968 0,003653 0,288666 5,751136 5,776122 0,024985 0,004344 0,289627 6,087719 6,106461 0,018741 0,003079 0,298111 5,855402 5,885789 0,030387 0,005190 0,298492 5,437583 5,460445 0,022862 0,004204 0,298615 6,399949 6,414425 0,014476 0,002262 0,299118 5,584044 5,608008 0,023965 0,004292 0,299225 5,977307 6,009463 0,032156 0,005380 0,303314 5,481286 5,503710 0,022424 0,004091 0,303436 5,646636 5,666473 0,019837 0,003513 0,307617 6,312649 6,330520 0,017871 0,002831 0,308578 5,913613 5,944463 0,030849 0,005217 0,312622 5,103524 5,123971 0,020447 0,004006 0,313782 5,982543 6,018442 0,035899 0,006001 0,320175 5,664872 5,692119 0,027247 0,004810 0,332870 5,844923 5,873383 0,028460 0,004869
Çizelge 4.37. (şekil_tipi=3 , kmax=12) elde edilen Boolean model parametreleri (+)
o+dS (kmax+) λ d+ λmc+ Eλ+ g_Eλ+ 0,244461 7,104300 7,183009 0,078708 0,011079 0,245392 6,486134 6,570862 0,084729 0,013063 0,272278 6,818875 6,880657 0,061782 0,009060 0,281387 6,150968 6,194369 0,043401 0,007056 0,283127 5,921962 5,983487 0,061525 0,010389 0,297516 6,933890 6,988985 0,055095 0,007946 0,305939 5,650524 5,697785 0,047261 0,008364 0,315048 6,472950 6,520204 0,047254 0,007300 0,322403 6,655118 6,706463 0,051345 0,007715 0,338394 6,456599 6,507002 0,050403 0,007806
132
Çizelge 4.38. (şekil_tipi=3, kmax=13) elde edilen Boolean model parametreleri (+)
o+dS (kmax+) λ d+ λmc+ Eλ+ g_Eλ+ 0,243057 7,636073 7,732592 0,096519 0,012640 0,266434 6,953725 7,019272 0,065547 0,009426 0,277405 6,358581 6,427907 0,069325 0,010903 0,281525 7,297344 7,352953 0,055609 0,007620 0,284134 7,951077 8,031594 0,080518 0,010127 0,293854 6,619431 6,676215 0,056784 0,008578 0,295074 6,117023 6,157501 0,040478 0,006617 0,308212 5,928066 6,002027 0,073961 0,012476 0,310150 7,079307 7,133096 0,053789 0,007598 0,329422 6,607115 6,674830 0,067715 0,010249
Çizelge 4.39. (şekil_tipi=3, kmax=14) elde edilen Boolean model parametreleri (+)
o+dS (kmax+) λ d+ λmc+ Eλ+ g_Eλ+ 0,242813 8,206435 8,299156 0,092721 0,011299 0,252518 7,302617 7,387405 0,084789 0,011611 0,270889 8,113896 8,168744 0,054848 0,006760 0,278961 7,601028 7,654033 0,053004 0,006973 0,292419 7,617773 7,682940 0,065167 0,008555 0,293701 7,030185 7,080373 0,050187 0,007139 0,307236 6,824187 6,899097 0,074910 0,010977 0,307281 7,001242 7,051892 0,050650 0,007234 0,307922 6,319673 6,379140 0,059467 0,009410 0,320587 7,208996 7,273703 0,064707 0,008976
Çizelge 4.40. (şekil_tipi=3, kmax=15) elde edilen Boolean model parametreleri (+)
o+dS (kmax+) λ d+ λmc+ Eλ+ g_Eλ+ 0,250717 8,286409 8,400093 0,113684 0,013719 0,256775 8,799620 8,893829 0,094210 0,010706 0,262619 7,551682 7,635723 0,084041 0,011129 0,277573 7,355890 7,412382 0,056492 0,007680 0,286621 7,149383 7,217938 0,068555 0,009589 0,290680 7,033228 7,083538 0,050309 0,007153 0,292923 6,909517 6,985569 0,076052 0,011007 0,298050 6,866329 6,952872 0,086543 0,012604 0,300598 7,172081 7,228264 0,056183 0,007834 0,321991 6,820065 6,893013 0,072949 0,010696
133
5. SONUÇ
İstatistiksel şekil inceleme çalışmaları, ağırlıklı olarak doğrusal ya da doğrusal olmayan
işleçlerle şekillerden elde edilen çıktılara istatistiksel yöntemlerin uygulanması
üzerinedir. Şekil inceleme çalışmaları, Rasgele Kümeler, ve Boolean (Boole) modeli,
gibi şekilleri tanımlayıcı ve Matemetiksel Morfoloji (Biçimbilim) gibi şekillerin
incelenmesinde kullanılan işleçler ve yöntemler sağlayıcı, ve Rasgele Yapay Sinir
Ağları gibi genel amaçlı çözüm yöntemleri sağlayıcı kuramsal çalışmalarla
desteklenmektedir. Bu çalışmada hem Rasgele Kümeler, ve Boolean modeli, hem
Matemetiksel Morfoloji, ve RYSA'nın ilk kez bir uygulamada bir arada kullanılması
önerilmiş ve kullanılmış, hem Boolean rasgele kümelerin incelenmesinde ve
modellenmesinde ilk kez yapay sinir ağlarından yararlanılmış, hem çok girdili ve ve
veya işleçleri RYSA ile ilk kez gerçeklenmiş, hem de morfolojik işleçler RYSA ile ilk
kez gerçeklenmiştir. Geliştirilen yöntem (bkz. Bölüm 3), mekansal istatistik, örüntü
tanıma, ve görüntü analizi uygulamalarına yönelik, ilk kez önerilen ve gerçeklenen yeni
bir gereçtir. Bütün halinde bire bir karşılaştırılabileceği başka bir çalışma daha önce
yapılmamıştır, literatürde yer almamaktadır.
Geliştirilen yöntemi oluşturan temel atomik işlemler, RYSA mimarileri ile gerçeklenen
çok girdili ve ve veya işlemleridir. Bunlar için geliştirilen RYSA mimarilerinin, aynı
amaçlı farklı YSA modeli mimarileriyle, ve farklı yöntemlerle karşılaştırılacak olursa,
performansının diğerlerininkinin altında kalmayacağı beklenmektedir. Aşınma ve
genişleme işlemleri ile bunların ardaşık uygulanmasından elde edilen açılış ve kapanış
işlemleri için geliştirilen RYSA mimarilerinin performansının ise, morfolojik
YSA'larınkinin altında kalmayacağı beklenmektedir; ayrıca, n-girdili ve ve veya
işlemlerinin doğruluk tablolarının ezberletilmesi sayesinde, %100 performansla, hatasız
sonuç üretmeleri, geliştirilen RYSA mimarilerine üstünlük sağlamaktadır, oysa
diğerlerinin belli bir yüzdeyle hatalı sonuç üretebilmesi söz konusudur.
Geliştirilen yöntem, DSKBRK görüntülerin incelenmesi için tasarlanmıştır. Bununla
birlikte sentetik ve doğal DSKBRK görüntülerinin yanısıra, farklı algılayıcılardan (ses,
134
ses-ötesi, radar gibi) elde edilen, DSKBRK görüntülerine dönüştürülebilir, verilerin
incelenmesine de uygundur. Geliştirilen yöntemin incelenebilecek görüntü türlerinin
arttırılması yönünde genişletilmesi, kullanılacak istatistiksel yöntemlerin de görüntü
türüne uygun olarak, çok değişkenli istatistiksel analizi, yüksek derece momentleri, ve
bazı özel istatistiksel modelleri de içerecek şekilde genişletilmesini gerektirecektir.
Benzer şekilde, kullanılan benzetişim yönteminin de, incelenecek görüntü için
varsayılan modelleri de içerek şekilde genişletilmesi gerekecektir.
Geliştirilen yöntem, matematiksel morfolojinin diğer tüm işlemlerini de kapsayan bir
gereç haline kolayca genişletilebilir.
Geliştirilen yöntem, parametre tahminine dayalıdır. Tahmin edilen parametreler, şekil
büyüklüğü ile ilişkilidir. Yapıtaşı elemanına bağlı olarak göreceli tahmin yapılmaktadır.
Kullanılan yapıtaşı elemanları, aynı zamanda incelenen şekillerin geometrik özellikleri
hakkında da fikir vermektedir. Düzgün geometrik olmayan şekiller içeren görüntülerin
farklı yapıtaşı elemanlarıyla incelenmesi, incelenen şekillerin geometrik özellikleri
hakkında daha fazla bilgi sağlayacaktır. Geliştirilen yöntem, şekilleri tanımlamada
kullanılan şekil büyüklüğünü temel alan tüm yöntemleri gerçekler hale kolayca
genişletilebilir. Geliştirilen yöntem, şekil taneciklerinin çekirdek merkezlerinin
konumlarının birbiriyle ilişkisinin istatistiksel analizi yapılabilecek hale de kolayca
genişletilebilir.
Geliştirilen yöntem, kolayca paralelleştirilebilir, şekil incelemedeki yinelemelerin
azaltılması yönünde iyileştirmeler yapılabilmesi de mümkün olabilir. Bu şekilde
hesaplama karmaşası, ve dolayısıyla hesaplama maliyeti azaltılabilir. Bu iyileştirmeler,
yeni hesaplama kaynakları ihtiyacını ya da anlık hesaplama kaynakları kullanma
ihtiyacını beraberinde getirebilir.
Geliştirilen yöntem, şekillerin gözlem penceresi sınırlarıyla ve birbiriyle örtüştüğü daha
genel DSKRBK görüntülerin, Markov Rasgele Alanları, Gibbs Rasgele Alanları gibi
parametrik rasgele kümelerin incelenmesine uyarlandığında standart Monte Carlo
135
yöntemlerine dayalı tahmin ediciler yerine Markov Zinciri Monte Carlo (MZMC)
yöntemlerine (Hastings 1970, Gilks et al. 1996, Gamerman 1997) dayalı tahmin
edicilerle daha iyi sonuçlar elde edilebilir, hatta örtüşmeler arttıkça ve şekillerin
geometrik olarak tanımlanması güçleştikçe MZMC yöntemi kullanmak zorunluluk
haline gelebilecektir. Buna paralel olarak, incelenecek görüntülerin yapısına uygun
mekansal korrelasyon temelli benzetişim yöntemleri kullanmak gerekebilecektir.
Geliştirilen yöntem ve bunu gerçekleyen uygulama yazılımı, mekansal istatistiğin,
mühendisliklerin, doğa bilimlerinin, tıbbın ilgi alanına giren, tanecikli yapıdaki iki-
değerlikli görüntülerin modellenmesi, tanımlanması, sınıflanması, ve ayırtedilmesi
problemleri için bir çözüm ortamı sunmaktadır.
136
KAYNAKLAR
Abdelbaki, H., Gelenbe, E. and Kocak, T. 2005. Neural algorithms and energy measures for EMI based mine detection. J. Differential Equations and Dynamical Systems (DEDS), vol.13, no.1, 63-86. Adler, R.J. 1981. The Geometry of Random Fields. Wiley, 279, New York. Agam, G. and Dinstein, I. 1999. Regulated morphological operations. Pattern Recognition, 32, 947-971. Antoine, J.P. 1998. The continuous wavelet transforn in image processing. CWI Quarterly, vol.11, no.4, Special Issue : Signals and Images, Amsterdam. Archambault, S. and Moore, M. 1993. Statistiques morphologiques pour l'ajustement d'images. Int. Statistical Review, 61, 283-297. Arehart, A.B., Vincent, L. and Kimia, B.B. 1993. Mathematical Morphology : the Hamilton-Jacobi Connection. IEEE 4th Int. Conf. on Computer Vision, Berlin. (Technical Report 108, LEMS, Brown University, 1992). Araujo, R. de A., Madeiro, F., Sousa, R.P. de and Pessoa, L.F.C. 2006. Modular morphological neural network training via adaptive genetic algorithm for designing translation invariant operators acoustics. Proc. of IEEE Int. Conf. on Speech and Signal Processing, 2006. ICASSP 2006, vol.2, 14-19 May, II-873- 876. Artalejo, J.R. 2000. G-networks : A versatile approach for work removal in queueing networks. European J. of Operational Research, 126, 233-249. Artstein, Z. and Vitale, R.A. 1975. A strong law of large numbers for random compact sets. The Annals of Probability, vol.3, no.5, 879-882. Atalay, V. 1998. Learning by optimization in random neural networks. Advances in Computer Sciences '98, Güdükbay, U., Dayar, T., Gürsoy, A., Gelenbe, E. (ed.s), Proc. of the ISCIS '98 (13th), Antalya, Turkey, 143-148. Atalay, V. and Gelenbe, E. 1992. Parallel algorithm for colour texture generation using the random neural network model. Int. J. of Pattern Recognition and Artificial Intelligence, 6 (2), 437-446. Atalay, V., Gelenbe, E. and Yalabık, N. 1992. The random neural network for texture generation. Int. J. of Pattern Recognition and Artificial Intelligence, vol.6, no.1, 131-141. Aubert, A. and Jeulin, D. 2000. Estimation of the influence of second- and third-order moments of random set reconstructions. Pattern Recognition, vol.33, no.6, 1083-1104. Aybay, I., Çerkez, C., Halıcı, U. and Badaroğlu, M. 1998. Hardware implementations of neural networks and the random neural network chip (RNNC). Advances in Computer Sciences '98, Güdükbay, U., Dayar, T., Gürsoy, A., Gelenbe, E. (ed.s), Proc. of the ISCIS '98 (13th), Antalya, Turkey, 157-161. Badaroğlu, M., Halıcı, U., Aybay, I. and Çerkez, C. 1997. Digital neural network chip for the random neural network model with programmable architecture. Proc. of ISCIS '97, Antalya, Turkey, 412-418. Baddaley, A.J. and Moller, J. 1989. Nearest neighbor Markov point processes and random sets. Int. Statistical Review, 57, 89-121. Bakırcıoğlu, H. and Gelenbe, E. 1997. Enhanced image enlargement with the random neural network. (unpublished).
137
Bakırcıoğlu, H. and Gelenbe, E. 1998a. Feature-based RNN target recognition. (unpublished). Bakırcıoğlu, H. and Gelenbe, E. 1998b. Random neural network recognition of shaped objects in strong clutter. Proc. of SPIE, App. of Art. Neural Networks in Image Proc. 3, San Jose, California, 22-28. Bakırcıoğlu, H., Gelenbe, E. and Koçak, T. 1997. Image enhancement and fusion with the random neural network model. Elektrik, vol.5, no.1, 65-77. Bakırcıoğlu, H. and Koçak, T. 2000. Survey of random neural network applications. European J. of Operations Research, 126, 319-330. Balagurunathan, Y. and Dougherty, E.R. 2002. Optimal linear granulometric estimation for random sets. Pattern Recognition, 35, 1315-1325. Banks, S.P. 1990. Signal Processing, Image Processing, and Pattern Recognition. Prentice Hall, 410, Great Britain. Banon, G.J.F. and Barrera, J. 1991. Minimal representations for translation-invariant set mappings by mathematical morphology. SIAM Journal of Applied Mathematics, vol.51, 1782-1798. Banon, G.J.F. and Barrera, J. 1993. Decomposition of mappings between complete lattices by mathematical morphology, Part I, General lattices. Signal Processing. vol.30, 299-327. Barnsley, M.F. 1993. Fractals Everywhere. (2nd ed.) Academic Press Professional, 534, USA. Barrera, J. and Dougherty, E.R. 1999. Design of morphological set operators by statistical optimization. Proc. of the IEEE-EURASIP Workshop on Nonlinear Signal and Image Processing (NSIP'99), Antalya, Turkey, 185-189. Barshan, B. and Başkent, B. 1999. Analysis of morphological surface profile extraction with multiple sonar range measurements. Proc. of the IEEE-EURASIP Workshop on Nonlinear Signal and Image Processing, Antalya, Turkey, 844- 848. Barshan, B. and Başkent, B. 2001. Morphological surface profile extraction with multiple range sensors. Pattern Recognition, 34, 1459-1467. Bartlet, M.S. 1975. The Statistical Analysis of Spatial Pattern. Chapman and Hall, London. Basawa, I.V. and Rao, B.I.S.P. 1980. Statistical Inference for Stochastic Processes. Academic Press Inc., London, 435. Batman, S. 1998. Optimal MorphologicalProbing of Random Shape and Texture. Ph.D. Dissertion, Texas AM University, ECE Dept., USA, 204. Batman, S. and Dougherty, E.R. 1997. Size distributions for multivariate morphological granulometries : Texture classification and statistical properties. Optical Engineering, vol.36, 1518-1529. Batman, S. and Dougherty, E.R. 2001. Morphological granulometric estimation of random patterns in the context of parametrized random sets. Pattern Recognition, 34, 1207-1217. Batman, S., Dougherty, E.R. and Sand, F. 2000. Heterogeneous morphological granulometries. Pattern Recognition, vol.33, no.6, 1047-1057. Batman, S. and Goutsias, J. 2000. Robust morphological detection of sea mines in side- scan sonar images. Bayne, C.K., Beauchamp, J.J., Begovich, C.L. and Kane, V.E. 1980. Monte Carlo comparisons of selected procedures. Pattern Recognition, vol.12, 51-62.
138
Beale, R. and Jackson, T. 1990. Neural Computing : An Introduction. Adam Hilger, 240, Bristol. Besag, J. E. 1989. Towards Bayesian image analysis. Journal of Applied Statistics, 16, 395-407. Beui, V. and Moore, K.R. 1998. On analog implementation of discrete neural networks. Proc. of the 3rd Int. Symp. on Fuzzy Logic and Intelligent Technologies for Nuclear Science and Industry, Sept. 14-16, Antwerp, Belgium. Bhat, U.N. 1972. Elements of Applied Stochastic Processes. John Wiley & Sons, 414, USA. Bhattacharya, P.B., Jain, S.K. and Nagpaul, S.R. 1994. Basic Abract Algebra. (2nd ed.) Cambridge University Press, 487. Bishop, C. M. 1995. Neural Networks for Pattern Recognition. Clarendon Press, 482, Oxford. Bloomberg, D.S. and Vincent, L. 1995. Blur Hit-Miss Transform and its Use in Document Image Pattern Detection. Proc. SPIE vol.2422, Document Recognition II, San Jose CA, 278-292. Bloomberg, D.S. and Vincent, L. 2000. Pattern Matching using the Blur Hit-Miss Transform. Journal of Electronic Imaging. Blum, H. 1973. Biological shape and visual science. J. of Theoretical Biology, vol.38, 205-287. Boomgaard, R.V.D. and Heijmans, H.J.A.M. 2000. Morphological scale-space operators: an algebraic construction technique. Proc. of ISMM2000, Palo Alto. Boomgaard, R.V.D. and Smeulders, A. 1994. The morphological structure of images : The differential equations of morphological scale-space. IEEE Trans. on PAMI, vol.16, 1101-1113. Boutalis, Y.S., Tsirikolias, K., Metrtzios, B.G. and Andreadis, I.T. 2002. Implementation of morphological filters using coordinate logic operations. Pattern Recognition, 35, 187-198. Brockett, R. and Maragos, P. 1992. Evolution equations for continuous-scale morphology. Proc. of the IEEE Int. Conf. on Acoustics, Speech, and Signal Processing, ICASSP-92, 125-128. Brockett, R. and Maragos, P. 1994. Evolution equations for continuous-scale morphological filtering. IEEE Trans. on Signal Processing, vol.42, no.12, 3377- 3386. Cardillo, J. and Sid-Ahmed, M. 1996. Target recognition in a cluttered scene using mathemetical morphology. Pattern Recognition, vol.29, no.1, 27-49. Carpenter, G.A. and Grossberg, S. (ed.s). 1992. Neural Networks for Vision and Image Processing. MIT Press, 467, Massachusetts. Cha, H. 1993. Morphological signal representation with multiple discrete functions as structuring elements. PhD Dissertion, University of Pittsburg, EE Dept., USA, 116. Chen, H. 2004. Monte Carlo methods for statistical inference : generation of random numbers. (unpublished). Chen, T., Wu, Q.H., Rahmani-Torkaman, R. and Hughes, J. 2002. A pseudo top-hat mathematical morphological approach to edge detection in dark regions. Pattern Recognition, 35, 199-210. Chen, Y. and Dougherty, E.R. 1994. Gray-scale morphological granulometric texture classification. Optical Engineering, vol.33, 2713-2722.
139
Cheng, F. and Venetsanopoulos, A.N. 2000. Adaptive morphological operators, fast algorithms and their applications. Pattern Recognition, vol.33, no.6, 917-933. Choquet, G. 1953. Theory of capacities. Ann. Institute Fourier, 5, 131-295. Chui, C.K. 1997. Wavelets : A Mathematical Tool for Signal Processing. SIAM, 210, Philedelphia. Cliff, A.D. and Ord, J.K. 1981. Spatial Processes : Models and Applications. Pion Limited, 252, London. Cotofana, S. and Vassilidis, S. 1998. Periodic symmetric functions, serial addition, and multiplication with neural networks. IEEE Trans. on Neural Networks, vol.9, no.6, Nov., 1118-1128. Coultrip, R.L. 1995. Learning Input-Output Mappings with Sparse Random Neural Networks. Ph.D. Thesis, University of California Irvine, Dept. of Information and Computer Science, 159, Irvine, California. Cox, D.R. and Miller, H.D. 1965. The Theory of Stochastic Processes. Chapman & Hall, 398, Great Britain. Cramer, C. 1998. Neural networks for image and video compression : A review. European J. of Operational Research, 108, 266-282. Cramer, C., Gelenbe, E. and Bakircioğlu, H. 1996. Low bit-rate video compression with neural networks and temporal subsampling. Proceedings of the IEEE, vol.84, no.10, 1529-1543. Cramer, C., Gelenbe, E. and Gelenbe, P. 1998. Image and video compression. IEEE Potentials, Feb-March. Cressie, N.A.C. 1991. Modelling growth with random sets. Spatial Statistics and Imaging, Possolo, A. (ed.), Lecture Notes-Monograph series, vol.20, Institute o f Mathematical Statistics, Hayward, CA, 31-45. Cressie, N.A.C. 1993. Statistics for Spatial Data. (rev. ed.) John Wileys and Sons, 900, USA. Cressie, N.A.C. and Laslett, G.M. 1987. Random set theory and problems of modeling. SIAM Review, 29, 557-574. Cross, G.R. and Jain, A.K. 1983. Markov random field texture models. IEEE Trans. on Pattern Analysis and Machine Intelligence, PAMI-5, 25-39. Çerkez, C., Aybay, I. and Halıcı, U. 1997a. A digital random neuron realization. Proc. of the New Trends in Artificial Intelligence and Neural Networks Conf., TAINN '97, 216-220, Ankara, Turkey. Çerkez, C., Aybay, I., and Halıcı, U. 1997b. A digital neuron realization for the random neural network model. Proc. of IEEE IJCNN '97, Houston, USA, 1000-1004. Çerkez, C., Aybay, I. ve Halıcı, U. 1997c. Sayısal bir nöron tasarımı. Proc. of the 7th National Electrical Engineering Congress, 51-54, Ankara, Turkey. Davy, P.J. 1978. Aspects of random set theory. Advances in Applied Probability, Supplement, 10, 28-35. Delfiner, P. 1971. A generelization of the concept of size. J. of Microscopy, vol.95, no.2, 203-216. Deng, T.-Q. and Heijmans, H.J.A.M. 2002. Grey-scale Morphology Based on Fuzzy Logic. J. Math. Imaging Vision 16 (2), 155-171. (Report PNA-R0012, November 2000, CWI, Amsterdam). Deolalikar, V. 2000. Mapping Boolean functions with neural networks having binary weights and zero thresholds. (unpublished).
140
Derin, H. and Elliot, H. 1987. Modeling and Segmentation of Noisy and Textured Images Using Gibbs Random Fields. IEEE Trans. on PAMI, vol.PAMI-9, no.1, 39-55. Derin, H., Elliot, H., Cristi, R. and Geman, D. 1984. Bayes smoothing algorithms for segmentation of binary images modeled by Markov random fields. IEEE Trans. on PAMI, vol.PAMI-6, 707-720. Devijver, P.A. and Kittler, J. 1982. Pattern Recognition : A Statistical Approach. Prentice Hall International, 448, New Jersey. Dougherty, E.R. 1992. An Introduction to Morphological Image Processing. SPIE Optical Engineering Press, USA, 161, Washington. Dougherty, E.R. and Cheng, Y. 1995. Morphological pattern spectrum classification of noisy shapes : Exterior granulometries. Pattern Recognition, vol.28, no.1, 81- 98. Dougherty, E.R., Haralick, R.M., Chen, Y., Agerskov, C., Jacobi, U. and Sloth, P.H. 1992. Estimation of optimal morphological τ opening parameters based on independent observation of signal and noise pattern spectra. Signal Processing, 29, 265-281. Dougherty, E.R., Newell, J.T. and Pelz, J.B. 1992. Morphological texture based maximum likelihood pixel classification based on local granulometric moments. Pattern Recognition, vol.25, no.10, 1181-1198. Dougherty, E.R. and Pelz, J.B. 1991. Morphological granulometric analysis of electrophotographic images : size distribution statistics for process control. Optical Engineering, 30, 438-445. Dougherty, E.R., Pelz, J.B., Sand, F. and Lent, A. 1992. Morphological image segmentation by local granulometric size distributions. J.of Electronic Imaging, vol.1, 46-60. Dougherty, E.R. and Sand, F. 1995. Representation of linear granulometric moments for deterministic and random binary euclidean images. J. of Visual Communication and Image Representation, vol.6, 69-79. Drevin, G.R. and Vincent, L. 2002. Granulometric Determination of Sedimentary Rock Particle Roundness. Proc. Int. Symp. on Mathematical Morphology (ISMM), Sydney, Australia, 315-325. Dubes, R.C. and Jain, A.K. 1998. Random field models in image analysis. J. of Applied Statistics, 16, 131-164. Duda, R.O. and Hart,P. E. 1973. Pattern Classification and Scene Analysis. John Wiley & Sons, 482, New York. Egger, O., Li, W. and Kunt, M. 1995. High compression image coding using an adaptive morphological subband decomposition. Proceedings of the IEEE, vol.83, no.2, 272-287. Errington, J.C. 1973. The effect of regular and random distributions on the analysis of pattern. Journal of Ecology, 61, 99-105. Feder, J. 1988. Fractals. Plenum Press, 283, New York. Fourneau, J.-M. and Gelenbe, E. 1992. Random neural networks with multiple classes of signals. Neural Networks : Advances and Applications - 2, Gelenbe, E. (ed.), Elsevier Science Pub. Co., Amsterdam, 83-94. Fourneau, J.-M. and Gelenbe, E. 2004. Flow equivalence and stochastic equivalence in G-networks. Computational Management Science, vol.1(2), 179-192.
141
Fourneau, J.-M., Kloul, L. and Verchere, D. 2000. Multiple class G-networks with list oriented deletions. European J. of Operational Research, 126, 250-272. Fraenkel, A.A. 1966. Set Theory and Logic. Addison-Wesley P.Co. Fraenkel, A.A., Bar-Hillel, Y. and Levy, A. 1973. Foundations of Set Theory. (2nd ed.) North-Holland P.Co. Freeman, J. A. and Skapura, D. M. 1991. Neural Networks : Algorithms, Applications, and Programming Techniques. Addison-Wesley, 401, USA. Friel, N. and Molchanov, I.S. 1999. A new thresholding technique based on random sets. Pattern Recognition, vol.32, no.9, 1507-1518. Fuh, C.-S., Maragos, P. and Vincent, L. 1991. Region-Based Approaches to Visual Motion Correspondence. Harvard Robotics Laboratory, Technical Report 91- 18. Fuh, C.-S., Maragos, P. and Vincent, L. 1993. Visual Motion Correspondence by Region-Based Approaches. Proc. Asian Conf. on Computer Vision, Osaka, Japan, Nov., 784-789 Fukunaga, K. 1972. Introduction to Statistical Pattern Recognition. Academic Press, 369, New York. Gader, P.D., Khabou, M.A. and Koldobsky, A. 2000. Morphological regularization neural networks. Pattern Recognition, vol.33, no.6, 935-944. Gamerman, D. 1997. Markov Chain Monte Carlo : Stochastic Simulation for Bayesian Inference. Chapman & Hall, 245, London. Garcia-Sevilla, P. and Petrou, M., 1999. Classification of binary textures using the 1-D Boolean model. IEEE Trans. on Image Processing, vol.8, no.10, Oct., 1457- 1462. Gasteratos, A.C. 1998. Development and Hardware Implementation of New Technics for Non-linear Image Processing. Ph.D. Thesis, Democritus University of Thrace, Xanthi, Greece. Gasteratos, A.C. and Andreadis, I. 2000. Non-linear image processing in hardware. Pattern Recognition, 33, 2000, 1013-1021. Gelenbe, E. 1989. Random neural networks with negative and positive signals and product form solution. Neural Computation, vol.1, no.4, 502-511. Gelenbe, E. 1990. Stability of the random neural network model. Neural Computation, vol.2, no.2, 239-247. Gelenbe, E. 1991a. Distributed associative memory and the computation of membership functions. Information Sciences, vol.57-58, 171-180. Gelenbe, E. 1991b. Theory of the random neural network model. Neural Networks : Advances and Applications, Gelenbe, E. (ed.), North-Holland. Gelenbe, E. (ed.). 1991c. Neural Networks : Advances and Applications. Elsevier Science Pub. Co., 273, Amsterdam. Gelenbe, E. 1991d. Product-form queueing networks with negative and positive customers. J. of Applied Probability, 28, 656-663. Gelenbe, E. (ed.). 1992a. Neural Networks : Advances and Applications - 2. Elsevier Science Pub. Co., 222, Amsterdam. Gelenbe, E. 1992b. Generalised associative memory and the computation of membership functions. Neural Networks : Advances and Applications - 2, Gelenbe, E. (ed.), Elsevier Science Pub. Co., Amsterdam, 129-140. Gelenbe, E. 1993a. The random neural network model. Elektrik, vol.1, no.1, 27-46.
142
Gelenbe, E. 1993b. Learning in the recurrent random neural network. Neural Computation, vol.5, no.1, 154-164. Gelenbe, E. 1993c. Hopfield energy of random nets. (unpublished). Gelenbe, E. 1993d. G-networks with triggered customer movement. J. of Applied Probability, 30, 742-748. Gelenbe, E. 1993e. G-networks with signal and batch removal. Probability in Engineering and Information Sciences, 7, 335-342. Gelenbe, E. 1994. G-networks : A unifying model for neural and queueing networks. Annals of Operations Research, 48, 433-461. Gelenbe, E. 1998. Biologically inspired operations research. European J. of Operation Research, 108 (2), 239-240. Gelenbe, E., Bakırcıoğlu, H. and Koçak, T. 1998. Image processing with the random neural network. Proc. of SPIE, App. of Art. Neural Networks in Image Proc. 3, San Jose, California, 22-28. Gelenbe, E. and Batty, F. 1992. Minimum graph vertex covering with the random neural network. Balci, O., Sharda, R., Zenios, S. (ed.s). Computer Science and Operations Research, Pergamon Press, 139-147. Gelenbe, E. and Cao, Y. 1998. Autonomous search for mines. European J. of Operational Research, 108, 319-333. Gelenbe, E., Cramer, C. and Sungur, M. 1996. Traffic and Video Quality in Adaptive Neural Compression. Multimedia Systems, 4, 357-369. Gelenbe, E., Feng, Y. and Khrishnan, K. 1996. Neural network methods for volumetric magnetic resonance imaging of the human brain. Proceedings of the IEEE, 84, 1488-1496. Gelenbe, E. and Fourneau, J.-M. 2002. G-Networks with resets. Performance Evaluation, vol.49, 171-191. Gelenbe, E., Ghanwani, A. and Srinivasan, V. 1997. Improved neural heuristics for multicast routing. IEEE J. on Selected Areas in Communications, vol.15, no. 2, 147-155. Gelenbe, E., Glynn, P. and Sigman, K. 1991. Queues with negative arrivals. J. of Applied Probability, 28, 245-250. Gelenbe, E. and Halıcı, U. 1994. The Random Neural Network. (Preliminary Copy, unpublished, 234). Gelenbe, E., Harmancı, K. and Krolik, J. 1998. Learning neural networks for detection and classification of synchronous recurrent transient signals. Signal Processing, 64 (3). Gelenbe, E. and Hussain, K.F. 2002. Learning in the multiple class random neural network. IEEE Trans. on Neural Networks, vol.13, no.6, Nov., 1257-1267. Gelenbe, E. and Koçak, T. 2000. Area-based results for mine detection. IEEE Trans. on Geoscience and Remote Sensing, vol.38, no.1, 12-24. Gelenbe, E., Kotia, S. and Krauss, D. 1997. Call establishment overload in large ATM networks. Performance Evaluation, 31, 33-49. Gelenbe, E., Koubi, V. and Pekergin, F. 1994. Dynamical random neural network approach to the travelling salesman problem. Elektrik, vol.2, no.1, 1-10. Gelenbe, E. and Labed, A. 1998. G-Networks with multiple classes of signals and positive customers. European J. of Operation Research, 108 (2), 293-305. Gelenbe, E. and Labed, A. 2000. The first decade of G-Networks. European J. of Operation Research, 126 (2), 231-232.
143
Gelenbe, E., Labed, A. and Cao, Y. 1998. Autonomomus search for mines. European J. of Operation Research, 108 (2), 319-333. Gelenbe, E., Labed, A. and Shachnai, H. 2000. On G-Networks and resource allocation in multimedia systems. European J. of Operation Research, 126 (2), 308-318. Gelenbe, E., Mao, Z.H. and Li, Y.D. 1998. Function approximation with spiken random networks. IEEE Trans. on Neural Networks, vol.10, no.1, 3-9. Gelenbe, E., Mao, Z.-H. and Da-Li, Y. 2004. Function approximation by random neural networks with a bounded number of layers. J. Differential Equations and Dynamical Systems, vol.12(1 and 2), 143-170. Gelenbe, E. and Mitriani, I. 1980. Analysis and Synthesis of Computer Systems. Academic Press, 239, London. Gelenbe, E. and Pujolle, G. 1998. Introduction to Networks of Queues. (2nd ed.) Wiley, New York, 244. Gelenbe, E. and Schassberger, R. 1992. Stability of G-netowrks. Probability in Engineering and Information Sciences 6, 271-276. Gelenbe, E. and Shachnai, H. 2000. On G-networks and resource allocation in multimedia systems. European J. of Operational Research, 126, 308-318. Gelenbe, E. and Stafylopatis, A. 1991. Global behaviour of homogeneous random neural systems. Applied Math. Modelling, 15, 535-541. Gelenbe, E., Stafylopatis, A. and Likas, A. 1991a. An extended random network model with associative memory capabilities. Proc. Int. Conf. on Artificial Neural Networks (ICANN'91), Helsinki. Gelenbe, E., Stafylopatis, A. and Likas, A. 1991b. Associative memory operation of the random network model. EHEI Rapport de Resherche, no.91-3. Universite Rene Descartes. Gelenbe, E. and Sungur, M. 1994a. Image compression with the random neural network. Proc. of the Int. Conf. on Artificial Neural Networks, North-Holland, Elsevier. Gelenbe, E. and Sungur, M. 1994b. Random network learning and image compression. Proc. of the Int. Conf. on Artificial Neural Networks, 3396-3399. Gelenbe, E. and Sungur, M. 1994c. Random nets and image compression. (unpublished). Gelenbe, E., Sungur, M. and Cramer, C. 1994. Learning random networks for compression of still and moving images. (unpublished). Gelenbe, E., Şeref, E. and Xu, Z. 2001. Simulation with learning agents. Proceedings of the IEEE, vol.89, no.2, 148-157. Gelman, A. and Rubin, D.B. 1992. Inference from iterative simulation using multiple sequences. Statistical Science, vol.7, no.4, 457-511. Geman, S. and Geman, D. 1984. Stochastic relaxation, Gibbs distributions, and the Bayesian restoration of images. IEEE Trans. on PAMI, 6, 721-741. Geman, S. and Graffigne, C. 1987. Markov random field image models and their application to computer vision. Proc. of the Int. Cong. of Mathematicians (1986, Berkeley, CA), vol.2, Gleason, A.M. (ed.), American Mathematical Society, Providence, RI, 1496-1517. Geyer, C. J. 1992. Practical Markov chain Monte Carlo. Statistical Science, vol.7, no.4, 473-511. Ghanwani, A. 1994. A Qualitative comparison of neural network models applied to the vertex covering problem. Elektrik. vol.2, no.1, 11-19.
144
Gikhman I.I. and Skorokhod, A.V. 1969. Introduction to the Theory of Random Processes. W.B. Saunders Company, USA (Translated by Scripta Technica Inc., Originally : Vvedenie v Teorige Slychainich Processov. 1965. Nutka Press, 516, Moscow. Gilks W.R., Richardson, S. and Spiegelhalter, D.J. 1996. Markov Chain Monte Carlo in Practice. Chapman & Hall, 486, Great Britain. Goldfarb, L. 1992. What is distance and why we need the metric model for pattern learning. Pattern Recognition, vol.25, no.4, 431-438. Gonzales, R.C. and Wintz, P. 1987. Digital Image Processing. (2nd ed.) Addison- Wesley, 503, USA. Gordon, G.G. and Vincent, L. 1992. Application of Morphology to Feature Extraction for Face Recognition. Proc. SPIE vol.1658, Nonlinear Image Processing III, 151-164, San Jose (CA). Goutsias, J. 1992. Morphological analysis of discrete random shapes. J. Mathematical Imaging and Vision, 2, 193-215. Goutsias, J. 1993. Modeling random shapes : an introduction to random closed sets; Mathematical Morphology : Theory and Applications (Ch.10). Mathematical Morphology, Theory and Hardware, Haralick, R.M. (ed.), Oxford University Press. Goutsias, J. 1997. Markov Random Fields: Interacting Particle Systems for Statistical Image Modeling and Analysis. Technical Report 96-01, John Hopkins University, ECE Dept., 68. Goutsias, J. 1997. Morphological analysis of random sets : an introduction. Random Sets : Theory and Applications, Goutsias, J., Mahler, R.P.S., Nguyen, H.T. (ed.s), Springer, 3-25. Goutsias, J. and Batman, S. 2000. Morphological methods for biomedical image analysis. Handbook of Medical Imaging, vol.2, Medical Image Processing and Analysis, M. Sonka, J.M. Fitzpatrick (ed.s), SPIE Press, Bellingham, Washington, 175-272. Goutsias, J. and Heijmans, H.J.A.M. 2000a. Nonlinear multiresolution signal decomposition schemes, Part 1 : Morphological pyramids. IEEE Trans. on Image Processing, 9(11), 1862-1876. Goutsias, J. and Heijmans, H.J.A.M. 2000b. Fundamenta Morphologicae Mathematicae. Fundamenta Informaticae 41 (1-2), 1-31. Goutsias, J., Heijmans, H.J.A.M. and Sivakumar, K. 1995. Morphological operators for image sequences. Computer Vision, and Image Understanding, vol.62(3), 326- 346. Goutsias, J., Mahler, R.P.S. and Nguyen H.T. (ed.s). 1997. Random Sets, Theory and Applications. IMA Volumes in Mathematics and Its Applications, no.97, Springer. Goutsias, J. and Schonfeld, D. 1991. Morphological representation of discrete and binary images. IEEE Trans. on Signal Processing, vol.39, no.6, June. Goutsias, J. and Sivakumar, K. 1998. A multiresolution morphological approach to stochastic image modeling. CWI Quarterly, vol.11, no.4, Special Issue : Signals and Images, Amsterdam. Goutsias, J. and Wen, C. 1990. Modeling discrete random shapes : a random set theory approach. Technical Report JHU/ECE 90-13, The John Hopkins University.
145
Goutsias, J., Wen, C. 1991. Discrete random set models for shape synthesis and analysis. Proc. SPIE vol.1606 Visual Communications and Image Processing '91 : Image Processing, Society for Optical Engineering, 174-185. Gray, D. and Michel, A.N. 1992. A training algorithm for binary feedforward neural networks. IEEE Trans. on Neural Networks, vol.3, 176-194, March. Haas, A., Matheron, G. and Serra, J. 1967. Morphologie Mathématique et granulométries en place. Annales des Mines - Part I : vol.XI, Nov. , 736-753 - Part II : vol.XII, Dec. , 768-782. Hajer, J., Kamel, H. and Noureddine, E. 2006. Blood vessels segmentation in retina image using mathematical morphology and the STFT analysis. 2nd Information and Communication Technologies: from Theory to Applications, 2006. ICTTA '06. vol.1, 24-28 April, 1130-1134. Halıcı, U. 1995. Learning in mazes by random neural networks with recency effect. Proc. of the 10th Int. Symp. on Computer and Information Sciences, ISCIS '95 (10th), 707-714, Kuşadası, Turkey. Halıcı, U. 1997. Reinforcement learning in random neural networks for cascaded decisions. Biosystems, 40, 83-91. Halıcı, U. 1998. Reward, punishment, and internal expectation for training the random neural network with reinforcement. Advances in Computer Sciences '98, Güdükbay, U., Dayar, T., Gürsoy, A., Gelenbe, E. (ed.s), Proc. of the ISCIS '98 (13th), Antalya, Turkey, 162-169. Halıcı, U. 2000. Reinforcement learning with internal expectation for the random neural network. European J. of the Operational Research, 126, 288-307. Halıcı, U., Badaroğlu, M., Aybay, I. and Çerkez, C. 1997. A digital random neural network chip design. Proc. of Neurel 97, Belgrade, Yugoslavia, 77-83. Halıcı, U. and Karaöz, E. 1998. A linear approximation for training recurrent random neural networks. Advances in Computer Sciences '98, Güdükbay, U., Dayar, T., Gürsoy, A., Gelenbe, E. (ed.s), Proc. of the ISCIS '98 (13th), Antalya, Turkey, 149-156. Hall, P. and Molchanov, I.S. 1999. Corrections for systematic boundary effects in pixel-based area counts. Pattern Recognition, 32, 1519-1528. Han, C.-C., Liao, H.-Y.M., Yu, G.-J. and Chen, L.-H. 2000. Fast face detection via morphology-based pre-processing. Pattern Recognition, 33, 1701-1712. Handley, J.C. and Dougherty, E.R. 1999. Maximum-likelihood estimation and optimal filtering in the nondirectional one-dimensional binomial germ-grain model. Pattern Recognition, 32, 1529-1541. Haralick, R.M., Sternberg, S.R. and Zhuang, X. 1987. Image analysis using mathematical morphology. IEEE Trans. on PAMI, vol.PAMI-9, no.4, 532-550. Haralick, R.M. and Shapiro, L.G. 1992. Computer and Robot Vision : vol.1. Addison- Wesley, 672, USA. Haralick, R. M. and Shapiro, L.G. 1993. Computer and Robot Vision : vol.2. Addison- Wesley, 629, USA. Haralick, R.M., Zhuang, X., Lin, C. and Lee, J.S.J. 1989. The digital morphological sampling theorem. IEEE Trans. on Acoustics, Speech, and Signal Processing, vol.37, no.12, 2067-2090. Harding, E.F. and Kendall, D.G., (eds.). 1974. Stochastic Geometry. John Wiley & Sons, 400, Great Britain.
146
Harison, P.G. 1998. Response times in G-nets. Advances in Computer and Information Sciences '98, Güdükbay, U. (ed.), IOS Press, 9-16. Harison, P.G., Patel, N.M. and Pitel, E. 2000. Reliability modelling using G-queues. European J. of Operational Research, 126, 273-287. Harvey, N.R. and Marshall, S. 1999. Restoration of archieve film material using multi- dimensional soft morphological filters. Proc. of the IEEE-EURASIP Workshop on Nonlinear Signal and Image Processing, Antalya, Turkey, 811- 815. Hassner, M. and Sklensky, J. 1980. The use of Markov random fields as models of texture. Computer Graphics and Image Processing, 12, 357-370. Hastings, W.K. 1970. Monte Carlo sampling methods using Markov chains and their applications. Biometrika, 57, 1, 97-109. Hayden, S. and Kennison, J.F. 1968. Zermelo-Fraenkel Set Theory. C.E.Merrill Publishing Co. Hazout, S. and Nguyen, N.Q. 1991. Image analysis by morphological automata. Pattern Recognition, vol.24, no.5, 401-408. Heijmans, H.J.A.M. 1991. Theoretical aspects of gray-level morphology. IEEE Trans. on PAMI, vol.13, no.6, 568-582. Heijmans, H.J.A.M. 1992. Mathematical morphology: a geometrical approach to image processing, Nieuw Archief voor Wiskunde, Vierde Serie, Deel 10, no.3, 237-276. Heijmans, H.J.A.M. 1993. Aspects of the theory of morphological operators and filters. Workshop on Design Methodologies for Microelectronics and Signal Processing, Gliwice-Cracow, Poland, 377-387. Heijmans, H.J.A.M. 1994a. Morphological Image Operators. Academic Press, Boston, 509. Heijmans, H.J.A.M. 1994b. On the construction of morphological operators which are selfdual and activity-extensive. Signal Processing, 38, 13-19. Heijmans, H.J.A.M. 1994c. Mathematical morphology as a tool for shape description. Shape in Picture: Mathematical Description of Shape in Grey-level Images, Y- L. O, A. Toet, D. Foster, H.J.A.M. Heijmans and P. Meer (eds), Springer, 147- 176. Heijmans, H.J.A.M. 1994d. Construction of self-dual morphological operators and modifications of the median. Proc. of First IEEE Conf. on Image Processing (ICIP94), Austin, Texas. Heijmans, H.J.A.M. 1995a. Mathematical morphology: basic principles. Proc. of Summer School on Morphological Image and Signal Processing, Zakopane, Poland. Heijmans, H.J.A.M. 1995b. Morphological filters. Proc. of Summer School on Morphological Image and Signal Processing, Zakopane, Poland. Heijmans, H.J.A.M. 1996. Self-dual morphological operators and filters. J. Math. Imaging Vision, 6(1), 15-36. Heijmans, H.J.A.M. 1997. Composing morphological filters. IEEE Trans. Image Proc. 6(5), 713-723. Heijmans, H.J.A.M. 1999. Connected Morphological Operators for Binary Images. Computer Vision and Image Understanding,73(1), 99-120. Heijmans, H.J.A.M. 2001. Scale-spaces, PDE's, and scale-invariance. Proc. of Third Int. Conf. on Scale-Space and Morphology, Vancouver.
147
Heijmans, H.J.A.M. and Boomgaard R.V.D. 2002. Algebraic Framework for Linear and Morphological Scale-Spaces. J. Visual Comm. Image Representation 13, 269-301. (Report PNA-R0003, February 2000, CWI, Amsterdam) Heijmans, H.J.A.M. and Goutsias, J. 1998a. Some Thoughts on Morphological Pyramids and Wavelets. Proc. of the IX European Signal Processing Conf., EUSIPCO, Island of Rhodes, Greece. Heijmans, H.J.A.M. and Goutsias, J. 1998b. Morphology-Based Perfect Reconstruction Filter Banks. Proc. of the IEEE-SP Int. Symp. on Time-Frequency and Time- Scale Analysis, Pittsburgh, Pennsylvania. Heijmans, H.J.A.M. and Goutsias, J. 2000a. Nonlinear multiresolution signal decomposition schemes. Part 2 : Morphological wavelets. IEEE Trans. on Image Processing, 9(11), 1897-1913. Heijmans, H.J.A.M. and Goutsias, J. 2000b. Morphological Pyramids and Wavelets Based on the Quincunx Lattice. Proc. of ISMM2000, Palo Alto. Heijmans, H.J.A.M. and Keshet, R. 2000. First steps towards a self-dual morphology. Proc. of the IEEE Int. Conf. on Image Processing, Vancouver, Canada. Heijmans, H.J.A.M. and Keshet, R. 2001. Inf-semilattice approach to self-dual morphology. Report PNA-R0101, CWI, Amsterdam. Heijmans, H.J.A.M. and Maragos, P. 1997. Lattice Calculus of the Morphological Slope Transform. Signal Processing, 59 (1), 17-42. Heijmans, H.J.A.M. and Molchanov, I.S. 1998. Morphology on Convolution Lattices with Applications to the Slope Transform and Random Set Theory. J. Math. Imaging Vision 8(3), 199-214. Heijmans, H.J.A.M., Nacken, P., Toet, A. and Vincent, L. 1992. Graph Morphology. J. of Visual Communication and Image Representation, vol.3, no.1, 24-38. (Technical Report CWI no.AM-R9019, August 1990, Amsterdam). Heijmans, H.J.A.M. and Roerdink, J.B.T.M. (ed.s). 1998. Mathematical Morphology and its Applications to Image and Signal Processing. Kluwer, Dordrecht. Heijmans, H.J.A.M. and Ronse, C. 1990. The algebraic basis for mathematical morphology I : Dilations and erosions. Computer Vision, Graphics, and Image Processing, vol.50, 245-295. Heijmans, H.J.A.M. and Ronse, C. 1999. Annular filters for binary images. IEEE Trans. Image Processing 8 (10), 1330-1340. (Report BS-R9604, April 1996, CWI, Amsterdam). Heijmans, H.J.A.M. and Toet, A. 1991. Morphological sampling. Computer Vision, Graphics, and Image Processing : Image Understanding, vol.54, 384-400. Heijmans, H.J.A.M. and Tuzikov, A. 1996. Similarity and Symmetry Measures for Convex Shapes Using Minkowski Addition. Report BS-R9610, CWI, Amsterdam (IEEE Trans. on Pattern Analysis Machine Intelligence, 1998). Heijmans, H.J.A.M. and Vincent, L. 1992. Graph Morphology in Image Analysis. Mathematical Morphology in Image Processing, Dougherty, E. (ed.), Marcel- Dekker, 171-203. Heikkinen, J. and Arjas, E. 1998. Non-parametric Bayesian estimation of a spatial poisson intensity. Scand. J. Statist., vol.25, 435-450. Herwig, C.B. and Schalkoff, R.J. 1996. Implementing morphological image operators via trained neural networks. Mathematical Morphology and its Applications to Image and Signal Processing, Kluwer, Academic Pub.
148
Hess, C. 1999. Conditional expectation and martingales of random sets. Pattern Recognition, vol.39, no.9, 1543-1568. Hey, L.A., Cheung, P.Y.K. and Gellman, M. 2005. FPGA based router for cognitive packet networks. Proc. of 2005 IEEE Int. Conf. on Field-Programmable Technology, 11-14 Dec., 331-332. Hirata, N.S.T., Dougherty, E.R. and Barrera, J. 2000. A switching algorithm for design of optimal increasing binary filters over large windows. Pattern Recognition, vol.33, no.6, 1059-1082. Hocaoğlu, A.K. 2000. Choquet integral-based morphological operators with applications to object detection and information fusion. PhD Dissertion, University of Missouri - Columbia, EE Dept., USA, 144. Hu, J. and Deng, W. 2005. A robust morphological associative memory endowed with dendrites. Int. Conf. on Neural Networks and Brain, 2005. ICNN&B'05. vol.1, 13-15 Oct., 147-149. Huang, C.-P. 1996. Signal representation using fuzzy morphology and its applications. Ph.D. Dissertion, University of Pittsburg, EE Dept., USA, 135. Hubbard, B.B. 1996. The World According to Wavelets. A.K. Peters, 264, Massachusettes. Hubert, C. 1992a. Autoassociative memory with the random neural network using Gelenbe's learning algorithm. Neural Networks : Advances and Applications 2, Gelenbe, E. (ed.), Elsevier Science Pub. Co., 1999-2014. Hubert, C. 1992b. Supervised learning and retrieval of simple images with the random neural network. (unpublished). Jain, A.K. 1989. Fundamentals of Digital Image Processing. Prentice-Hall, 549, New Jersey. Jensen, J.R. 1986. Introductory Digital Image Processing : A Remote Sensing Perspective. Prentice-Hall, 379, New Jersey. Jensen, J.R. and Gundersen, H.J.G. 1985. The steorological estimation of moments of particle volume. J. Appl. Prob., 22, 82-98. Ji, L. and Piper, J. 1992. Fast homotopy-preserving skeletons using mathematical morhology. IEEE Trans. on PAMI, vol.14, no.6, 653-664. Jo, S., Yin, J. and Mao, Z.-H. 2005. Random neural networks with state-dependent firing neurons. IEEE Trans. on Neural Networks, vol.16, no.4, July, 980-983. Johnson, P.E. 1972. A History of Set Theory. Prindle, Weber, & Schmidt Inc. Jones, D.G. and Jackway, P.T. 2000. Granolds : a novel texture representation. Pattern Recognition, 33, 1033-1045. Kellerer, A.M. 1985. Counting figures in planar random configurations. J. Appl. Prob., 22, 68-81. Kendall, D.G. 1974. Foundations of a theory of random sets. Stochastic Geometry, Harding, E. F., Kendall, D. G., (eds.), John Wiley & Sons, Great Britain. Kendall, D.G. 1989. A survey of statistical theory of shape. Statistical Science, vol.4, no.2, 87-120. Kendall, M.G. and Moran, P.A.P. 1963. Geometric Probability. Charles Griffin & Company Limited, 139, London. Kendall, W.S., Lieshout, M.N.M. Van and Baddeley, A.J. 1999. Quermass-Interaction processes : conditions for stability. Adv. Appl. Prob., (SGSA), 31, 315-342. Kendall, W.S. and Thonnes, E. 1999. Perfect simulation in stochastic geometry. Pattern recognition, vol.32, no.9, 1569-1586.
149
Keshet, R. and Heijmans, H.J.A.M. 2001. Morphological adjunctions, pyramid decisions, and curve evolution. Proc. of Third Int. Conf. on Scale-Space and Morphology, Vancouver. Khabou, M.A. and Solari, L.F., 2006. A Morphological Neural Network-Based System for Face Detection and Recognition. Proc. of the IEEE SoutheastCon, 2006, March 31 - April 2, 296-301. Kim, J. H. and Park, S.-K. 1995. The geometrical learning of binary neural networks. IEEE Trans. on Neural Networks, vol.6, no.1, Jan., 237-247. Klein, J.C. and Serra, J. 1971. The texture analyzer. Journal of Microscopy, vol.95, no.2, 349-356. Koçak, T. 2001. Applications of the Random Neural Network to Some Inverse Problems in Image Processing. PhD Dissertion, Duke University, ECE Dept., USA, 127. Koçak, T. and Draper, M. 2006. A back-propagation neural network landmine detector using the Delta-technique and S-statistic. Neural Processing Letters, vol.23, no.1, Feb. 47-54. Koçak, T., Seeber, J. and Terzioglu, H. 2003. Design and implementation of a random neural network routing engine. IEEE Trans. on Neural Networks, vol.14, no.5, Sept., 1128-1143. Kosko, B. (ed.). 1992. Neural Networks for Signal Processing. Prentice Hall International, 399, USA. Kou, W. 1995. Digital Image Compression : Algorithms and Standards. Kluwer Academic Publishers, 192, USA. Koza, J.R. and Rice, J.P. 1992. Genetic generation of both the weights and architecture for a neural network. (unpublished). Krishnamurthy, S., Iyengar, S.S., Holyer, R.J. and Lybanon, M. 1994. Histogram-based morphological edge detector. IEEE Trans. on Geoscience and Remote Sensing, vol.32, no.4, 759-769. Lange, H. and Vincent, L. 2000. Advanced Gray-scale Morphological Filters for the Detection of Sea Mines in Side-scan Sonar Imagery. Proc. SPIE vol.4038, Detection and Remediation Technologies for Mines and Minelike Targets, Orlando, 362-373. Lantuejoul, C. 2002. Conditional simulation of a boolean model. unpublished. Last, G. and Holtmann, M. 1999. On the empty space function of some germ grain models. Pattern Recognition, 32, 1587-1600. Lee, C.K. and Wong, S.P. 1996. A mathematical morphological approach for segmenting heavily noise corrupted images. Pattern Recognition, vol.29, no.8, 1347-1358. Lee, K.-H., Morales, A. and Ko, S.-J. 1997. Adaptive basis matrix for the morphological function processing opening and closing. IEEE Trans. Image Processing, vol.6, no.5, May, 769-774. Lemmon, E.J. 1968. Introduction to Set Theory. Routledge & Kegan Paul Ltd. Li, B. and Dougherty, E.R. 1993. Size distribution estimation in process fluids by ultrasound for particle sizes in the wavelength range. Optical Engineering, vol.32, 1967-1980. Lieshout, M.N.M. Van. 1997a. On likelihoods for Markov random sets and Boolean Models. Proc. of the Int. Symp. on Advances In Theory And Applications of Random Sets, Jeulin, D. (ed.) (1996), 121-136.
150
Lieshout, M.N.M. Van. 1997b. Size Distributions in Stochastic Geometry. Report PNA-R9715, CWI, Amsterdam, NL. Lieshout, M.N.M. Van. 1999a. Size-biased random closed sets. Patern Recognition, vol.32, no.9, 1631-1644. Lieshout, M.N.M. Van. 1999b. A Note on the Superposition of Markov Point Processes. Report PNA-R9906, CWI, Amsterdam, NL. Likas, A. and Stafylopatis, A. 1991. An investigation of the analogy between the random network and the Hopfield network. Computer and Information Sciences 6, (ed.s) Baray, M., Özgüç, B., Elsevier Science Publications, 849-857. Likas, A. and Stafylopatis, A. 2000. Training the random neural network using quasi- Newton methods. European J. of Operational Research, 126, 331-339. Louverdis, G., Vardavoulia, M.I., Andreadis, I. and Tsalides, P. 2002. A new approach to morphological color image processing. Pattern Recognition, 35, 1733-1741. Lu, R. and Shen, Y. 2005. Image segmentation based on random neural network model and gabor filters. 27th Annual Int. Conf. of the Engineering in Medicine and Biology Society, 2005, IEEE-EMBS 2005, 01-04 Sept., 6464-6467. Luettgen, M.R. 1993. Image Processing with the Multiscale Stochastic Models. Ph.D. Thesis, MIT, Dept. of Electrical Eng. And Computer Science, 215, Cambridge, Massachusetts. Luo, H., Kong, F., Zhang, K. and He, L. 2006. A Clustering Algorithm Based on Mathematical Morphology. The Sixth World Congress on Intelligent Control and Automation, 2006, WCICA 2006, vol.2, 21-23 June, 6064-6067. Maragos, P. 1989a. Pattern spectrum and multiscale shape representation. IEEE Trans. on PAMI, vol.11, 701-716. Maragos, P. 1989b. A representation theory for morphological image and signal processing. IEEE Trans. on PAMI, vol.11, no.6, 586-599. Maragos, P. 1996. Differential morphology and image processing. IEEE Trans. on Image Processing, vol.5, 922-937. Maragos, P. and Schafer, R.W. 1986. Morphological skeleton representation and coding of binary images. IEEE Trans. on Acoustics, Speech, and Signal Procesing, vol.ASSP-34, no.5, 1228-1244. Maragos, P. and Schafer, R.W. 1987a. Morphological filters - Part I : Their set- theoretic analysis and relations to linear shift-invariant filters. IEEE Trans. on Acoustics, Specch, and Signal Processing, vol.35, 1153-1169. Maragos, P. and Schafer, R.W. 1987b. Morphological filters - Part II : Their relations to median, order-statistic, and stack filters. IEEE Trans. on Acoustics, Specch, and Signal Processing, vol.35, 1176-1184. Mardia, K. V. 1988. Multi-dimensional multivariate Gaussian Markov random fields with application to image processing. Journal of Multivariate Analysis, 24, 265-284. Marmarelis, V.Z., Zanos, T.P., Courellis, S.H. and Berger, T.W. 2006. Boolean modeling of neural systems with point-process inputs and outputs. 28th Annual Int. Conf. of the IEEE Engineering in Medicine and Biology Society, EMBS'06. Aug., 2114-2117. Matheron, G. 1967. Elements pour une theorie des Milieux Poreux. Masson. Matheron, G. 1972. Random sets theory and its application to stereology. Journal of Microscopy, 95, 15-23. Matheron, G. 1975. Random Sets and Integral Geometry. Wiley, 261, New York.
151
Meyer, F. 1999. Morphological multiscale and interactive segmentation. Proc. of the IEEE-EURASIP Workshop on Nonlinear Signal and Image Processing (NSIP '99), Antalya, Turkey, 369-377. Meyer, Y. and Ryan, R.D. 1993. Wavelets : Algorithms & Applications. SIAM, 133, Philadelphia. Moh, J. and Shih, F.Y. 1995. A general purpose model for image operations based on multilayer perceptrons. Pattern Recognition, vol.28, no.7, 1083-1090. Mokhtari, M. 1992. Storage and recognition methods for the random neural network. Networks : Advances and Applications - 2, Gelenbe, E. (ed.), Elsevier Science Pub. Co., Amsterdam. Molchanov, I.S. 1984. A generalization of the Choquet theorem for random sets with a given class of realizations. (Russian). Teor. Veroyatnost. i Matem. Statist., 1983, 28, 86-93. English translation in: Theor. Probability and Math Statist., 1984, 28, 99-106. Molchanov, I.S. 1990. Estimation of the size distribution of spherical grains in the Boolean model. Biom. J., 7, 877-886. Molchanov, I.S. 1992. Handling with spatial cencored observations in statistics of Boolean models of random sets. Biom. J., 34, 5, 617-631. Molchanov, I.S. 1993a. Strong law of large numbers for unions of random closed sets. Stochastic Processes and Their Aplications, 46, 199-212. Molchanov, I.S. 1993b. Limit theorems for convex hulls of random sets. Adv. Appl. Prob., 25, 395-414. Molchanov, I.S. 1993c. On distributions of random closed sets and expected convex hulls. Statistics & Probability Letters, 17, 253-257. Molchanov, I.S. 1993d. Limit Theorems for Unions of Random Closed Sets. Lecture Notes in Mathematics, 1561, Springer-Verlag, 160. Molchanov, I.S. 1994. On statistical analysis of Boolean models with non-random grains. Scandinavian J. of Statistics, vol.21, 73-82. Molchanov, I.S. 1995. Statistics of the Boolean model : from the estimation of means to the estimation of distributions. Adv. Appl. Prob., 27, 63-86. Molchanov, I.S. 1996a. Set-valued estimators for mean bodies related to Boolean models. Statistics, 28, 43-56. Molchanov, I.S. 1996b. A limit theorem for scaled vacancies of the Boolean model. Statistics and Stochastic Reports, vol.58, 45-65. Molchanov, I.S. 1997a. Statistics of the Boolean Model for Practitioners and Mathematicians. John Wiley & Sons, 162, England. Molchanov, I.S. 1997b. Set-valued means of random particles. J. of Mathematical Imaging and Vision, 7, 111-121. Molchanov, I.S. 1997c. Statistical problems for random sets. Random Sets, Theory and Applications, Goutsias, J., Mahler, R.P.S., Nguyen, H.T. (ed.s), Springer. Mochanov, I.S. 1998a. Averaging of random sets and binary images. CWI Quarterly, vol.11, no.4, Special Issue : Signals and Images, Amsterdam. Molchanov, I.S. 1998b. Grey-scale images and random sets. Mathematical Morphology and its Applications to Image and Signal Processing, H.J.A.M. Hejmans, J.B.T.M. Roerdink (ed.s), Kluwer, Dordrecht. Molchanov, I.S. 1999a. On strong laws of large numbers for random upper semicontinuous functions. J. of Mathematical Analysis and App.s, 235, 349- 355.
152
Molchanov, I.S. 1999b. Random closed sets : results and problems, (Chapter 7). Stochastic Geometry, Likelihood and Computation, Barndorff-Nielsen, O., Kendall, W., Lieshout, M.N.M. (ed.s), Chapman & Halll / CRC. Molchanov, I.S. 1999c. Diffusion-limited aggregation with jumps and flights. J. Statist. Comput. Simul., vol.64, 357-381. Molchanov, I.S. and Chiu, S.N. 2000. Smoothing techniques and estimation methods for nonstationary Boolean models with applications to coverage processes. Biometrika, 87, 2, 265-283. Molchanov, I.S., Omey, E. and Kozarovitzky, E. 1995. An elementary renewal theorem for random compact convex sets. Adv. Appl. Prob., (SGSA), 27, 931-942 Molchanov, I.S. and Stoyan, D. 1994a. Directional analysis of fibre processes related to Boolean models. Metrika, 41, 183-199. Molchanov, I.S. and Stoyan, D. 1994b. Asymptotic properties of estimators for parameters of the Boolean model. Adv. Appl. Prob., 26, 301-323. Molchanov, I.S. and Stoyan, D. 1996. Statistical models of random polyhedra. Commun. Statist.-Stochastic Models, 12(2), 19-214. Moore, M. 1988. Spatial linear processes. Communications in Statistics. Stochastic Models, 4, 45-75. Moore, M. and Archambault, S. 1991. On the asymptotic behaviour of some statistics based on morphological operations. Spatial Statistics and Imaging, Possolo, A. (ed.), vol.20, Hayward, California, Institute of Mathematical Statistics, Lecture Notes, Monograph Series, 258-274. Morales, A. and Ko, S.-J. 1992. Efficient neural network implementation of morphological operations. SPIE Nonlinear Image Provessing III, vol.1658, 276-286. Morales, E. and Shih, F.Y. 2000. Wavelet coefficients using morphological operations and pruned quadtrees. Pattern Recognition, 33, 1611-1620. Muroga, S. 1971. Threshold Logic and Its Applications. John Wiley & Sons, 478, USA. Naegel, B. Passat, N. and Ronse, C. 2007. Grey-level hit-or-miss transforms - Part I: Unified theory. Pattern Recognition, vol.40, no.2, Feb., 635-647. Naegel, B. Passat, N. and Ronse, C. 2007. Grey-level hit-or-miss transforms - Part II: Application to angiographic image processing. Pattern Recognition, vol.40, no.2, Feb., 648-658. Nippe, M. and Ohser, I. 1999. The stereological unfolding problem for systems of homothetic particles. Pattern Recognition, 32, 1649-1655. Nominé, J.-P., Vincent, L., Meyer, F., Serra, J., Escande, J.-P. and Arnaud-Battandier, J. 1987. Cutaneous Aging and Mathematical Morphology. Acta Stereologica, vol.6/III, (also Proc. 7th Int. Congress For Stereology, Caen, France), Sept., 895-900. Norberg, T. 1984. Convergence and existance of random set distributions. Annals of Probability, 12, 726-732. Oh, J. 1998. Adaptive fuzzy morphological filter design and its applications. PhD Dissertion, University of Pittsburg, EE Dept., USA, 116. Pao, Y. H. 1989. Adaptive Pattern Recognition and Neural Networks. Addison Wesley, 309, Massachusetts. Parzen, E. 1962. Stochastic Processes. Holden Day, San Fransisco, 324.
153
Peli, T., Vincent, L. and Tom, V. 1993. Morphology-based algorithms for target detection/segmentation in FLIR Imagery. Proc. SPIE vol.1957, Architecture, Hardware, and FLIR Issues in Automatic Target Recognition, Orlando. Perez, P. 1998. Markov random fields and images. CWI Quarterly, vol.11, no.4, Special Issue : Signals and Images, Amsterdam. Pessoa, L.F.C. 1997. Nonlinear systems and neural networks with hybrid morphological/rank/linear nodes: Optimal design and applications to image processing and pattern recognition. PhD Dissertion, Georgia Institute of Technology, EE Dept., USA, 100. Pessoa, L.F.C. and Maragos, P. 1996. Morphological / rank neural networks and their adaptive optimal design for image processing. Proc. of the IEEE Int. Conf. on Acoustics, Speech, & Signal Processing, vol.6, Atlanta, GA, May, 3393-3401. Pessoa, L.F.C. and Maragos, P. 1998. MRL-Filters : a general class of nonlinear systems and their optimal design for image processing. IEEE Trans. Image Processing, vol.7, July, 966-978. Pessoa, L.F.C. and Maragos, P. 2000. Neural networks with hybrid morphological/rank/linear nodes : a unifying framework with applications to handwritten charecter recognition. Pattern Recognition, vol.33, no.6, 945-960. Pitas, I. and Maglara, A. 1991. Range image analysis by using morphological signal decomposition. Pattern Recognition, vol.24, 165-181. Pitas, I. and Venetsanopoulos, A.N. 1990. Morphological shape decomposition. IEEE Trans. on PAMI, vol.11, 701-716. Pitas, I. and Venetsanopoulos, A.N. 1992. Morphological shape representation. Pattern Recognition, vol.25, no.6, 555-565. Pitman, J. 2005. Poisson Point Processes. Lecture Notes. U. of California at Berkeley, Math. Dept. (unpublished). Popov, A.T. 1999. Hausdorff distance and fractal dimension estimation by mathematical morphology revisited. Proc. of the IEEE-EURASIP Workshop on Nonlinear Signal and Image Processing (NSIP'99), Antalya, Turkey, 90-94. Potamianos, G. and Goutsias, J. 1991. A novel method for computing the partition function of Markov random field images using Monte Carlo simulations. Proc. Int. Conf. Acoust. Speech Signal Process., Toronto, vol.4, 2325-2328. Potamianos, G. and Goutsias, J. 1993a. Partition function estimation of Gibbs random field images using Monte Carlo simulations. IEEE Trans. on Information Theory, vol.39, no.4, 1322-1332. Potamianos, G. and Goutsias, J.K. 1993b. An analysis of Monte Carlo methods for likelihood estimation of Gibbsian images. Proc. Int. Conf. Acoust. Speech Signal Process., Minneapolis, vol.V, 519-522. Potamianos, G. and Goutsias, J. 1997. Stochastic approximation algorithms for partition function estimation of Gibbs random fields. IEEE Trans. on Information Theory, vol.43, no.6, 1948-1965. Pratt, W.K. 1991. Digital Image Processing. (2nd ed.) John Wiley & Sons, 698, New York. Rao, C.R. 1973. Linear Statistical Inference and Its Applications. (2nd ed.) Wiley, 625, New York. Razaz, M. and Hagyard, D.M.P. 1999. Efficient convolution based algorithms for erosion and dilation. Proc. of the IEEE-EURASIP Workshop on Nonlinear Signal and Image Processing (NSIP'99), Antalya, Turkey, 360-363.
154
Reinhardt, J.M. and Higgins, W.E. 1996. Efficient morphological shape representation. IEEE Trans. on Image Processing, vol.5, 89-101. Ripley, B.D. 1976a. Locally finite random sets : foundations for point process theory. The Annals of Probability, 4, 983-994. Ripley, B.D. 1976b. The foundations of stochastic geometry. The Annals of Probability, 4, 995-998. Ripley, B.D. 1977. Modelling spatial patterns. Journal of the Royal Statistical Society B, 39, 172-192. Ripley, B. D. 1981. Spatial Statistics. Wiley, 252, New York. Ripley, B.D. 1984. Spatial statistics : developments 1980-1983. Int. Statistical Review, 52, 141-150. Ripley, B.D. 1988. Statistical Inference for Spatial Processes. Cambridge University Press, 148, Cambridge. Ripley, B.D. 1996. Pattern Recognition and Neural Networks. Cambridge University Press, 403, Cambridge. Ritter, G.X. and Beaver, T.W. 1999. Morphological perceptrons. Int. Joint Conf. on Neural Networks, 1999. IJCNN'99. vol.1, 10-16 July, 605-610. Ritter, G.X. and Sussner, P. 1996. An introduction to morphological neural networks. Proc. of the 13th Int. Conf. on Pattern Recognition, 1996, vol.4, 25-29 Aug., 709-717. Ritter, G.X., Wilson, J.N. and Davidson, J.L. 1990. Image algebra : an overview. Computer Vision, Graphics, and Image Processing, 49, 297-331. Roerdink, J.B.T.M. 2000. Group morphology. Pattern Recognition, vol.33, no.6 (Special Issue : Mathematical Morphology and Nonlinear Image Processing), 897-895. Ronse, C. 1990. Why mathematical morphology needs complete lattices. Signal Processing, vol.21, 129-154. Ronse, C. 1998. Removing and extracting features using mathematical morphology. CWI Quarterly, vol.11, no.4, Special Issue : Signals and Images, Amsterdam. Ronse, C. and Heijmans, H.J.A.M. 1991. The algebraic basis of mathematical morphology II : Openings and closings. Computer Vision, Graphics, and Image Processing : Image Understanding, vol.54, 74-97. Rosen, B. and Vincent, L. 1994. Morphological Image Processing Techniques Applied to Detection of Correlogram Tracks. U.S. Navy Journal of Underwater Acoustics, vol.44, no.2, 571-586. Rosenfeld, A. (ed.). 1980. Image Modeling. Academic Press, London, 445. Sand, F. and Dougherty, E.R. 1997. Asymptotic granulometric mixing theorem : morphological estimation of sizing parameters and mixture proportions. Pattern Recognition, vol.31, no.1, 53-61. Sand, F. and Dougherty, E.R. 1999. Robustness of granulometric moments. Pattern Recognition, vol.32, no.9, 1667-1674. Santalo, L.H. 1976. Integral Geometry and Geometric Probability. Addison-Wesley, 404, USA. Sapiro, G., Kimmel, R., Shaked, D., Kimia, B.B. and Bruckstein, A.M. 1993. Implementing continuous-scale morphology via curve evolution. Pattern Recognition, vol.26, no.9, 1363-1372.
155
Saryazdi, S., Haese-Coat, V. and Ronsin, J. 2000. Image representation by a new optimal non-uniform morphological sampling. Pattern Recognition, vol.33, no.6, 961-977. Schalkoff, R.J. 1992. Pattern Recognition : Statistical, Structural, and Neural Approaches. John Wiley and Sons, 364, New York. Schavemaker, J.G.M., Reinders, M.J.T., Gerbrands, J.J. and Backer, E. 2000. Image sharpening by morphological filtering. Pattern Recognition, vol.33, no.6, 997- 1012. Schmitt, M. 1991. Estimation of the density in a stationary Boolean model. J. of Applied Probability, 28, 702- 708. Schonfeld, D. 1991. Optimal structuring elements for the morphological pattern restoration of binary images. IEEE Trans. on PAMI, vol.16, no.6, 589-601. Schonfeld, D. and Goutsias, J. 1991. Optimal morphological pattern restoration from noisy binary images. IEEE Trans. on PAMI, vol.13, 14-29. Schurmann, J. 1996. Pattern Classification : A Unified View of Statistical and Neural Approaches, John Wiley & Sons, 392, New York. Sebastian, R., Diaz, E., Ayala, D., Diaz, M.E., Zoncu, R. and Toomre, D. 2006. Studying endocytosis in space and time by means of temporal Boolean models. Pattern Recognition, vol.39, no.11, Nov., 2175-2185. Senn, W., Wyler, K., Streit, J., Larkum, M., Luscher, H.R., Mey, H., Muller, L., Stainhauser, D., Vogt, K. and Wannier, Th. 1996. Dynamics of a random neural network with synaptic depression. Neural Networks, vol.9, no.4, 575-588. Senn, W., Wannier, Th., Kleinle, J., Lüscher, H.R., Müller, L., Streit, J. and Wyler, K. 1996. Phase-locking of two oscillating random neural networks. Serra, J. 1972. Stereology and structuring elements. J. of Microscopy, vol.95, pt.1, 93- 103. Serra, J. 1980. The Boolean model and random sets. Computer Graphics and Image Processing, 12, (also in Image Modeling. Rosenfeld, A. (ed.), 1980, Academic Press, London, 445), 99-126. Serra, J. 1982. Image Analysis And Mathematical Morphology. Academic Press, 610, London. Serra, J. (ed.). 1988. Image Analysis and Mathematical Morphology, vol.2 : Theoretical Advances. Academic Press, 411, London. Serra, J. 1994. Morphological filtering : an overview. Signal Processing, vol.38, no.1, July, 3-11. Serra, J. and Vincent, L. 1989. Lecture Notes on Morphological Filtering. Cahiers du Centre de Morphologie Mathématique, no.8, School of Mines, Paris, June. Serra, J. and Vincent, L. 1992. An overview of morphological filtering. Circuits, Systems and Signal Processing, vol.11, no.1, 47-108. Shapiro, L. 1980. A structural model of shape. IEEE Trans. on PAMI, vol.PAMI-2, no.2, 111-126. Shih, F.Y.-C. and Mitchell, O.R. 1989. Threshold decomposition of gray-scale morphology into binary morphology. IEEE Trans. on PAMI, vol.11, no.1, 31- 42. Shih, F.Y.-C. and Mitchell, O.R. 1991. Decomposition of gray-scale morphological structuring elements. Pattern Recognition, vol.24, no.3, 195-203. Shih, F.Y.-C. and Moh., J. 1992. Implementing morphological operations using programmable neural networks. Pattern Recognition, vol.25, no.1, 89-99.
156
Shih, F.Y. and Pu, C.C. 1992. Morphological shape description using geometric spectrum on multidimensional binary images. Pattern Recognition, vol.25, no.9, 921-927. Shimada, M. and Saito, T. 2002. A GA-based learning algorithm for binary neural networks. IEICE Trans. Fundamentals, vol.E85-A, no.11, Nov., 2544-2546. Sidiropoulos, N.D. 1992. Statistical Inference, Filtering, and Modeling of Discrete Random Sets. Ph.D. Dissertion, University of Maryland, Baltimore, Dept. of Electrical Eng., 196. Sidiropoulos, N.D. 1992. On the tractability of estimating the germ process of certain germ-grain random set models and related problems. Pattern Recognition, 32, 1667-1674. Sidiropoulos, N. D. 1999. On the tractability of estimating the germ process of certain germ–grain random set models and related problems. Pattern Recognition, vol.32, no.9, Sept., 1667-1674. Sidiropoulos, N.D., Baras, J. and Berenstein, C. 1991a. Exact, Recursive, Inference of Event Space Probability Law for Discrete Random Set with Applications. Technical Report, TR-91-39, University of Maryland, College Park, Harvard University, System Research Center. Sidiropoulos, N.D., Baras, J. and Berenstein, C. 1991b. Bayesian Hypothesis Testing for Boolean Random Sets with Radial Convex Primary Grains Using Morphological Skeleton Transforms. Technical Report, TR-91-40, University of Maryland, College Park, Harvard University, System Research Center. Sidiropoulos, N.D., Baras, J. and Berenstein, C. 1991c. The Structure of Divisible Discrete Random Sets and Their Randomized Superpositions. Technical Report, TR-91- 54, University of Maryland, College Park, Harvard University, System Research Center. Sidiropoulos, N.D., Baras, J. and Berenstein, C. 1994. Further Results on MAP Optimality and Strong Consistency of Certain Classes of Morphological Filters. Technical Report, TR-94-84, University of Maryland, College Park, Harvard University, System Research Center. Sivakumar, K. 2000. Morphological Analysis of Random Fields : Theory and Applications, Ph.D. Dissertion, John Hopkins University, 168, Baltimore, Maryland, USA. Sivakumar, K. and Goutsias, J. 1994. Monte Carlo estimation of morphological granulametric discrete size distributions. Mathematical Morphology and Its Applications to Image Processing, ed. Serra, J., Soille, P., Dordrecht, The Netherlands : Kluwer, 233-240. Sivakumar, K. and Goutsias, J. 1996. Binary random fields, random closed sets, and morphological sampling. IEEE Trans. on Image Procesing, June, vol.5, no.6. Sivakumar, K., Goutsias, J. 1997a. Discrete morphological size distributions and densities : estimation techniques and applications. J. Electronic Imaging, 6(1), 31-53. Sivakumar, K. and Goutsias, J. 1997b. Morphologically constrained discrete random sets.Advances in Theory and Applications of Random Sets, ed., Jeulin, D., World Scientific Publishing Company, (Proc. of the Int. Sypm., Oct. 9-11, 1996, Fointainableau, France), 49-66. Sivakumar, K. and Goutsias, J. 1997c. On estimating granulametric discrete size distributions of random sets. Random Sets : Theory and Applications, J.
157
Goutsias, R. Mahler, and H.T. Nguyen (ed.s), Springer. (Proc. of the Workshop on Applications and Theory of Random Sets, Minneapolis, MN, Aug. 22-24, 1996), 47-71. Sivakumar, K. and Goutsias, J. 1999. Morphologically constrained GRFs : applications to texture synthesis and analysis. IEEE Trans. on Pattern Analysis and Machine Intelligence, vol.21, no.2, Feb. Small, C.G. 1988. Techniques of shape analysis on sets of points. Int. Stat. Rev., 56, 3, 243-257. Snyder, D.L. 1975. Random Point Processes. John Wiley & Sons, 485, USA. Soille, P. 1999. Morphological Image Analysis : Principles and Applications. 316. Soille, P. 2002. On morphological operators based on rank filters. Pattern Recogniiton, 35, 527-535. Soille, P. and Vincent, L. 1990. Determining watersheds in digital pictures via flooding simulations. Proc. SPIE, vol.1360, Visual Communications and Image Processing '90, Lousanne, Switzerland, 240-250. Sossa-Azuela, J.H., Yanez-Marquez, C. and Diaz de Leon, S.J.L. 2001. Computing geometric moments using morphological erosions. Pattern Recognition, 34, 271-276. Stoll, R.R. 1993. Set Theory and Logic. W.H. Freeman, San Fransisco. Stoyan, D., Kendall, W.S. and Mecke, J. 1987. Stochastic Geometry and Its Applications. John Wiley & Sons, 345, GDR. Stoyan, D. and Molchanov, I.S. 1997. Set-valued means of random particles. J. of Mathematical Imaging and Vision 7, 111-121. Stoyan, D. and Stoyan, H. 1995. Fractals, Random Shapes, and Point Fields : Methods of Geometric Statistics (reprint with corrections). John Wiey & Sons, 389, Great Britain. Sungur, M. 1995. Towards a hardware implementation of random neural network. Proc. of the 10th Int. Symp. on Computer and Information Sciences, ISCIS '95 (10th), Kuşadası, Turkey, 747-753. Sungur, M. 1998. Image compression using random neural networks. Advances in Computer and Information Sciences. Güdükbay, U., et. al (ed.s), IOS Press, 183-189. Sussner, P. 1998. Morphological perceptron learning. Proc. of the IEEE Int. Symp. on Intelligent Systems and Semiotics (ISAS), 14-17 Sept., 477-482. Sussner, P. 2005. New results on binary auto- and heteroassociative morphological memories. Proc. of IEEE Int. Joint Conf. Neural Networks, 2005, IJCNN'05, vol.2, 31 July-4 Aug., 1199-1204. Talbot, H. and Vincent, L. 1992. Euclidean Skeletons and Conditional Bisectors. Proc. SPIE vol.1818, Visual Communications and Image Processing'92, Boston (MA), 862-876,. Tang, X., Stewart, W.K., Vincent, L., Huang, H., Marra, M., Gallager, S.M. and Davis, C.S. 1998. Automatic Plankton Image Recognition. Artificial Intelligence Review, vol.12, 177-199. Teixera, M.D. and Leite, N.J. 1999. Morphological scale-space theory for segmentation problems. Proc. of the IEEE-EURASIP Workshop on Nonlinear Signal and Image Processing, Antalya, Turkey, 364-368.
158
Teke, A. and Atalay, V. 2004. Texture classification and retrieval using random neural network model. 6th IEEE Southwest Sym. on Image Analysis and Interpretation, 2004, 28-30 March, 109-113. Terzioglu, H. and Kocak, T. 2004. A network processor for a learning based routing protocol. The 2nd Annual IEEE Northeast Workshop on Circuits and Systems, 2004, NEWCAS 2004, 20-23 June, 261-264. Theera-Umpon, N., Dougherty, E.R. and Gader, P.D. 2001. Non-homothetic granulometric mixing theory with application to blood cell counting. Pattern Recognition, 34, 2547-2560. Thönnes, E. and Lieshout, M.N.M. Van. 1999. A comparative study on the power of van Lieshout and Baddeley’s J-Function”. Biometrical J., 41, 6, 721-734. Tijms, H.C. 1995. Stochastic Models : An Algorithmic Approach. John Wiley and Sons, 375, England. Trahanias, P.E. 1992. Binary shape recognition using the morphological skeleton transform. Pattern Recognition, vol.25, no.11, 1277-1288. Tuzikov, A. and Heijmans, H.J.A.M. 1998. Minkowski Decomposition of Convex Polygons into their Symmetric and Asymmetric Parts. Pattern Recognition Letters, 19, 247-254. Tuzikov, A., Roerdink, J.B.T.M. and Heijmans, H.J.A.M. 2000. Similarity Measures for Convex Polyhedra Based on Minkowski Addition. Pattern Recognition, 33(6), 979-995. (Report CS-R9708, Dept. of Computing Science, University of Groningen). Underwood, E.E. 1972. The stereology of projected images. J. of Microscopy, vol.95, no.1, 25-44. Upton, G.J.G., Fingleton, B. 1985. Spatial Data Analysis by Example, vol.1, Point Pattern and Quantitative Data. John Wiley and Sons, 410, Great Britain. Upton, G.J.G., Fingleton, B. 1989. Spatial Data Analysis by Example, vol.2, Categorical and Directional Data. John Wiley and Sons, 416, Great Britain. Vachier, C. and Vincent, L. 1995. Valuation of Image Extrema using Alternating Filters by Reconstruction. Proc. SPIE vol.2568, Neural, Morphological, and Stochastic Methods in Image and Signal Processing, San Diego CA, 94-103. Villaverde, I., Grana, M. and D'Anjou, A. 2006. Morphological Neural Networks for Localization and Mapping. Proc. of 2006 IEEE Int. Conf. on Computational Intelligence for Measurement Systems and Applications, July, 9-14. Vincent, L. 1988. Mathematical morphology on graphs. Proc. SPIE vol.1001, Visual Communications and Image Processing 88, Cambridge (MA), 95-105. Vincent, L. 1989a. Graphs and mathematical morphology. Signal Processing, vol.16, no.4, 365-388. Vincent, L. 1989b. Mathematical morphology for graphs applied to image description and segmentation. Proc. Electronic Imaging West Conf., Pasadena (CA), 313- 318. Vincent, L. 1990. Algorithmes morphologiques à base de files d'attente et de lacets. Extension aux graphes (Morphological Algorithms Based on Queues and Loops, with Extension to Graphs). PhD Thesis and no.9 in the Cahiers du Centre de Morphologie Mathématique series, School of Mines, Paris. Vincent, L. 1991a. Morphological transformations of binary images with arbitrary structuring elements. Signal Processing, vol.22, no.1, 3-23.
159
Vincent, L. 1991b. New trends in morphological algorithms. Proc. SPIE/SPSE vol.1451, Nonlinear Image Processing II, San Jose (CA), 158-170. Vincent, L. 1991c. Efficient computation of various types of skeletons. Proc. SPIE vol.1445, Medical Imaging V, San Jose (CA), 297-311. Vincent, L. 1991d. Recent developments in morphological algorithms. 8th Int. Congress for Stereology, Irvine (CA) (Acta Stereologica, 1992, vol.11/Supp.l 1, 521-532) Vincent, L. 1992a. Morphological area opening and closing for grayscale images. Proc. NATO Shape in Picture Workshop, Driebergen, The Netherlands, Springer- Verlag, 197-208. Vincent, L. 1992b. Morphological grayscale reconstruction: definition, efficient algorithms and applications in image analysis. Proc. Computer Vision and Pattern Recognition'92, 633-635, Champaign IL. Vincent, L. 1992c. Morphological algorithms. Mathematical Morphology in Image Processing, Dougherty , E. (ed.), Marcel-Dekker, 255-288. Vincent, L. 1993. Morphological grayscale reconstruction in image analysis: applications and efficient algorithms. IEEE Trans. on Image Processing, vol.2, no.2, 176-201. (Technical Report 91-16, Harvard Robotics Laboratory, Nov. 1991) Vincent, L. 1994a. Fast grayscale granulometry algorithms. Proc. EURASIP Workshop ISMM'94, Mathematical Morphology and its Applications to Image Processing, Fontainebleau, France, 265-272. Vincent, L. 1994b. Fast opening functions and morphological granulometries. Proc. SPIE vol.2300, Image Algebra and Morphological Image Processing V, San Diego, CA, 253-267. Vincent, L. 1995. Granulometries, Segmentation, and Morphological Algorithms. Lecture notes for Morphological Image and Signal Processing Workshop, Zakopane, Poland. Vincent, L. 1996. Local grayscale granulometries based on opening trees. Proc. ISMM'96, Int. Symp. on Mathematical Morphology, Atlanta GA, 273-280. Vincent, L. 1997. Current Topics in Applied Morphological Image Analysis. Current Trends in Stochastic Geometry and its Applications, W.S. Kendall, O.E. Barndorff-Nielsen, and M.C. van Lieshout (ed.s)., Chapman & Hall. Vincent, L. 1998a. Advanced Morphological Image Analysis and Segmentation. Short Course Notes, IS&T/SPIE Symp. on Electronic Imaging, San Jose, USA, 388. Vincent, L. 1998b. Minimal Path Algorithms for the Robust Detection of Linear Features in Gray Images. Proc. ISMM'98, Int. Symp. on Mathematical Morphology, Amsterdam, 331-338. Vincent, L. 2000a. Granulometries and Opening Trees. Fundamenta Informaticae, vol.41, no.1-2, 57-90. (also chapter in "Mathematical Morphology", (ed.) J. Goutsias and H.J.A.M. Heijmans). Vincent, L. 2000b. Fast Granulometric Methods for the Extraction of Global Image Information. Proc. 11th Annual Symp. of the South African Pattern Recognition Association, Johannesburg, South Africa, 119-133. Vincent, L. and Dougherty, E.R. 1994. Morphological Segmentation for Textures and Particles. Digital Image Processing: Fundamentals and Applications, E. Dougherty (ed.), Marcel-Dekker, 43-102.
160
Vincent, L. and Jeulin, D. 1989. Minimal Paths and Crack Propagation Simulations. Acta Stereologica, vol.8/2, (also Proc. 5th European Congress for Stereology, Freiburg im Breisgau, FRG), 487-494. Vincent, L. and Masters, B. 1992. Morphological image processing and network analysis of corneal endothelial cell images. Proc. SPIE vol.1769, Image Algebra and Morphological Image Processing III, San Diego (CA), 212-226. Vincent, L. and Soille, P. 1991. Watersheds in Digital Spaces: an Efficient Algorithm Based on Immersion Simulations. IEEE Trans. on Pattern Analysis and Machine Intelligence, vol.13, no.6, 583-598. Vitale, R.A. 1983. Some developments in the theory of random sets. Bulletin of the International Statistical Institute, 50, 863-871. Vlassis, S., Doris, K., Siskos, S. and Pitas, I. 2000. Analog implementation of erosion/dilation, median and order statistics filters. Pattern Recognition, vol.33, no.6, 1023-1032. Vo, B.-N. Vo, B.-T. and Singh, S. 2004. Sequential Monte Carlo methods for static parameter estimation in random set models. Proc. of the Intelligent Sensors, Sensor Networks and Information Processing Conf., 2004, 14-17 Dec., 313- 318. Vo, B.-N., Singh, S. and Doucet, A. 2005. Sequential Monte Carlo methods for multitarget filtering with random finite sets. IEEE Trans. on Aerospace and Electronic Systems, vol.41, no.4, Oct., 1224-1245. Xiaogi, Z. and Baozong, Y. 1995. Shape description and recognition using the high order morphological pattern spectrum. Pattern Recognition, vol.28, no.9, 1333- 1340. Xu, J. 1996. Morphological decomposition of 2-D binary shapes into conditionally maximal convex polygons. Pattern Recognition, vol.29, no.7, 1075-1104. Xu, J. 2001. Morphological representation of 2-D binary shapes using rectangular components. Pattern Recognition, 34, 277-286. Wang, L., Liu, J. and Li, S.Z. 2000. MRF parameter estimation by MCMC method. Pattern Recognition, 33, 1919-1925. Weickert, J. 2001. Efficient image segmentation using partial differential equations and morphology. Pattern Recognition, 34, 1813-1824. Weil, W. 1999. Intensity analysis of Boolean models. Pattern Recognition, vol.32, no.9, 1675-1684. Weil, W. and Wieacker, J.A. 1988. A representation theorem for random sets. Probability and Mathematical Statistics, 9(1), 147-151. Whitt, W. 2005. Introduction to Operations Research : Stochastic Models. Lecture Notes (IEOR 4106). Ind. Eng. and Op. Res. Dept., Columbia University in the City of New York, USA, Spring. (unpublished). Wilson, S.S. 1992. Theory of matrix morphology. IEEE Trans. on PAMI, vol.14, 636- 652. Winkler, G. 1995. Image Analysis, Random Fields, and Dynamic Monte Carlo Methods. Springer, 324, Germany. Won, Y. 1995. Nonlinear correlation filter and morphology neural networks for image pattern and automatic target recognition. PhD Dissertion, Cornell University, EE Dept., USA, 1995, 235. Wornell, G.W. 1996. Signal Processing with Fractals : A Wavelet-Based Approach. Prentice-Hall PTR, 177, New Jersey, USA.
161
Yu, D. and Yan, H. 2001. Reconstruction of broken handwritten digits based on structural morphological filters. Pattern Recognition, 34, 235-254. Yun, Z., Ling, Z. and Yimin, Y. 2004. Using multi-layer morphological neural network for color images retrieval. Fifth World Congress on Intelligent Control and Automation, 2004, WCICA 2004, vol.5, 15-19 June, 4117-4119. Yuille, A., Vincent, L. and Geiger, D. 1991. Statistical Morphology., Proc. SPIE vol.1568, Image Algebra and Morphological Image Processing II, 271-282, San Diego (CA). (Technical Report 91-5, Harvard Robotics Laboratory) Yuille, A., Vincent, L. and Geiger, D. 1992. Statistical Morphology and Bayesian Reconstruction. Journal of Mathematical Imaging and Vision, vol.1, no.3, 223- 238. Zhang, L., Zhang, Y. and Yang, Y.-M. 2003. Color images restoration with multi-layer morphological (MLM) neural network. Int. Conf. on Machine Learning and Cybernetics, 2003, vol.5, 2-5 Nov., 2831-2834.
162
EK 1. Yazılım Akış Algoritmaları
F, G : görüntü
B : yapıtaşı elamanı
k : şekil büyüklüğü katsayısı
B(k, i, jmax) : k büyüklüğündeki yapıtaşı elemanının jmax sütundan oluşan, yani jmax
nokta içeren, (i)inci satırı.
RYSA_VE_öğrenme(girdi_matrisi_1d , matris_boyutu)
1) RYSA_öğrenme : öğretilen matris_boyutu girdili VE işlemi doğruluk tablosu
RYSA_VEYA_öğrenme(girdi_matrisi_1d , matris_boyutu)
1) RYSA_öğrenme : öğretilen matris_boyutu girdili VEYA işlemi doğruluk tablosu
RYSA_VE_VEYA_öğrenme(girdi_matrisi_1d , matris_boyutu)
1) RYSA_VE_öğrenme : öğretilen matris_boyutu girdili VE işlemi doğruluk tablosu
2) RYSA_VEYA_öğrenme : öğretilen matris_boyutu girdili VEYA işlemi doğruluk
tablosu
3) 1 ve 2’yi matris_boyutu=2 ’den matris_boyutu=matris_boyutumax ’a tekrar et
RYSA_Aşınma(B , k)
1) F’deki B(k , i , jmax)’ye karşılık gelen noktaları oku, 1 boyutlu jmax elemanlı
satır_matrisi_1d matrisine aktar.
2) satır_matrisi_VElenmiş_1d(i) = RYSA_VE(satır_matrisi_1d , jmax) : RYSA ile jmax
girdili VE işlemi.
3) 1 ve 2’yi i=1 ’den i=imax ’a kadar tüm satırlar için tekrar et.
4) noktanın_yeni_değeri = RYSA_VE(satır_matrisi_VElenmiş_1d , imax) : RYSA ile
imax girdili VE işlemi.
163
RYSA_Genişleme(B , k)
1) F’deki B(k , i , jmax)’ye karşılık gelen noktaları oku, 1 boyutlu jmax elemanlı
satır_matrisi_1d matrisine aktar.
2) satır_matrisi_VEYAlanmis_1d(i) = RYSA_VEYA(satır_matrisi_1d , jmax) : RYSA
ile jmax girdili VEYA işlemi.
3) 1 ve 2’yi i=1 ’den i=imax ’a kadar tüm satırlar için tekrar et.
4) noktanın_yeni_değeri = RYSA_VEYA(satır_matrisi_VEYAlanmış_1d , imax) :
RYSA ile imax girdili VEYA işlemi.
RYSA_Açılış(B , k)
1) RYSA_Aşınma(B , k)
2) RYSA_Genişleme(B, k)
RYSA_Kapanış(B , k)
1) RYSA_Genişleme(B, k)
2) RYSA_Aşınma(B , k)
RYSA_Elek(B)
1) RYSA_Açılış(B , k) : girdi_görüntü = F
2) (+)_Boolean_Model_Parametrelerini_Hesapla
3) 1 ve 2 ’yi k=1 ’den k=kmax+ ’a tekrar et.
4) RYSA_Açılış(B , k) : girdi_görüntü = Negatif(F)
5) (-)_Boolean_Model_Parametrelerini_Hesapla
6) 4 ve 5’i k=1 ’den k=kmax- ’a tekrar et.
Poisson_Benzetişimi_2d(kmax)
1) rasgele_büyüklük_üret
2) rasgele_konum_üret
3) yerleştir : yerleştirilmiş şekillerle ve sınırlarla örtüşme yoksa
164
4) büyüklükler toplamı, örnek Boolean (Boole) kümenin büyüklükler toplamının belli
bir oranda altında (en düşük değer olarak %10 kullanılmıştır) veya belli bir oranda
üstünde (en yüksek değer olarak %10 kullanılmıştır) ise ve λbenzetişim > λörnek ise dur.
Deneysel_Tahmin_Edici()
1) RYSA_Elek(B)
Monte_Carlo_Tahmin_Edicisi()
1) RYSA_Elek(B) : girdi_görüntü = F
2) G = Poisson_Benzetişimi_2d(kmax)
3) RYSA_Elek(B) : girdi_görüntü = G
4) 2 ve 3’ü Monte_Carlo_yinelemesi=1 ’den
Monte_Carlo_yinelemesi= Monte_Carlo_yinelemesimax ’a tekrar et.
5) (+)_Boolean_Model_Parametrelerini_Hesapla_Monte_Carlo
6) (-)_Boolean_Model_Parametrelerini_Hesapla_ Monte_Carlo
165
ÖZGEÇMİŞ
Adı Soyadı : Tansu KÜÇÜKÖNCÜ Lisans : ODTÜ Elektrik ve Elektronik Mühendisliği Bölümü Son sınıfta Bilgisayar Grubunu seçti, fazladan Biyomedikal Mühendisliği derslerini aldı, ve Bitirme Projesi olarak nesneye yönelik programlamayla uygulama yazılımı geliştirdi. ÖSS'de ve ÖYS’de tüm puan türlerinde Çanakkale il birincisi olması nedeniyle TEV bursu verildi. Aynı bölümden Bilgisayar Ağları, ve Paralel Bilgisayarlar lisansüstü dersleri aldı. Bilgisayar Mühendisliği Bölümünde Veritabanı lisansüstü derslerini takip etti. ODTÜ’de uluslararası Coğrafi Bilgi Sistemleri çalıştayına katıldı. Yüksek lisans : ODTÜ Felsefe Bölümü Bilim felsefesi, teknoloji felsefesi, dil felsefesi, mantık, ve bilgi kuramı konularında dersler aldı, ve bilişsel bilimler üzerinde yoğunlaştı. Bulanık mantık ve yaklaşımsal uslamlama üzerine tez hazırladı. Yüksek lisans öğrenimi sırasında ODTÜ Bilgisayar Mühendisliği Bölümü’nde görüntü analizi, örüntü tanıma, bilgisayarlı görme, yapay sinir ağları, yapay zeka, bilgisayarlı dilbilim konuları üzerine açılan bütün lisansüstü dersleri ve Elektrik ve Elektronik Mühendisliği Bölümünden Bilgisayar Grafiklerinin Matematiksel Temelleri lisansüstü dersini fazladan alarak Bilgisayar Mühendisliği yüksek lisans ders programını fazlasıyla ders alarak tamamladı. Felsefe ve Bilgisayar Mühendisliği Bölümlerinden aldığı derslerin çoğu, sonradan açılan Enformatik Enstitüsü’nde Bilişsel Bilimler lisansüstü programının temel dersleri oldu. ABD’de Jean Serra’nın doktora öğrencisi Luc Vincent’in Matematiksel Morfoloji kursuna katıldı. Doktora : Ankara Üniversitesi Fen Bilimleri Enstitüsü İstatistik Anabilim Dalı İstatistik Kuramı, Olasılık Kuramı, Stokastik Süreçler, İleri Düzey İstatistiksel Analiz, Çok Değişkenli İstatistiksel Analiz, ve Zaman Serileri Analizi konularında dersler aldı. Yüksek lisans öğrenimi sırasında ODTÜ Bilgisayar Mühendisliği Bölümü’nden görüntü analizi, ve örüntü tanıma konularında aldığı dersler, doktora derslerine dahil edildi. İstatistiğin Mühendislik ve Bilişim Bilimleri kesişimindeki mekansal istatistik, stokastik süreçler, benzetişim, istatistiksel modelleme, görüntü analizi, örüntü tanıma, ve yapay sinir ağları konularında uzmanlığını geliştirdi. Uzmanlık Alanları : Bilgisayar Sistemleri, Bilgi Sistemleri, Otomasyon Sistemleri, ve bunların İstatistiksel Modellemeleri konularında uzmandır. Üyelikleri : IEEE, SPIE, ve EMO üyesidir. Yabancı dil : İleri düzeyde İngilizce ve başlangıç düzeyinde Fransızca bilmektedir. Medeni hali : Evlidir.
top related