GÜREŞEN–KAYAKUTLU
87
KHO BİLİM DERGİSİ CİLT: 23 SAYI: 1 YIL: 2013
Algoritmaların performanslarını kıyaslamadan önce algoritmaların sonuçlarının
normal dağılıma uygunluğunun test edilmesi gerekmektedir. SPSS yazılımında
uygulanan normallik testi sonucunda hata karalerinin sadece 2 ve 3 GSH’li ÇKA için
normal dağılıma uydukları gözlenmiştir. Normal dağılıma uymayan durumlar için
yüzden normal dağılım kabulu bulunmayan Mann-Whitney-U testi SPSS yazılımıyla
uygulanmıştır. 4 ve 5 GSH’li ÇKA’lar için öncelikle varyans testi yapılması
gerekmektedir. Bu amaçla “H0: İki yöntemin iterasyon sayılarının varyansları eşittir.”
Hipotezine karşılık aşağıdaki hipotezler ile ortalamaların eşitliği test edilmiştir:
Tablo 6 İterasyon sayıları için eşit varyans testi
Sıra
No
Hipot
ez No Hipotez
F
Anlamlılık
Hipotez
Sonucu
1
H1
4 GSH için FA01V01 ile
sabit yapılı ÇKA’nın
iterasyon sayılarının
varyansları eşit değildir.
0,011
6
0,915
H0 KABUL
2
H2
5 GSH için FA01V01 ile
sabit yapılı ÇKA’nın
iterasyon sayılarının
varyansları eşit değildir.
4,366
0,043
H0 RED
Yukarıdaki tabloda verilen sonuçlar doğrultusunda H2hipotezi kabul edilmekte
ve H1 hipotezi ise reddedilmektedir. Bu durumda her iki yöntem için beş gizli sinir
hücreli (GSH) durumlarda iterasyon sayılarının varyanslarının eşit olmadığını, dört gizli
sinir hücreli yapılar için ise iterasyon sayılarının varyanslarının eşit olduğunu
görülmektedir. Ortalamaların karşılaştırması yapılırken (t-testi) eşit varyans durumları
dikkate alınarak t-testi icra edilecektir. Bu durumda “H0: İki yöntemin sonuçlarının
iterasyon sayıları eşittir.” Hipotezine karşılık aşağıdaki hipotezler ile ortalamaların
eşitliği SPSS yazılımıyla test edilmiştir:
GÜREŞEN–KAYAKUTLU
88
KHO BİLİM DERGİSİ CİLT: 23 SAYI: 1 YIL: 2013
Tablo 7 İterasyon sayılar için Mann-Whitney-U testi sonuçları
Sıra
No
Hipotez
No
Hipotez
Mann-
Whitney-
U / t
Anlamlılık
Hipotez
Sonucu
1
H1
2 GSH için FA01V01
ile sabit yapılı ÇKA’nın
iterasyon sayıları eşit
değildir.
35
0,000
H0 RED
2
H2
3 GSH için FA01V01
ile sabit yapılı ÇKA’nın
iterasyon sayıları eşit
değildir.
60
0,000
H0 RED
3
H3
4 GSH için FA01V01
ile sabit yapılı ÇKA’nın
iterasyon sayıları eşit
değildir.
-6,198
0,000
H0 RED
4
H4
5 GSH için FA01V01
ile sabit yapılı ÇKA’nın
iterasyon sayıları eşit
değildir.
-6,347
0,000
H0 RED
Yukarıdaki tablo incelendiğinde dört durumda da H0 hipotezinin reddedilerek
alternatif hipotezin kabul edildiği görülmektedir. Bu durumda iki yöntem arasında geri
yayılım algoritmasının eşit sayıda iterasyonla sonuca ulaşmadığını söyleyebiliriz.
Ortalamalara baktığımızda FA01V01 algoritmasının ortalama olarak sürekli daha az
iterasyonda sonuca ulaştığını görmekteyiz. Bu durumda FA01V01 algortimasının geri
yayılım ile öğrenme algoritmasının toplam iterasyon sayısını azalttığını söyleyebiliriz.
Dikkat çeken diğer bir nokta ise gizli katmandaki sinir hücresi sayısı arttıkça özellikle
FA01V01 algoritmasında ihtiyaç duyulan geri yayılım algoritması iterasyon sayısının
azalmasıdır. Ayrıca 20’şer denemede bati yapılı ÇKA’nın 2, 3, 4 ve 5 GSH’li yapıda
0,024 OHK değerinin altına inemediği FA01V01 algoritması ile oluşturulan ÇKA’nın ise
2 GSH için 0,021, 3 GSH için 0,018; 4 GSH için 0,014 ve 5 GSH için 0,013 OHK
değerlerine kadar inebildikleri tespit edilmiştir.
GÜREŞEN–KAYAKUTLU
89
KHO BİLİM DERGİSİ CİLT: 23 SAYI: 1 YIL: 2013
5. SONUÇ VE ÖNERİLER (DİSCUSSİON AND SUGGESTİONS)
Bu çalışmada geri yayılım algoritması ile eğitilen tek gizli katmanlı ÇKA modeli ile
-küme çapraz geçerlilik ile oluşturulan tek katmanlı ÇKA modeli karşılaştırılmıştır.
Gizli katmandaki gizli sinir hücreleri sabitlenerek farklı sayıda gizli sinir hücresini içeren
ÇKA için çalışma tekrarlanmıştır. Elde edilen sonuçlar ortalama hata karesi (OHK) ve
geri yayılım algoritmasında geçen toplam iterasyon sayısı dikkate alınarak
incelenmiştir. Bu incelemede bir iterasyon olarak, geri yayılım algoritmasının tüm
eğitim veir kümesini bir tam defa kullanması (epoch) kabul edilmiştir.
Sabit yapılı ÇKA için NeuroSolutions yazılımı, FA01V01 ile oluşturulan ÇKA için ise
JAVA programlama dili kullanılarak geliştirilen NeuroBee yazılımı kullanılmıştır.
Karşılaştırma yapılabilmesi için her iki yazılımda geri yayılım algoritmasının ve
momentum yönteminin parametreleri aynı alınmıştır.
Yapılan istatitiksel incelemeler sonucunda 2, 3, 4 ve 5 gizli sinir hücreli ÇKA için ve,
veya, özel veya bütünleşik probleminde ortalama hata kareleri açısından her iki
yöntem arasında istatistiksel olarak anlamlı bir fark oluştuğu gözlenmiştir. Bu fark 2
GSH için sabit yapılı ÇKA’nın daha küçük OHK ürettiği, 3,4 ve 5 GSH’li ÇKA’lar için ise
FA01V01’in daha küçük OHK’si ürettiğini göstermektedir. Ayrıca FA01V01 algoritması
ile oluşturulan ÇKA’da gözlenen en küçük OHK sabit yapılı ÇKA’da gözlenen en küçük
OHK’nden de daha küçük olmuştur. Geri yayılım algoritması için geçen toplam
iterasyon sayılarının ise FA01V01 algoritmasında çok daha az iterasyon sonrasında
sinaptik ağırlıkların yakınsadığı ve anlamlı iyileşme kaydedilemediği gözlenmiştir.
Geri yayılım algoritmasında FA01V01 algortimasının daha az iterasyon (ya da
epoch) gerektirmesinin sebebi olarak iki temel farklılık öne çıkmaktadır. Bunlardan ilki
girdi ve çıktıyı sabitleyerek eğitim yapmak yerine, çıktı hücrelerini sırasıyla eğiterek
eğitimi basit kademelere bölmesi ve her seferinde bir adet çıktı sinir hücresi ekleyerek
devam etmesidir.
İkinci önemli farklılık ise K’nın L’li çapraz geçerliliğinde zaten genelleme yeteneğini
arttırması muhtemel çıktı sinir hücrelerinin tespit edilerek mimari yapıya eklenmesidir.
Eklenen her yeni çıktı sinir hücresinin adet çapraz geçerlilik kümesinde ayrı ayrı
iyileşme sağlamasının geri yayılım algoritmasının iterasyon sayısının düşmesine
neden olduğu değerlendirilmektedir.
Önerilen FA01V01 algoritmasının sağladığı performans artışı, özellikle yapay sinir
ağlarının oluşturulması ve eğitilmesine farklı bir bakış açısı getirmesine dayanmaktadır.
Bu farklı bakış açısı aslında yapay zeka yöntemlerinin düşünebilen bir yapıya ulaşması
için aşılması gereken üç temel problemden birine çözüm önerisidir.