GüREŞEN–kayakutlu 1 kho biLİm dergiSİ CİLT: 23 sayi: yil: 2013



Yüklə 411,56 Kb.
Pdf görüntüsü
səhifə11/12
tarix29.05.2018
ölçüsü411,56 Kb.
#46589
1   ...   4   5   6   7   8   9   10   11   12

 

GÜREŞEN–KAYAKUTLU 

 

 

87 



 

 

KHO BİLİM DERGİSİ CİLT: 23 SAYI: 1  YIL: 2013 

 

 

Algoritmaların  performanslarını  kıyaslamadan  önce  algoritmaların  sonuçlarının 



normal  dağılıma  uygunluğunun  test  edilmesi  gerekmektedir.  SPSS  yazılımında 

uygulanan  normallik  testi  sonucunda  hata  karalerinin sadece 2  ve  3  GSH’li  ÇKA  için 

normal  dağılıma  uydukları  gözlenmiştir.  Normal  dağılıma  uymayan  durumlar  için 

yüzden  normal  dağılım  kabulu  bulunmayan  Mann-Whitney-U  testi  SPSS  yazılımıyla 

uygulanmıştır.  4  ve  5  GSH’li  ÇKA’lar  için  öncelikle  varyans  testi  yapılması 

gerekmektedir.  Bu  amaçla  “H0:  İki  yöntemin  iterasyon  sayılarının  varyansları  eşittir.” 

Hipotezine karşılık aşağıdaki hipotezler ile ortalamaların eşitliği test edilmiştir: 

 

Tablo 6 İterasyon sayıları için eşit varyans testi 

 

Sıra 

No 

Hipot

ez No  Hipotez 



Anlamlılık 

Hipotez 

Sonucu 



H1 

4 GSH için FA01V01 ile 

sabit yapılı ÇKA’nın 

iterasyon sayılarının 

varyansları eşit değildir. 

0,011


0,915 


H0 KABUL 



H2 

5 GSH için FA01V01 ile 

sabit yapılı ÇKA’nın 

iterasyon sayılarının 

varyansları eşit değildir. 

4,366 


0,043 

H0 RED 


 

 

Yukarıdaki  tabloda  verilen  sonuçlar  doğrultusunda  H2hipotezi  kabul  edilmekte 



ve  H1  hipotezi  ise  reddedilmektedir.  Bu  durumda  her  iki  yöntem  için  beş  gizli  sinir 

hücreli (GSH) durumlarda iterasyon sayılarının varyanslarının eşit olmadığını, dört gizli 

sinir  hücreli  yapılar  için  ise  iterasyon  sayılarının  varyanslarının  eşit  olduğunu 

görülmektedir.  Ortalamaların  karşılaştırması  yapılırken  (t-testi)  eşit  varyans durumları 

dikkate  alınarak  t-testi  icra  edilecektir.  Bu  durumda  “H0:  İki  yöntemin  sonuçlarının 

iterasyon  sayıları  eşittir.”  Hipotezine  karşılık  aşağıdaki  hipotezler  ile  ortalamaların 

eşitliği SPSS yazılımıyla test edilmiştir: 

 

 



 

 

 



 

 

 



 

 



 

GÜREŞEN–KAYAKUTLU 

 

 

88 



 

 

KHO BİLİM DERGİSİ CİLT: 23 SAYI: 1  YIL: 2013 

 

 

Tablo 7 İterasyon sayılar için Mann-Whitney-U testi sonuçları 

 

Sıra 

No 

Hipotez 

No 

Hipotez 

Mann-

Whitney-

U / t 

Anlamlılık 

Hipotez 

Sonucu 



H1 

2 GSH için FA01V01 

ile sabit yapılı ÇKA’nın 

iterasyon sayıları eşit 

değildir. 

35 


0,000 

H0 RED 




H2 

3 GSH için FA01V01 

ile sabit yapılı ÇKA’nın 

iterasyon sayıları eşit 

değildir. 

60 


0,000 

H0 RED 




H3 

4 GSH için FA01V01 

ile sabit yapılı ÇKA’nın 

iterasyon sayıları eşit 

değildir. 

-6,198 


0,000 

H0 RED 




H4 

5 GSH için FA01V01 

ile sabit yapılı ÇKA’nın 

iterasyon sayıları eşit 

değildir. 

-6,347 


0,000 

H0 RED 


 

 

Yukarıdaki  tablo  incelendiğinde    dört  durumda  da  H0  hipotezinin  reddedilerek 



alternatif  hipotezin  kabul edildiği  görülmektedir. Bu  durumda  iki  yöntem arasında geri 

yayılım  algoritmasının  eşit  sayıda  iterasyonla  sonuca  ulaşmadığını  söyleyebiliriz. 

Ortalamalara  baktığımızda  FA01V01  algoritmasının  ortalama  olarak  sürekli  daha  az 

iterasyonda sonuca ulaştığını görmekteyiz.  Bu  durumda  FA01V01  algortimasının geri 

yayılım ile öğrenme algoritmasının toplam iterasyon sayısını azalttığını söyleyebiliriz. 

Dikkat  çeken  diğer bir  nokta  ise  gizli  katmandaki  sinir  hücresi  sayısı  arttıkça  özellikle 

FA01V01  algoritmasında  ihtiyaç  duyulan  geri  yayılım  algoritması  iterasyon  sayısının 

azalmasıdır.  Ayrıca  20’şer  denemede bati  yapılı  ÇKA’nın  2,  3,  4  ve  5  GSH’li  yapıda 

0,024 OHK değerinin altına inemediği FA01V01 algoritması ile oluşturulan ÇKA’nın ise 

2  GSH  için  0,021,  3  GSH  için  0,018;  4  GSH  için  0,014  ve  5  GSH  için  0,013  OHK 

değerlerine kadar inebildikleri tespit edilmiştir. 

 

 



 


 

GÜREŞEN–KAYAKUTLU 

 

 

89 



 

 

KHO BİLİM DERGİSİ CİLT: 23 SAYI: 1  YIL: 2013 

 

5. SONUÇ VE ÖNERİLER (DİSCUSSİON AND SUGGESTİONS) 

 

 



Bu çalışmada geri yayılım algoritması ile eğitilen  tek gizli katmanlı ÇKA modeli  ile 

-küme  çapraz  geçerlilik  ile  oluşturulan  tek  katmanlı  ÇKA  modeli  karşılaştırılmıştır. 

Gizli katmandaki gizli sinir hücreleri sabitlenerek farklı sayıda gizli sinir hücresini içeren 

ÇKA için çalışma tekrarlanmıştır. Elde edilen sonuçlar ortalama hata karesi (OHK) ve 

geri  yayılım  algoritmasında  geçen  toplam  iterasyon  sayısı  dikkate  alınarak 

incelenmiştir.  Bu  incelemede  bir  iterasyon  olarak,  geri  yayılım  algoritmasının  tüm 

eğitim veir kümesini bir tam defa kullanması (epoch) kabul edilmiştir. 

 

 



Sabit yapılı ÇKA için NeuroSolutions yazılımı, FA01V01 ile oluşturulan ÇKA için ise 

JAVA  programlama  dili  kullanılarak  geliştirilen  NeuroBee  yazılımı  kullanılmıştır. 

Karşılaştırma  yapılabilmesi  için  her  iki  yazılımda    geri  yayılım  algoritmasının  ve 

momentum yönteminin parametreleri aynı alınmıştır. 

 

 

Yapılan istatitiksel incelemeler sonucunda 2, 3, 4 ve 5 gizli sinir hücreli ÇKA için ve, 



veya,  özel  veya  bütünleşik  probleminde  ortalama  hata  kareleri  açısından  her  iki 

yöntem  arasında  istatistiksel  olarak  anlamlı  bir  fark  oluştuğu  gözlenmiştir.  Bu  fark  2 

GSH için sabit yapılı ÇKA’nın daha küçük OHK ürettiği, 3,4 ve 5 GSH’li ÇKA’lar için ise 

FA01V01’in daha küçük OHK’si ürettiğini göstermektedir. Ayrıca FA01V01 algoritması 

ile oluşturulan ÇKA’da gözlenen en küçük OHK sabit yapılı ÇKA’da gözlenen en küçük 

OHK’nden  de  daha  küçük  olmuştur.  Geri  yayılım  algoritması  için  geçen  toplam 

iterasyon  sayılarının  ise  FA01V01  algoritmasında  çok  daha  az  iterasyon  sonrasında 

sinaptik ağırlıkların yakınsadığı ve anlamlı iyileşme kaydedilemediği gözlenmiştir. 

 

 

Geri  yayılım  algoritmasında  FA01V01  algortimasının  daha  az  iterasyon  (ya  da 



epoch) gerektirmesinin sebebi olarak iki temel farklılık öne çıkmaktadır. Bunlardan ilki 

girdi  ve  çıktıyı  sabitleyerek  eğitim  yapmak  yerine,  çıktı  hücrelerini  sırasıyla  eğiterek 

eğitimi basit kademelere bölmesi ve her seferinde bir adet çıktı sinir hücresi ekleyerek 

devam etmesidir. 

 

 

İkinci önemli farklılık ise K’nın L’li çapraz geçerliliğinde zaten genelleme yeteneğini 



arttırması muhtemel çıktı sinir hücrelerinin tespit edilerek mimari  yapıya eklenmesidir. 

Eklenen  her  yeni  çıktı  sinir  hücresinin    adet  çapraz  geçerlilik  kümesinde  ayrı  ayrı 

iyileşme  sağlamasının  geri  yayılım  algoritmasının  iterasyon  sayısının  düşmesine 

neden olduğu değerlendirilmektedir. 

 

 

Önerilen FA01V01 algoritmasının  sağladığı performans  artışı, özellikle  yapay  sinir 



ağlarının oluşturulması ve eğitilmesine farklı bir bakış açısı getirmesine dayanmaktadır. 

Bu farklı bakış açısı aslında yapay zeka yöntemlerinin düşünebilen bir yapıya ulaşması 

için aşılması gereken üç temel problemden birine çözüm önerisidir. 



Yüklə 411,56 Kb.

Dostları ilə paylaş:
1   ...   4   5   6   7   8   9   10   11   12




Verilənlər bazası müəlliflik hüququ ilə müdafiə olunur ©www.genderi.org 2024
rəhbərliyinə müraciət

    Ana səhifə