GÜREŞEN–KAYAKUTLU
82
KHO BİLİM DERGİSİ CİLT: 23 SAYI: 1 YIL: 2013
Tablo 4Bit toplama işlemi
b. Modellerin Değerlendirilmesi (Karşılaştırılması) (Evaluation of
Models)
(1) Ortalama Hata Karesi
Ortalama Hata Karesi,
N
adet model çıktısının hatasının hesaplanmasında
aşağıdaki gibi hesaplanır:
$
(
)
2
1
1
OHK
N
i
i
i
y
y
N
=
=
-
å
(14)
burada
$
i
y
modelin
i
’inci sonucu,
i
y
ise
i
’inci sonucun olması gereken değerdir.
(2)İterasyon Sayısı
Algoritmaların iterasyon sayısı çalışma süresini belirlemektedir. Bu çalışmada
FA01V01 algoritması bir adet çok katmanlı algılayıcı üretmektedir. Oluşan çok katmanlı
algılayıcı geri yayılım algoritması ile eğitilmektedir. Bu çalışma kapsamında oluşan çok
katmanlı algılayıcıların aynı şartlar altında geri yayılım algoritması ile eğitiminde geçen
iterasyon sayıları karşılaştırılmıştır. Burada amaç FA01V01 algoritması ile yapısı
oluşturulan ÇKA’nın geri yayılım algoritması ile ara ara eğitilmesinin, ÇKA’nın yapısının
sabit tutularak geri yayılım algoritması ile eğitilmesi arasındaki farkı tespit etmektir.
G1: 1.
Toplananın
İlgili Basamak
Bit Değeri
G2: 2. Toplananın
İlgili Basamak Bit
Değeri
Ç1: Toplama
işlemi sırasında
elde var mı?
(Ve)
Ç2: Değer
artışı var mı?
(Veya)
Ç3: Sonuç
Bit Değeri
(Özel Veya)
1
1
1
1
0
1
0
0
1
1
0
1
0
1
1
0
0
0
0
0
GÜREŞEN–KAYAKUTLU
83
KHO BİLİM DERGİSİ CİLT: 23 SAYI: 1 YIL: 2013
c. FA01V01 Algoritmasının Uygulanması
Yeni geliştirilen algoritmanın uygulaması için Java programlama dili kullanılarak
yeni bir yazılım geliştirilmiştir. Geliştirilen yazılım (NeuroBee) Ve, Veya ve Özel Veya
problemine uygulanmıştır. Normal sabit yapıda oluşturulan çok katmanlı algılayıcılar ile
karşılaştırma yapmak için NeuroSolutions adlı program kullanılmıştır.
Uygulamada üç katmanlı (tek gizli katmana sahip) bir çok katmanlı algılayıcı
(ÇKA) yapısı benimsenmiştir. NeuroSolutions yazılımı ve NeuroBee yazılımı için farklı
gizli sinir hücreleri için çalışma tekrarlanmıştır. Tüm bu tekrarlarda eğitim için geri
yayılım algortiması (backpropagation) kullanılmış, sinaptik ağırlıklar bu algoritma ile
güncellenmiştir. Geri yayılım algoritmasının durma koşulları olarak;100 iterasyon
boyunca 0,0001’den daha fazla iyileşme sağlanamaması veya 10 000 iterasyon’a
ulaşılması belirlenmiştir. Her iki yazılımda da aşağıda formülü verilen adaptif öğrenme
oranı kullanılmıştır (Alpaydın, 2010):
if
diğer
t T
T
a
E
E
b
h
h
+
ì+
<
D = í
-
î
(15)
burada
h
D öğrenme oranınındaki değişimi,
T
E
hataları,
a
ve
b
ise sabit
değerlerdir. Böylece eğitim kümesinin hatası azaldıkça öğrenme oranı sabit
miktarlarda arttırılır, eğitim kümesinin hata oranı arttıkça ise geometrik olarak
öğrenme oranı azaltılır (Alpaydın, 2010).
Her iki yazılım da adaptif öğrenme oranı kullansa da NeuroSolutions
yazılımı her katman için ayrı bir öğrenme oranı kullanırken NeuroBee tüm
dinamik ypay sinir ağı için tek öğrenme oranı kullanmaktadır. Ayrıca her iki
yazılımda da geri yayılım algoritmasında momentum kullanılmış ve bu değer
NeuroSolution yazılımının otomatik ayarı olan 0,7 olarak kullanılmıştır.
Algoritmaların performanslarını kıyaslamadan önce algoritmaların sonuçlarının
normal dağılıma uygunluğunun test edilmesi gerekmektedir. SPSS yazılımında
uygulanan normallik testi sonucunda hata karalerinin normal dağılıma uymadıkları
gözlenmiş ve bu yüzden normal dağılım kabulu olmayan Mann-Whitney-U testi SPSS
yazılımıyla uygulanmıştır. Bu amaçla “H0: İki yöntemin sonuçlarının ortalama OHK’leri
eşittir.” Hipotezine karşılık aşağıdaki hipotezler ile ortalamaların eşitliği test edilmiştir