Yinelemeli Sinir Ağları
(RNN) Nedir?
Normal sinir ağlarına göre çok daha sağlıklı ve güvenilir sonuçlar elde etmemizi sağlayan yinelemeli sinir ağlarının amacı hata payını düşürmektir. Bu yazımızda Yinelemeli Sinir Ağları (RNN) kavramını ele aldık.
25.08.2021 tarihli yazı 8417 kez okunmuştur.
Beynimiz bir konu hakkındaki bilgiyi tam olarak kavrayabilmesi ve bilgiye karşı doğru bir yanıt oluşturabilmesi için o konu hakkındaki eskiden öğrenilen bilgiler ile yeni öğrenilmiş bilgileri kullanır. Yani beyin eski bilgiler ile yeni öğrenilen bilgileri anlamlaştırarak bir bütün oluşturur. Eski bilgiler tecrübe yoluyla elde edilir. Eğer eski bilgiler yanlışsa, eski bilgiler unutulmaya zorlanır.
Yinelemeli sinir ağları (RNN), bu olayı esas alır. RNN yapısında, sinir ağlarına gelen bilgi katmanlardaki belirli ağırlık sabitleri ile ilişkilendirilerek sonuçta bir tahmin oluşturulur. Bu tahmin gerçek veriler ile karşılaştırıldığında bir hata payı oluşursa ağırlık sabitleri değiştirilerek yeniden tahmin oluşturulur. Bu sinir ağında asıl amaç hata payını düşürmektir. RNN temel olarak dört katmandan oluşabilir.
Şekil 1: Temel Bir Yinelemeli Sinir Ağı Yapısı
►İlginizi Çekebilir: Nörobilimde Yeni Araç: Yapay Zeka Destekli Fare
Görselde, basit bir RNN yapısı görülmektedir. Bu yapı 1 giriş katmanına, 2 gizli katmana ve 1 çıkış katmanına sahiptir. Yinelemeli (Recurrent) denmesinin sebebi çıkışta ölçülen hata payının azaltılması için elde edilen tahminin tekrar işleme sokulmasından dolayıdır. Bunun sayesinde sistemdeki hata payının azaltılması amaçlanır.
Normal Sinir Ağından Farkı Ne?
Basit bir sinir ağı bir fotoğraf içerisindeki nesneleri tanımak için sadece o anda verilen giriş bilgilerini kullanır. Sisteme daha önce verilen bilgileri kullanmaz. O bilgileri kullanmadan bir tahmin oluşturur. Böylece hedefe gitmek amaçlanır. RNN ise yalnızca o an verilen bilgileri değil, sisteme daha önce tanıtılan bilgileri ve ayrıca sisteme daha sonra yüklenecek bilgileri de kullanır. Böylece bu sinir ağları bir belleğe sahip olan ağlardır. Eski veriler ile yeni verileri karşılaştırarak sonuca ulaşırlar.
Şekil 2: Temel Bir Sinir Ağı Yapısı
Yinelemeli sinir ağları, doğal dil işleme, anomali tespiti, kelime ve cümle tahmini ve borsa tahmini gibi alanlarda kullanılır.
Dezavantajları
Yinelemeli Sinir Ağları, zaman içerisinde çok farklı tekrar yapabilir. Bu tekrar denemeleri yüzünden veriyle ilişkili olan bazı parametreleri veriyi az etkilediği gerekçesiyle sistemden atabilir. Eğer bu parametreler sinir ağına çok önce eklenmişse artık kullanıcı bu bilgiye ulaşamayabilir. Atılan ve unutulan bu bilgileri bir bellekte toplayabilmek için geliştirilmiş mimariler bulunmaktadır. LSTM bu mimariye örnektir.
► Long-Short Term Memory (LSTM)
Uzun kısa süreli bellek, (LSTM – Long Short Term Memory) derin öğrenme alanında ve sinir ağlarında kullanılan bir Yinelemeli Sinir Ağı (RNN) mimarisidir. LSTM mimarisinin standart sinir ağlarının aksine geri beslemeli bağlantıları vardır. Geri beslemeli ağlarla birlikte değerleri rastgele zamanlarla hatırlar. Yinelemeli Sinir Ağlarında sıkça kullanılmaktadır. RNN’nin ortaya çıkardığı uzun sürede unutma sorunları gibi problemleri ortadan kaldırır. Bu mimari birçok alanda kullanılır. El yazısı tanıma, konuşma tanıma, anomali tespiti gibi alanlarda sıkça kullanılır.
LSTM, temel olarak ele alındığında bir hücre, giriş kapısı, bir çıkış kapısı ve bir unut kapısından oluşur. Hücre, değerleri rastgele aralıklarla hatırlar. Üç kapı da hücreye giren bilgi girişini ve çıkışını düzenler. LSTM zaman serisi analizinde sıkça kullanılır. Çünkü LSTM uzun vadeli bağımlılıkları öğrenme yeteneğine sahiptir. Zaman serisi analizinde ortaya çıkan uzun vadeli bağımlılık sorunlarını ve kaybolan gradyan sorunlarını ele alır. Uzun vadeli unutma sorunları, zaman serisi analizinde bulunan olaylar arasında bilinmeyen süre gecikmeleridir.
► Gated Reccurent Unıt (GRU)
GRU, yine LSTM gibi Yinelemeli Sinir Ağlarında ortaya çıkan Kaybolan Gradyan Problemini ele alan bir mimaridir. GRU yine LSTM gibi uzun vadeli bağımlılıkları öğrenme yeteneğine sahiptir. GRU unutma kapısına sahiptir fakat LSTM ’den farklı olarak bir çıkış kapısına sahip değildir. Bundan dolayı daha az parametreye sahiptir.
GRU, daha az parametreye sahip olduğu için daha küçük ve daha seyrek veri kümelerinde daha iyi performans sergiler. GRU temel olarak iki kapıya sahiptir, sıfırlama ve güncelleme kapısı. Güncelleme kapısı LSTM ’nin giriş ve unut kapısının yaptıklarını yapar. GRU ‘nun aynı zamanda ayrı bir bellek hücresi yoktur.
Kısaca GRU ve LSTM ‘nin temel amacı, geçmişteki hangi bilgilerin saklanabileceğini ve unutabileceğini belirlemek ve takip etmektir.
Kısaca GRU ve LSTM ‘nin temel amacı, geçmişteki hangi bilgilerin saklanabileceğini ve unutabileceğini belirlemek ve takip etmektir.
Kaynak:
► stanford.edu
► ibm.com
► towardsdatascience.com
YORUMLAR
Aktif etkinlik bulunmamaktadır.
- Dünyanın En Görkemli 10 Güneş Tarlası
- Dünyanın En Büyük 10 Makinesi
- 2020’nin En İyi 10 Kişisel Robotu
- Programlamaya Erken Yaşta Başlayan 7 Ünlü Bilgisayar Programcısı
- Üretimin Geleceğinde Etkili Olacak 10 Beceri
- Olağan Üstü Tasarıma Sahip 5 Köprü
- Dünyanın En İyi Bilim ve Teknoloji Müzeleri
- En İyi 5 Tıbbi Robot
- Dünyanın En Zengin 10 Mühendisi
- Üretim için 6 Fabrikasyon İşlemi
- DrivePro Yaşam Döngüsü Hizmetleri
- Batarya Testinin Temelleri
- Enerji Yönetiminde Ölçümün Rolü: Verimliliğe Giden Yol
- HVAC Sistemlerinde Kullanılan EC Fan, Sürücü ve EC+ Fan Teknolojisi
- Su İşleme, Dağıtım ve Atık Su Yönetim Tesislerinde Sürücü Kullanımı
- Röle ve Trafo Merkezi Testlerinin Temelleri | Webinar
- Chint Elektrik Temel DIN Ray Ürünleri Tanıtımı
- Sigma Termik Manyetik Şalterler ile Elektrik Devrelerinde Koruma
- Elektrik Panoları ve Üretim Teknikleri
- Teknik Servis | Megger Türkiye
ANKET