Derin Öğrenme |
'Nedir?' Serisi 2. Bölüm
Nedir serisinin ikinci bölümü ile karşınızdayız. Günlük hayatımızda sıklıkla ismini duyduğumuz kavram olan derin öğrenme kavramı pek çok uygulama alanlarında karşımıza çıkmaktadır. Sıklıkla kullandığımız telefon uygulamaların bile içinde bir yerlerde kullanılan bu yöntem yapay sinir ağlarına dayanmaktadır. Derin öğrenme yönteminin ne kadar derin olduğunu inceleyelim.
22.12.2021 tarihli yazı 4856 kez okunmuştur.
Derin öğrenme, birçok disiplin alanında kullanılan yapay zeka içerisinde bulunan makine öğrenmesi yöntemlerinden biridir. Derin öğrenme, ses tanıma, konuşma tanıma, nesne tanıma, görüntü tanıma gibi zor problemlerin çözümünde kullanılır. Bu yöntem yapay sinir ağları ile kullanılarak bu zor problemlere çözüm sunar. Makine öğrenmesi yöntemlerinden farklı olarak öğrenme işlevini kodlanmış kurallar ile değil resim, video, ses, metin gibi verilerden gerçekleştirir. Yapay sinir ağlarının bu esnek yapısını kullanmasından dolayı verilerin büyüklüğüne göre tahmin doğrulukları artabilmektedir.
Yapay Sinir Ağları
İnsan beyninin yapısı hakkında yapılan çalışmalar aslında insan beyninin bir bilgiyi nasıl işlediğini inceler. Beynin bir bilgiyi işleme süreci insan beyninin çalışma konusunda bilgi sağlayabilir. Bu işlem süreci bilgisayar bilimi dünyasına ışık tutmuştur. Bundan dolayı yapay sinir ağları insan beyninin bilgiyi işleme sürecini modelleyerek geliştirilmiştir. Bu ağlarda bilgiyi işleme elemanı olarak “Nöronlar” örnek alınmıştır. Çünkü sinir hücreleri olarak da isimlendirilen nöronlar bellek yapısına sahiptir. Yapay sinir ağları veri hesaplama, paralel çalışma, karmaşık problemlere çözüm bulma gibi özellikleriyle biyolojik sinir ağlarını andırır.
Yapay sinir ağlarının amacı insan beyninin bilgiyi işleme sürecini modelleyebilmek olduğunu söylemiştik. Yapay sinir ağlarının bu modellemeyle bir sürü yetenek kazanmıştır. Ezberleyebilme, kendi kendine öğrenebilme, paralel çalışmasından ötürü verileri hızlı işleyebilme gibi özelliklere ve yeteneklere sahiptir. Çoğunlukla sınıflandırma, tahminleme problemlerinde kullanılırlar. Problemlerde öğrenme işlemi, probleme örnek ait giriş ve sonuçlar öncesinden modele verilerek gerçekleştirilir. Probleme ait veriler eksik veya gürültülü olsa bile yapay sinir ağları çalışabilir. Bu durumlarda hata toleransı belirlenmelidir. Yapay sinir ağları nöronlara sahip olduğundan bellek ihtiyacı duyulmuştur. Böylece yapay sinir ağları önceki deneyimlere bağlı çalıştığı söylenebilir. Yapay sinir ağlarının nöronları modelleyebilmesi büyük bir fark yaratmıştır. Tabi insan beyninin sahip olduğu milyarlarca nöronları modelleyebilmek şu an için imkansız görünmektedir. Şu anki yeteneğiyle bile birlikte birçok uygulama alanına sahip olan yapay sinir ağları birçok aşamadan geçmiştir. 1940 yıllarına dayanan geçmişi çalkantılı dönemlere sahip olsa bile günümüzde son halini almıştır.
Tarihçesi ve İlk Sinir Ağları
► Derin öğrenme 1940 yıllarından basit bir yapay sinir ağının ilk matematiksel modeli ile zemin hazırlayıp günümüze kadar uzanan bir yolculuktan ibarettir. 1943 yılında mantıkçı Walter Pitts ve sinir bilimci Warren McCulloch “A Logical Calculus of Ideas Immanent in Nervous Activity” adlı ortak çalışmalarında insan beyninin düşünme işlevini inceleyerek bir sinir ağının matematiksel modelini ortaya koymuşlardır. Ayrıca bu dönemde “Elektronik Beyin” kavramı ilk kez ortaya atılmıştır.
Walter Pitts ve Warren McCulloch’un basit bir sinir ağı modeli girişlerden ve girişlerden elde edilecek bir çıkıştan ibarettir. “X” girdileri Y ise çıktıyı belirtmektedir. Ortaya çıkan ilk yapay sinir modeli olan bu model diğer modellere ışık tutmuştur.
► Tarih 1950-1960 dönemini gösterdiğinde “Perceptron” kavramı ile karşılaşılır. Rosenblatt tarafından bir yapay sinir ağı olarak önerilen perceptron’lar ismini sadece girdi ve çıktı katmanı bulunan ağlardan yani tek katmanlı sinir ağlarından (Perceptron) alır. En eski sinir ağlarından olan Perceptron’lar son derece sınırlıdırlar. Karmaşık problemlerin çözümünde etkisizlerdir ve kullanılamazlar.
Şekil 2: Perceptron Modeli
► Perceptron, sisteme sunulan girdiler ile çıktılar arasında doğrusal bir durum varsa öğrenebilir. Bu model içerisinde girişlerden gelen değerler ağırlıklar (w) ile çarpılarak toplama fonksiyonunda toplanır. Bu değerler toplama fonksiyonunda eşik değeri ile karşılaştırılarak iki farklı durum (-1,+1) elde edilir. Bu durumdan ötürü sonuç 2 farklı sınıf için değerlendirilir. Ayrıca bu dönemde “ADALINE” adı verilen bir öğrenme kuralı ortaya çıkmıştır.
► 1970 yıllarında tek katmanlı algılayıcıların (Perceptron) doğrusal olmayan durumların çözümünde kullanılamadığı saptanmıştır. Doğrusal olmayan problemlerin çözümü çok önem arz etmektedir. Çünkü günlük hayatta karşılaşılan problemler her zaman doğrusal değildir.
Perceptron’ un problemler içerisinde VE, VEYA, DEĞİL kapılarını iyice öğrenebildiği ve ÖZEL VEYA kapısının öğrenememesi gözlemlenmiştir. Bu “XOR problemi” olarak adlandırılır. Bu durum yapay zeka çalışmalarının önüne geçmiştir ve karanlık dönemde bulunulduğu belirtilmektedir Bu yüzden 1986 yılına kadar olan bu dönem “Karanlık Dönem” olarak adlandırılır.
► Tarih 1986 yılını gösterdiğinde XOR problemini çözmek amacıyla yapılan çalışmalar sonucunda perceptron modeline yeni katmanlar eklenerek “Çok Katmanlı Ağlar” kavramı ortaya çıkmıştır. D. Rumelhart, G. Hinton ve R. Williams tarafından geliştirilen bu modele “Hatayı Geriye Yayma” (Backpropogation) modeli de denmektedir. Çok katmanlı algılayıcılar, yapay sinir ağlarının karanlık döneminden kurtulup yeni bir döneme kapı açan bir ilaç olmuştur.
Şekil 3: Çok Katmanlı Ağ Modeli
Çok katmanlı ağlar, “delta öğrenme kuralı” denilen ADALINE öğrenme kuralının geliştirilmiş hali olan bir kural dizisini kullanmaktadır. Bu ağların amacı öğrenme aşamasındaki hatayı en aza indirgemektir. Bu sinir ağına öğrenme işlemi esnasında hem girdiler hem de beklenen çıktılar sunulur. Veri kümesinin eğitim setindeki örnekler ağa sunularak öğrenme işlemi gerçekleştirilir. Bu örnekler girdi katmanından ara katmana iletilerek bu katmanda işlenir. Çıkış katmanında bir sonuç üretilir. Seçilen öğrenme algoritmasına göre ağın çıktısı ile beklenen çıktı arasındaki fark tekrar geriye doğru yansıtılarak hata en aza indirilmeye çalışılır. Hata en aza indirilince öğrenme işlevi biter. Bu yüzden bu ağlara “Hatayı Geriye Yayma” modeli de denir.
Yukarıdaki görseldeki model, girdi katmanından, çıkış katmanından ve ara katmanlardan oluşur. Girdi katmanı gelen verileri herhangi bir işlem yapmadan ara katmanda iletir. Girdi katmanında veri işleme yapılmaz. Ara katmanına iletilen veriler işlenerek diğer katmana iletilir. İletilen katman çıkış katmanı veya diğer bir ara katman olabilir. Kullanılan modele göre ara katman sayısı değişebilmektedir. Çıkış katmanında ise hesaplanarak çıktı üretilir ve dış dünyaya sunulur.
► Çok katmanlı algılayıcıların çok yüksek işlem gücüne gereksinimlerinden dolayı farklı bir algoritma peşinde olan araştırmacılar yeni bir algoritma keşfetmişlerdir. Yapılan çalışmalar sonucunda 1995 yılında V. Vapnik ve C. Cortes tarafından Destek Vektör Makineleri (Support Vector Machine) adı verilen öğrenme algoritması ortaya çıkmıştır.
Destek vektör makineleri, bir veri kümesinde herhangi bir noktadan en uzak olan iki sınıf arasında ortak bir karar sınırı bulan algoritmadır.
► 2000’li yıllara girildiğinde bu dönemde kritik role sahip olan bir isim karşımıza çıkmış oluyor. 2006 yılında Geoffrey Hinton tarafından “Çok Katmanlı Yapay Sinir Ağlarının” daha verimli eğitilebileceğinin öne sürülmesiyle “Derin Öğrenme” kavramı ortaya çıkmıştır. Bu dönemde sinir ağları yerini “Derin Sinir Ağları” ’na bırakmıştır. Derin sinir ağlarının ortaya çıkmasıyla yapay sinir ağlarının işlem gücünün artması sağlanmıştır. Son haliyle birlikte yapısını günümüzde yapısını korumaktadır.
Şekil 4: Derin Öğrenme Modeli ve Derin Öğrenmenin Öncüsü Geoffrey Hinton
Walter Pitts ve Warren McCulloch’un basit bir sinir ağı modeli girişlerden ve girişlerden elde edilecek bir çıkıştan ibarettir. “X” girdileri Y ise çıktıyı belirtmektedir. Ortaya çıkan ilk yapay sinir modeli olan bu model diğer modellere ışık tutmuştur.
Şekil 2: Perceptron Modeli
► 1970 yıllarında tek katmanlı algılayıcıların (Perceptron) doğrusal olmayan durumların çözümünde kullanılamadığı saptanmıştır. Doğrusal olmayan problemlerin çözümü çok önem arz etmektedir. Çünkü günlük hayatta karşılaşılan problemler her zaman doğrusal değildir.
Perceptron’ un problemler içerisinde VE, VEYA, DEĞİL kapılarını iyice öğrenebildiği ve ÖZEL VEYA kapısının öğrenememesi gözlemlenmiştir. Bu “XOR problemi” olarak adlandırılır. Bu durum yapay zeka çalışmalarının önüne geçmiştir ve karanlık dönemde bulunulduğu belirtilmektedir Bu yüzden 1986 yılına kadar olan bu dönem “Karanlık Dönem” olarak adlandırılır.
► Tarih 1986 yılını gösterdiğinde XOR problemini çözmek amacıyla yapılan çalışmalar sonucunda perceptron modeline yeni katmanlar eklenerek “Çok Katmanlı Ağlar” kavramı ortaya çıkmıştır. D. Rumelhart, G. Hinton ve R. Williams tarafından geliştirilen bu modele “Hatayı Geriye Yayma” (Backpropogation) modeli de denmektedir. Çok katmanlı algılayıcılar, yapay sinir ağlarının karanlık döneminden kurtulup yeni bir döneme kapı açan bir ilaç olmuştur.
Şekil 3: Çok Katmanlı Ağ Modeli
Yukarıdaki görseldeki model, girdi katmanından, çıkış katmanından ve ara katmanlardan oluşur. Girdi katmanı gelen verileri herhangi bir işlem yapmadan ara katmanda iletir. Girdi katmanında veri işleme yapılmaz. Ara katmanına iletilen veriler işlenerek diğer katmana iletilir. İletilen katman çıkış katmanı veya diğer bir ara katman olabilir. Kullanılan modele göre ara katman sayısı değişebilmektedir. Çıkış katmanında ise hesaplanarak çıktı üretilir ve dış dünyaya sunulur.
► Çok katmanlı algılayıcıların çok yüksek işlem gücüne gereksinimlerinden dolayı farklı bir algoritma peşinde olan araştırmacılar yeni bir algoritma keşfetmişlerdir. Yapılan çalışmalar sonucunda 1995 yılında V. Vapnik ve C. Cortes tarafından Destek Vektör Makineleri (Support Vector Machine) adı verilen öğrenme algoritması ortaya çıkmıştır.
Destek vektör makineleri, bir veri kümesinde herhangi bir noktadan en uzak olan iki sınıf arasında ortak bir karar sınırı bulan algoritmadır.
► 2000’li yıllara girildiğinde bu dönemde kritik role sahip olan bir isim karşımıza çıkmış oluyor. 2006 yılında Geoffrey Hinton tarafından “Çok Katmanlı Yapay Sinir Ağlarının” daha verimli eğitilebileceğinin öne sürülmesiyle “Derin Öğrenme” kavramı ortaya çıkmıştır. Bu dönemde sinir ağları yerini “Derin Sinir Ağları” ’na bırakmıştır. Derin sinir ağlarının ortaya çıkmasıyla yapay sinir ağlarının işlem gücünün artması sağlanmıştır. Son haliyle birlikte yapısını günümüzde yapısını korumaktadır.
Şekil 4: Derin Öğrenme Modeli ve Derin Öğrenmenin Öncüsü Geoffrey Hinton
Örnek Uygulama Alanları
Derin öğrenme geniş yetenekleriyle birlikte günlük hayatta finansal konulardan, mühendislik ve tıp biliminden üretim alanlarına kadar birçok alanda kullanılmaktadır. Verilerin yorumu, verilerin filtrelenmesi, veriler arasındaki ilişkiyi belirleme, sınıflandırma ve tahminleme problemlerinde kullanılır. Bu problemlerde kullanılmasından dolayı birçok alana uyarlanabilir. Derin öğrenme, ses tanıma, görüntü tanıma ve doğal dil işleme alanlarında çok yaygın olarak kullanılmaktadır.“Sensory” adlı şirket yapay zeka ve derin öğrenme yöntemleri kullanarak gömülü makine öğrenmesi teknolojilerinde yer alan görüntü, ses tanıma ve doğal dil işleme uygulama alanında kullanıcı deneyimini geliştirmeye odaklanıyor.
Biyomedikal ve tıp alanlarında teşhis, tahmin veya yorumlamada aktif bir şekilde kullanılıyor. Bu alanda yapılan çalışmalara “Deep Genomics” şirketi örnek verilebilir. Deep Genomics, RNA üzerinde yaptığı çalışmalar ile RNA biyolojisinin ve otomasyonunun ilaç gelişiminde derin öğrenme ile birlikte yeni bir yaklaşım geliştirdiklerini belirtiyor. Şirket, derin öğrenme yöntemi kullanarak RNA veya DNA düzeyinde hastalığın genetiğini belirleyen Sterik Bloke Edici Oligonükleotitlerin (SBO'lar) geliştirilmesine ve pazarlanmasına odaklanıyor.
Deep Instinct şirketi derin öğrenme yöntemlerini kullanarak siber suç örgütlerinin önceden belirlenmemiş yeni siber saldırılarını algılamaya çözüm üretiyor. Deep Instict, derin öğrenme siber güvenlik framework’ü kullanarak olası siber atakları ve fidye yazılımları önlemeyi, bilinmeyen tehditleri ön görmeyi amaçlıyor. Deep Instict aldığı geri bildirimler ile birlikte yeni jenerasyonun anti-virüs çözümü olduğu iddia ediliyor.
Yazının bitiminde bir soru sormak istiyorum. Derin öğrenme, yapay zeka ve makine öğrenmesindeki gelişmeler gelecek için ne kadar heyecanlandırsa da bahsedilen bu kullanım alanlarındaki insan ihtiyacının azalmasının fark edilmesi insanlık için endişe yaratabilir mi? Bu teknolojilerin gelişmesi insan açısından gerçekten sadece yararına mı?
“Yapay zeka ya insanlığın başına gelen en iyi şey ya da en kötü şey olacak.”
Stephen Hawking
Stephen Hawking
Kaynak:
► researchgate.net
► Yılmaz, A. & Kaya, U. (2021). Derin Öğrenme. İnkilap Kitabevi, İstanbul► researchgate.net
► Yılmaz, A. (2020). Yapay Zeka. İnkilap Kitabevi, İstanbul
► deepinstinct.com
► deepgenomics.com
► sensory.com
YORUMLAR
Aktif etkinlik bulunmamaktadır.
- Dünyanın En Görkemli 10 Güneş Tarlası
- Dünyanın En Büyük 10 Makinesi
- 2020’nin En İyi 10 Kişisel Robotu
- Programlamaya Erken Yaşta Başlayan 7 Ünlü Bilgisayar Programcısı
- Üretimin Geleceğinde Etkili Olacak 10 Beceri
- Olağan Üstü Tasarıma Sahip 5 Köprü
- Dünyanın En İyi Bilim ve Teknoloji Müzeleri
- En İyi 5 Tıbbi Robot
- Dünyanın En Zengin 10 Mühendisi
- Üretim için 6 Fabrikasyon İşlemi
- DrivePro Yaşam Döngüsü Hizmetleri
- Batarya Testinin Temelleri
- Enerji Yönetiminde Ölçümün Rolü: Verimliliğe Giden Yol
- HVAC Sistemlerinde Kullanılan EC Fan, Sürücü ve EC+ Fan Teknolojisi
- Su İşleme, Dağıtım ve Atık Su Yönetim Tesislerinde Sürücü Kullanımı
- Röle ve Trafo Merkezi Testlerinin Temelleri | Webinar
- Chint Elektrik Temel DIN Ray Ürünleri Tanıtımı
- Sigma Termik Manyetik Şalterler ile Elektrik Devrelerinde Koruma
- Elektrik Panoları ve Üretim Teknikleri
- Teknik Servis | Megger Türkiye
ANKET