Asimov'un Robot Yasaları ve Yapay Zeka |
Makineleşen Dünya 2. Bölüm
Ünlü yazar ve biyokimyacı Isaac Asimov'un kitaplarında bahsettiği ve yazımızda içeriğini bulacağınız robot yasaları yapay zeka ile karar mekanizmalarıyla hızla tanışan robotlarla değişiyor mu? Robot etiği nedir? Robotlara verilmek istenen 'güzel ahlak' dersleri ne kadar gerçeklik taşıyacak? Detayları yazımızda bulabilirsiniz.
17.08.2014 tarihli yazı 15060 kez okunmuştur.
Robotların insanoğluna hükmetmesi, dünyayı ele geçirmesi gibi senaryolar, bilim-kurgu filmlerinden araştırma alanlarına uzun zaman önce geçiş yaptı. Günümüzde artık bu senaryoların gerçekleşme ihtimallerinden çok, gerçekleşmemesi için yapılması gerekenler araştırılıyor. Bu durumun temel sebeplerinden biri de yapay zekaya sahip robotların karar mekanizmalarında belirleyici faktörlerin mevcut olmaması. İnsan, kültürel, dini ve felsefi düşünce ve kurallardan ve yaşadığı toplumun dinamiklerinden etkilenerek iyi-kötü, doğru-yanlış gibi ikiliklerle yargı sistemini şekilendirir. Yakın zamanda günlük yaşantımıza ve hatta iş akışına dahil olması beklenen robotların bu düşünce ve kurallar bütününden yoksun olması araştırmacıları endişelendiriyor. 2002 yılında ünlü robotbilimci Gianmarco Veruggio tarafından ortaya konan Roboetik, insan davranışlarının ve tasarımının robotlara nasıl işlenmesi gerektiğini inceleyen araştırma konularını içine alan yeni bir terim. Roboetik tartışmaları canlı olmayan varlıkların potansiyel ahlak durumları üzerine yoğunlaşmıştır.
►İlginizi Çekebilir: Angry Birds'ü Artık Robotlar Oynuyor
Robotların davranış temelleri üzerine yapılan tartışmaların yanında Isaac Asimov'un kitaplarında bahsettiği robot yasaları da oldukça popülerdir. Aynı zamanda kimya profesörü de olan Isaac Asimov kitaplarında, Üç Robot Yasası olarak bilinen bazı kurallar tanımlamıştır.
► Bir robot hiç bir şekilde insanoğluna zarar veremez ya da pasif kalmak suretiyle zarar görmesine izin veremez
► Bir robot kendisine insanlar tarafından verilen komutlara 1. kuralla çelişmediği sürece itaat etmek zorundadır.
► Bir robot 1. ve 2. kurallarla çelişmediği sürece kendi varlığını korumak zorundadır.
Bu yasalar, Asimov'un romanlarında kurguladığı evren içinde geçerli olsa da insan-robot etkileşiminde (human-robot interaction/HRI) temel olarak alınmaktadır. Ancak robot biliminde yaşanan son gelişmeler ve uygulama alanlarının genişlemesi ile bu kurallara ne derece uyulduğu tartışma konusu. Özellikle iş verimliliğini arttırmak için yapay zeka tekniklerinin hızla geliştirilmesi, askeri alanlardaki uygulamaların ürünleri olan asker robotlar bu tartışmaları ciddi kılıyor. Yazı dizimizin ilk bölümünde bahsettiğimiz robot arılar da yine bu uygulamaların ortaya çıkardığı yüzlerce sonuçtan sadece bir örnek teşkil ediyor. Örneğin askeri robot denince akla mikro casus, mayın temizleyen, cephaneye silah taşıyan robotlar gelebilir. Bu amaçlar için geliştirilmiş robotların insanlarla çok yakın etkileşiminden dolayı hangi işe öncelik vermesi gerektiği nasıl belirlenebilir? Örneğin düşman - sivil ayrımı, yaralı bir askere - insana yardım etme önceliği gibi karar mekanizmalarını işletecek etik değerler robota nasıl verilebilir? Robot biliminin gelişiminde büyük payı olan ABD'de Savunma Bakanlığı, robotların karar verme mekanizmalarını etkileyecek ahlak modülü oluşturmak için harekete geçti. Yazılım, donanım, felsefe alanlarında uzmanlaşmış bilim insanları, insanda var olan düşünme becerisini tanımlayarak robotlara uygun bir ahlak oluşturmak için çalışmaya başladılar. Robotların günümüzdeki mevcut seviyeleri, tehlikeli bir otonomi için yeterli olmasa da hızla gelişen teknoloji, robot biliminin doğuracağı toplumsal sonuçları öngörmemizi istiyor.
Üç Robot Yasası'na dönersek, Asimov zamanla bu yasaların yetersiz kalmasını düşünerek Sıfırıncı Yasa adıyla ekleme yapmıştır. Bu yasaya göre "Hiç bir robot, insanlığa zarar veremez ya da hareketsiz kalarak insanlığın zarar görmesine izin veremez." şeklindedir. Asimov bu yasa ile robot etiğinin toplumsal sonuçlarına işaret ediyor. Ancak bu yasaların Asimov ve diğer düşünürlerce yenilenmesi bizi başlangıç noktasına tekrar götürüyor. Robotlar karar verirken iyi - kötü kavramını nasıl yapacak? Bir robot global bir suç işleyen ve durdurulamayan bir suçlunun öldürülmesine izin vermeyi mi yoksa insan yaşamına son vermemenin mi etik olduğuna karar verecek? Kaldı ki bu değerlendirmeyi robot otonomisinde her bir eleman için eşit uygulamak da farklı bir sorun.
Robotların teknolojik gelişimiyle birlikte insanlarla etkileşimi ve ahlaki kaygıları da günümüzde ciddi sayılabilecek tartışmalara konu oluyor. Araştırmacıların robotlar üzerinde ahlak modülü oluşturma çabaları gerçeğe ne kadar yakın olduğu bilinmese de görüşler yakın zamanda bu çalışmaların artacağı yönünde.
Kaynak:
►wikipedia.com
►economist.com
YORUMLAR
Aktif etkinlik bulunmamaktadır.
- Dünyanın En Görkemli 10 Güneş Tarlası
- Dünyanın En Büyük 10 Makinesi
- 2020’nin En İyi 10 Kişisel Robotu
- Programlamaya Erken Yaşta Başlayan 7 Ünlü Bilgisayar Programcısı
- Üretimin Geleceğinde Etkili Olacak 10 Beceri
- Olağan Üstü Tasarıma Sahip 5 Köprü
- Dünyanın En İyi Bilim ve Teknoloji Müzeleri
- En İyi 5 Tıbbi Robot
- Dünyanın En Zengin 10 Mühendisi
- Üretim için 6 Fabrikasyon İşlemi
- DrivePro Yaşam Döngüsü Hizmetleri
- Batarya Testinin Temelleri
- Enerji Yönetiminde Ölçümün Rolü: Verimliliğe Giden Yol
- HVAC Sistemlerinde Kullanılan EC Fan, Sürücü ve EC+ Fan Teknolojisi
- Su İşleme, Dağıtım ve Atık Su Yönetim Tesislerinde Sürücü Kullanımı
- Röle ve Trafo Merkezi Testlerinin Temelleri | Webinar
- Chint Elektrik Temel DIN Ray Ürünleri Tanıtımı
- Sigma Termik Manyetik Şalterler ile Elektrik Devrelerinde Koruma
- Elektrik Panoları ve Üretim Teknikleri
- Teknik Servis | Megger Türkiye
ANKET