Otonom Araçlardaki Kör Nokta Problemi Çözülüyor
İnsana gereksinim duymadan, otomatik olarak kullanılabilen araçlar yakın gelecek için herkesin dikkatini çekiyor. Ancak bizleri bekleyen bir sorun var, “kör nokta”. MIT ve Microsoft yapay zeka sistemleri ile bu probleme çözüm arıyorlar.
05.02.2019 tarihli yazı 7133 kez okunmuştur.
Yakın gelecekte kullanılması beklenen otonom araçlar birçoğumuzun ilgisini çekmekte.
Peki bu araçlar güvenli mi?
Öncelikle otonom araç nedir? bunu inceleyelim.
Otonom araçlar; sürücüsüz olarak otomatik kullanılabilen, barındırdığı birçok sensör ile özerk olarak hareket edebilen araçlardır. AI sistemleri ile, araç yolda karşılaşabileceği her türlü senaryoya hazırlıklı olarak ilerler. Bunun için AI sistemleriyle, olaylara karşı eğitilir. Ancak kimi zaman beklenmedik sorunlarla karşılaşılabilir. Buna “kör nokta”yı örnek olarak gösterebiliriz. Bahsettiğimiz kör nokta aslında; “ambulanslar ve sirenleri”, “nesne mi yoksa insan mı ayrımı” veya ”herhangi bir sirene karşı verilecek tepki” olarak sıralanabilir.
Peki bu araçlar güvenli mi?
Öncelikle otonom araç nedir? bunu inceleyelim.
Otonom araçlar; sürücüsüz olarak otomatik kullanılabilen, barındırdığı birçok sensör ile özerk olarak hareket edebilen araçlardır. AI sistemleri ile, araç yolda karşılaşabileceği her türlü senaryoya hazırlıklı olarak ilerler. Bunun için AI sistemleriyle, olaylara karşı eğitilir. Ancak kimi zaman beklenmedik sorunlarla karşılaşılabilir. Buna “kör nokta”yı örnek olarak gösterebiliriz. Bahsettiğimiz kör nokta aslında; “ambulanslar ve sirenleri”, “nesne mi yoksa insan mı ayrımı” veya ”herhangi bir sirene karşı verilecek tepki” olarak sıralanabilir.
Eğitilmemiş bir araç düşünecek olursak, arkasından gelen büyük bir beyaz araba ile ambulans ayrımını yapamayabilir veya siren çalan herhangi bir araç ile başka bir aracın farkını algılayamayabilir. Dolayısıyla ambulansı normal bir beyaz araba olarak algılar ve yavaşlayıp yol vermesi gerektiğini bilemeyebilir. Yapay Zeka Konferansı Derneği’nde sunulan bir makalede, araştırmacılar insan girdisi kullanarak, karşılaşılan bu “kör nokta” problemine açıklık getirmeyi amaçlamışlar.
Araştırmacılar, problemi çözmeye yönelik simülasyonlar yapıyor. Yapılan simülasyon eğitimlerinde, nasıl ki insan bir hata ile karşılaşınca geri bildirim veriyorsa, oluşturulan bu eğitimde de aynı şekilde geri bildirim bekleniyor. Sistem hata yapmak üzereyken geri bildirimde bulunur. Araştırmacılar, eğitim verileri ile sistemden alınan geri bildirimleri birleştirir ve sistemin daha doğru çalışmasına yönelik modelleri üretmek için, farklı makine öğrenimi tekniklerini kullanmaktalar.
► Geri Bildirimin Alınması
Öncelikle simülasyon sistemi kullanılarak bir AI sistemi oluşturulur. Karşılaşılabilecek her türlü seneryoya karşı verilecek tepkiler ya da oluşturulacak eylemler bu simülasyonlarda belirlenir. Buna karşılık gelen en iyi eşleşmeler yani gerçekleştirilecek eylemler belirlenir. Sistem, insan eylemlerinin oluşamayacağı bölgelerde hata sinyallerini sisteme geri gönderir.
Bir insan araç kullanırken, “gösteriler” ve “düzeltmeler” gibi yollarla veri sağlar. Burada söz edilen gösteriler, kişinin gerçek dünyada olağan olarak gerçekleştirdiği eylemler iken, düzeltmeler bu olağan durumun dışında gerçekleşen eylem sonucunda oluşan tepkidir. Buna alternatif olarak, insan otonom araç içerisindeyken, aracı izlemesi ile farkettiği herhangi bir hataya karşı düzeltme yapabilir. Örneğin, kişi sürücü koltuğundayken, otonom araç planlanan rotada ilerler. Eğer beklenmedik bir durum yok ise sürücü araca müdahale etmez, ancak beklenmedik bir durum ile karşılaşılırsa ve araç herhangi bir değişiklik yapmadan devam ediyorsa, sürücü kontrolü ele alır ve sisteme, kabul edilemez bir davranış sergilediğine dair sinyal gönderir.
İnsandan gelen geri bildirim verileri derlendiğinde, sisteme gönderilen hatalı durum sinyalleri kabul edilir ve edilemez olarak gruplara ayrılır. Sistem aynı durumlarda bazen kabul edilir sinyaller alırken, farklı bir yerde kabul edilemez sinyali alabilir. Buna örnek olarak; büyük beyaz bir arabanın yanından geçtiği bir durumda sürücü müdahele etmez ve sisteme kabul edilir sinyali giderken aynı durum bir ambulans yanından geçerken sürücü müdahale eder ve kabul edilemez sinyali sisteme gider. Bu durumda sistemde, insandan gelen çelişkili birden fazla sinyal olur. Bunları sistem hafızasına not eder, fakat aynı durum için neden farklı sinyaller aldığının sebebini bilmez. Sistem için bundan sonraki adım, “Bu karışık sinyalleri aldığım durumda bir hata yapmam ne kadar olası?”dır.
Bir insan araç kullanırken, “gösteriler” ve “düzeltmeler” gibi yollarla veri sağlar. Burada söz edilen gösteriler, kişinin gerçek dünyada olağan olarak gerçekleştirdiği eylemler iken, düzeltmeler bu olağan durumun dışında gerçekleşen eylem sonucunda oluşan tepkidir. Buna alternatif olarak, insan otonom araç içerisindeyken, aracı izlemesi ile farkettiği herhangi bir hataya karşı düzeltme yapabilir. Örneğin, kişi sürücü koltuğundayken, otonom araç planlanan rotada ilerler. Eğer beklenmedik bir durum yok ise sürücü araca müdahale etmez, ancak beklenmedik bir durum ile karşılaşılırsa ve araç herhangi bir değişiklik yapmadan devam ediyorsa, sürücü kontrolü ele alır ve sisteme, kabul edilemez bir davranış sergilediğine dair sinyal gönderir.
İnsandan gelen geri bildirim verileri derlendiğinde, sisteme gönderilen hatalı durum sinyalleri kabul edilir ve edilemez olarak gruplara ayrılır. Sistem aynı durumlarda bazen kabul edilir sinyaller alırken, farklı bir yerde kabul edilemez sinyali alabilir. Buna örnek olarak; büyük beyaz bir arabanın yanından geçtiği bir durumda sürücü müdahele etmez ve sisteme kabul edilir sinyali giderken aynı durum bir ambulans yanından geçerken sürücü müdahale eder ve kabul edilemez sinyali sisteme gider. Bu durumda sistemde, insandan gelen çelişkili birden fazla sinyal olur. Bunları sistem hafızasına not eder, fakat aynı durum için neden farklı sinyaller aldığının sebebini bilmez. Sistem için bundan sonraki adım, “Bu karışık sinyalleri aldığım durumda bir hata yapmam ne kadar olası?”dır.
► Akıllı Toplama
Sistemde aynı durum için alınan iyi ya da iyi değil sinyalleri kör nokta olarak etiketlenir. Bu etiketlerden ambulans örneği için, aynı durumda alınan kabul edilemez sinyaller daha az görüldüğünde sistem bunu güvenli olarak tahmin eder ve bu da gerçek hayatta güvenilirliği azaltır. Bu durum için bir makine öğrenme yöntemi olan Dawid-Skene algoritması kullanılır. Algoritma, alınan bütün verileri toplar. Kabul edilir ve edilemez durumları tanımlamak üzere bazı olasılık hesapları yapar. Her bir durum için, “güvenilir” ya da “kör nokta” etiketleri ile sistemdeki durumun güvenilirlik düzeyini gösterir.
Sistem ön görülen bu kör nokta durumlardan insansı davranışlar gösterirse otonom araçlardaki güven seviyesi arttırılmış olur. Bu da öğrenilmiş modeller kullanılmasıyla gerçekleştirilir.
Kaynak:
►sciencedaily.com
►slideshare.net
►searchenterpriseai.techtarget.com
Sistem ön görülen bu kör nokta durumlardan insansı davranışlar gösterirse otonom araçlardaki güven seviyesi arttırılmış olur. Bu da öğrenilmiş modeller kullanılmasıyla gerçekleştirilir.
Kaynak:
►sciencedaily.com
►slideshare.net
YORUMLAR
ANKET
- Dünyanın En Görkemli 10 Güneş Tarlası
- Dünyanın En Büyük 10 Makinesi
- 2020’nin En İyi 10 Kişisel Robotu
- Programlamaya Erken Yaşta Başlayan 7 Ünlü Bilgisayar Programcısı
- Üretimin Geleceğinde Etkili Olacak 10 Beceri
- Olağan Üstü Tasarıma Sahip 5 Köprü
- Dünyanın En İyi Bilim ve Teknoloji Müzeleri
- En İyi 5 Tıbbi Robot
- Dünyanın En Zengin 10 Mühendisi
- Üretim için 6 Fabrikasyon İşlemi
- DrivePro Yaşam Döngüsü Hizmetleri
- Batarya Testinin Temelleri
- Enerji Yönetiminde Ölçümün Rolü: Verimliliğe Giden Yol
- HVAC Sistemlerinde Kullanılan EC Fan, Sürücü ve EC+ Fan Teknolojisi
- Su İşleme, Dağıtım ve Atık Su Yönetim Tesislerinde Sürücü Kullanımı
- Röle ve Trafo Merkezi Testlerinin Temelleri | Webinar
- Chint Elektrik Temel DIN Ray Ürünleri Tanıtımı
- Sigma Termik Manyetik Şalterler ile Elektrik Devrelerinde Koruma
- Elektrik Panoları ve Üretim Teknikleri
- Teknik Servis | Megger Türkiye
Aktif etkinlik bulunmamaktadır.