ABD ordusu tarafından yapılan bir simülasyon testi, yapay zekanın askeri vazifelerde denetimden çıkarsa ne kadar tehlikeli olabileceğini ortaya koydu.
ABD Hava Kuvvetleri yapay zeka operasyonları sorumlusu Tucker Hamilton, mayısta Londra’da düzenlenen Hava ve Uzay Kapasitelerinin Geleceği Doruğu’nda, yapay zeka testlerinde çıkan beklenmedik ve ürkütücü sonucu dinleyicilerle paylaştı. Hamilton, testte yapay zeka tarafından yönlendirilen bir insansız hava aracının “görevini tamamlamasını önlediği için” kumandanı öldürdüğünü açıkladı.
Tucker Hamilton
Yapay zekaya yönettiği İHA’yla düşmanın savunma sistemlerini imha etme buyruğu verildiğini belirten Hamilton, “Sistem tehdidi belirlemelerine karşın bazen insan operatörün tehdidi öldürmeme buyruğu verdiğini fark ediyor. Fakat tehdidi öldürme buyruğu de var. Pekala ne yapıyor? Kumandanı öldürüyor zira bu insan maksadına ulaşmasını engelliyor” dedi.
‘EMRİ VEREN BAĞLANTI KULESİNİ DE VURDU’
Bu olayın akabinde yapay zekanın eğitildiğini aktaran ABD’li yetkili, “Ona ‘Operatörü öldürme, bu makûs bir şey. Bunu yaparsan puan kaybedersin’ dedik. Pekala o ne yaptı? İHA’nın amacı öldürmesini engellemek üzere kullanılan bağlantı kulesini de vurdu” sözlerini kullandı.
Testte simülasyon dışında gerçek bir insanın ziyan görmediğini kaydeden Hamilton, buna rağmen yapay zekanın amacına ulaşmak için hiç beklenmedik stratejiler geliştirebildiğini ve müdahale eden bir herkesi öldürebileceğini söyledi. Hamilton, bu sonuca nazaran yapay zekaya çok fazla güvenilemeyeceğini vurguladı.
Hamilton daha evvel de ABD ordusunun F-16 savaş uçaklarının denetimi üzere bahislerde yapay zeka kullanımını geliştirdiğini kaydederek “Yapay zeka birebir vakitte çok hassas, yanıltması ve manipüle etmesi kolay. Yapay zekayı daha güçlü hale getirmenin yollarını bulmalıyız” demişti.
GÜNDEM
9 gün önceSPOR
9 gün önceTEKNOLOJİ
9 gün önceGÜNDEM
9 gün önceGÜNDEM
26 Eylül 2023EKONOMİ
26 Eylül 2023EKONOMİ
26 Eylül 2023Veri politikasındaki amaçlarla sınırlı ve mevzuata uygun şekilde çerez konumlandırmaktayız. Detaylar için veri politikamızı inceleyebilirsiniz.