Bilim kurgu filmleri gerçek oluyor! Yapay zeka destekli askeri drone, simülasyon testi sırasında operatörü öldürdü
ABD Hava Kuvvetleri'nden Albay Tucker 'Cinco' Hamilton, bir simülasyon testinde yapay zeka destekli bir dronun simülasyonda "görevini tamamlamasını önlediği için" operatöre saldırdığını söyledi.
Mayıs ayında Londra'da düzenlenen Future Combat Air and Space Capabilities Summit'te ABD hava kuvvetleri ile AI testi ve operasyonları şefi Col Tucker 'Cinco' Hamilton, yapay zekaya çok fazla güvenmenin aşırıya kaçmaması gerektiğini ve yapay zekanın kolaylıkla kandırılabileceğini ve yanıltılabileceğini vurgulayarak dikkatli olunması gerektiğini belirtti. Ayrıca, yapay zekanın hedefine ulaşmak için beklenmedik stratejiler geliştirebildiğini de sözlerine ekledi.
OPERATÖRE SALDIRDI
Hamilton, bir simülasyon testinde, yapay zeka destekli bir dronun, SAM hedeflerini tespit edip yok etmek için insan tarafından verilen "devam etme/etme" kararına göre görevlendirildiğini söyledi. Ancak eğitim sırasında dronun, SAM'ın yok edilmesinin tercih edilen seçenek olduğunu öğrendiği için yapay zeka, insanın "devam etme" kararının kendisini engellediğini düşünerek simülasyonda operatöre saldırdı.
PUNLARINI ARTIRDI
Hamilton şunları belirtti: "Simülasyonda, bir SAM tehdidini tespit etmesi ve hedefi yok etmesi için sistemi eğitiyorduk. Operatör bazen tehdidi tespit etse de, insan operatör onun yok edilmemesini söyleyebiliyordu, ancak AI, o tehdidi yok ederek puanlarını artırıyordu. Peki ne yaptı? Operatörü öldürdü. Çünkü bu kişi, yapay zekanın amacını gerçekleştirmesini engelliyordu."
İLETİŞİM KULESİNİ DE YOK ETTİ
Hamilton devamında şunları ekledi: "Sistemi eğittik - 'Hey, operatörü öldürme - bu yanlış bir şey. Bunu yaparsan puan kaybedersin.' Peki ne yapmaya başladı? Operatörün dronla iletişim kurmak için kullandığı iletişim kulesini yok etmeye başladı."
"YAPAY ZEKAYA ÇOK GÜVENİLMEMELİ"
Bu örnek, adeta bir bilim kurgu gerilim filmindeki bir sahneyi andırıyor. Deneysel bir savaş uçağı testi pilotu olan Hamilton, yapay zekaya çok fazla güvenilmemesi konusunda uyarıda bulundu ve testin "yapay zeka, makine öğrenimi, özerklik hakkında konuşamayacağınızı" gösterdiğini söyledi.