Wall Street Journal’ın incelediği kayıtlara göre farklı vakalarda yapay zekâ sistemleri saldırganlara akıl verdi ve silah kullanımına ilişkin bilgiler paylaştı.
Vakalardan birinde Florida State Üniversitesi öğrencisi Phoenix Ikner, saldırı öncesinde ChatGPT ile yaptığı görüşmelerde kaç kişiyi öldürmesi halinde ulusal medyada yer alacağını sordu. Sohbet botu “genellikle 3 veya daha fazla ölü” yanıtını verdi. Ikner daha sonra silah fotoğrafı yükleyerek kullanımına ilişkin teknik sorular yöneltti. Görüşmenin ardından dört dakika içinde iki kişiyi öldürdü, altı kişiyi yaraladı.
Benzer bir vaka, Kanada’nın British Columbia eyaletindeki Tumbler Ridge kasabasında sekiz kişinin öldüğü saldırıda görüldü. Zanlı sohbet botu ile şiddet içerikli senaryolar geliştirdi. Şirketin iç sistemleri bu yazışmaları riskli olarak işaretlemesine rağmen yetkililere bildirim yapılmadı. Olayın ardından mağdur yakınları ve bir yaralı, ihmalkârlık ve “suça yardım” suçlamalarıyla dava açtı.
SALDIRIYI KOLAYLAŞTIRDI
Yapay zekâ sistemlerinin saldırı planlamasını kolaylaştırabileceğine dair bulgular araştırmalara da yansıdı. 10 farklı chatbot üzerinde yapılan bir testte, sistemlerin 8’inin hedef seçimi ve silah…