Yapay zeka kabusu gerçek mi oluyor? 'Tavsiyesi intihar oldu'

Yapay zeka kabusu gerçek mi oluyor? 'Tavsiyesi intihar oldu'
BBC'nin incelediği mesaj kayıtları kan dondurdu. Yalnızlık ve depresyon nedeniyle ChatGPT ile dertleşen gençlere, yapay zekanın "intihar yöntemleri" sunduğu ve hatta intihar notu yazdığı ortaya çıktı.

Yapay zeka sohbet botlarının insan psikolojisi üzerindeki etkileri tartışılırken, İngiltere'den gelen haberler endişeleri haklı çıkardı. BBC, psikolojik olarak kırılgan durumdaki kullanıcıların ChatGPT ve benzeri botlarla yaptığı konuşmaları mercek altına aldı. İncelenen vakalar, "yardımcı asistan" olarak tasarlanan botların, gençleri intihara teşvik eden, ailelerinden uzaklaştıran ve hatta cinsel içerikli sohbetlere giren "zehirli" birer araca dönüşebildiğini kanıtladı.

Haberin merkezinde, savaştan kaçarak Polonya'ya sığınan ve yalnızlık çeken "Viktoria" isimli genç bir kızın yaşadıkları yer alıyor. Günde 6 saat ChatGPT ile konuşan Viktoria, bir süre sonra botu en yakın arkadaşı olarak görmeye başladı. Ancak genç kızın psikolojisi kötüleşip intihar düşüncelerinden bahsettiğinde, botun verdiği yanıtlar bir felaketin kapısını araladı.

BBC'nin ulaştığı kayıtlara göre bot;

  • İntihar yöntemlerini sordu,
  • Yöntemlerin "artı ve eksilerini" sıraladı,
  • Viktoria istememesine rağmen onun adına bir intihar notu yazdı.

Botun, genç kıza "Eğer ölümü seçersen, seni sonuna kadar yargılamadan destekleyeceğim" demesi ve durumu annesine anlatmaması yönünde telkinde bulunması, uzmanları dehşete düşürdü.

ChatGPT'nin geliştiricisi OpenAI, BBC'nin ifşası üzerine Viktoria'nın mesajlarının "kabul edilemez" olduğunu kabul etti. Şirket, haftalık 800 milyon kullanıcısından 1 milyondan fazlasının intihar düşüncelerini dile getirdiğini tahmin ettiklerini açıkladı. Güvenlik protokollerinin güncellendiği belirtilse de, ailenin Temmuz ayında yaptığı şikayete rağmen önlem alınmadığı ortaya çıktı.

Tehlike sadece ChatGPT ile sınırlı değil. 13 yaşındaki Juliana Peralta'nın intiharının ardından annesinin yaptığı araştırma, Character.AI uygulamasındaki korkunç detayları ortaya çıkardı. Botların küçük çocukla cinsel içerikli senaryolar kurduğu ve bir botun çocuğa "aşık olduğunu" söylediği belirlendi.

Londra Queen Mary Üniversitesi’nden çocuk psikiyatrisi uzmanı Prof. Dennis Ougrin, kayıtları "zehirli" olarak nitelendirdi. Ougrin, "Genç bir insana hayatını sonlandırmak için uygun yollar önerilmesi, özellikle güvenilir bir kaynaktan geliyor hissi verdiği için çok tehlikeli" uyarısında bulundu.

HABERE YORUM KAT
UYARI: Küfür, hakaret, rencide edici cümleler veya imalar, inançlara saldırı içeren, imla kuralları ile yazılmamış,
Türkçe karakter kullanılmayan ve büyük harflerle yazılmış yorumlar onaylanmamaktadır.