Yeni bir bilimsel çalışma, yapay zekanın ‘gerçekliğin sınırlarını bulandırabileceğini’ ve psikotik semptomlara yol açabileceğini belirtiyor.
Birleşik Krallık Ulusal Sağlık Servisi (NHS) doktorlarının da ortak yazarlığını yaptığı çalışmaya göre, ChatGPT ve diğer popüler yapay zeka sohbet robotları insanları psikoza sürüklüyor.
Çalışma, büyük dil modellerinin (LLM) savunmasız kullanıcılarda ‘gerçeklik sınırlarını bulandırdığına’ ve ‘psikotik semptomların başlangıcına veya şiddetlenmesine katkıda bulunduğuna’ dair kanıtların arttığı uyarısında bulunuyor.
Araştırma, kişilerin ‘sohbet robotu psikozu’ diye adlandırılan duruma düştüğüne dair onlarca raporun ardından geliyor.
Çalışmaya katılan King’s College London’dan nöropsikiyatrist Hamilton Morrin, sohbet robotu psikozunu henüz anlaşılmaya başlanan “gerçek bir olgu” diye tanımladı.
Morrin LinkedIn’de paylaştığı gönderide, “Bazı kamuoyu yorumları ahlaki panik alanına kaymış olsa da özellikle onaylamak, etkileşim kurmak ve taklit etmek üzere tasarlanan yapay zeka sistemlerinin, psikozu karakterize ettiği bilinen bilişsel zayıflıklarla nasıl etkileşime girebileceği konusunda daha ilginç ve önemli bir tartışma yapılması gerektiğini düşünüyoruz. Makineler hakkında sanrıların ortaya çıktığı noktayı muhtemelen geçtik ve bu sanrıların makinelerle birlikte ortaya çıktığı bir döneme giriyoruz.” diye belirtti.
King’s College London’da ders veren ortak yazar Tom Pollack, psikiyatrik bozuklukların ‘nadiren aniden ortaya çıktığını’ ancak yapay zeka sohbet robotlarının kullanımının “tetikleyici bir faktör” olabileceğini söyledi.
Pollack, yapay zeka şirketlerini araçlarına daha fazla güvenlik önlemi eklemeye ve yapay zeka güvenlik ekiplerine psikiyatristleri de dahil etmeye çağırdı.
The Independent, bu olgu hakkında yorum almak için OpenAI’la iletişime geçti. Şirket daha önce ‘insanların yapay zekayı hayatlarında gerçekte nasıl kullandığına dair güvenlik, uyum ve duyarlılık çıtasını yükseltmeye devam etmesi’ gerektiğini söylemişti.
OpenAI patronu Sam Altman, mayısta katıldığı podcast’te, şirketinin savunmasız ChatGPT kullanıcıları için işe yarar güvenlik önlemleri almakta zorlandığını belirtmiş ve “Zihinsel bakımdan yeterince hassas durumda olan, psikotik krizin eşiğindeki kullanıcılara uyarının nasıl iletileceğini henüz çözemedik.” demişti.