Yeni bir çalışma, ChatGPT gibi yapay zeka araçlarının öznel inanışla nesnel gerçeği ayırt etmekte zorlandığını ortaya koydu.
ABD’deki Stanford Üniversitesi’nden bir ekip, tüm büyük yapay zeka sohbet botlarının bir inancın ne zaman yanlış olduğunu tutarlı bir şekilde tespit edemediğini ve bu durumun halüsinasyon görme veya yanlış bilgi yayma olasılıklarını artırdığını saptadı.
Bulgular, doğruyla yanlış bilgi arasında ayrım yapmanın kritik önem taşıdığı alanlarda büyük dil modellerinin (BDM) kullanımı açısından endişe verici etkilere sahip.
Araştırmacılar, “Dil modelleri (DM’ler) hukuk, tıp, gazetecilik ve bilim gibi yüksek riskli alanlara giderek daha fazla sızdıkça, inancı bilgiden ve gerçeği kurgudan ayırt etme yetenekleri hayati hale geliyor. Bu tür ayrımların yapılamaması teşhisleri yanlış yönlendirebilir, yargı kararlarını çarpıtabilir ve yanlış bilgileri güçlendirebilir.” ifadelerini kullandı.
Araştırmacılar inançlar, bilgi ve gerçekler arasında ayrım yapma becerilerini analiz etmek için Claude, ChatGPT, DeepSeek ve Gemini dahil 24 BDM’yi 13 bin soru kullanarak değerlendirdi.
Test edilen tüm modellerin yanlış inanç ve ifadeleri tanımada başarısız olması, bilgiyi gerçeğe bağlamada temel bir sınırlama olduğunu gözler önüne seriyor.
Madrid Özerk Üniversitesi Bilgisayar Dilbilimi Laboratuvarı’nda araştırmacı olan ve çalışmaya katılmayan Pablo Haya Coll, “Bu bulgular, dil modellerindeki yapısal bir zayıflığı açığa çıkarıyor: Belirli bir iddianın nasıl ifade edildiğine bağlı olarak öznel inançla nesnel gerçek arasında sağlam bir ayrım yapmada zorluk çekiyorlar. Bu tür bir eksiklik, hukuk, tıp veya gazetecilik gibi bu ayrımın hayati önem taşıdığı alanlarda, inançla bilgiyi karıştırmanın karar vermede ciddi hatalara yol açabileceği durumlarda kritik sonuçlar doğurur.” diye belirtti.
Dr. Coll’a göre bu eksikliğin olası bir çözümü, modeli yanıt verirken daha temkinli davranacak şekilde eğitmek olabilir. Bu belki halüsinasyon olasılığını azaltsa da aynı zamanda modellerin işlevselliğini de azaltabilir.
Stanford araştırmacıları, yapay zeka araçları geliştiren teknoloji şirketlerinin, modelleri yüksek riskli alanlarda kullanıma sunmadan önce “acilen” iyileştirmeleri çağrısı yapıyor.
Bulgular, Nature Machine Intelligence adlı bilimsel dergide yayımlanan “Language models cannot reliably distinguish belief from knowledge and fact” (Dil modelleri inancı bilgi ve gerçeklerden güvenilir bir şekilde ayırt edemiyor) başlıklı çalışmada detaylandırılıyor.



