Yapay zeka “bilmiyorum” demeyi öğrendi

Araştırmacılar, yapay zekanın aşina olmadığı veya daha önce karşılaşmadığı bilgilerin farkında olmasını sağlayan ve sohbet robotlarının genel güvenilirliğini artıran bir yöntem geliştirdi.

Yapay zeka “bilmiyorum” demeyi öğrendi
Yapay zeka “bilmiyorum” demeyi öğrendi
Haber Merkezi
  • Yayınlanma: 11 Mayıs 2026 23:40
  • Güncellenme: 11 Mayıs 2026 20:30

Güney Koreli araştırmacılar, yapay zeka modellerinin nihayet, belirli konulara aşina olmadıklarını insan davranışına benzer şekilde kabul etmelerini sağlayacak yeni bir yöntem geliştirdi.

Kore İleri Bilim ve Teknoloji Enstitüsü’nden araştırmacılar, bu atılımın otonom sürüş ve tıp gibi alanlarda kullanılan yapay zeka modellerinin güvenilirliğini artırabileceğini söylüyor.

Önceki araştırmalar, özellikle tıbbi teşhis gibi alanlarda, bu araçların karar alma süreçlerinde kullanılmasının en büyük risklerinden birinin yapay zekanın “aşırı özgüveni” olduğunu ortaya koymuştu.

OpenAI’ın ChatGPT’si gibi yaygın kullanılan yapay zeka modellerinin, bilmediklerini kabul etmek yerine tahmin yapmaya teşvik edildikleri için “halüsinasyon gördükleri”, yani bilgi uydurdukları gösterilmişti.

Şimdiyse araştırmacılar, yapay zekanın aşina olmadığı veya daha önce karşılaşmadığı bilgilerin farkında olmasını sağlayan ve sohbet robotlarının genel güvenilirliğini artıran bir yöntem geliştirdi.

Araştırmacılar, yapay zekada aşırı özgüvenin temel nedeninin, omurga altyapısını oluşturan yapay sinir ağlarını kullanarak ilk verilerden öğrenme biçimi olduğunu söylüyor.

Bu aşamada ortaya çıkan küçük hatalar, düzeltilmezse yayılabiliyor ve sonraki eğitim sırasında önemli hatalara neden olabiliyor.

Araştırmacılar, başlatma aşamasında bir sinir ağına rastgele veri girildiğinde, modelin hiçbir şey öğrenmemiş olmasına rağmen yüksek bir güven sergilediğini buldu.

Bu durum “halüsinasyona” yol açtı.

Bunu ele almak için araştırmacılar, insan beyninin sorunu çözme biçiminden ipuçları kullandıklarını söylüyor.

İnsanlarda beyin sinyalleri doğumdan önce bile dış uyaran olmaksızın üretiliyor, bu da sorunun üstesinden gelmeye yardımcı oluyor.

Bunu taklit eden bilim insanları, bir yapay zeka modelinin sinir ağı omurgasının, gerçek öğrenmeden önce rastgele gürültü girdileriyle kısa bir ön eğitimden geçtiği bir sistem geliştirdi.

Araştırmacılara göre bu süreç, yapay zekanın veri öğrenmeye başlamadan önce kendi belirsizliğini ayarlayarak kendisi için bir temel oluşturmasını sağlıyor.

Isınma süreci, yapay zeka modelinin başlangıç ​​güvenini şansa yakın düşük bir seviyeye ayarlamasına ve aşırı güven yanlılığını önemli ölçüde azaltmasını sağlayabilir.

Araştırmacılar, başka bir deyişle yöntemin modellerin önce “Henüz hiçbir şey bilmiyorum” durumunu öğrenmesine yardımcı olduğunu söylüyor.

Araştırmacılar, “Geleneksel modeller, eğitim sırasında karşılaşmadıkları veriler için bile yüksek güvenle yanlış cevaplar verme eğilimindeyken, ısınma eğitimi alan modeller, güvenlerini düşürme ve ‘bilmediklerini’ tanıma yeteneklerinde belirgin bir iyileşme gösterdi” diye açıkladı.

Bu, yapay zekanın “bildiklerini” “bilmediklerinden” ayırt etme yeteneğini geliştirmesini sağlayabilir.

Nature Machine Intelligence adlı akademik dergide yayımlanan çalışmanın yazarlarından Se-Bum Paik, “Bu çalışma, beyin gelişiminin temel ilkelerini birleştirerek, yapay zekanın kendi bilgi durumunu insanlara daha benzer bir şekilde tanıyabileceğini gösteriyor. Bu önemli çünkü yapay zekanın yalnızca doğru cevabı ne sıklıkla verdiğini iyileştirmekle kalmayıp, ne zaman kararsız olduğunu veya yanılmış olabileceğini anlamasını sağlıyor.” diye konuştu.

Kaynak