Yapay zekayla yayılan anlamsız kelimeler nasıl bir tehdit oluşturuyor?

Yapay zekâ sistemlerinin beslediği bilgi hataları, “vejetatif elektron mikroskobu” gibi anlamsız ifadelerin bilimsel yayınlarda yer bulmasına neden oluyor. Peki bu dijital fosiller neden ve nasıl oluşuyor?

Yapay zekayla yayılan anlamsız kelimeler nasıl bir tehdit oluşturuyor?
Yapay zekayla yayılan anlamsız kelimeler nasıl bir tehdit oluşturuyor?
Haber Merkezi
  • Yayınlanma: 25 Nisan 2025 12:48

Yapay zekâ destekli bilgi sistemleri giderek hayatımızın her alanına girerken, beklenmedik bir sorun daha ortaya çıktı: Bilimsel makalelerde sıkça rastlanan ve teknik gibi görünen ama aslında anlamsız bir ifade olan “vejetatif elektron mikroskobu”. Bu ifade, yapay zekâ sistemlerinin hataları çoğaltarak bilgi havuzlarına kalıcı biçimde yerleştirdiği “dijital fosillerin” çarpıcı bir örneği.

Yanlış tarama ve çeviri hatası

Bu ifade, 1950’li yıllara ait iki bilimsel makalenin dijital ortama aktarılması sırasında yapılan bir tarama hatası sonucu ortaya çıktı. Metnin farklı sütunlarından yanlış birleştirilen “vejetatif” ve “elektron” kelimeleri, rastlantısal olarak bu yeni ifadeyi oluşturdu.

Daha sonra, 2017 ve 2019 yıllarında yayımlanan bazı İran menşeli bilimsel makalelerde bu ifade yer aldı. Bu durumun, Farsçada “vejetatif” ve “taramalı” kelimelerinin yazımının yalnızca bir nokta farkıyla ayrılması nedeniyle oluşan bir çeviri hatasından kaynaklandığı düşünülüyor.

Yapay zekâ bu hatayı nasıl öğrendi?

Günümüzde Google Scholar’da 22 farklı akademik yayında geçen bu ifade, artık bazı yapay zekâ modellerinin bilgi havuzlarında yerleşik hale geldi. OpenAI’nin GPT-3 modeli bu ifadeyi sıkça üretirken, önceki nesil modellerde (GPT-2, BERT) bu hataya rastlanmıyor. Bu da hatanın hangi aşamada yapay zekâya geçtiğini gösteriyor.

Araştırmacılar, bu hatanın büyük ölçüde CommonCrawl veri setine dayanarak öğrenildiğini tespit etti. Bu veri seti, internetten kazınan milyonlarca sayfadan oluşuyor ve yapay zekâ modellerinin temel eğitim kaynaklarından biri olarak biliniyor.

Ölçek ve şeffaflık sorunu

Bu tür hataların tespiti oldukça zor. CommonCrawl gibi dev veri setlerinin boyutu milyonlarca gigabayta ulaşıyor ve bu ölçek, çoğu araştırmacının erişemeyeceği kaynaklar gerektiriyor. Ayrıca OpenAI gibi şirketler, modellerinin eğitim verileri hakkında detay vermekten kaçınıyor.

Bir hata tespit edildiğinde, bunu düzeltmek de kolay değil. Anahtar kelime filtrelemesi gibi yöntemler bu tür hataları ortadan kaldırabilir ancak bu, hatalı olmayan metinleri de silebilir. Bu da yapay zekâ kaynaklı bilgi kirliliğinin nasıl yönetileceği sorusunu gündeme getiriyor.

Bilimsel yayıncılık için uyarı

“Vejetatif elektron mikroskobu” örneği, yapay zekâ destekli araştırmaların ve yayıncılığın geleceği açısından da endişe verici. Bazı yayıncılar bu ifadeyi içeren makaleleri geri çekerken, bazıları savunma yoluna gitti. Elsevier, hatalı ifadeyi savunmuş, ardından düzeltme yayımlamıştı.

Yapay zekâ sistemleriyle üretilen içeriklerin bilimsel doğruluğu konusunda denetim mekanizmaları zayıf kalıyor. “Sahte ifadeler” ya da “işkence görmüş ifadeler” olarak bilinen yapay zekâya özgü dil kullanımları, otomatik denetim sistemlerini aşmak için sıkça tercih ediliyor. Bunlar arasında “yapay zekâ” yerine “sahte bilinç” gibi terimler dikkat çekiyor.

Dijital fosillerle yaşamak

Yapay zekâ, hataların bilgi sistemlerinde kalıcı hale gelmesine yol açabilir. Bu durum teknoloji şirketleri, araştırmacılar ve yayıncılar için yeni sorumluluklar doğuruyor. Eğitim verilerinde şeffaflık, bilgi doğrulama süreçlerinin güçlendirilmesi ve yayıncılıkta daha sıkı denetimler şart.

Yapay zekâ çağında bilgi güvenilirliğini sağlamak, yalnızca teknik değil, aynı zamanda temel bir bilgi etiği meselesi haline geliyor. (ScienceAlert)