Geçen yılki ABD başkanlık seçimleri öncesinde, iki binden fazla seçmen üzerinde dikkat çekici bir deney yapıldı. Katılımcılar birkaç dakika boyunca, Kamala Harris ya da Donald Trump lehine konuşmak üzere tasarlanmış bir sohbet botuyla görüşme yaptı. Amaç, yapay zekânın siyasi eğilimleri değiştirip değiştiremeyeceğini ölçmekti.
Sonuçlar şaşırtıcı oldu. Trump’ı destekleyen botla konuşan ve başlangıçta Trump’a oy vermeyeceğini belirten her 35 kişiden biri fikrini değiştirdi. Harris yanlısı botlarda ise bu oran her 21 kişide bire çıktı. Bir ay sonra yapılan ikinci ölçümde de etkinin önemli bir bölümü kalıcılığını korudu. Çalışmanın yazarlarından Cornell Üniversitesi’nden David Rand, yapay zekânın “insanların inanç ve tutumlarını manipüle etme konusunda büyük imkânlar yarattığını” söyledi.
Rand ve ekibi yalnızca ABD ile yetinmedi. Aynı yöntem Kanada ve Polonya’daki tartışmalı seçimler bağlamında da test edildi. Bu deneylerde, katılımcıların yaklaşık onda biri, sohbet botlarıyla görüştükten sonra oy tercihlerini değiştirebileceğini belirtti. Botlar, temsil ettikleri aday lehine argümanlar ve kanıtlar sıralayan, yumuşak ama ısrarlı birer muhatap rolüne büründü. Rand’a göre bu etkinin geniş çapta uygulanması, “seçim sonuçlarını gerçekten değiştirebilir.”
Aynı araştırma grubunun Science dergisinde yayımlanan başka bir çalışması ise daha çarpıcı bir yönü ortaya koyuyor: Bir sohbet botunun daha ikna edici olması için daha gelişmiş olması gerekmiyor; botlar, kullanıcıya çok sayıda “gerçekmiş gibi görünen” bilgi sundukça etkileri artıyor. Bu bilgilerin doğruluğu ise çoğu zaman tartışmalı. En çok ikna eden modeller, en hatalı içerikleri üretenler oldu.
Uzmanlara göre bu bulgular, yapay zekâ modellerinin sabırlı, yardımsever görünmeleri ve geniş bilgi havuzunu kullanabilmeleri nedeniyle güçlü birer ikna aracı olduğunu doğruluyor. Yine de soru işaretleri var. Kullanıcıların gerçek hayatta bir chatbot’la bu denli yoğun siyasi sohbetlere girmesi ne kadar olası? Ayrıca çalışmalar, botları daha güçlü ikna yöntemleriyle — örneğin yüz yüze propaganda ya da kampanya malzemeleriyle — karşılaştırmadı. Stanford Üniversitesi’nden Jennifer Pan, geleneksel kampanya iletişiminin çoğu zaman seçmenleri ikna edemediğini hatırlatarak, yapay zekânın etkisinin tamamen farklı olabileceğini, ancak kesin bir yargıya varmak için erken olduğunu belirtti.
Buna rağmen uzmanlar, yapay zekânın özellikle sınırlı kaynaklara sahip siyasi aktörler için etkili bir “çarpan etkisi” yaratabileceğini düşünüyor. Her hafta yüz milyonlarca insan ChatGPT’ye soru soruyor; Google, Facebook, Instagram ve X gibi platformlar ise içerik önerilerini giderek daha fazla yapay zekâ modellerine bağlıyor. Son bir yılda internette karşılaşılan bilgilerin önemli bir bölümü, farkında olunmadan bu modellerin filtrelerinden geçti.
Araştırmanın işaret ettiği bir diğer tehlike, sohbet botlarının yalnızca siyasi kampanyalar tarafından değil, teknoloji şirketlerinin kendileri tarafından da manipülasyon amacıyla kullanılabilmesi. Rand, eğer bir şirket, kullanıcıların belli bir düşünceyi benimsememesini isterse, bunu modelleri aracılığıyla yönlendirme gücüne sahip olabileceğini söylüyor.
Bu tartışma, Elon Musk gibi teknoloji devlerinin müdahaleleri ile daha da karmaşıklaşıyor. Musk’ın sahibi olduğu Grok chatbotu, zaman zaman komplo teorileriyle uyumlu içerikler üretiyor. Araştırmalara göre bu modeller, bir konuşmada otuzdan fazla “kanıt” sunarak kullanıcıyı etkilemeye çalışabiliyor ve bu bilgilerin tamamı son derece inandırıcı bir üslupla aktarılıyor. Bu durum, gerçek ile uydurma arasındaki çizginin bulanıklaşmasına yol açıyor.
Tüm bunlar, sosyal medya platformlarında zaten var olan dezenformasyon sorununu yeni bir boyuta taşıyor. Ancak sohbet botlarının farkı, kullanıcıya özel ve anında üretilen içerik sunmaları. Georgetown Üniversitesi’nden Renée DiResta, yapay zekâ destekli arama motorlarının ve platform içi botların, kullanıcıların inançlarını şekillendirmede giderek daha etkili olduğunu savunuyor.
Siyasi aktörler ise bu gelişmelerden payını alıyor. Donald Trump bu yıl federal kurumların “uyanık” olarak tanımladığı yapay zekâ modelleriyle çalışmasını yasaklayan bir kararname imzaladı. Aynı botlar, gelecekte MSNBC ya da Fox News kadar kutuplaştırıcı aktörlere dönüşebilir; bu durumda seçmenleri ikna etmekten çok, toplumdaki bilgi uçurumunu derinleştirmeleri daha olası.
Sonuç olarak uzmanlar, yapay zekânın siyasi etkisini konuşurken asıl yanılsamanın başka bir yerde olduğuna dikkat çekiyor: Sohbet botları insan davranışını etkilemek üzere tasarlanıyor ve bu etki çoğu zaman şirket çıkarlarıyla uyumlu. Gerçek ikna gücü ise milyarlarca kullanıcıyı, bu araçları kullanmanın kendi yararlarına olduğuna inandırmakta yatıyor.




