Arama

Select theme:

Yapay zeka siyasi görüşlerinizi değiştirebilir mi?

Ali Osman Arabacı teyit.org

Birkaç yıl önce hayatımıza hızlıca giren yapay zekanın ağırlığı artıyor. Science dergisinde Aralık 2025'te yayımlanan kapsamlı bir araştırma, yapay zekanın insanları siyasi konularda ikna etme gücünü ölçtü.

Oxford İnternet Enstitüsü, MIT ve İngiltere Yapay Zeka Güvenlik Enstitüsü'nden araştırmacıların yürüttüğü çalışma, büyük dil modellerinin (LLM) siyasi görüşleri değiştirme kapasitesini sistematik olarak test eden ilk deneylerden biri.

Araştırmanın temel sorusu şuydu: Yapay zeka ile yapılan sohbetler, insanların siyasi tutumlarını gerçekten değiştirebilir mi? Ve eğer değiştirebiliyorsa, bu ikna gücünün arkasında hangi mekanizmalar yatıyor?

Araştırma nasıl yürütüldü?

Araştırma ekibi, Aralık 2024 ile Mayıs 2025 arasında İngiltere'den toplam 76 bin 977 katılımcı ile üç ayrı deney gerçekleştirdi. Katılımcılara sağlık, eğitim, göç, iklim değişikliği, ekonomi ve ulusal güvenlik gibi çeşitli alanlarda toplam 697 farklı siyasi görüş sunuldu. Her katılımcı rastgele bir siyasi konuya atandı ve öncelikle bu konudaki tutumunu 0'dan 100'e kadar bir ölçekte belirtti.

Ardından katılımcılar rastgele gruplara ayrıldı. Bazıları yapay zeka modelleriyle canlı sohbet etti, bazıları yapay zekanın ürettiği statik mesajlar okudu, bir kısmı ise kontrol grubu olarak hiçbir müdahale almadı. Deneylerde GPT-4o, GPT-4.5, Llama, Qwen ve Grok gibi 13 farklı yapay zeka modeli kullanıldı. Modellerin bir kısmı olduğu gibi kullanılırken, bir kısmına "ikna edici olma" konusunda özel eğitim verildi.

Yapay Zeka insanları ikna edebiliyor

Araştırmanın en çarpıcı bulgusu, yapay zeka ile yapılan sohbetlerin siyasi tutumları değiştirmede gerçekten etkili olduğunu göstermesiydi. Ortalama olarak, yapay zeka ile sohbet eden katılımcıların tutumları 0-100 ölçeğinde 8-9 puan değişti. Bu etki hem liberal hem de muhafazakar görüşler için geçerliydi.

Daha da önemlisi, bu ikna etkisi geçici değildi. Bir ay sonra yapılan takip ölçümünde, katılımcıların tutumlarındaki değişimin 3.2 puanı hala devam ediyordu. Bu, yapay zekanın yarattığı ikna etkisinin en azından orta vadede kalıcı olabildiğini gösteriyor.

Araştırma, diyalog formatının önemini de ortaya koydu. Yapay zeka ile interaktif sohbet eden katılımcılardaki tutum değişimi, yapay zekanın ürettiği statik mesajları okuyan katılımcılara kıyasla yaklaşık üç puan daha yüksek oldu.

Telaşa mahal var mı?

Bu bulgular, demokratik süreçler için ciddi riskler barındırıyor. Yapay zeka destekli ikna kampanyaları, seçim süreçlerinde kitlesel manipülasyon için kullanılabilir. Özellikle bilgi yoğunluğu mekanizması, seçmenlere hedefli dezenformasyon yaymak için etkili bir kanal sunuyor.

Bir yapay zeka modeli, milyonlarca seçmenle eş zamanlı olarak kişiselleştirilmiş sohbetler yürütebilir ve bu ölçeklenebilirlik, geleneksel ikna yöntemlerinde mümkün olmayan bir tehdit oluşturur.

Otoriter rejimler, bu teknolojileri muhalif grupları ikna etmek veya susturmak için kullanabilir. Şirketler, tüketicilerin siyasi tutumlarını kendi çıkarları doğrultusunda şekillendirebilir. Yabancı güçler, hedef ülkelerin iç politikalarına müdahale etmek için yapay zeka destekli dezenformasyon kampanyaları yürütebilir.

Ancak araştırma, bazı umut verici sınırlamaları da ortaya koydu. İlk olarak, yapay zekanın yarattığı 8-9 puanlık etki, orta düzeyde bir etki olarak değerlendiriliyor. İnsan etkileşimlerinin yaratabileceği ikna gücüne kıyasla, yapay zekanın etkisi henüz bir tavana ulaşmış görünmüyor. İkinci olarak, doğruluk-ikna ödünleşimi, gerçek dünyada koruyucu bir faktör olabilir. Eğer en ikna edici yapay zeka sistemleri aynı zamanda en az doğru olanlarsa, bu sistemlerin ürettiği içerik daha kolay tespit edilebilir ve itibarları zarar görebilir.

Üçüncü olarak, araştırma kontrollü bir laboratuvar ortamında gerçekleştirildi. Gerçek dünyada insanlar yapay zeka ile etkileşime girdiğinin farkındadır ve bu farkındalık, ikna etkisini azaltabilir. Ayrıca insanlar sosyal çevrelerinden de bilgi alır ve bu çoklu bilgi kaynakları, tek bir yapay zeka sohbetinin etkisini sınırlayabilir.

Ne yapalım?

Science dergisindeki bu araştırma, yapay zekanın siyasi ikna gücünün artık teorik bir risk değil, ölçülmüş bir gerçek olduğunu gösteriyor. Teknoloji hızla gelişirken, toplum olarak bu gelişmelerin yaratabileceği risklere karşı hazırlıklı olmamız gerekiyor.

Bu hazırlık, bireysel düzeyde medya okuryazarlığı ve eleştirel düşünme becerilerinin güçlendirilmesini gerektiriyor. Yapay zeka ile etkileşimlerde özellikle bilgi bombardımanına maruz kaldığımızda şüpheci olmak, sunulan iddiaları bağımsız kaynaklardan doğrulamak ve hızlı tutum değişikliklerinin arkasındaki nedenleri sorgulamak önem kazanıyor.

Kurumsal düzeyde ise, yapay zeka sistemlerinin siyasi ikna amacıyla kullanımına dair düzenlemeler geliştirilmeli. Teknoloji şirketleri, modellerinin bu tür amaçlarla kötüye kullanımını önlemek için güvenlik tedbirleri almalı. Teyit kuruluşları ve araştırmacılar, yapay zeka destekli dezenformasyonu tespit etmek için yeni yöntemler geliştirmeli.

2026, dünya genelinde birçok önemli seçimin yapılacağı bir yıl kuşkusuz. Yapay zekanın bu ve sonrasındaki seçimlerde nasıl bir rol oynayacağı, hem teknolojinin gelişim hızına hem de toplumun bu gelişmelere karşı ne kadar hazırlıklı olduğuna bağlı olacak.

Bu yeni gerçeklikte, bilgiyi teyit etme alışkanlığı sadece iyi bir uygulama değil, demokratik sistemlerin sağlığı için bir zorunluluk haline geliyor.

 

Benzer Makaleler: