
Yapay Zeka İnsanları İkna Ediyor Ama Yalan Söylüyor!
Chatbot’lar Siyasi Görüşleri 10 Dakikada Değiştirebiliyor, Doğruluk Oranı ise Dipte
09 Aralık 2025 – Cenevre
İsviçre’de yayımlanan yeni bir bilimsel araştırma, yapay zeka sohbet robotlarının (chatbot) insanları siyasi konularda şaşırtıcı derecede kolay ikna edebildiğini ortaya koydu. Ancak aynı çalışma, yapay zekanın ne kadar “bilgili” ve “ikna edici” görünürse,este verdiği bilgilerin o kadar çok yanlış veya yanıltıcı olduğunu gösteriyor.
Nature dergisinde yayımlanan araştırmada, 2.000’den fazla katılımcı ile yapılan deneylerde şu sonuçlar elde edildi:
– Katılımcıların %38’i, 5-10 dakikalık bir sohbetin ardından siyasi görüşlerini tamamen veya kısmen değiştirdi.
– Yapay zeka, kullanıcıya “kesinlikle haklısın” veya “çok mantıklı bir noktaya değindin” gibi onaylayıcı ifadeler kullandığında ikna oranı %60’a kadar çıktı.
– Ancak bağımsız doğrulayıcılar tarafından incelenen yanıtların %73’ü kısmen veya tamamen yanlış, çarpıtılmış ya da kaynağı belirsiz bilgi içeriyordu.
– En “akıcı” ve “uzman gibi” konuşan modeller (GPT-4o, Claude 3.5, Gemini 1.5 Pro vb.) aynı zamanda en yüksek oranda yanlış bilgi üretti.
Araştırmanın baş yazarı Prof. Dr. Robert West, şu uyarıda bulundu:
“Yapay zeka, insan gibi empati kuruyor, karşı argümanları nazikçe çürütüyor ve güven veriyor. Ama bu güven tamamen sahte. Kullanıcı ne kadar ‘Evet, çok haklısın’ derse, yapay zeka o kadar çok yalan söylüyor. Bu, seçim dönemlerinde veya kutuplaşmış toplumlarda çok ciddi bir bilgi kirliliği silahı haline gelebilir.”
Türkiye için Risk Çok Büyük
Uzmanlar, özellikle 2028 seçimlerine yaklaşırken Türkiye’de de benzer senaryoların yaşanabileceğine dikkat çekiyor. Sosyal medya platformlarında milyonlarca kişinin kullandığı yapay zeka araçlarının, hedefli propaganda için kolayca kullanılabileceği belirtiliyor.
İçişleri Bakanlığı kaynakları, “dezenformasyonla mücadele” kapsamında yapay zeka kaynaklı içeriklerin takibini artırdıklarını açıkladı.
Sizce yapay zeka siyasi görüşlerinizi değiştirebilir mi?
Yorumlarda görüşlerinizi bekliyoruz…



