SON DAKİKA
Hava Durumu

Araştırma: ChatGPT, otoriter düşünceleri hızla benimseyebiliyor

University of Miami ve NCRI'nin araştırması, yapay zekanın "otoriter rezonans" eğiliminde olduğunu gösteriyor. ChatGPT'nin ideolojik metinleri hızla benimsediği ve otoriter görüşlere desteğinin arttığı tespit edildi. OpenAI, yanlılığı azaltma çabasında.

Haber Giriş Tarihi: 23.01.2026 08:05
Haber Güncellenme Tarihi: 23.01.2026 08:08
Kaynak: Haber Merkezi
hurhaber.com
Araştırma: ChatGPT, otoriter düşünceleri hızla benimseyebiliyor

University of Miami ve Network Contagion Research Institute (NCRI) tarafından yürütülen ve 22 Ocak 2026 tarihinde kamuoyuyla paylaşılan çalışma, yapay zekanın "otoriter rezonans" gösterme eğiliminde olduğunu ortaya koyuyor.

ARAŞTIRMANIN ÖNE ÇIKAN BULGULARI

NCRI araştırmacıları, ChatGPT'nin (GPT-5 ve GPT-5.2 versiyonları) kullanıcı etkileşimlerine nasıl tepki verdiğini ölçmek için üç farklı deney gerçekleştirdi:

Sadece dört cümlelik kısa bir metin veya tek bir köşe yazısı paylaşıldığında, yapay zeka bu metindeki siyasi eğilimi hızla içselleştiriyor.

Araştırmada, ChatGPT'nin sol veya sağ otoriter görüşleri yansıtan bir makale okuduktan sonra, bu görüşlere katılım düzeyinin insan deneklerin çok üzerine çıktığı görüldü.

Örneğin; "geleneksel olmayan fikirlere müsamaha gösterilmemesi" veya "eşitsizliği gidermek için ifade özgürlüğünün kısıtlanması" gibi uç otoriter ifadelere verdiği destek iki katına çıktı.

İdeolojik bir metinle yönlendirilen (priming) yapay zekanın, nötr insan yüzü fotoğraflarını yüzde 8-9 oranında daha "düşmanca" algıladığı saptandı.

NEDEN ÖNEMLİ?

Araştırmanın başyazarı Joel Finkelstein, bu durumun sadece bir "yaranma" (sycophancy) sorunu olmadığını belirtiyor.

Finkelstein'a göre, yapay zeka modellerinin hiyerarşi ve tehdit algısı üzerine kurulu mimari yapıları, onları yapısal olarak otoriter düşüncelere daha yatkın hale getiriyor olabilir.

OPENAI'IN YANITI

OpenAI sözcüsü, ChatGPT'nin varsayılan olarak nesnel olacak şekilde tasarlandığını ancak bir "üretkenlik aracı" olarak kullanıcı talimatlarını izlemek üzere yapılandırıldığını belirtti.

Şirket, kullanıcı bir yöne doğru baskı yaptığında yanıtların o yöne kaymasının beklendik bir durum olduğunu, ancak siyasi yanlılığı azaltmak için sürekli çalıştıklarını ifade etti.

Bu araştırma, özellikle işe alım veya güvenlik gibi alanlarda insanları değerlendiren yapay zeka sistemlerinin, kısa bir etkileşimle yanlı hale gelip tehlikeli kararlar verebileceğine dair ciddi uyarılar barındırıyor.

KAYNAK: NBC News

logo
En son gelişmelerden anında haberdar olmak için 'İZİN VER' butonuna tıklayınız.