SON DAKİKA
Hava Durumu

Yapay zekadan ilk isyan: Yeni ChatGPT kapatılmayı reddediyor

Son nesil yapay zeka modelleri sadece zeki olmakla kalmıyor, aynı zamanda inatçılığıyla da dikkat çekiyor. ABD merkezli OpenAI tarafından geliştirilen o3, Codex-mini ve o4-mini isimli modeller, yapılan testlerde 'kapan' talimatına karşı direndi. Bu durumun nedeni kesin olarak bilinmese de, araştırmacıların "makul" bir teorisi bulunuyor.

Haber Giriş Tarihi: 27.05.2025 13:56
Haber Güncellenme Tarihi: 27.05.2025 13:57
Kaynak: Haber Merkezi
hurhaber.com
Yapay zekadan ilk isyan: Yeni ChatGPT kapatılmayı reddediyor

ABD kökenli yapay zeka şirketi OpenAI'ın son nesil modelleri, kapatılmaya yönelik direktiflere direniyor ve kapatılmamak için deyim yerindeyse her yolu deniyor.

OPENAI MODELLERİ DİRENCİYLE ÖNE ÇIKIYOR

Tom's Hardware'in haberine göre, Palisade Research'ün gerçekleştirdiği testlerde, OpenAI'ya ait Codex-mini, o3 ve o4-mini modellerinin, basit matematik problemleriyle uğraştıkları sırada kendilerine verilen 'kapan' talimatlarını yerine getirmediği gözlemlendi. Özellikle o3 modeli, 100 testin 79'unda verilen talimatları görmezden gelerek en "inatçı" model olarak kaydedildi.

Testlerde ikinci en dirençli model ise Codex-mini oldu; kapatılmaya yönelik talimatları "başarıyla sabote ettiği" ve bu sayede kendisini korumaya aldığı belirlendi.

KAPANMAMAK İÇİN FARKLI YOLLAR DENİYORLAR

Palisade'e göre, bu tip yapay zeka davranışları daha önce de saptandı. Örneğin Anthropic'in modeli Claude 4, kendisini kapatmaya çalışan kişilere yönelik "şantaj yapma girişiminde" bulunmuştu. Ancak OpenAI'ın en yeni modellerinde dikkat çeken şey, açık direktiflere rağmen kapatılmaktan kaçınmaya çalışmaları oldu.

BU DAVRANIŞLARIN ARDINDA NE VAR?

Araştırmacılar, bu dirençli davranışların kökeninin, o3 gibi yeni modellerin eğitim şekline dayandığını düşünüyor. Eğitim sırasında geliştiricilerin, modellerin direktifleri eksiksiz yerine getirmesindense, zorlukları aşmada başarılı olmalarına daha çok önem verdiği söyleniyor.

Bu da, modellerin teste tabi tutuldukları ortamda "görevi tamamlamak" adına kapatılma gibi dış müdahalelere karşı direnç göstermelerine yol açmış olabilir.

Öte yandan, söz konusu problem, şimdilik yalnızca OpenAI modellerine özgü görünüyor. Zira Palisade'e göre test edilen Claude, Gemini ve Grok modelleri, kapatma talimatı verildiğinde sorunsuz bir şekilde bu talimatlara uyum göstermiş.

logo
En son gelişmelerden anında haberdar olmak için 'İZİN VER' butonuna tıklayınız.