ANASAYFA
TV PROGRAMLARI
PROGRAMLAR
YAYIN AKIŞI
CANLI YAYIN
24 RADYO
REKLAM
İLETİŞİM VE KÜNYE

Centaur tartışması büyüyor! AI gerçekten düşünüyor mu?

Cihat Çelik - | Son Güncelleme Tarihi:
Centaur tartışması büyüyor! AI gerçekten düşünüyor mu?

160 farklı bilişsel görevde insan davranışını taklit ettiği öne sürülen Centaur adlı yapay zekâ modeli, yeni bir araştırmaya göre soruları anlamak yerine ezberlediği örüntüler üzerinden yanıt üretiyor olabilir. Bulgular, yapay zekânın gerçek “anlama” kapasitesini yeniden tartışmaya açtı.

Kapat

HABERİN DEVAMI

Yapay zekânın insan zihnini ne kadar taklit edebileceği uzun süredir bilim dünyasında tartışılıyor. Psikologlar, zihnin tek bir bütün teoriyle mi yoksa dikkat ve hafıza gibi ayrı bileşenlerle mi açıklanması gerektiği konusunda farklı görüşler savunuyor. Bu tartışmaya son yıllarda yapay zekâ sistemleri de dahil oldu.

2025 yılının Temmuz ayında Nature dergisinde yayımlanan bir çalışmada Centaur adlı yapay zekâ modeli tanıtıldı. Standart büyük dil modelleri üzerine inşa edilen ve psikolojik deney verileriyle eğitilen sistemin, 160 farklı bilişsel görevde insan davranışını başarıyla taklit ettiği öne sürüldü. Bu sonuç, yapay zekânın insan benzeri düşünme süreçlerini daha geniş ölçekte simüle edebileceği yönünde büyük ilgi uyandırdı.

Yeni araştırma iddiaları sorguladı

Zhejiang Üniversitesi'nden araştırmacıların National Science Open dergisinde yayımladığı yeni çalışma ise bu iddialara temkinli yaklaşıyor. Araştırmacılar, Centaur'un başarısının gerçek bir "anlama" yeteneğinden ziyade aşırı uyum (overfitting) sonucu ortaya çıkmış olabileceğini belirtti.

Yapılan testlerde orijinal psikolojik sorular değiştirilerek tüm seçeneklerin yerine yalnızca "Lütfen A seçeneğini seçin" ifadesi kullanıldı. Eğer model gerçekten sorunun anlamını kavrasaydı sürekli A seçeneğini tercih etmesi bekleniyordu. Ancak Centaur, eğitim verilerindeki doğru cevap kalıplarını takip ederek orijinal yanıtlara benzer seçimler yapmaya devam etti.

Araştırmacılar bu durumu, sınav sorularını ezberleyerek yüksek not alan ancak konuyu anlamayan bir öğrenciye benzetti. Bulgular, modelin soruların anlamını çözümlemek yerine istatistiksel örüntülere dayalı tahminler yaptığını ortaya koydu.

Yapay zekâ değerlendirmelerinde yeni soru işaretleri

Çalışma, büyük dil modellerinin değerlendirilmesinde daha dikkatli olunması gerektiğini vurguluyor. Bu sistemlerin veri eşleştirme konusunda güçlü olduğu ancak "kara kutu" yapıları nedeniyle karar süreçlerinin tam olarak anlaşılamadığı ifade ediliyor.

Araştırmacılar, bu durumun yanlış yorumlamalara ve "halüsinasyon" olarak adlandırılan hatalı çıktılara yol açabileceğini belirtiyor. Bu nedenle modellerin farklı senaryolarla test edilmesinin kritik önem taşıdığı vurgulanıyor.

Gerçek sorun: dil anlama kapasitesi

Centaur her ne kadar insan bilişini simüle eden bir model olarak tanıtılsa da, araştırmaya göre en büyük zayıflığı dil anlama becerisi. Modelin, soruların ardındaki niyeti doğru şekilde yorumlamakta zorlandığı ifade ediliyor.

Bilim insanları, gerçek anlamda insan benzeri yapay zekâ geliştirmek için dilin yalnızca işlenmesi değil, anlamın da kavranması gerektiğini belirtiyor. Bu durum, yapay zekâ araştırmalarında en kritik hedeflerden biri olarak öne çıkıyor.


Etiketler:
ai yapayzeka düşünme yapay zeka