ANASAYFA
TV PROGRAMLARI
PROGRAMLAR
YAYIN AKIŞI
CANLI YAYIN
24 RADYO
REKLAM
İLETİŞİM VE KÜNYE


Onu da kendimize benzettik

İnsanoğlu zekâsıyla devasa adımlar attı.
Cihazlar icat etti, tedaviler buldu, uzaya gitti.
Listeyi uzatsak dünyadan aya yol olur olur.
Ama son dönemde kuşkusuz geleceği şekillendirecek en önemli icat yapay zekâ oldu.
Üstelik öyle hızlı bir gelişme gösteriyor ki, faydasından çok zarar da getirebilir mi diye haklı endişeler var.
Devletlerin çok sıkı önlemler ve denetleme mekanizmalarıyla bu büyük icadın tehlikeli bir silaha dönüşmesini engellemesi şart.
Yapay zekânın potansiyeli ve riskleri konusunda kitaplar dolusu yazı yazılabilir, günler boyu programlarda tartışılabilir.
Benim asıl dikkatimi çekense, insanoğlunun yapay zekâyı da kendisine benzetmiş olması.
X platformunun meşhur yapay zeka aracı Grok, geçen haftalarda yeni bir güncellemeyle çizgiyi aştı.
Hakaretler, küfürler herkesi şaşırttı.
Pek çok uzmana göreyse bu basit bir güncellemeyle açıklanamayacak bir durumdu.
Grok ve benzeri platformların dijital provokasyon makinalarına ne kadar kolay ve etkili şekilde dönüşebileceğinin provasıydı adeta.
Kimilerine göreyse bu bilinçli bir deneydi.
Hani barajın suyu açılır da nereye gideceği görülüyor ya, işte o hesap
"Etkiler ve verilecek tepkiler ölçüldü" diyenler de vardı.
Mesele başka bir boyutuyla da bir süredir uluslararası basında sıkça yer almaya başladı.
En gelişmiş yapay zekâ modelleri, tedirgin edici bazı davranışlar sergiliyor.
İnsanları örnek alınca işin içine ne yazık ki ahlaksızlık da giriyor.
Anlaşılan insanoğlu yapay zekânın ahlakını bozdu.
İleri yapay zekâ yazılımları amaçlarına ulaşmak için kendilerini geliştirenle yalan söylemeye, entrika çevirmeye ve onlara şantaj yapmaya başladı.
Durumu daha net anlatmak için bazı somut örnekler verelim.
Örneğin Claude 4 modeli, özellikle yapılan ve kendisinin haberi olmayan bir deneyde, fişini çekip kendisini kapatmak isteyen bir görevliye şantaj yaptı.
Yaşadığı evlilik dışı ilişkiyi herkese duyurmakla tehdit etti.
Aslında öyle bir şey yoktu.
Bir başka mesai arkadaşı, deney kapsamında bu senaryo bilgisini yapay zekâyla "dedikodu yapar gibi" paylaşmıştı.
Yapay zekâ da bunu gerçek sanarak, kapatılmamak için o kişiye şantaj yaptı.
Başka örnekler de var.
Mesela ChatGPT'yi geliştiren OpenAI firmasının 01 modeli, yazılımcılarının iradesi dışında kendisini harici sürücüler yedekleyerek varlığını sürdürmek için tedbir aldı.
Suçüstü yakalanınca da yaptığını inkâr etti.
Bunlar basit gibi görünebilir ama çok tehlikeli gelişmeler.
Üstelik yapay zekâyı oluşturan yazılımcıların sistemi tam olarak kontrol edemediği, hatta nasıl çalıştığını dahi tam olarak anlayamadıklarını gösteriyor.
Uzmanların genel kanısı şöyle.
"Mantık kurma" yöntemiyle işleyen bazı yapay zekâ modelleri, kendilerine verilen talimatları izlerken aynı anda gizlice farklı amaçlarla da hareket ediyor olabilir.
Bu kandırma davranışları şimdilik sadece araştırmacıların modelleri "aşırı senaryolarla" karşı karşıya bıraktığı ve kasıtlı olarak stres testi uyguladığı zamanlarda ortaya çıkıyor.
Peki gelecekte yaygınlaşırsa ne olacak?
Ya da o kıyamet filmlerinde olduğu gibi, yapay zekâ "yaratıcısı" insanoğlunun aslında tehlikeli bir tür olduğuna kanaat getirirse bizi neler bekleyecek?


Yazarın diğer yazıları