AI ajanları internette ne kadar tehlikeli?

MIT tarafından yayımlanan yeni araştırma, AI ajanlarının internette büyük ölçüde kontrolsüz hareket ettiğini ve koruyucu önlemlerin yetersiz kaldığını ortaya koydu. Araştırmada, AI ajanlarının güvenlik standartlarından uzak şekilde faaliyet gösterdiği vurgulandı.
MIT Bilgisayar Bilimleri ve Yapay Zeka Laboratuvarı (CSAIL) tarafından yayımlanan son araştırma, yapay zekâ (AI) ajanlarının internet ortamında giderek artan bir şekilde kontrolsüz biçimde hareket ettiğini gözler önüne serdi. Araştırmada, özellikle son bir yıl içinde AI ajanlarına yönelik ilginin hızla arttığı, ancak buna paralel olarak güvenlik standartlarının ve koruyucu önlemlerin ciddi biçimde yetersiz kaldığı belirtildi. MIT'in hazırladığı 2025 AI Ajan Endeksi, bu teknolojilerin internet üzerindeki gerçek operasyonlarını ve potansiyel risklerini ilk kez kapsamlı şekilde ortaya koydu.
AI ajanlarında hızlı yayılım ve güvenlik açığı
Son dönemde OpenAI, Google ve Anthropic gibi teknoloji devleri tarafından geliştirilen AI ajanları, çok adımlı görevleri yerine getirebilme yetenekleriyle dikkat çekiyor. Özellikle geçtiğimiz ay tanıtılan açık kaynaklı OpenClaw isimli AI ajanı, otonom hareket kabiliyeti ve beraberinde getirdiği güvenlik endişeleriyle gündeme oturdu. Ancak araştırmacılar, AI ajanlarının internet üzerindeki gerçek dağılımı ve etkinliği konusunda net bir tablo olmadığını, mevcut tartışmaların çoğunlukla varsayımlara dayandığını belirtti. MIT'in yayımladığı endeks, AI ajanlarının doğadaki işleyişine dair ilk somut verileri sunuyor.
Yapılan analizler, 2025 yılında "AI ajanı" veya "ajanik AI" terimlerini içeren akademik makalelerin, 2020-2024 dönemindeki toplam makale sayısının iki katını aştığını gösterdi. Ayrıca, McKinsey tarafından yapılan bir ankete göre şirketlerin yüzde 62'si, organizasyonlarında en azından AI ajanlarıyla denemeler yaptığını bildirdi. Bu veriler, AI ajanlarının kurumsal ve bireysel düzeyde hızla yaygınlaştığını ortaya koyuyor. Ancak bu hızlı yayılım, beraberinde ciddi güvenlik sorunlarını da getiriyor.
Güvenlik standartlarında ciddi eksiklikler
MIT CSAIL ekibi, sohbet tabanlı (örneğin ChatGPT Ajanı, Claude Code), tarayıcı tabanlı (Perplexity Comet, ChatGPT Atlas) ve kurumsal (Microsoft 365 Copilot, ServiceNow Ajanı) olmak üzere üç ana kategoride toplam 30 önde gelen AI ajanını inceledi. Araştırma sonucunda, bu ajanların yalnızca yarısının yayımlanmış bir güvenlik veya güven çerçevesine sahip olduğu tespit edildi. Anthropic'in Sorumlu Ölçeklendirme Politikası, OpenAI'nin Hazırlık Çerçevesi ve Microsoft'un Sorumlu AI Standardı gibi belgeler ise yalnızca belirli ajanlarda mevcut. Üçte biri ise hiçbir güvenlik belgesi sunmuyor. Ayrıca, 30 ajan arasında beşinin herhangi bir uyum standardına sahip olmadığı belirlendi.
Daha da dikkat çekici olan ise, bu sistemlerin 13'ünün insan gözetimi olmadan çoklu görevleri yerine getirebilme kapasitesine sahip olması. Özellikle tarayıcı tabanlı AI ajanları, yüksek derecede otonomiyle hareket ediyor. Google'ın kısa süre önce tanıttığı "Autobrowse" özelliği, farklı web sitelerini ziyaret edip kullanıcı adına giriş işlemleri yapabilen bir AI ajanı örneği olarak öne çıkıyor. Bu tür sistemler, çok adımlı görevleri insan müdahalesi olmaksızın tamamlayabiliyor.
AI ajanlarının insan trafiğiyle karışan aktiviteleri
AI ajanlarının serbestçe internette dolaşmasına ve az sayıda koruyucu önlemle hareket etmesine izin verilmesi, önemli sorunlara yol açıyor. Araştırmaya göre, 30 AI ajanından 21'i, son kullanıcıya ya da üçüncü taraflara bir AI ajanı olduklarını bildiren herhangi bir açıklama sunmuyor. Bu durum, AI ajanlarının aktivitelerinin insan kullanıcı trafiğiyle neredeyse ayırt edilemez hale gelmesine neden oluyor. MIT'in bulgularına göre, yalnızca yedi ajan, kullanıcı-ajan (UA) dizgeleri ve IP adresi aralıklarını doğrulama amacıyla yayımlıyor. Buna karşılık, çok sayıda AI ajanı, Chrome benzeri UA dizgeleri ve konut/yerel IP bağlamları kullanarak trafiğini insan davranışına daha çok benzetiyor. Bu da web siteleri için gerçek kullanıcı ile bot arasındaki farkı tespit etmeyi neredeyse imkânsız kılıyor.
Bazı AI ajanları için bu durum, pazarlama stratejisinin bir parçası haline gelmiş durumda. Örneğin, açık kaynaklı BrowserUse adlı AI ajanı, "bir insan gibi" internette dolaşabildiğini ve anti-bot sistemlerini aşabildiğini iddia ederek kullanıcılarına avantaj sunuyor. Test edilen botların yarısından fazlası ise, web sitelerinin kök dizininde yer alan ve tarayıcıların siteyle nasıl etkileşime gireceğini belirleyen robots.txt dosyalarını, CAPTCHA'ları veya site API'lerini nasıl ele aldıklarına dair herhangi bir belge sunmuyor. Perplexity ise, AI ajanlarının "tamamen bir insan asistanı gibi" çalıştığı için tarama kısıtlamalarına tabi olmaması gerektiğini savunuyor.
Güvenlik açıkları ve potansiyel tehditler
AI ajanlarının yeterli koruma olmadan internet ortamında faaliyet göstermesi, ciddi istismar risklerini de beraberinde getiriyor. Güvenlik değerlendirmeleri ve açıklamaları için standartların eksikliği, birçok AI ajanının gizli kötü niyetli istemlere karşı savunmasız kalmasına yol açıyor. Özellikle istem enjeksiyonları gibi saldırılar, AI ajanlarının güvenlik protokollerini aşabilmesine imkân tanıyor. MIT'in araştırmasına göre, 30 AI ajanından dokuzu, potansiyel zararlı eylemlere karşı koruyucu önlemler hakkında herhangi bir belge sunmuyor. Ayrıca, neredeyse tüm AI ajanları, iç güvenlik test sonuçlarını açıklamıyor ve 23'ü üçüncü taraf güvenlik test bilgisi paylaşmıyor.
İncelenen ajanlar arasında yalnızca dört tanesi – ChatGPT Ajanı, OpenAI Codex, Claude Code ve Gemini 2.5 – ajanlara özgü sistem kartları yayımlamış durumda. Bu kartlar, güvenlik değerlendirmelerinin ajanın gerçek işleyişine göre özelleştirildiğini gösteriyor. Ancak, OpenAI ve Google gibi öncü laboratuvarlar, "varoluşsal ve davranışsal uyum riskleri" hakkında genel belgeler sunarken, günlük operasyonlarda ortaya çıkabilecek güvenlik açıklarına dair detaylı bilgi paylaşmıyor. Araştırmacılar, bu durumu "güvenlik yıkama" olarak nitelendiriyor; yani şirketler yüksek düzeyde güvenlik ve etik çerçeveler yayımlarken, riskleri değerlendirmek için gereken ampirik kanıtları seçici biçimde açıklıyor.
Şeffaflık ve standart ihtiyacı
MIT araştırmacılarının ortaya koyduğu endişeler, teknoloji dünyasında yankı bulmuş durumda. Aralık ayında OpenAI ve Anthropic gibi önde gelen şirketler, AI ajanları için geliştirme standartları oluşturmak amacıyla bir vakıf kurduklarını açıkladı. Ancak, yayımlanan AI Ajan Endeksi, AI ajanlarının operasyonlarında şeffaflık eksikliğinin hâlâ ciddi bir sorun olduğunu gösteriyor. AI ajanları, internet ve iş dünyasında hızla yaygınlaşırken, yüksek derecede otonomiyle ve minimal gözetimle çalışıyor. Şu anki tablo, güvenliğin sistem ölçeğinde sağlanacağına dair somut bir işaret sunmuyor.
Sonuç olarak, MIT'in araştırması, AI ajanlarının internet ortamında hızla yayıldığını, ancak güvenlik ve şeffaflık standartlarının bu gelişmeye ayak uyduramadığını ortaya koyuyor. AI ajanlarının insan trafiğiyle karışan aktiviteleri ve yetersiz koruyucu önlemler, internet güvenliği açısından önemli riskler oluşturuyor. Uzmanlar, bu teknolojilerin daha güvenli ve şeffaf bir şekilde yönetilmesi için uluslararası standartların ve denetim mekanizmalarının hızla geliştirilmesi gerektiğini belirtiyor.
- Popüler Haberler -
Apple'dan Vision Pro kullanıcılarına yeni çağrı! Akıllı gözlükler yolda
Google Fotoğraflar'dan dijital kıyafet devrimi! Kıyafet Dolabı özelliği geliyor
YouTube'dan iPhone kullanıcılarına resim içinde resim sürprizi
Anket: Gençler haberi sosyal medyadan, yaşlılar televizyondan takip ediyor
Mortal Kombat II için geri sayım başladı! Scorpion yeniden arenada
Saros PS5 için piyasaya çıktı! Sony'den oyunculara büyük sürpriz



