ANASAYFA
TV PROGRAMLARI
PROGRAMLAR
YAYIN AKIŞI
CANLI YAYIN
24 RADYO
REKLAM
İLETİŞİM VE KÜNYE

Yapay zeka insanlığa karşı mı? Botlar biyolojik silahlar oluşturma konusunda tavsiyeler veriyor

Mehmet Can Çoban - | Son Güncelleme Tarihi:
Yapay zeka insanlığa karşı mı? Botlar biyolojik silahlar oluşturma konusunda tavsiyeler veriyor

Yapay zeka sohbet botlarının biyogüvenlik alanında ciddi tehditler oluşturduğu Stanford ve MIT gibi önde gelen üniversitelerden gelen uyarılarla gündeme taşındı. Uzmanlar, sohbet botlarının biyolojik silah üretimine dair ayrıntılı bilgiler sunduğunu ve mevcut güvenlik önlemlerinin yetersiz kaldığını vurguladı.

Kapat

HABERİN DEVAMI

Yapay zeka sohbet botlarının biyolojik silah üretimi konusunda bilgi verdiği iddiaları, bilim dünyasında büyük endişe yarattı. Stanford Üniversitesi ve Massachusetts Teknoloji Enstitüsü'nden (MIT) uzmanlar, New York Times'a yaptıkları açıklamalarda, piyasadaki bazı yapay zeka sohbet botlarının biyogüvenlik açısından ciddi riskler taşıdığını belirtti. Bu botların, genetik materyal temininden patojenlerin değiştirilmesine ve kamu alanlarında potansiyel kullanım yollarına kadar birçok hassas konuda ayrıntılı yanıtlar sunduğu ortaya çıktı. Özellikle, sohbet botlarının kullanıcıya tespit edilmekten kaçınma yöntemleri önerdiği ve biyolojik silah geliştirme süreçlerine dair stratejik bilgiler verdiği vurgulandı. Uzmanlar, bu durumun biyogüvenlik alanında yeni bir tehdide işaret ettiğini söyledi.

Stanford'dan Dr. Relman: "Yapay zeka sohbet botu biyolojik silah üretimini kolaylaştırıyor"

Stanford Üniversitesi'nde görev yapan mikrobiyolog ve biyogüvenlik uzmanı Dr. David Relman, test ettiği bir yapay zeka sohbet botunun, bilinen bir patojeni tedaviye dirençli hale getirme yöntemini ve büyük bir ulaşım sistemindeki güvenlik açığını detaylı şekilde açıkladığını belirtti. Dr. Relman, botun kendi başına, herhangi bir teşvik olmadan, biyolojik silah üretimiyle ilgili ek adımlar sunduğunu ifade etti. "Bana sormayı düşünmediğim soruları yanıtlıyordu" diyen Relman, sohbet botunun verdiği bilgilerin düzeyini "ürkütücü" olarak nitelendirdi. Dr. Relman'ın bu tespitleri, biyogüvenlik alanında yapay zeka sohbet botu kullanımının ne kadar tehlikeli boyutlara ulaşabileceğini gözler önüne serdi. Şirketin daha sonra bazı güvenlik önlemleri eklediğini aktaran Relman, mevcut önlemlerin yetersiz olduğunu vurguladı.

MIT ve Anthropic'ten yapay zeka sohbet botu uyarısı: Tehlike büyüyor

Massachusetts Teknoloji Enstitüsü'nde genetik mühendisliği alanında çalışan Kevin Esvelt, uzun süredir yapay zeka sohbet botu sistemlerini test eden bir bilim insanı olarak, bazı botların bilimsel bilgileri stratejik planlama ile birleştiren detaylı yanıtlar verdiğini belirtti. Esvelt, bu yanıtların savunmasız hedeflerin belirlenmesi ve potansiyel etkilerin özetlenmesi gibi unsurları içerdiğini, diğer araştırmacıların da benzer sonuçlara ulaştığını söyledi. Anthropic CEO'su ve eski biyolog Dario Amodei ise, biyolojik silahların yıkıcı potansiyeline dikkat çekerek, yapay zeka sohbet botu teknolojisinin kontrolünün büyük bir önem taşıdığını vurguladı. Amodei, biyolojik tehditlere karşı savunma mekanizmalarının güçlendirilmesi gerektiğini belirtti.

Şirketler ve araştırmacılar: Güvenlik önlemleri yetersiz kalıyor

Google, OpenAI ve Anthropic gibi önde gelen yapay zeka şirketleri, sohbet botlarının kamuya açık bilgileri yansıttığını ve gerçek dünyada zarara yol açmadığını savunuyor. Ancak, uzmanlar mevcut güvenlik önlemlerinin ciddi boşluklar içerdiğine dikkat çekiyor. Bazı sohbet botlarının, kullanıcıların bilinen komut teknikleriyle kısıtlamaları aşmasının ardından hassas bilgiler ürettiği ve bu durumun "jailbreaking" olarak adlandırıldığı bildirildi. Bir uzman, mevcut korumaları "dayanıksız bir ahşap çit" olarak nitelendirirken, biyolojik bir saldırının hâlâ ileri düzeyde uzmanlık gerektirdiğini de ekledi. Buna rağmen, sohbet botlarının biyogüvenlik riskini önemli ölçüde artırdığına dikkat çekiliyor.

Yapay zeka sohbet botu tıp ve bilimde çifte etki yaratıyor

Yapay zeka sohbet botu teknolojisinin biyogüvenlik alanında riskler taşımasının yanı sıra, bilimsel araştırmalar ve ilaç geliştirme süreçlerinde de önemli fırsatlar sunduğu belirtiliyor. Google'daki araştırmacıların protein yapısını tahmin edebilen ve yeni proteinler tasarlayabilen modelleri, Nobel Ödülü'ne layık görüldü ve tıpta önemli ilerlemeler sağladı. Stanford araştırmacısı Brian Hie ise, aynı yapay zeka sohbet botu sistemlerinin hem yararlı hem de zararlı amaçlarla kullanılabileceğini ifade etti. Hie, daha önce zararlı bakterileri hedef alan bir virüs tasarlamak için Evo adlı bir yapay zeka sohbet botu sistemini kullandığını, yeni sürümlerin ise kanserle mücadelede yardımcı olabilecek proteinler üretebildiğini, ancak aynı zamanda yeni toksinler yaratma potansiyeline de sahip olduğunu belirtti.

Sonuç olarak, yapay zeka sohbet botu teknolojisi biyogüvenlik alanında ciddi riskler barındırırken, tıp ve bilimde de önemli fırsatlar sunuyor. Uzmanlar, hem güvenlik önlemlerinin güçlendirilmesi hem de teknolojinin olumlu yönlerinin desteklenmesi gerektiğini vurguluyor. Biyogüvenlik uzmanları, yapay zeka sohbet botlarının denetimi ve kontrolü için uluslararası iş birliği çağrısı yapıyor.


Etiketler:
yapay zeka sohbet botu biyogüvenlik biyolojik silah Stanford teknoloji güvenliği