ANASAYFA
RAMAZAN
TV PROGRAMLARI
PROGRAMLAR
YAYIN AKIŞI
CANLI YAYIN
24 RADYO
REKLAM
İLETİŞİM VE KÜNYE

Anthropic'ten yapay zeka güvenliği için kritik silah uzmanı hamlesi

Büşra Mutlu - | Son Güncelleme Tarihi:
Anthropic'ten yapay zeka güvenliği için kritik silah uzmanı hamlesi

ABD merkezli yapay zeka şirketi Anthropic, yazılımının kimyasal ve radyolojik silahların üretiminde kötüye kullanılmasını önlemek amacıyla alanında uzman bir silah danışmanı arıyor. Şirketin bu adımı, yapay zeka teknolojilerinin güvenliği ve ulusal tehditler konusundaki endişeleri yeniden gündeme taşıdı.

Kapat

HABERİN DEVAMI

ABD'nin önde gelen yapay zeka şirketlerinden Anthropic, yazılımının kimyasal ve radyolojik silahların üretiminde kötüye kullanılmasını engellemek için kritik bir adım attı. Şirket, kullanıcıların yapay zeka araçlarını tehlikeli amaçlarla kullanmasının önüne geçmek amacıyla, kimyasal silahlar ve yüksek verimli patlayıcılar konusunda uzman bir danışman aradığını duyurdu. Anthropic, bu adımla hem kendi teknolojisinin güvenliğini artırmayı hem de yapay zeka sektöründe artan güvenlik kaygılarına çözüm bulmayı hedeflediğini belirtti.

Anthropic: "Yapay zeka ile silah üretimine karşı önlem şart"

Anthropic, LinkedIn üzerinden yayınladığı iş ilanında, başvuracak adayların "kimyasal silahlar ve/veya patlayıcı savunma" alanında en az beş yıllık deneyime sahip olmasını ve radyolojik dağıtım cihazları—bilinen adıyla kirli bombalar—hakkında ileri düzey bilgi sahibi olmasını şart koştu. Şirket, BBC'ye yaptığı açıklamada, bu pozisyonun daha önce oluşturulan hassas alanlardaki işlerle benzerlik taşıdığını vurguladı. Anthropic'ın bu hamlesi, yapay zeka teknolojilerinin kötüye kullanım risklerine karşı şirketlerin aldığı önlemlerin giderek arttığını gösteriyor. Özellikle kimyasal ve radyolojik silahlar gibi yıkıcı etkileri olan tehditler karşısında, yapay zeka güvenliği konusu sektörün öncelikli gündemlerinden biri haline geldi. Şirket, sistemlerinin tamamen otonom silahlar veya kitlesel gözetim için kullanılmaması gerektiğini defalarca dile getirerek, bu konuda ABD Savunma Bakanlığı'na karşı hukuki mücadele başlattı.

OpenAI ve Anthropic: Silah riski konusunda ortak endişe

Yapay zeka sektöründe yalnızca Anthropic değil, OpenAI de benzer bir pozisyon için ilan yayınladı. ChatGPT'nin geliştiricisi olan OpenAI, "biyolojik ve kimyasal riskler" alanında uzman bir araştırmacı aradığını açıkladı. Açıklanan maaşın 455 bin dolara kadar çıkabileceği belirtilirken, bu rakam Anthropic'ın teklifinin neredeyse iki katı olarak dikkat çekti. OpenAI, Anthropic'ın güvenlik odaklı yaklaşımını desteklediğini, ancak ABD hükümetiyle kendi sözleşmesini henüz başlatmadığını duyurdu. Yapay zeka güvenliği alanında yaşanan bu hareketlilik, sektörün ulusal ve uluslararası düzeyde karşı karşıya olduğu tehditlerin ciddiyetini ortaya koyuyor. Özellikle ABD hükümetinin, yapay zeka şirketlerinden İran ve Venezuela gibi ülkelerdeki askeri operasyonlarda destek istemesi, bu riskleri daha da büyüttü. Anthropic'ın Claude isimli yapay zeka asistanı ise halen ABD tarafından sağlanan Palantir sistemlerine entegre şekilde çalışıyor ve ABD-İsrail-İran savaşında aktif biçimde kullanılıyor.

Uzmanlar uyarıyor: Yapay zeka ile silah bilgisinin paylaşılması tehlikeli

Teknoloji araştırmacısı ve BBC'nin AI Decoded programı sunucusu Dr. Stephanie Hare, yapay zeka sistemlerinin hassas kimyasallar, patlayıcılar ve radyolojik silahlar gibi konularda kullanılmasının ciddi güvenlik riskleri doğurduğunu söyledi. Dr. Hare, "Bu tür silahlarla ilgili bilginin yapay zeka ile paylaşılması, uluslararası bir düzenleme ya da anlaşma olmadan gerçekleşiyor ve bu durum gözlerden uzak ilerliyor" ifadelerini kullandı. Uzmanlar, yapay zeka araçlarına silah üretimiyle ilgili bilgi yüklenmesinin, bu sistemlerin kötü niyetli kişilerce kullanılmasına yol açabileceğini vurguluyor. Sektördeki birçok isim, yapay zeka güvenliği alanında uluslararası standartların ve yasal düzenlemelerin hızla oluşturulması gerektiği görüşünde birleşiyor. Anthropic ve OpenAI gibi şirketlerin attığı adımlar, bu alandaki boşluğun ne kadar büyük olduğunu gözler önüne serdi.

ABD'de yapay zeka şirketleri yeni risklerle karşı karşıya

ABD hükümetinin, yapay zeka şirketlerine savaş ve askeri operasyonlarda başvurması, sektörde yeni tartışmalara yol açtı. Anthropic, sistemlerinin otonom silahlar ya da kitlesel gözetim için kullanılmasına karşı net bir duruş sergilerken, bu tavrı nedeniyle ABD Savunma Bakanlığı ile hukuki bir mücadeleye girişti. Beyaz Saray ise, ABD ordusunun teknoloji şirketleri tarafından yönetilmeyeceği yönünde açıklama yaptı. Ayrıca, Anthropic'ın risk etiketiyle Çinli telekomünikasyon devi Huawei ile aynı kategoride değerlendirilmesi, şirketin ulusal güvenlik tartışmalarında öne çıkmasına neden oldu. Yapay zeka güvenliği, ABD'de ve dünyada önümüzdeki dönemde daha da fazla gündemde olacak gibi görünüyor.

Sonuç olarak, Anthropic ve OpenAI gibi büyük yapay zeka şirketlerinin attığı adımlar, teknolojinin kötüye kullanım risklerine karşı sektörde yeni bir dönemin başladığına işaret ediyor. Uzmanlar, yapay zeka güvenliği konusunda uluslararası standartların ve düzenlemelerin hızla hayata geçirilmesi gerektiğini vurgularken, şirketlerin aldığı önlemler bu sürecin ne kadar acil olduğunu bir kez daha ortaya koydu.


Etiketler:
Anthropic yapay zeka silah güvenliği OpenAI ABD