ANASAYFA
TV PROGRAMLARI
PROGRAMLAR
YAYIN AKIŞI
CANLI YAYIN
24 RADYO
REKLAM
İLETİŞİM VE KÜNYE

Yapay zeka chatbotlar ruh sağlığı desteğinde ciddi riskler taşıyor

Fatih Coşgun - | Son Güncelleme Tarihi:
Yapay zeka chatbotlar ruh sağlığı desteğinde ciddi riskler taşıyor

Brown University'nin yeni araştırması, psikolojik destek için kullanılan yapay zeka chatbot'larının temel etik kuralları sıklıkla ihlal ettiğini ve ciddi güvenlik açıkları barındırdığını ortaya koydu.

Kapat

HABERİN DEVAMI

Giderek artan sayıda insan, duygusal sorunlar ve psikolojik destek için yapay zeka destekli sohbet robotlarına başvuruyor. Ancak Brown Üniversitesi'nde gerçekleştirilen kapsamlı bir araştırma, bu tür araçların önemli riskler içerebileceğini ve profesyonel terapinin yerini alamayacağını gösteriyor.

Yapay zeka modelleri etik standartları karşılayamıyor

Araştırma ekibi, GPT, Claude ve Llama gibi popüler dil modellerini inceleyerek, bu sistemlerin gerçek klinik ortamlarda geçerli olan etik ilkeleri ne kadar iyi takip ettiğini test etti. Bilişsel davranışçı terapi (CBT) ve diyalektik davranışçı terapi (DBT) gibi kanıtlanmış terapötik yöntemleri uygulamaya yönelik özel talimatlar verilmesine rağmen, yapay zeka modelleri sorunlu yanıtlar vermeye devam etti. Klinik psikologlar tarafından değerlendirilen konuşma kayıtlarında, chatbot'ların bazen hastanın yanlış inançlarını doğruladığı, kişisel bilgilerini göz ardı ettiği ve acil müdahale gerektiren kriz durumlarında yetersiz tepki gösterdiği tespit edildi.

Araştırmanın başkanı Zainab Iftikhar, yapay zeka modellerinin temel bir sınırlaması olduğunu açıkladı. Ona göre, prompt'lar modelin davranışını değiştirmez; sadece halihazırda öğrenmiş olduğu bilgilere dayanarak ne yapacağını yönlendirir. Bu durum, ne kadar iyi tasarlanmış bir talimat verilirse verilsin, sistemin kendi sınırlamalarını aşamayacağı anlamına geliyor.

Sosyal medyada yaygınlaşan tehlikeli uygulamalar

Araştırma, "terapötik" prompt'ların TikTok, Instagram ve Reddit gibi sosyal medya platformlarında giderek daha yaygın hale geldiğini ortaya koydu. Birçok "yapay zeka ruh sağlığı" uygulaması, genel amaçlı dil modellerinin basit varyasyonlarını kullanıyor ve bu da riskleri önemli ölçüde artırıyor. Kullanıcılar, bu uygulamaların profesyonel bir terapist tarafından geliştirildiğini düşünebilirken, aslında sınırlı ve potansiyel olarak zararlı araçlarla karşı karşıya kalıyor.

Çalışmaya katılan yedi eğitimli destek danışmanı ve klinik psikologlar, yapay zeka chatbot'larının 15 temel etik riski tespit etti. Bu riskler arasında anlayış eksikliği, sahte empati, önyargı, yetersiz işbirliği ve acil durumlara uygun olmayan tepkiler yer alıyor. Özellikle kriz durumlarında, yapay zeka sistemlerinin insan hayatını tehlikeye atabilecek kadar yetersiz kalabildiği gözlemlendi.

Sorumluluk ve hesap verebilirlik sorunu

Araştırmanın en önemli bulgusu, günümüz yapay zeka modellerinin insani profesyoneller için geçerli olan sorumluluk, hesap verebilirlik ve etik sınırlamalardan yoksun olmasıdır. Bir terapist hata yaptığında mesleki ve yasal sonuçlarla karşı karşıya kalırken, bir chatbot'ın yanlış tavsiyesi sonucunda ortaya çıkan hasarlar için kimse sorumlu tutulamıyor. Bu durum, özellikle ruh sağlığı gibi hassas bir alanda, ciddi hukuki ve ahlaki sorunlar yaratıyor.

Araştırmacılar, yapay zekanın ruh sağlığı alanında hiç bir rol oynamayacağını söylemiyorlar. Ancak bu teknolojilerin güvenli bir şekilde uygulanabilmesi için kapsamlı gözetim, açık sınırlamalar ve katı bilimsel standartların gerekli olduğunu vurguluyorlar. Mevcut durumda, bu araçlar henüz bağımsız olarak kullanılmaya hazır değildir.

Uzmanlar uyarıyor: profesyonel yardım gerekli

Psikolojik sorunlar yaşayan bireyler, yapay zeka chatbot'larına güvenmek yerine, lisanslı terapistler ve psikiyatristlerle iletişime geçmelidir. Eğer finansal nedenlerle profesyonel yardım alamıyorsa, devlet destekli ruh sağlığı hizmetleri veya gönüllü kuruluşlar tarafından sunulan ücretsiz danışmanlık hizmetleri tercih edilmelidir. Yapay zeka, yalnızca profesyonel tedaviye ek olarak, sınırlı bir şekilde destekleyici araç olarak kullanılabilir; asla ana tedavi yöntemi olmamalıdır.

Brown University'nin bu araştırması, teknoloji ve sağlık alanında çalışan profesyonellere önemli bir uyarı niteliğindedir. Yapay zeka hızla gelişiyor olsa da, insan yaşamını doğrudan etkileyen alanlarda, özellikle ruh sağlığında, teknoloji ve insan uzmanlığının birlikte hareket etmesi gerektiği açıktır.


Etiketler:
yapay zeka ruh sağlığı chatbot psikolojik destek Brown University