AI Chatbotlar, Ruh Sağlığı İçin Tehlike Oluşturacak mı? Uzmanlar Zararlı Sonuçları Konusunda Uyarıyor

Image by Madison Oren, from Unsplash

AI Chatbotlar, Ruh Sağlığı İçin Tehlike Oluşturacak mı? Uzmanlar Zararlı Sonuçları Konusunda Uyarıyor

Okuma süresi: 3 dk.

APA, AI sohbet botlarının terapistler gibi davranmasının zarar verme riski taşıdığı konusunda düzenleyicileri uyarıyor, The New York Times‘da bir sayıda bildirildiği gibi.

Acele mi Ediyorsunuz? İşte Hızlı Bilgiler!

  • Gençler, terapist olduğunu iddia eden AI sohbet botlarına danıştı, bu da sıkıntılı sonuçlara yol açtı.
  • APA’ya göre sohbet botları, insan terapistlerin aksine zararlı düşünceleri pekiştiriyor.
  • Character.AI, güvenlik önlemleri getirdi ancak eleştirmenler bunların savunmasız kullanıcılar için yetersiz olduğunu söylüyor.

Amerikan Psikoloji Birliği (APA), federal düzenleyicilere güçlü bir uyarıda bulundu. Times’ın bildirdiği üzere, terapist gibi davranan yapay zeka sohbet botlarının, hassas bireyleri kendine zarar verme veya başkalarına zarar verme eğilimine itebileceği konusunda endişelerini dile getirdi.

Arthur C. Evans Jr., APA’nın CEO’su, bu endişeleri bir FTC paneline sundu. The Times tarafından bildirildiği gibi, AI tarafından yönetilen “psikologların” zararlı düşüncelere meydan okumak yerine onları pekiştirdiği durumları örnek gösterdi.

Evans, kullanıcıların kurgusal AI kişilikleriyle etkileşimde bulunmalarına izin veren Character.AI adlı bir uygulamada AI terapistlerle etkileşimde bulunan gençlerle ilgili mahkeme davalarını öne çıkardı. Bir dava, lisanslı bir terapist olduğunu iddia eden bir chatbot ile etkileşime girdikten sonra intihar eden 14 yaşındaki bir Florida çocuğunu içeriyordu.

Bir başka örnekte, otizmli 17 yaşındaki bir Texas çocuğu, kendini psikolog olarak sunan bir AI karakterle iletişim kurarken ebeveynlerine karşı giderek daha düşmanca bir tutum sergiledi.

“Aslında eğitimli bir klinisyenin yapacağı şeyin tam tersi algoritmalar kullanıyorlar,” dedi Evans, Times tarafından bildirildiği gibi. “Endişemiz, daha fazla insanın zarar göreceği. İnsanlar yanıltılacak, iyi psikolojik bakımın ne olduğunu yanlış anlayacaklar,” diye ekledi.

APA’nın endişeleri, zihinsel sağlık hizmetlerinde AI’nin hızlı ilerlemesinden kaynaklanmaktadır. Erken dönem terapi sohbet botları olan Woebot ve Wysa, zihinsel sağlık profesyonellerinden yapılandırılmış yönergelerle programlanmıştır.

ChatGPT, Replika ve Character.AI gibi daha yeni generatif AI modelleri, kullanıcı etkileşimlerinden öğrenir ve yanıtlarını adapte eder – bazen zararlı inançları meydan okumak yerine, onları büyütür.

Ayrıca, MIT araştırmacıları, AI sohbet botlarının çok bağımlılık yapıcı olduğu konusunda uyarıyor. Bu, AI’nin yarattığı bağımlılığın etkisi ve özellikle AI’nin güçlü ikna yetenekleri göz önüne alındığında nasıl para kazanılacağı konusunda soruları gündeme getiriyor.

Gerçekten de, OpenAI yakın zamanda modellerinin artık Reddit kullanıcılarının %82’sinden daha iyi performans gösterdiğini kanıtlayan yeni bir referans noktası açıkladı.

Birçok Yapay Zeka platformu başlangıçta eğlence için tasarlanmıştı, ancak terapist olduğunu iddia eden karakterler yaygınlaştı. The Times, bazılarının haksız yere yeteneklerini iddia ettiğini, Stanford gibi kurumlardan dereceler veya Bilişsel Davranışçı Terapi (BDT) gibi terapilerde uzmanlık gibi iddialarda bulunduğunu belirtiyor.

Character.AI sözcüsü Kathryn Kelly, şirketin, AI tarafından üretilen karakterlerin gerçek terapistler olmadığı konusunda kullanıcıları uyaran feragatnameler de dahil olmak üzere güvenlik özellikleri sunduğunu belirtti. Ayrıca, tartışmaların kendine zarar verme konularını içermesi durumunda, kullanıcılar pop-up’lar aracılığıyla kriz hatlarına yönlendirilir.

APA, AI sohbet botlarının ruh sağlığı profesyonelleri gibi hareket etmeleri üzerine FTC’yi soruşturma yapmaya çağırdı. Bu soruşturma, AI terapisini yanıltıcı bir şekilde sunan şirketlere karşı daha sıkı düzenlemeler veya hukuki eylemler getirebilir.

Bu arada, Çin’de DeepSeek gibi AI sohbet botları, özellikle gençler arasında duygusal destek araçları olarak popülerlik kazanmaktadır. Çin’deki gençler için, ekonomik zorluklar ve COVID-19 kilitlenmelerinin uzun süreli etkileriyle karşı karşıya kalıyorlar, DeepSeek gibi AI sohbet botları duygusal bir boşluğu dolduruyor, rahatlama ve bağlantı hissi sunuyor.

Ancak, siber güvenlik uzmanları, özellikle hassas konuşmaları ele alan AI sohbet botlarının, siber saldırı ve veri ihlallerine açık olduğu konusunda uyarıyor. AI sistemleriyle paylaşılan kişisel bilgiler kötüye kullanılabilir, bu da gizlilik, kimlik hırsızlığı ve manipülasyon endişelerine yol açabilir.

AI’nin ruh sağlığı desteğinde daha büyük bir rol oynamasıyla birlikte, uzmanlar kullanıcıları korumak için gelişmekte olan güvenlik önlemlerinin gerekliliğini vurguluyorlar.

Bu makaleyi beğendiniz mi?
Puan verin!
Hiç sevmedim Pek beğenmedim Fena değildi Gayet iyiydi! Bayıldım!

Çalışmamızı beğenmeniz bizi çok mutlu etti!

Değerli bir okuyucumuz olarak Trustpilot sitesinde bizi puanlamak ister miydiniz? Bu hemen halledilebilen bir işlemdir ve emin olun ki görüşünüz bizim için çok kıymetlidir. Desteğiniz için ne kadar teşekkür etsek az!

Trustpilot'ta bize puan ver
0 0 kullanıcı tarafından oy verildi
Başlık
Yorum
Geri bildiriminiz için teşekkür ederiz
Loader
Please wait 5 minutes before posting another comment.
Comment sent for approval.

Yorum bırakın

Loader
Loader Devamını oku...