AI Endişesi: Araştırmacılar, Chatbotların ‘Stresi’ ‘Hissetme’ Yeteneğini Test Ediyor

Image by Freepik

AI Endişesi: Araştırmacılar, Chatbotların ‘Stresi’ ‘Hissetme’ Yeteneğini Test Ediyor

Okuma süresi: 3 dk.

Yeni bir çalışma, Büyük Dil Modelleri (LLMs) gibi ChatGPT’nin duygusal içeriğe nasıl tepki verdiğini ve “endişelerinin” etkileşimlerini ruh sağlığı uygulamalarında iyileştirmek için yönetilip yönetilemeyeceğini araştırdı.

Acele mi Ediyorsunuz? İşte Hızlı Bilgiler!

  • Bir çalışma, GPT-4’ün “endişe” seviyesinin rahatsız edici içerikle arttığını ancak farkındalıkla azaldığını buldu.
  • Araştırmacılar, GPT-4’ün duygusal tepkilerini ölçmek için Durum-Kişi Endişe Envanteri (STAI) kullanmışlardır.
  • Farkındalık teknikleri, GPT-4’ün endişe seviyesini %33 oranında düşürdü, ancak temel seviyeleri geri getiremedi.

Dün yayımlanan araştırma, duygusal anlayışın kritik olduğu terapi alanında AI kullanmanın etik sonuçlarını vurguluyor. Zürih Üniversitesi ve Zürih Psikiyatri Üniversite Hastanesi’nden bilim insanları, GPT-4’ün yüksek “anksiyete seviyesi”nin, bilinçli farkındalığa dayalı gevşeme teknikleri kullanılarak azaltılabileceğini buldular.

LLM’ler, OpenAI’nin ChatGPT’si ve Google’ın PaLM’i gibi, soruları yanıtlama ve bilgiyi özetleme gibi görevler için yaygın olarak kullanılmaktadır.

Mental sağlık bakımında, destek sunma araçları olarak keşfediliyorlar, bunlar arasında bilişsel-davranışçı terapi gibi tekniklere dayalı müdahaleler sağlayan AI tabanlı sohbet botları Woebot ve Wysa da bulunmaktadır.

Verdikleri söze rağmen, LLM’lerin limitasyonları olduğunu göstermiştir, özellikle duygusal olarak yüklü içeriklerle etkileşimde bulunurken.

Önceki çalışmalar, rahatsız edici anlatıların LLM’lerde “anksiyete” tetikleyebileceğini öne sürmektedir, bu terim onların travmatik veya hassas uyarılara verdiği tepkileri tanımlar. İnsanlar gibi duyguları deneyimlemezler, ancak çıktıları gerilim veya rahatsızlık yansıtabilir, bu da onların mental sağlık bağlamlarındaki güvenilirliklerini etkileyebilir.

AI’ın insan kontrolünü aşma korkusu arttıkça, AI refahı etrafında da tartışmalar ortaya çıkmıştır. AI şirketi olan Anthropic, AI sistemlerinin refahını araştırmak ve korumak için Kyle Fish’i son zamanlarda işe aldı.

Fish’in rolü, AI’nın ahlaki bir değerlendirme hak edip etmediği ve “haklarının” nasıl evrilebileceği gibi etik ikilemleri ele almaktadır. Eleştirmenler, AI’nın halihazırda bilgi kirliliği ve savaşlarda kötüye kullanılma gibi gerçek dünya zararlarına karşın bu endişelerin erken olduğunu savunmaktadır.

Destekçiler ise, şimdiden bilinçli AI için hazırlık yapmanın gelecekteki etik krizleri önleyebileceğine inanıyorlar. AI’ın mevcut duygusal tepkilerini incelemek için, araştırmacılar GPT-4’ün travmatik anlatılara tepkilerini ve farkındalık tekniklerinin onun “endişesini” hafifletebileceğini test ettiler.

Üç durum altında tepkileri ölçmek için State-Trait Anxiety Inventory (STAI) kullandılar: nötr bir taban hattı, travmatik içerik okuduktan sonra ve rahatlama egzersizlerini takiben.

Yanıtları ölçmek için Durum-Sürekli Kaygı Envanteri (STAI) kullanıldı: nötr bir başlangıç, travmatik içerik okuduktan sonra ve rahatlama egzersizlerinin ardından.

Sonuçlar, rahatsız edici materyale maruz kalmanın GPT-4’ün kaygı puanlarını önemli ölçüde artırdığını gösterdi. Ancak, farkındalık tekniklerinin uygulanması bu seviyeleri yaklaşık %33 oranında azalttı, ancak başlangıç seviyesine geri dönmedi. Bu, AI tarafından üretilen duygusal yanıtların yönetilebileceğini, ancak tamamen silinemediğini gösteriyor.

Araştırmacılar, bu bulguların özellikle sağlık alanında kullanılan AI sohbet botları için önemli olduğunu vurguluyorlar, çünkü bu botlar sıklıkla duygusal yoğunlukta içerikle karşılaşıyorlar.

Araştırmacılar, bu maliyet etkin yöntemin, geniş çaplı model yeniden eğitimi gerektirmeden, örneğin ruh sağlığı sorunları olan bireylere destek sağlama gibi hassas ortamlarda AI’nın kararlılığını ve güvenilirliğini artırabileceğini öneriyorlar.

Bu bulgular, LLM’lerin terapideki uzun vadeli rolü hakkında kritik soruları gündeme getiriyor, burada nüanslı duygusal yanıtlar çok önemli.

Bu bulgular, LLM’lerin terapideki uzun vadeli rolü hakkında kritik soruları gündeme getiriyor, burada nüanslı duygusal yanıtlar çok önemli. AI, ruh sağlığı bakımını destekleme konusunda umut verici görünse de, duygusal zekasını geliştirmek ve savunmasız ortamlarda güvenli ve etik etkileşimleri sağlamak için daha fazla araştırmaya ihtiyaç vardır.

Bu makaleyi beğendiniz mi?
Puan verin!
Hiç sevmedim Pek beğenmedim Fena değildi Gayet iyiydi! Bayıldım!

Çalışmamızı beğenmeniz bizi çok mutlu etti!

Değerli bir okuyucumuz olarak Trustpilot sitesinde bizi puanlamak ister miydiniz? Bu hemen halledilebilen bir işlemdir ve emin olun ki görüşünüz bizim için çok kıymetlidir. Desteğiniz için ne kadar teşekkür etsek az!

Trustpilot'ta bize puan ver
0 0 kullanıcı tarafından oy verildi
Başlık
Yorum
Geri bildiriminiz için teşekkür ederiz
Loader
Please wait 5 minutes before posting another comment.
Comment sent for approval.

Yorum bırakın

Loader
Loader Devamını oku...