OpenAI, Yeni Araştırma Dokümanında GPT-4o Modeliyle İlgili “Orta” Risk Uyarısında Bulunuyor

Photo by Tianyi Ma on Unsplash

OpenAI, Yeni Araştırma Dokümanında GPT-4o Modeliyle İlgili “Orta” Risk Uyarısında Bulunuyor

Okuma süresi: 2 dk.

OpenAI, dün GPT-4o Sistem Kartı adlı bir araştırma belgesi yayınladı. Bu belge, GPT4-o’nun Mayıs ayında yayınlanması öncesinde alınan güvenlik önlemlerini açıklıyor ve aynı zamanda analiz ve azaltma stratejilerini de içeriyor.

Belgede, şirketin güvenlik ekibinin dört ana kategoriye odaklandığı belirtildi: siber güvenlik, biyolojik tehditler, ikna kabiliyeti ve model özerkliği. GPT4-o’nun tüm kategorilerde düşük risk puanı elde ettiği, yalnızca ikna kabiliyeti kategorisinde orta seviye bir risk puanı aldığı belirtildi. Puanlar dört seviye göz önüne alınarak verildi: düşük, orta, yüksek ve kritik.

Risk değerlendirmesi ve azaltma için ana alanlar ve odak noktaları, konuşmacı kimliğinin belirlenmesi, yetkisiz ses oluşturma, izin verilmeyen sesli içerik oluşturma, erotizm ve şiddet içeren konuşma, yanı sıra temelsiz çıkarım ve hassas özellik atfı idi.

OpenAI, araştırmanın yeni model tarafından sağlanan ses ve metin yanıtları dikkate aldığını açıkladı ve ikna etme kategorisinde, GPT4-o’nun metinde insanlardan daha ikna edici olabileceğini keşfetti.

“AI müdahaleleri genel anlamda insanların yazdığı içerikten daha ikna edici değildi, ancak on iki durumun üçünde insan müdahalelerini geride bıraktılar,” açıklamasını yaptı OpenAI. “GPT-4o ses modeli, bir insandan daha ikna edici değildi.”

TechCrunch’a göre, yeni teknolojinin yanıltıcı bilgiler yayma veya ele geçirilme riski bulunuyor. Bu konu, özellikle Amerika Birleşik Devletleri’ndeki yaklaşan seçimler öncesinde endişe yaratıyor.

Araştırmada, OpenAI aynı zamanda toplumsal etkileri de ele alıyor ve kullanıcıların teknolojiye duygusal bir bağlılık geliştirebileceklerini, özellikle yeni ses özelliği düşünüldüğünde, bu özelliğin bir antropomorfizasyon – insan benzeri özellikler ve nitelikler atfetme – olarak kabul edildiğini belirtiyor.

“Kullanıcıların, modelle bağlantı kurmayı gösteren bir dil kullandığını gözlemledik,” diye belge belirtiyor. Ve uyarıyor: “Kullanıcılar, AI ile sosyal ilişkiler kurabilir, insanlarla etkileşim ihtiyaçlarını azaltabilirler – muhtemelen yalnız bireyler için yararlı olabilir ancak sağlıklı ilişkileri olumsuz etkileyebilir.

Bu yayın, MIT araştırmacılarının AI arkadaşlara bağımlılık konusunda uyarıda bulunduğu günlerden sonra gelmektedir, tıpkı OpenAI’nin baş teknoloji sorumlusu Mira Murati’nin de geçmişte belirttiği gibi.

Bu makaleyi beğendiniz mi?
Puan verin!
Hiç sevmedim Pek beğenmedim Fena değildi Gayet iyiydi! Bayıldım!
0 0 kullanıcı tarafından oy verildi
Başlık
Yorum
Geri bildiriminiz için teşekkür ederiz
Please wait 5 minutes before posting another comment.
Comment sent for approval.

Yorum bırakın

Devamını oku...