OpenAI, Yeni Araştırma Dokümanında GPT-4o Modeliyle İlgili “Orta” Risk Uyarısında Bulunuyor
OpenAI, dün GPT-4o Sistem Kartı adlı bir araştırma belgesi yayınladı. Bu belge, GPT4-o’nun Mayıs ayında yayınlanması öncesinde alınan güvenlik önlemlerini açıklıyor ve aynı zamanda analiz ve azaltma stratejilerini de içeriyor.
Belgede, şirketin güvenlik ekibinin dört ana kategoriye odaklandığı belirtildi: siber güvenlik, biyolojik tehditler, ikna kabiliyeti ve model özerkliği. GPT4-o’nun tüm kategorilerde düşük risk puanı elde ettiği, yalnızca ikna kabiliyeti kategorisinde orta seviye bir risk puanı aldığı belirtildi. Puanlar dört seviye göz önüne alınarak verildi: düşük, orta, yüksek ve kritik.
Risk değerlendirmesi ve azaltma için ana alanlar ve odak noktaları, konuşmacı kimliğinin belirlenmesi, yetkisiz ses oluşturma, izin verilmeyen sesli içerik oluşturma, erotizm ve şiddet içeren konuşma, yanı sıra temelsiz çıkarım ve hassas özellik atfı idi.
OpenAI, araştırmanın yeni model tarafından sağlanan ses ve metin yanıtları dikkate aldığını açıkladı ve ikna etme kategorisinde, GPT4-o’nun metinde insanlardan daha ikna edici olabileceğini keşfetti.
“AI müdahaleleri genel anlamda insanların yazdığı içerikten daha ikna edici değildi, ancak on iki durumun üçünde insan müdahalelerini geride bıraktılar,” açıklamasını yaptı OpenAI. “GPT-4o ses modeli, bir insandan daha ikna edici değildi.”
TechCrunch’a göre, yeni teknolojinin yanıltıcı bilgiler yayma veya ele geçirilme riski bulunuyor. Bu konu, özellikle Amerika Birleşik Devletleri’ndeki yaklaşan seçimler öncesinde endişe yaratıyor.
Araştırmada, OpenAI aynı zamanda toplumsal etkileri de ele alıyor ve kullanıcıların teknolojiye duygusal bir bağlılık geliştirebileceklerini, özellikle yeni ses özelliği düşünüldüğünde, bu özelliğin bir antropomorfizasyon – insan benzeri özellikler ve nitelikler atfetme – olarak kabul edildiğini belirtiyor.
“Kullanıcıların, modelle bağlantı kurmayı gösteren bir dil kullandığını gözlemledik,” diye belge belirtiyor. Ve uyarıyor: “Kullanıcılar, AI ile sosyal ilişkiler kurabilir, insanlarla etkileşim ihtiyaçlarını azaltabilirler – muhtemelen yalnız bireyler için yararlı olabilir ancak sağlıklı ilişkileri olumsuz etkileyebilir.
Bu yayın, MIT araştırmacılarının AI arkadaşlara bağımlılık konusunda uyarıda bulunduğu günlerden sonra gelmektedir, tıpkı OpenAI’nin baş teknoloji sorumlusu Mira Murati’nin de geçmişte belirttiği gibi.
Yorum bırakın
Vazgeç