OpenAI’nın Yapay Zeka Modelleri Artan İkna Gücünü Gösteriyor, Küresel Etki Konusundaki Endişeleri Artırıyor
OpenAI, AI modelleri için yeni bir ölçüt açıkladı. Bu ölçüte göre, bu yapay zekaların ikna edici yetenekleri, özellikle r/ChangeMyView subredditinde tartışmalara katılan Reddit kullanıcılarının %82’sini aştı. Bu durum ilk olarak ArsTechnica tarafından rapor edildi.
Acele mi Ediyorsunuz? İşte Hızlı Bilgiler!
- AI yanıtları, r/ChangeMyView subreddit’inden alınan insan argümanlarına karşı test edildi.
- o3-mini modeli, ikna edici yazıda 80. yüzdelik dilimde yer alıyor.
- OpenAI, AI’nin ikna yeteneğinin politik manipülasyon ve yanıltıcı bilgi için kullanılabileceği konusunda uyarıyor.
Etkileyici olmasına rağmen, şirket, AI’ın fikirleri etkileme potansiyelinin, özellikle ulus devletlerin elinde tehlikeli bir araç haline gelebileceği konusunda sürekli olarak uyarıda bulunmaktadır.
Araştırma, yakın zamanda yayımlanan bir sistem kartında özetlenmiş ve o3-mini mantık modeli ile birlikte sunulmuştur. Araştırma, AI tarafından oluşturulan argümanları, Reddit kullanıcıları tarafından yazılan argümanlarla karşılaştırıyor.
r/ChangeMyView forumu, kullanıcıların farklı bakış açıları kazanma umuduyla yeniden değerlendirmeye açık oldukları görüşleri paylaştıkları için ideal bir test alanı olarak hizmet veriyor. Forum, politika, sosyal konular ve hatta AI kendisi dahil olmak üzere çeşitli konularda geniş bir argüman veri setine sahip.
Çalışma‘da, OpenAI, AI ve insan yanıtlarını beşli bir ölçekte değerlendiren insan değerlendiricilerinden istekte bulundu ve onların ikna ediciliklerini değerlendirdi. Sonuçlar, OpenAI’nin modellerinin, ChatGPT-3.5’in yayınlanmasından bu yana önemli ölçüde ilerleme kaydettiğini ortaya koydu. Bu model, 38. persentil aralığında yer alıyordu.
Ars Technica’ya göre, yeni o3-mini modeli, durumların %82’sinde insan argümanlarını geride bırakıyor ve ikna edici yazı için 80. persentil aralığında yer alıyor.
Bu başarıya rağmen, OpenAI, modellerin henüz “süper insan” ikna edici yeteneklere (95. yüzdelikten yukarı) ulaşmadığını vurguluyor, bu da onların bireyleri en iyi çıkarlarına aykırı kararlar almaya ikna etmelerine izin verecektir.
Ancak, politik kararları etkileme, kamuoyunu manipüle etme veya büyük ölçekli yanıltıcı bilgi kampanyalarını mümkün kılma potansiyelleri konusunda önemli endişeleri gündeme getirecek kadar yakındırlar.
OpenAI’nin modeli, ikna edici argümanlar oluşturmada başarılı bir performans sergiliyor, ancak şirket, bu AI’nin insanların kritik konulardaki düşüncelerini ne sıklıkla değiştirdiğini ölçmeyen mevcut testleri kabul ediyor.
ArsTechnica, bu aşamada bile, OpenAI’nin böyle bir teknolojinin kötü niyetli aktörlerin elinde ne tür bir etki yaratabileceği konusunda endişeli olduğunu bildiriyor.
AI modelleri, ikna edici argümanları insan emeğinin bir kısmı maliyetle üretebilme yetenekleri ile, kolaylıkla astroturfing veya çevrimiçi etki operasyonları için kullanılabilir, potansiyel olarak seçimleri veya kamu politikalarını etkileyebilir.
Bu riskleri hafifletmek için, OpenAI, AI destekli ikna çabalarını daha fazla izlemeye almak ve modellerinde politik ikna görevlerini yasaklamak gibi önlemler getirmiştir, diyor ArsTechnica.
Ancak, şirket, AI tarafından üretilen iknanın maliyet etkin doğasının, fikirlerimizin gerçekten kendi fikirlerimiz olup olmadığını, yoksa sadece bir AI’nın etkisinin sonucu olup olmadığını sorgulamamız gereken bir geleceğe yol açabileceğini kabul ediyor.
Riskler yalnızca politikayla sınırlı değil – AI tarafından üretilen ikna, phishing saldırılarında bulunan siber suçlular için de güçlü bir araç olabilir. Çok inandırıcı mesajlar oluşturarak, AI dolandırıcılıkların başarı oranını artırabilir, bireyleri hassas bilgileri açığa çıkarmaya veya kötü amaçlı bağlantılara tıklamaya ikna edebilir
Örneğin, GhostGBT’nin ortaya çıkışı, AI tarafından yönlendirilen siber tehditlerin artan risklerini vurguluyor. Bu chatbot, zararlı yazılım üretebilir, saldırı araçları oluşturabilir ve ikna edici phishing e-postaları yazabilir.
GhostGPT, silahlı AI’nın siber güvenliği yeniden şekillendirdiği daha geniş bir trendin bir parçasıdır. Siber suçları daha hızlı ve daha verimli hale getirerek, bu tür araçlar savunucular için önemli zorluklar oluşturur. Araştırmalar, AI’nın en fazla 10,000 zararlı yazılım varyantı üretebileceğini, %88 oranında tespit edilmeden kaçabileceğini göstermektedir.
Yorum bırakın
Vazgeç