Çalışma, Büyük Dil Modellerinde Tehlikeli Ortaya Çıkan Yeteneklerin Bulunduğuna Dair Kanıt Bulamadı

Image by rawpixel.com, from Freepik

Çalışma, Büyük Dil Modellerinde Tehlikeli Ortaya Çıkan Yeteneklerin Bulunduğuna Dair Kanıt Bulamadı

Okuma süresi: 2 dk.

  • Kiara Fabbri

    Yazan: Kiara Fabbri Multimedya Yazarı

  • Lokalizasyon ve Çeviri Ekibi

    Çevirisi tarafından yapılmıştır Lokalizasyon ve Çeviri Ekibi Lokalizasyon ve Çeviri Hizmetleri

Bath Üniversitesi tarafından dün duyurulan bir araştırma, büyük dil modellerinin (LLM) insanlık için varoluşsal bir tehdit oluşturmadığını iddia ediyor. Araştırma, bu modellerin bağımsız olarak yeni beceriler öğrenme veya kazanma yetilerinin olmadığını, bu sayede kontrol edilebilir ve güvenli olduklarını belirtiyor.

Araştırma ekibi, Profesör Iryna Gurevych önderliğinde, LLM’lerin özgül yeteneklerdeki kapasitesini test etmek için 1000’den fazla deney gerçekleştirdi – bu, onlara açıkça programlanmamış görevler ve bilgileri içeriyor. Bulguları, özgül yetenekler olarak algılanan şeylerin, aslında LLM’lerin bağlamsal öğrenme kullanımından kaynaklandığını, bağımsız öğrenme veya akıl yürütme formu olmadığını gösteriyor.

Araştırma, LLM’lerin dil işlemekte ve talimatları takip etmekte yetenekli olduğunu ancak açık bir yönlendirme olmadan yeni becerileri öğrenme yeteneklerinin eksik olduğunu gösteriyor. Bu temel kısıtlama, bu modellerin kontrol edilebilir, tahmin edilebilir ve doğası gereği güvenli kalmasını sağlıyor. Artan sofistikasyonlarına rağmen, araştırmacılar, LLM’lerin karmaşık muhakeme yeteneklerini geliştiremeyeceğini veya beklenmedik eylemler gerçekleştiremeyeceğini savunuyorlar.

Dr. Harish Tayyar Madabushi, araştırmanın ortak yazarlarından biri, Bath Üniversitesi’ndeki açıklamasında, “Bu tür AI teknolojilerinin insanlık için bir tehdit olduğuna dair yaygın anlatı, bu teknolojilerin yaygın kabulünü ve geliştirilmesini engelliyor ve aynı zamanda odaklanmamız gereken gerçek sorunlardan dikkatimizi dağıtıyor” diye belirtti.

Dr. Tayyar Madabushi, LLM’lerin sahte haberler üretmek ya da dolandırıcılık yapmak için kötüye kullanılma potansiyeli gibi gerçek risklere odaklanmayı öneriyor. Spekülatif tehditlere dayanan düzenlemeler yapmaya karşı uyarıyor ve kullanıcıların LLM’ler için görevleri açıkça belirtmelerini ve etkili sonuçlar sağlamak için detaylı örnekler vermelerini teşvik ediyor.

Profesör Gurevych duyuruda şunları belirtti: “Sonuçlarımız, AI’nın hiçbir tehdit oluşturmadığı anlamına gelmiyor. Aksine, belirli tehditlerle ilişkilendirilen karmaşık düşünme becerilerinin ortaya çıkışının kanıtlarla desteklenmediğini ve sonuçta LLM’lerin öğrenme sürecini çok iyi kontrol edebildiğimizi gösteriyoruz. Gelecekteki araştırmaların bu nedenle modellerin sahte haberler üretmek gibi diğer risklere odaklanması gerekmektedir.”

Araştırmacılar, çalışmalarındaki birkaç sınırlılığı kabul ediyorlar. T5, GPT, Falcon ve LLaMA gibi çeşitli modelleri test ettiler, ancak model boyutlarındaki farklılıklar nedeniyle parametrelerin sayısını tam olarak eşleştiremediler. Ayrıca, eğitim verilerinden gelen bilgilerin sonuçları istemeden etkileme riski olan veri sızıntısını da göz önünde bulundurdular. Bu konunun, belirli modeller için rapor edilenden fazlasına çıkmadığını varsaysalar da, veri sızıntısı hala performansı etkileyebilir.

Bu makaleyi beğendiniz mi?
Puan verin!
Hiç sevmedim Pek beğenmedim Fena değildi Gayet iyiydi! Bayıldım!
5.00 1 kullanıcı tarafından oy verildi
Başlık
Yorum
Geri bildiriminiz için teşekkür ederiz
Please wait 5 minutes before posting another comment.
Comment sent for approval.

Yorum bırakın

Devamını oku...