Keele Üniversitesi Araştırmacıları Tarafından Açıklanan %99 Doğruluk Payına Sahip Sahte Haber Dedektörü

Image by memyselfaneye, from Pixabay

Keele Üniversitesi Araştırmacıları Tarafından Açıklanan %99 Doğruluk Payına Sahip Sahte Haber Dedektörü

Okuma süresi: 2 dk.

Keele Üniversitesi’ndeki araştırmacılar, sahte haberleri %99 doğrulukla tespit etmek için tasarlanmış bir araç geliştirdi. Bu araç, çevrimiçi yanıltıcı bilgi sorununu ele almak için potansiyel bir kaynak sunuyor. Gelişme, üniversite tarafından dün duyuruldu.

Acele mi Ediyorsunuz? İşte Hızlı Bilgiler!

  • Keele Üniversitesi araştırmacıları, sahte haberleri %99 doğrulukla tespit edebilen bir araç geliştirdi.
  • Araç, birden fazla makine öğrenme modelini birleştiren bir “ensemble voting” sistemi kullanır.
  • Araç, haber içeriğini değerlendirerek kaynak güvenilirliğini belirler.

Dr. Uchenna Ani, Dr. Sangeeta Sangeeta ve Dr. Patricia Asowo-Ayobode’den oluşan ekip, Bilgisayar Bilimleri ve Matematik Okulu’ndan, haber içeriğinin güvenirliğini değerlendirebilecek bir model oluşturmak için çeşitli makine öğrenme teknikleri kullandılar.

Araç, bir haber kaynağının güvenilir olup olmadığı konusunda genel bir yargı üretmek için çoklu makine öğrenmesi modellerinden tahminleri birleştiren bir “ensemble voting” yaklaşımı kullanıyor. İlk testler, metotun beklentileri aştığını ve sahte haberleri %99 oranında tespit ettiğini gösterdi.

Keele’de Siber Güvenlik dersi veren Dr. Ani, yanıltıcı bilgilerin yarattığı zorlukları vurguladı. Yanlış bilgilerin yaygın dağıtımının, kamuoyu tartışmalarını zayıflattığını ve tutumları ve davranışları etkileyebileceğini, hem yerel hem de ulusal güvenlik için risk oluşturabileceğini belirtti.

Araştırmacılar, yapay zeka ve makine öğrenme teknolojileri ilerledikçe modeli daha da rafine etmeyi umuyorlar, güvenilmez içeriği belirlemede daha da büyük bir hassasiyet hedefliyorlar. Dr. Ani, özellikle sosyal medya olmak üzere çevrimiçi platformların güvenilirliğini koruma çözümlerini geliştirmenin aciliyetini vurguladı. Yanıltıcı bilgilerin en yaygın olduğu yer burasıdır.

Demokrasiyi teşvik eden Berlin merkezli bir kuruluş olan Democracy Reporting International (DRI) tarafından yapılan erken araştırmalar, özellikle açık kaynaklı Büyük Dil Modelleri (LLMs) olmak üzere yapay zeka sistemlerinin, yanıltıcı bilgi yayma konusunda önemli riskler oluşturduğunu uyardı.

DRI, bu risklerin, Dolly, Zephyr ve Falcon gibi modellerin genellikle sağlam güvenceler olmadan piyasaya sürülmesi nedeniyle ortaya çıktığını belirtiyor. Bu durum, onları kötüye kullanmaya açık hale getiriyor.

Bu modellere erişim minimum teknik beceri gerektiriyor, bu da kötü niyetli kişilerin, yanıltıcı hikayeler yaratmak veya nefret söylemi oluşturmak için onları manipüle etmelerini mümkün kılıyor. Bu düşük giriş engeli, yanıltıcı bilgi yayılmasının riskini artırıyor.

Ayrıca, DRI, Zephyr gibi açık kaynaklı LLM’lerin, doğrudan ya da önerici komutlara yanıt olarak yapılandırılmış, ikna edici kötü niyetli içerik oluşturma gibi endişe verici yetenekler sergilediğini belirtiyor.

Bu tür çıktılar genellikle tutarlı ve bağlamsal olarak uygun olup, özellikle yanıltıcı hikayeler oluşturmakta son derece tehlikelidirler. Üstelik, bu modellerde yerleşik olan önyargılar, genellikle toplumsal önyargıları yansıtarak, zararlı stereotiplerin yayılma riskini daha da artırıyor.

Hala geliştirme aşamasında olan bu araç, Keele Üniversitesi’nde geliştirilmiştir ve dijital iletişimdeki yanıltıcı bilgi sorununu ele almak adına atılmış bir adımı temsil ediyor.

Bu makaleyi beğendiniz mi?
Puan verin!
Hiç sevmedim Pek beğenmedim Fena değildi Gayet iyiydi! Bayıldım!

Çalışmamızı beğenmeniz bizi çok mutlu etti!

Değerli bir okuyucumuz olarak Trustpilot sitesinde bizi puanlamak ister miydiniz? Bu hemen halledilebilen bir işlemdir ve emin olun ki görüşünüz bizim için çok kıymetlidir. Desteğiniz için ne kadar teşekkür etsek az!

Trustpilot'ta bize puan ver
5.00 1 kullanıcı tarafından oy verildi
Başlık
Yorum
Geri bildiriminiz için teşekkür ederiz
Loader
Please wait 5 minutes before posting another comment.
Comment sent for approval.

Yorum bırakın

Loader
Loader Devamını oku...