Keele Üniversitesi Araştırmacıları Tarafından Açıklanan %99 Doğruluk Payına Sahip Sahte Haber Dedektörü
Keele Üniversitesi’ndeki araştırmacılar, sahte haberleri %99 doğrulukla tespit etmek için tasarlanmış bir araç geliştirdi. Bu araç, çevrimiçi yanıltıcı bilgi sorununu ele almak için potansiyel bir kaynak sunuyor. Gelişme, üniversite tarafından dün duyuruldu.
Acele mi Ediyorsunuz? İşte Hızlı Bilgiler!
- Keele Üniversitesi araştırmacıları, sahte haberleri %99 doğrulukla tespit edebilen bir araç geliştirdi.
- Araç, birden fazla makine öğrenme modelini birleştiren bir “ensemble voting” sistemi kullanır.
- Araç, haber içeriğini değerlendirerek kaynak güvenilirliğini belirler.
Dr. Uchenna Ani, Dr. Sangeeta Sangeeta ve Dr. Patricia Asowo-Ayobode’den oluşan ekip, Bilgisayar Bilimleri ve Matematik Okulu’ndan, haber içeriğinin güvenirliğini değerlendirebilecek bir model oluşturmak için çeşitli makine öğrenme teknikleri kullandılar.
Araç, bir haber kaynağının güvenilir olup olmadığı konusunda genel bir yargı üretmek için çoklu makine öğrenmesi modellerinden tahminleri birleştiren bir “ensemble voting” yaklaşımı kullanıyor. İlk testler, metotun beklentileri aştığını ve sahte haberleri %99 oranında tespit ettiğini gösterdi.
Keele’de Siber Güvenlik dersi veren Dr. Ani, yanıltıcı bilgilerin yarattığı zorlukları vurguladı. Yanlış bilgilerin yaygın dağıtımının, kamuoyu tartışmalarını zayıflattığını ve tutumları ve davranışları etkileyebileceğini, hem yerel hem de ulusal güvenlik için risk oluşturabileceğini belirtti.
Araştırmacılar, yapay zeka ve makine öğrenme teknolojileri ilerledikçe modeli daha da rafine etmeyi umuyorlar, güvenilmez içeriği belirlemede daha da büyük bir hassasiyet hedefliyorlar. Dr. Ani, özellikle sosyal medya olmak üzere çevrimiçi platformların güvenilirliğini koruma çözümlerini geliştirmenin aciliyetini vurguladı. Yanıltıcı bilgilerin en yaygın olduğu yer burasıdır.
Demokrasiyi teşvik eden Berlin merkezli bir kuruluş olan Democracy Reporting International (DRI) tarafından yapılan erken araştırmalar, özellikle açık kaynaklı Büyük Dil Modelleri (LLMs) olmak üzere yapay zeka sistemlerinin, yanıltıcı bilgi yayma konusunda önemli riskler oluşturduğunu uyardı.
DRI, bu risklerin, Dolly, Zephyr ve Falcon gibi modellerin genellikle sağlam güvenceler olmadan piyasaya sürülmesi nedeniyle ortaya çıktığını belirtiyor. Bu durum, onları kötüye kullanmaya açık hale getiriyor.
Bu modellere erişim minimum teknik beceri gerektiriyor, bu da kötü niyetli kişilerin, yanıltıcı hikayeler yaratmak veya nefret söylemi oluşturmak için onları manipüle etmelerini mümkün kılıyor. Bu düşük giriş engeli, yanıltıcı bilgi yayılmasının riskini artırıyor.
Ayrıca, DRI, Zephyr gibi açık kaynaklı LLM’lerin, doğrudan ya da önerici komutlara yanıt olarak yapılandırılmış, ikna edici kötü niyetli içerik oluşturma gibi endişe verici yetenekler sergilediğini belirtiyor.
Bu tür çıktılar genellikle tutarlı ve bağlamsal olarak uygun olup, özellikle yanıltıcı hikayeler oluşturmakta son derece tehlikelidirler. Üstelik, bu modellerde yerleşik olan önyargılar, genellikle toplumsal önyargıları yansıtarak, zararlı stereotiplerin yayılma riskini daha da artırıyor.
Hala geliştirme aşamasında olan bu araç, Keele Üniversitesi’nde geliştirilmiştir ve dijital iletişimdeki yanıltıcı bilgi sorununu ele almak adına atılmış bir adımı temsil ediyor.
Yorum bırakın
Vazgeç