Lise Öğrencisinin Ailesi, Yapay Zekâ İle Hile Yapma İddiası Üzerine Dava Açıyor
Acele mi Ettiniz? İşte Hızlı Bilgiler!
- Aile, okulun el kitabında AI kullanımının ele alınmadığını savunuyor.
- Öğrenci, disiplin cezası aldı, notu düşürüldü ve Ulusal Onur Derneği’ne uygunluk şansını kaçırdı.
- Dava, okullarda daha net AI politikaları ve öğretmen eğitimini talep ediyor.
Bir Hingham Lisesi öğrencisinin ailesi, oğullarının bir tarih tezini tamamlamak için Yapay Zekâ (AI) kullanmakla hile yapmakla suçlanmasının ardından okulu dava ediyor. Bu durum ilk olarak dün, WCVB tarafından rapor edildi.
Jennifer ve Dale Harris çifti tarafından açılan dava, Massachusetts’teki okulların Yapay Zekâ politikalarında önemli değişikliklere yol açabilir, diyor WCVB. Harrislara göre, Stanford ve MIT gibi üst düzey üniversitelere gitmeyi hedefleyen başarılı bir öğrenci olan oğulları, Yapay Zekâ kullanımı nedeniyle haksız yere cezalandırıldı.
Yazar Jennifer Harris ve öğretmen Dale Harris, okulun oğullarını, öğrenci el kitabında açıkça belirtilmeyen bir ihlal nedeniyle cezalandırdığını iddia ediyor. Aile, el kitabının olaydan sonra okulun politikalarını güncellediği AI kullanımını ele almadığını ifade ediyor.
“Bize oğlumuzun bir makalede hile yaptığını söylediler, ki bu gerçekleşen bir durum değil,” diye belirtti Jennifer Harris. “Temelde var olmayan bir kural için onu cezalandırdılar,” şeklinde WCVB tarafından rapor edildi.
ACT’lerde mükemmel bir puan alan öğrenci, disiplin cezası aldı ve notu düşürüldü. Bu ceza, onun National Honor Society’ye girişini engelledi ve üniversite başvurularını riske attı, WCVB belirtti.
Dava dosyasında, Harris ailesi, oğullarının makaleyi yazmak için değil, araştırma aracı olarak AI’ı kullandığını ve aldığı cezanın haksız olduğunu iddia ediyor.
“Benim laik görüşüme göre, onun sivil haklarını ihlal ettiler,” diye Dale Harris, WCVB’ye verdiği demeçte belirtti. “Onu diğer öğrencilerden daha ağır bir şekilde muamele edip cezalandırdılar,” diye ekledi.
Sorunu daha da karmaşık hale getiren bir durum, birçok okulun AI üretilen içeriği tespit etmek için kullandığı AI tespit yazılımının güvenilirliği hakkında soruları gündeme getiriyor.
MIT tarafından yapılan bir rapor, bu tespit teknolojisinin hata oranlarının yüksek olduğunu ve bu durumun öğretmenlerin haksız yere öğrencileri yanlış davranışla suçlamasına yol açtığını belirtti. ChatGPT’nin arkasındaki şirket olan OpenAI, kötü doğruluk oranı nedeniyle kendi AI tespit yazılımını bile kapattı.
“Dışarıda, AI’nin intihal olmadığını söyleyen geniş bir bilgi yığını var,” dedi Harris ailesinin avukatı Peter Farrell, WCVB’ye, okullarda daha net politikalar talep ederek.
Okulun kılavuzu, ABC News tarafından incelendiğinde, intihali “bir başka yazarın dilinin ve düşüncelerinin izinsiz kullanımı veya yakın taklitini, Yapay Zekâ dahil” olarak tanımlar.
Kılavuz ayrıca, hile yaptığını tespit eden bir öğretmenin, ödev için başarısız not vermesi ve olası ileri aksiyonlar için yardımcı müdüre bildirimde bulunması gerektiğini belirtir. Ancak, kılavuz, Yapay Zekânın akademik çalışmalarda nasıl kullanılabileceği veya kullanılamayacağı konusunda belirli bir yönlendirme içermez.
Jennifer Harris, okulun Yapay Zeka (AI) politikalarını açıklığa kavuşturmasını ve öğretmenlerin bu kuralları öğrencilere etkin bir şekilde anlatabilmesini sağlamasını talep ediyor, ABC belirtti.
Okul bölgesi dava hakkında yorum yapmayı reddederken, dilekçe aynı zamanda yöneticilerin eğitimde Yapay Zeka kullanımı konusunda eğitim almasını talep ediyor. Harris ailesi, oğullarının aldığı cezaların geri alınamayacağını düşünürken, politika reformlarının gelecekte benzer sorunların önlenmesine yardımcı olabileceğine inanıyor.
“Bu cezaların bazılarını geri alamazsınız,” diye Dale Harris, ABC’ye söyledi. “Ama hemen şimdi düzeltebileceğiniz ve doğru olanı yapabileceğiniz bazı şeyler var,” diye ekledi.
Bu durum, okulların akademik ortamlarda AI’nın hızlı entegrasyonunu nasıl ele alması gerektiği hakkında tartışmaları alevlendirdi ve okulların eğitimde teknoloji kullanımı konusundaki politikalarını yeniden gözden geçirmeye teşvik edebilir.
Yorum bırakın
Vazgeç