LinkedIn, Kullanıcı Verilerini Açık Onay Almadan AI Modellerini Eğitmek İçin Kullanıyor

Image by Airam Dato-on, from Pexels

LinkedIn, Kullanıcı Verilerini Açık Onay Almadan AI Modellerini Eğitmek İçin Kullanıyor

Okuma süresi: 2 dk.

  • Kiara Fabbri

    Yazan: Kiara Fabbri Multimedya Yazarı

  • Lokalizasyon ve Çeviri Ekibi

    Çevirisi tarafından yapılmıştır Lokalizasyon ve Çeviri Ekibi Lokalizasyon ve Çeviri Hizmetleri

Acele mi Ediyorsunuz? İşte Hızlı Bilgiler!

  • LinkedIn, açık bir bildirim olmadan ABD kullanıcı verilerini AI için kullandı.
  • Bir opt-out seçeneği vardı, ancak LinkedIn başlangıçta gizlilik politikasını güncellemedi.
  • LinkedIn’ın gecikmiş güncellemesi, AI veri kullanımı hakkındaki küresel endişelerin artışını yansıtıyor.

Profesyonel ağ platformu olan LinkedIn, kullanıcı verilerini AI modellerini eğitmek için önceden açıkça kullanıcıları bilgilendirmeden kullanması nedeniyle eleştirildi.

Muhtemelen daha sıkı veri gizliliği yasaları nedeniyle AB, EAA veya İsviçre’deki kullanıcılar hariç olmak üzere, LinkedIn kullanıcılarının ayarlarında, LinkedIn’in “içerik oluşturma AI modelleri” eğitimi için kişisel verileri topladığını gösteren bir opt-out seçeneği bulunmaktadır.

Anahtarın kendisi yeni olmasa da, LinkedIn başlangıçta bu veri kullanımını yansıtmak için gizlilik politikasını güncelleme konusunda başarısız oldu, ilk olarak 404 Media tarafından bildirildiği üzere.

Yardım sayfasında LinkedIn, oluşturucu AI modellerinin yazma asistanı özellikleri gibi görevler için kullanıldığını açıklıyor.

Kullanıcılar, hesap ayarlarındaki Veri Gizliliği sekmesi altındaki “Yaratıcı AI Geliştirme için Veri” bölümüne giderek verilerinin AI eğitimi için kullanılmasını reddedebilirler.

Anahtarı kapatmak, LinkedIn’in kişisel verileri gelecekteki AI model eğitimi için kullanmasını durdurur, ancak zaten gerçekleşmiş olan eğitimi geri alamaz.

Hizmet şartları, TechCrunch tarafından rapor edildiği üzere, güncellendi ancak bu tür güncellemeler genellikle kullanıcı verilerinin yeniden kullanılması gibi önemli değişikliklerden çok önce yapılır.

Bu yaklaşım genellikle kullanıcıların ayarlarını değiştirmelerine veya platformu değişikliklere katılmadıkları takdirde terk etmelerine olanak sağlar. Ancak bu sefer, durum böyle olmadı.

Bu, AI sistemlerinin kişisel verileri nasıl işlediğiyle ilgili geniş çaplı endişelerin arttığı bir dönemde gerçekleşiyor. AI veri uygulamaları üzerindeki denetimler global olarak yoğunlaşıyor.

MIT’den yakın zamanda yapılan bir araştırma, web sitelerinin büyüyen bir kısmının verilerinin AI eğitimi için kullanılmasını kısıtladığını ortaya koydu.

Ek olarak, DPC, X şirketi EU/EEA kullanıcı verilerini AI eğitimi için kullanma konusundaki önceki kısıtlamalara uymayı kabul ettikten sonra AI aracına karşı yasal işlemleri sonuçlandırdı.

Bu olay, AI teknolojilerinin geliştirilmesinde şeffaflığın ve kullanıcı onayının artan önemini vurgulamaktadır.

AI’nin ilerlemeye devam ettikçe, şirketlerin veri uygulamaları konusunda açık olmaları ve kullanıcıların bilgilerini eğitim amaçlı olarak kullanmadan önce açık izinlerini almaları hayati önem taşımaktadır.

Bu olay, aynı zamanda, AI şirketleri ve veri sahipleri arasındaki artan gerilimleri de gözler önüne seriyor, çünkü giderek daha fazla organizasyon verilerinin nasıl kullanıldığı üzerinde daha fazla kontrol talep etmektedir.

Bu makaleyi beğendiniz mi?
Puan verin!
Hiç sevmedim Pek beğenmedim Fena değildi Gayet iyiydi! Bayıldım!
0 0 kullanıcı tarafından oy verildi
Başlık
Yorum
Geri bildiriminiz için teşekkür ederiz
Please wait 5 minutes before posting another comment.
Comment sent for approval.

Yorum bırakın

Devamını oku...