OpenAI, ABD Güvenlik Enstitüsü’ne Yeni Modellere Erken Erişim Hakkı Verecek

Photo by Levart_Photographer on Unsplash

OpenAI, ABD Güvenlik Enstitüsü’ne Yeni Modellere Erken Erişim Hakkı Verecek

Okuma süresi: 2 dk.

Sam Altman, OpenAI’nin CEO’su, bugün X üzerinden şirketin yaklaşan temel modeline ABD Yapay Zeka Güvenlik Enstitüsü’ne erken erişim sağlayacağını duyurdu.

“Geçtiğimiz Temmuz ayında söylediğimiz gibi, hesaplama kaynaklarımızın en az %20’sini tüm şirket genelinde güvenlik çabalarına ayırmaya kararlıyız,” diye yazdı Altman, “Ekibimiz, bir sonraki temel modelimize erken erişim sağlayacağımız bir anlaşma üzerinde ABD Yapay Zeka Güvenlik Enstitüsü ile çalışıyor. Böylece AI değerlendirmelerinin bilimini ilerletmek için birlikte çalışabiliriz.”

Altman, bu kararı heyecanla paylaştığını söyledi ve şirketin geliştirdiği AI teknolojileri hakkında endişelerini dile getirmeleri için mevcut ve eski çalışanların söz hakkı olmasını istediklerini ekledi. Şirket için ve güvenlik planı için bu durumun önemli olduğunu vurguladı.

TechCrunch‘a göre, Ulusal Standartlar ve Teknoloji Enstitüsü’ne (NIST) bağlı olan ABD Yapay Zeka Güvenlik Enstitüsü, AI platformlarındaki riskleri ele alır ve değerlendirir ve OpenAI, birkaç hafta önce Birleşik Krallık ile benzer bir anlaşma üzerinde çalışmıştı.

Altman’ın açıklaması, şirketin güvenlik önlemlerinin eleştirildiği kişi ve organizasyonların ardından geldi. Haziran ayında, OpenAI’den birçok mevcut ve eski çalışan, AI’nın yanıltıcı bilgiler yayması ve toplum için bir risk oluşturması konusunda endişelerini dile getirmek ve uyarmak için açık bir mektup imzaladı. Çeşitli çalışanlar da, aralarında AI risklerini ele almakla görevli Superalignment ekibinin dağıtılmasının ardından OpenAI araştırmacısı Jan Leike‘nin de bulunduğu güvenlik endişeleri nedeniyle şirketten ayrıldı.

Güvenlik endişelerine rağmen, OpenAI ilerlemeye devam ediyor. Şirket yeni olarak ChatGPT Plus için ses özelliğini başlattı ve seçili kullanıcılar için yeni bir AI destekli arama motoru olan SearchGPT mevcut.

Yeni güvenlik önlemleri eklemeye yönelik çabalar, Altman ve ekibinin AI riskleri ve endişelerini unutmadığını kanıtlar nitelikte görünüyor.

Bu makaleyi beğendiniz mi?
Puan verin!
Hiç sevmedim Pek beğenmedim Fena değildi Gayet iyiydi! Bayıldım!
0 0 kullanıcı tarafından oy verildi
Başlık
Yorum
Geri bildiriminiz için teşekkür ederiz
Please wait 5 minutes before posting another comment.
Comment sent for approval.

Yorum bırakın

Devamını oku...