Tartışmaların ortasında OpenAI, güvenliğin görev açısından kritik olduğu konusunda ısrar ediyor

OpenAI, son zamanlarda etik ve düzenleyici tepkilerin ardından güvenlik konularını ele aldı. bu ifade(Yeni bir sekmede açılır) Perşembe günü yayınlanan, aynı zamanda halka ürünlerinin güvenli olduğundan emin olmayı ve iyileştirme için yer olduğunu kabul etmeyi amaçlayan bir çürütme-özür meleziydi. OpenAI’nin güvenlik taahhüdü, ortaya çıkan birden fazla tartışmaya bir köstebek vurma yanıtı gibi görünüyor. Bir hafta […]

Tartışmaların ortasında OpenAI, güvenliğin görev açısından kritik olduğu konusunda ısrar ediyor

OpenAI, son zamanlarda etik ve düzenleyici tepkilerin ardından güvenlik konularını ele aldı.

bu ifade(Yeni bir sekmede açılır) Perşembe günü yayınlanan, aynı zamanda halka ürünlerinin güvenli olduğundan emin olmayı ve iyileştirme için yer olduğunu kabul etmeyi amaçlayan bir çürütme-özür meleziydi. OpenAI’nin güvenlik taahhüdü, ortaya çıkan birden fazla tartışmaya bir köstebek vurma yanıtı gibi görünüyor. Bir hafta içinde yapay zeka uzmanları ve aralarında Steve Wozniak ve Elon Musk’ın da bulunduğu sektör liderleri, GPT-4, ChatGPT gibi modellerin geliştirilmesine altı aylık bir ara verilmesi çağrısında bulunan açık bir mektup yayınladılar, ChatGPT İtalya’da kesin olarak yasaklandı ve bir şikayette bulunuldu. özellikle çocuklar için tehlikeli yanlış bilgilendirme riskleri oluşturduğu için Federal Ticaret Komisyonu’na başvurdu. Ah evet, kullanıcıların sohbet mesajlarını ve kişisel bilgilerini ifşa eden bir hata da vardı.

AYRICA BAKINIZ:

Kâr amacı gütmeyen kuruluş, OpenAI’nin GPT-4’üne karşı FTC şikayetinde bulundu

OpenAI, “güvenliğin sistemimize her düzeyde dahil edildiğinden emin olmak için” çalıştığını iddia etti. OpenAI, GPT-4’ü yayınlamadan önce altı aydan fazla “titiz testler” geçirdi ve 18 yaş üstü (veya ebeveyn onayıyla 13) yaş şartını uygulamak için doğrulama seçeneklerini araştırdığını söyledi. Şirket, kişisel verileri satmadığını ve yalnızca AI modellerini geliştirmek için kullandığını vurguladı. Ayrıca, “güvenli bir AI ekosistemi oluşturmak için” politika yapıcılarla işbirliği yapma isteğini ve AI paydaşlarıyla devam eden işbirliklerini de ileri sürdü.

Güvenlik taahhüdünün ortalarına doğru OpenAI, güvenli bir LLM geliştirmenin gerçek dünya girdilerine dayandığını kabul etti. Kamu girdilerinden öğrenmenin modelleri daha güvenli hale getireceğini ve OpenAI’nin kötüye kullanımı izlemesine izin vereceğini savunuyor. “Gerçek dünyadaki kullanım, teknolojimizin birçok faydalı kullanımına izin verirken, insanlar için gerçek bir risk teşkil eden davranışlara karşı giderek daha incelikli politikalar geliştirmemize de yol açtı.”

OpenAI “hakkında ayrıntılar” sözü verdi [its] güvenlik yaklaşımı”, ancak yaş doğrulamasını keşfetme güvencesinin ötesinde, duyurunun çoğu basmakalıp basmakalıp sözler gibiydi. Riski nasıl azaltmayı, politikalarını uygulamayı veya düzenleyicilerle çalışmayı nasıl planladığına dair fazla ayrıntı yoktu.

OpenAI, yapay zeka ürünlerini şeffaflıkla geliştirmekten gurur duyuyor, ancak duyuru, yapay zekası vahşi doğada olduğu için şimdi ne yapmayı planladığına dair çok az açıklama sağlıyor.

Teknory