OpenAI, daha zayıf AI düzenlemeleri için sessizce lobi yaptı

OpenAI CEO’su Sam Altman, çok sayıda röportaj, etkinlik ve hatta sırasında AI düzenlemesine duyulan ihtiyaç konusunda çok yüksek sesle konuştu. ABD Kongresi önünde oturuyor. Bununla birlikte, şirketin AB’deki lobicilik çabaları için kullanılan OpenAI belgelerine göre, bir sorun var: OpenAI, şirketi büyük ölçüde destekleyen ve önerilen AI düzenlemesini zayıflatmaya çalışan düzenlemeler istiyor. tarafından elde edilen belgeler, […]

OpenAI, daha zayıf AI düzenlemeleri için sessizce lobi yaptı

OpenAI CEO’su Sam Altman, çok sayıda röportaj, etkinlik ve hatta sırasında AI düzenlemesine duyulan ihtiyaç konusunda çok yüksek sesle konuştu. ABD Kongresi önünde oturuyor.

Bununla birlikte, şirketin AB’deki lobicilik çabaları için kullanılan OpenAI belgelerine göre, bir sorun var: OpenAI, şirketi büyük ölçüde destekleyen ve önerilen AI düzenlemesini zayıflatmaya çalışan düzenlemeler istiyor.

tarafından elde edilen belgeler, Zaman(yeni bir sekmede açılır) Avrupa Komisyonu’ndan bilgi talepleri özgürlüğü aracılığıyla, AItman’ın AI düzenlemesi istediğinde ne anlama geldiğine dair perde arkası bir bakış sunuyor.

“OpenAI’nin Avrupa Birliği’nin Yapay Zeka Yasasına İlişkin Beyaz Kitabı” başlıklı belgede şirket, tam olarak ne söylediğine odaklanıyor: AB’nin AI Yasası ve yasadaki kapsamını zayıflatacak çeşitli tanımlamaları değiştirmeye çalışmak. Örneğin, GPT-3 gibi “genel amaçlı AI sistemleri”, AB’nin AI Yasasında “yüksek riskli” olarak sınıflandırılmıştır.

Avrupa Komisyonu’na göre, “yüksek risk” sınıflandırması, katmak(yeni bir sekmede açılır) “insanların sağlığına, güvenliğine, temel haklarına veya çevreye zarar verme” ile sonuçlanabilecek sistemler. “Siyasi kampanyalarda ve sosyal medya platformları tarafından kullanılan tavsiye sistemlerinde seçmenleri etkileyen” yapay zeka gibi örnekler içeriyorlar. Bu “yüksek riskli” AI sistemleri, insan gözetimi ve şeffaflık ile ilgili yasal gerekliliklere tabi olacaktır.

OpenAI teknik incelemesinde “GPT-3 kendi başına yüksek riskli bir sistem değildir, ancak yüksek riskli kullanım durumlarında potansiyel olarak kullanılabilecek yeteneklere sahiptir” yazıyor. OpenAI ayrıca popüler ChatGPT ve AI sanat üreteci Dall-E gibi üretken AI’nın “yüksek riskli” olarak sınıflandırılmasına karşı çıktı.

Temel olarak, OpenAI tarafından tutulan konum, düzenleyici odağın, modelleri eğiten ve sağlayan şirketler değil, OpenAI’nin API’sini kullanan uygulamalar gibi dil modellerini kullanan şirketler üzerinde olması gerektiğidir.

OpenAI’nin Microsoft ve Google ile uyumlu duruşu

Buna göre Zaman(yeni bir sekmede açılır)OpenAI temelde, bu şirketler AB’nin AI Yasası düzenlemelerini zayıflatmak için lobi yaptığında Microsoft ve Google tarafından tutulan pozisyonları destekledi.

OpenAI’nin lobi yaptığı bölüm, AI Yasasının son versiyonundan çıkarıldı.

OpenAI’nin başarılı lobicilik çabaları, OpenAI’nin Avrupa’daki operasyonları söz konusu olduğunda muhtemelen Altman’ın fikrini değiştirmesini açıklıyor. Altman daha önce tehdit(yeni bir sekmede açılır) AI Yasası üzerinden OpenAI’yi AB’den çekmek. Ancak geçen ay rotasını tersine çevirdi. Altman söz konusu(yeni bir sekmede açılır) AI Yasasının önceki taslağının “aşırı düzenlendiği, ancak geri çekileceğini duyduk.”

Artık AB’nin AI Yasasının belirli bölümleri “geri çekildiği” için, OpenAI’nin ayrılma planı yok.

Teknory