Yapay zeka çalışanları açık mektupta ihbarcı korumalarının daha güçlü olmasını talep ediyor

OpenAI, Google DeepMind ve Anthropic gibi önde gelen AI şirketlerinin mevcut ve eski çalışanlarından oluşan bir grup, bir anlaşma imzaladı. açık mektup Yapay zekanın potansiyel endişeleri hakkında açıkça konuşanlar için daha fazla şeffaflık ve misillemeye karşı koruma talep ediyoruz. Salı günü yayınlanan mektupta, “Bu şirketler üzerinde etkili bir hükümet denetimi olmadığı sürece, mevcut ve eski […]

Yapay zeka çalışanları açık mektupta ihbarcı korumalarının daha güçlü olmasını talep ediyor

OpenAI, Google DeepMind ve Anthropic gibi önde gelen AI şirketlerinin mevcut ve eski çalışanlarından oluşan bir grup, bir anlaşma imzaladı. açık mektup Yapay zekanın potansiyel endişeleri hakkında açıkça konuşanlar için daha fazla şeffaflık ve misillemeye karşı koruma talep ediyoruz. Salı günü yayınlanan mektupta, “Bu şirketler üzerinde etkili bir hükümet denetimi olmadığı sürece, mevcut ve eski çalışanlar onları kamuya karşı sorumlu tutabilecek az sayıdaki kişi arasındadır” deniyor. “Yine de geniş gizlilik anlaşmaları, bu sorunları çözemeyen şirketler dışında endişelerimizi dile getirmemizi engelliyor.”

Mektup bir kaç hafta sonra gelir Vox soruşturma OpenAI’nin yakın zamanda ayrılan çalışanları agresif bir aşağılama karşıtı anlaşma imzalama veya şirketteki kazanılmış özsermayelerini kaybetme riski arasında seçim yapmaya zorlayarak onları susturmaya çalıştığını ortaya çıkardı. Raporun ardından OpenAI CEO’su Sam Altman söz konusu Bu hükümden gerçekten utandığını” söyledi ve bunun son çıkış belgelerinden kaldırıldığını iddia etti, ancak bunun bazı çalışanlar için yürürlükte olup olmadığı belli değil. Bu hikaye yayınlandıktan sonra, nn OpenAI sözcüsü Engadget’e şirketin bir çıkış belgesini kaldırdığını söyledi. standart ayrılma evraklarından aşağılamama maddesini çıkardı ve tüm eski çalışanları, aşağılamama sözleşmelerinden muaf tuttu.

İmzalayan 13 kişi arasında eski OpenAI çalışanları Jacob Hinton, William Saunders ve Daniel Kokotajlo yer alıyor. Kokotajlo söz konusu İnsanlar kadar akıllı veya onlardan daha akıllı olan yapay zeka sistemleri için kullanılan bir terim olan yapay genel zekayı sorumlu bir şekilde inşa edeceğine olan güvenini kaybettikten sonra şirketten istifa ettiğini söyledi. Önde gelen yapay zeka uzmanları Geoffrey Hinton, Yoshua Bengio ve Stuart Russell tarafından onaylanan mektupta, yapay zeka konusunda etkili hükümet denetiminin olmayışı ve teknoloji devlerini teknolojiye yatırım yapmaya iten mali teşvikler konusundaki ciddi endişeler dile getiriliyor. Yazarlar, güçlü yapay zeka sistemlerinin kontrolsüz bir şekilde takip edilmesinin, yanlış bilginin yayılmasına, eşitsizliğin daha da kötüleşmesine ve hatta otonom sistemler üzerindeki insan kontrolünün kaybedilmesine yol açabileceği ve potansiyel olarak insanlığın yok olmasına yol açabileceği konusunda uyarıyorlar.

“Bu sistemlerin nasıl çalıştığı ve akıllılaştıkça ve muhtemelen tüm alanlarda insan düzeyindeki zekayı aştıkça insan çıkarlarıyla uyumlu kalıp kalmayacakları konusunda anlamadığımız çok şey var.” yazdı X hakkında Kokotajlo. “Bu arada, bu teknoloji üzerinde çok az gözetim var veya hiç yok. Bunun yerine, kâr güdüsü ve teknolojiye ilişkin heyecan onları ‘hızlı hareket etmeye ve işleri bozmaya’ itse de, kendi kendilerini yönetmeleri için bunları inşa eden şirketlere güveniyoruz. Araştırmacıları susturmak ve onları misilleme korkusuna sevk etmek, şu anda kamuoyunu uyarabilecek konumda olan yegâne kişilerden biri olduğumuz için tehlikelidir.”

Bir OpenAI sözcüsü Engadget ile paylaşılan bir açıklamada şunları söyledi: “En yetenekli ve en güvenli yapay zeka sistemlerini sağlama konusundaki performansımızdan gurur duyuyoruz ve riski ele alma konusundaki bilimsel yaklaşımımıza inanıyoruz. Bu teknolojinin önemi göz önüne alındığında, sıkı tartışmaların hayati önem taşıdığı konusunda hemfikiriz ve dünya çapındaki hükümetler, sivil toplum ve diğer topluluklarla ilişkiler kurmaya devam edeceğiz.” Şunları eklediler: “İşte bu nedenle çalışanlarımızın endişelerini isimsiz bir şekilde ifade edebilecekleri yollarımız var. dürüstlük yardım hattı ve yönetim kurulu üyelerimiz ve şirketteki güvenlik liderleri tarafından yönetilen bir Güvenlik ve Güvenlik Komitesi var.”

Google ve Anthropic, Engadget’tan gelen yorum talebine yanıt vermedi. İçinde ifade a gönderildi BloombergOpenAI sözcüsü, şirketin “en yetenekli ve en güvenli yapay zeka sistemlerini sağlayan geçmiş performansından” gurur duyduğunu ve “riski ele alma konusundaki bilimsel yaklaşımına” inandığını söyledi. Şunları ekledi: “Bu teknolojinin önemi göz önüne alındığında, sıkı tartışmaların hayati önem taşıdığı konusunda hemfikiriz ve dünya çapındaki hükümetler, sivil toplum ve diğer topluluklarla iletişim kurmaya devam edeceğiz.”

İmzacılar yapay zeka şirketlerini dört temel ilkeye bağlı kalmaya çağırıyor:

  • Güvenlik endişelerini dile getiren çalışanlara karşı misilleme yapmaktan kaçınmak

  • Kamuoyunu ve düzenleyicileri riskler konusunda uyarmak amacıyla ihbarcılara yönelik anonim bir sistemin desteklenmesi

  • Açık eleştiri kültürüne izin vermek

  • Çalışanların açıkça konuşmasını kısıtlayan, aşağılayıcı veya ifşa etmeme anlaşmalarından kaçınmak

Mektup, “süper hizalama” güvenlik ekibinin dağıtılması ve kurucu ortak Ilya Sutskever ve Jan Leike gibi kilit isimlerin ayrılması da dahil olmak üzere OpenAI uygulamalarının giderek daha fazla incelendiği bir dönemde geldi. eleştirildi şirketin güvenlikten ziyade “parlak ürünlere” öncelik vermesi.

Güncelleme, 05 Haziran 2024, 11:51 ET: Bu hikaye OpenAI’den gelen açıklamaları içerecek şekilde güncellendi.

Yapay zeka çalışanları açık mektupta ihbarcı korumalarının daha güçlü olmasını talep ediyor

Teknory