Dolandırıcılar, sevdiklerini taklit ederek milyonları çalmak için AI seslerini kullanıyor

TL;DR AI ses üreten yazılım, dolandırıcıların sevdiklerinin sesini taklit etmesine izin veriyor. Bu kimliğe bürünmeler, 2022’de insanların telefonla 11 milyon doları dolandırılmasına yol açtı. Hedef alınanların çoğunluğunu yaşlılar oluşturuyor. Microsoft, ürünlerini ChatGPT ile doldurmaya devam ederken ve Google kendi AI ürünlerini piyasaya sürerek ayak uydurmaya çalışırken, AI bir süredir teknoloji dünyasının ana konularından biri olmuştur. […]

Dolandırıcılar, sevdiklerini taklit ederek milyonları çalmak için AI seslerini kullanıyor

TL;DR

  • AI ses üreten yazılım, dolandırıcıların sevdiklerinin sesini taklit etmesine izin veriyor.
  • Bu kimliğe bürünmeler, 2022’de insanların telefonla 11 milyon doları dolandırılmasına yol açtı.
  • Hedef alınanların çoğunluğunu yaşlılar oluşturuyor.

Microsoft, ürünlerini ChatGPT ile doldurmaya devam ederken ve Google kendi AI ürünlerini piyasaya sürerek ayak uydurmaya çalışırken, AI bir süredir teknoloji dünyasının ana konularından biri olmuştur. Yapay zeka, tek bir metin satırına dayalı görüntüler oluşturmak gibi gerçekten etkileyici bazı şeyler yapma potansiyeline sahip olsa da, zorlukla düzenlenen teknolojinin olumsuz taraflarını daha fazla görmeye başlıyoruz. Bunun en son örneği, insanları paralarından dolandırmak için kullanılan AI ses üreteçleridir.

AI ses oluşturma yazılımı, son zamanlarda, çoğunlukla seslendirme sanatçılarının seslerini çalmak için pek çok manşet yapıyor. Başlangıçta, yazılımın konuşmacının sesini ve tonunu ikna edici bir şekilde yeniden üretmesi için gereken tek şey birkaç cümleydi. O zamandan beri teknoloji, birini doğru bir şekilde taklit etmek için sadece birkaç saniyelik bir diyalogun yeterli olduğu noktaya kadar gelişti.

gelen yeni bir raporda Washington post, binlerce kurban, sevdikleri gibi davranan sahtekarlar tarafından kandırıldıklarını iddia ediyor. Bildirildiğine göre, sahtekarlık dolandırıcılıkları, 2022’de sunulan 36.000’den fazla vakayla Amerika’daki en popüler ikinci dolandırıcılık türü haline geldi. FTC yetkililerine göre, bu 36.000 vakadan 5.000’den fazla kurbanın paraları telefonla dolandırıldı ve toplam 11 milyon dolar kayıp oldu. .

Öne çıkan bir hikaye, oğullarıyla konuştuklarına inandıktan sonra bir dolandırıcıya bitcoin terminali aracılığıyla 15.000 dolardan fazla para gönderen yaşlı bir çiftle ilgiliydi. AI sesi, çifti, ABD’li bir diplomatı bir araba kazasında öldürdükten sonra oğullarının yasal olarak başının belada olduğuna ikna etmişti.

Hikayedeki kurbanlarda olduğu gibi, bu saldırılar çoğunlukla yaşlıları hedef alıyor gibi görünüyor. Mali dolandırıcılık söz konusu olduğunda yaşlılar en savunmasız olanlar arasında olduğundan, bu hiç de şaşırtıcı değil. Ne yazık ki mahkemeler, şirketlerin AI ses üreteçleri veya diğer AI teknolojisi biçimlerinin neden olduğu zararlardan sorumlu tutulup tutulamayacağı konusunda henüz bir karar vermedi.

Dolandırıcılar, sevdiklerini taklit ederek milyonları çalmak için AI seslerini kullanıyor

Teknory