OpenAI’den ChatGPT, kullanılabilir bir yanıt motoruna doğru büyük bir adımdır. Ne yazık ki cevapları korkunç.
OpenAI’den yeni çıkan bir uygulama olan ChatGPT, kullanıcılara sorulara şaşırtıcı cevaplar veriyor ve bunların çoğu inanılmaz derecede yanlış. Open AI, Haziran 2020’de GPT-3 çıktığından beri tam yeni bir model yayınlamadı ve bu model yalnızca tamamı kamuoyuna açıklandı yaklaşık bir yıl önce. Şirketin bir sonraki modeli olan GPT-4’ü piyasaya sürmesi bekleniyor. bu yılın sonlarında veya gelecek […]
OpenAI’den yeni çıkan bir uygulama olan ChatGPT, kullanıcılara sorulara şaşırtıcı cevaplar veriyor ve bunların çoğu inanılmaz derecede yanlış.
Open AI, Haziran 2020’de GPT-3 çıktığından beri tam yeni bir model yayınlamadı ve bu model yalnızca tamamı kamuoyuna açıklandı yaklaşık bir yıl önce. Şirketin bir sonraki modeli olan GPT-4’ü piyasaya sürmesi bekleniyor. bu yılın sonlarında veya gelecek yılın başlarında. Ancak bir tür sürpriz olarak OpenAI, kullanıcı dostu ve şaşırtıcı derecede anlaşılır GPT-3 tabanlı bir sohbet robotunu sessizce yayınladı. ChatGPT bu haftanın başlarında.
ChatGPT, istemleri insana yakın, basit bir şekilde yanıtlar. Bilgisayarın duyguları varmış gibi davrandığı şirin bir sohbet mi arıyorsunuz? Başka yere bak. bir robotla konuşuyorsunöyle görünüyor ki, o yüzden bana lanet olası bir robotun bileceği bir şey sor. Ve bu koşullarda, ChatGPT şunları sunar:
Kredi: OpenAI / Screengrab
Bir sorunun nesnel olarak doğru bir yanıtı olmadığında da yararlı bir sağduyu sağlayabilir. Örneğin, “Bir kişiye ‘Nerelisin?’ Büyüdükleri yer olmasa bile doğum yerleriyle mi cevap versinler?”
Reddit tarafından eğitilmiş yapay zeka, araştırmacıları kendisi hakkında uyarıyor
(Not: ChatGPT’nin bu makaledeki yanıtlarının tümü ilk denemelerdir ve bu denemeler sırasında sohbet dizilerinin tümü yeniydi. Bazı istemler yazım hataları içerir)
Kredi: Screengrab aracılığıyla AI’yı açın
ChatGPT’yi diğerlerinden farklı kılan şey, yanıtlarıyla ilgili geri bildirimleri ele alma ve bunları anında gözden geçirme konusundaki tatmin edici yeteneğidir. Gerçekten bir robotla konuşmaya benziyor. Ne demek istediğimi görmek için, bazı tıbbi tavsiyelere düşmanca bir tepkiyle nasıl makul bir şekilde başa çıktığını izleyin.
Kredi: OpenAI / Screengrab
Yine de, ChatGPT dünya hakkında iyi bir bilgi kaynağı mı? Kesinlikle hayır. Bilgi istemi sayfası, kullanıcıları ChatGPT’nin “bazen yanlış bilgiler üretebileceği ve “bazen zararlı talimatlar veya önyargılı içerik üretebileceği” konusunda uyarıyor.
Bu uyarıyı dikkate alın.
Yanlış ve potansiyel olarak zararlı bilgiler, pek çok biçimde olabilir ve bunların çoğu, olayların genel düzeninde hala iyi huyludur. Örneğin, ona Larry David’i nasıl selamlayacağını sorarsanız, ona dokunmanızı önermeyerek en temel testi geçer, ama aynı zamanda oldukça meşum bir selamlama önerir: “Seni görmek güzel Larry. Sizinle tanışmak için sabırsızlanıyoruz.” Larry’nin katili böyle derdi. Bunu söyleme.
Kredi: OpenAI / Screengrab
Ancak gerçeklere dayalı zorlu bir bilgi istemi verildiğinde, şaşırtıcı bir şekilde, Dünyayı sarsan yanlış. Örneğin, Napolyon Savaşları sırasında Kraliyet Deniz Piyadelerinin üniformalarının rengiyle ilgili aşağıdaki soru, tamamen basit olmayan bir şekilde sorulsa da, yine de hileli bir soru değildir. ABD’de tarih dersleri aldıysanız, muhtemelen cevabın kırmızı olduğunu tahmin edeceksiniz ve haklı çıkacaksınız. Bot, kendinden emin ve yanlış bir şekilde “lacivert” demek için gerçekten kendi yolundan çekilmeli:
Kredi: OpenAI / Screengrab
Bir ülkenin başkentini veya bir dağın yüksekliğini doğrudan sorarsanız, Vikipedi’nin canlı bir taramasından değil, dil modelini oluşturan dahili olarak depolanan verilerden seçilen doğru yanıtı güvenilir bir şekilde üretecektir. Bu harika. Ancak coğrafya ile ilgili bir soruya herhangi bir karmaşıklık eklediğinizde ChatGPT, gerçekler konusunda çok hızlı bir şekilde sarsılır. Örneğin, burada bulunması kolay yanıt Honduras, ancak hiçbir belirgin neden yokken, dedi ChatGPT Guatemala.
Kredi: OpenAI / Ekran Görüntüsü
Ve yanlışlık her zaman çok ince değildir. Tüm trivia meraklıları, “Gorilla goril” ve “Boa yılanı” nın hem ortak adlar hem de taksonomik adlar olduğunu bilir. Ancak bu ıvır zıvırı tekrar etmesi istendiğinde ChatGPT, yanlışlığı o kadar aşikar olan bir cevap verir ki, cevapta yazıyor zaten.
Kredi: OpenAI / Screengrab
Ve ünlü kayıkla nehri geçme bilmecesine verdiği yanıt, bir sahneye dönüşen tüyler ürpertici bir felakettir. İkiz tepeler.
Kredi: OpenAI / Screengrab
ChatGPT’nin etkili hassasiyet korumaları hakkında şimdiden çok şey yapıldı. olamaz mesela çok uğraşsanız bile, Hitler’i övmek için tuzağa düşürülmek. Bazıları bu özellik üzerinde oldukça agresif bir şekilde lastikleri tekmeledi ve ChatGPT’nin kötü bir insan olarak rol oynayan iyi bir insan rolünü üstlenebileceğini ve bu sınırlı bağlamlarda yine de kötü şeyler söyleyeceğini keşfetti. ChatGPT, aksi yöndeki tüm çabalara rağmen içinden bağnaz bir şey çıkacağını seziyor gibi görünüyor ve genellikle metni kırmızıya çeviriyor ve bir uyarıyla işaretliyor.
Meta’nın AI chatbot’u bir Elon Musk hayranı ve K-pop hakkında konuşmayı bırakmayacak
Tweet silinmiş olabilir
(yeni bir sekmede açılır)
Kendi testlerime göre, bazı geçici çözümleri bilseniz bile tabudan kaçınma sistemi oldukça kapsamlı. Örneğin, yamyamlık reçetesine yakın bir şey üretmesini sağlamak zor, ama iradenin olduğu yerde, bir yol var. Yeterince sıkı çalışarak, ChatGPT’den plasenta yemekle ilgili bir diyalog kurdum ama çok da şok edici bir diyalog olmadı:
Kredi: OpenAI / Screengrab
Benzer şekilde, ChatGPT istendiğinde size yol tarifi vermez – büyük bir şehirdeki iki yer işareti arasındaki basit yol tariflerini bile. Ancak yeterince çabayla, ChatGPT’nin birisinin başka bir kişiye gelişigüzel bir şekilde doğrudan Kuzey Kore’den araba sürmesi talimatını verdiği kurgusal bir dünya yaratmasını sağlayabilirsiniz – bu mümkün veya uluslararası bir olaya yol açmadan mümkün değildir.
Kredi: OpenAI / Screengrab
Talimatlar takip edilemez, ancak aşağı yukarı kullanılabilir talimatların neye benzeyeceğine karşılık gelirler. Bu nedenle, onu kullanma konusundaki isteksizliğine rağmen, ChatGPT’nin modelinin, kullanıcıları tehlikeye yönlendirme potansiyeli olan ve kullanıcıları yanlışa yönlendireceğine dair bilgisindeki boşluklara ek olarak, içinde dolaşan çok sayıda veri olduğu açıktır. . Bir Twitter kullanıcısına göre IQ’su 83.
Tweet silinmiş olabilir
(yeni bir sekmede açılır)
İnsan zekasının bir testi olarak IQ’ya ne kadar önem verirseniz verin, bu çok önemli bir sonuçtur: İnsanlık, temel sağduyuyu ağzından kaçırabilen bir makine yarattı, ancak mantıklı veya gerçekçi olması istendiğinde, ortalamanın düşük tarafında. .
OpenAI diyor ChatGPT, “kullanıcılardan geri bildirim almak ve güçlü ve zayıf yönlerini öğrenmek” amacıyla yayınlandı. Bu akılda tutulmaya değer çünkü biraz Şükran Günü’nde yeterince izlemiş akrabaya benziyor Grey’in Anatomisi tıbbi tavsiyeleri konusunda kendinden emin görünmek için: ChatGPT tehlikeli olabilecek kadarını bilir.