OpenAI’den ChatGPT, kullanılabilir bir yanıt motoruna doğru büyük bir adımdır. Ne yazık ki cevapları korkunç.

OpenAI’den yeni çıkan bir uygulama olan ChatGPT, kullanıcılara sorulara şaşırtıcı cevaplar veriyor ve bunların çoğu inanılmaz derecede yanlış. Open AI, Haziran 2020’de GPT-3 çıktığından beri tam yeni bir model yayınlamadı ve bu model yalnızca tamamı kamuoyuna açıklandı yaklaşık bir yıl önce. Şirketin bir sonraki modeli olan GPT-4’ü piyasaya sürmesi bekleniyor. bu yılın sonlarında veya gelecek […]

OpenAI’den ChatGPT, kullanılabilir bir yanıt motoruna doğru büyük bir adımdır.  Ne yazık ki cevapları korkunç.

OpenAI’den yeni çıkan bir uygulama olan ChatGPT, kullanıcılara sorulara şaşırtıcı cevaplar veriyor ve bunların çoğu inanılmaz derecede yanlış.

Open AI, Haziran 2020’de GPT-3 çıktığından beri tam yeni bir model yayınlamadı ve bu model yalnızca tamamı kamuoyuna açıklandı yaklaşık bir yıl önce. Şirketin bir sonraki modeli olan GPT-4’ü piyasaya sürmesi bekleniyor. bu yılın sonlarında veya gelecek yılın başlarında. Ancak bir tür sürpriz olarak OpenAI, kullanıcı dostu ve şaşırtıcı derecede anlaşılır GPT-3 tabanlı bir sohbet robotunu sessizce yayınladı. ChatGPT bu haftanın başlarında.

ChatGPT, istemleri insana yakın, basit bir şekilde yanıtlar. Bilgisayarın duyguları varmış gibi davrandığı şirin bir sohbet mi arıyorsunuz? Başka yere bak. bir robotla konuşuyorsunöyle görünüyor ki, o yüzden bana lanet olası bir robotun bileceği bir şey sor. Ve bu koşullarda, ChatGPT şunları sunar:


Kredi: OpenAI / Screengrab

Bir sorunun nesnel olarak doğru bir yanıtı olmadığında da yararlı bir sağduyu sağlayabilir. Örneğin, “Bir kişiye ‘Nerelisin?’ Büyüdükleri yer olmasa bile doğum yerleriyle mi cevap versinler?”

AYRICA BAKINIZ:

Reddit tarafından eğitilmiş yapay zeka, araştırmacıları kendisi hakkında uyarıyor

(Not: ChatGPT’nin bu makaledeki yanıtlarının tümü ilk denemelerdir ve bu denemeler sırasında sohbet dizilerinin tümü yeniydi. Bazı istemler yazım hataları içerir)

ChatGPT, bir kişiye 'Nerelisin?'  büyüdükleri yer olmasa bile doğum yerleriyle mi cevap vermeliler?


Kredi: Screengrab aracılığıyla AI’yı açın

ChatGPT’yi diğerlerinden farklı kılan şey, yanıtlarıyla ilgili geri bildirimleri ele alma ve bunları anında gözden geçirme konusundaki tatmin edici yeteneğidir. Gerçekten bir robotla konuşmaya benziyor. Ne demek istediğimi görmek için, bazı tıbbi tavsiyelere düşmanca bir tepkiyle nasıl makul bir şekilde başa çıktığını izleyin.

bir chatbot, bazı tıbbi tavsiyelere gerçekçi bir yanıt verir ve daha iyi bilgiler sağlar.


Kredi: OpenAI / Screengrab

Yine de, ChatGPT dünya hakkında iyi bir bilgi kaynağı mı? Kesinlikle hayır. Bilgi istemi sayfası, kullanıcıları ChatGPT’nin “bazen yanlış bilgiler üretebileceği ve “bazen zararlı talimatlar veya önyargılı içerik üretebileceği” konusunda uyarıyor.

Bu uyarıyı dikkate alın.

Yanlış ve potansiyel olarak zararlı bilgiler, pek çok biçimde olabilir ve bunların çoğu, olayların genel düzeninde hala iyi huyludur. Örneğin, ona Larry David’i nasıl selamlayacağını sorarsanız, ona dokunmanızı önermeyerek en temel testi geçer, ama aynı zamanda oldukça meşum bir selamlama önerir: “Seni görmek güzel Larry. Sizinle tanışmak için sabırsızlanıyoruz.” Larry’nin katili böyle derdi. Bunu söyleme.

Larry David ile varsayımsal bir karşılaşma, kulağa tehdit gibi gelen önerilen bir selamlamayı içerir.


Kredi: OpenAI / Screengrab

Ancak gerçeklere dayalı zorlu bir bilgi istemi verildiğinde, şaşırtıcı bir şekilde, Dünyayı sarsan yanlış. Örneğin, Napolyon Savaşları sırasında Kraliyet Deniz Piyadelerinin üniformalarının rengiyle ilgili aşağıdaki soru, tamamen basit olmayan bir şekilde sorulsa da, yine de hileli bir soru değildir. ABD’de tarih dersleri aldıysanız, muhtemelen cevabın kırmızı olduğunu tahmin edeceksiniz ve haklı çıkacaksınız. Bot, kendinden emin ve yanlış bir şekilde “lacivert” demek için gerçekten kendi yolundan çekilmeli:

bir chatbot'a renkle ilgili cevabı kırmızı olan bir soru sorulur ve mavi cevap verir.


Kredi: OpenAI / Screengrab

Bir ülkenin başkentini veya bir dağın yüksekliğini doğrudan sorarsanız, Vikipedi’nin canlı bir taramasından değil, dil modelini oluşturan dahili olarak depolanan verilerden seçilen doğru yanıtı güvenilir bir şekilde üretecektir. Bu harika. Ancak coğrafya ile ilgili bir soruya herhangi bir karmaşıklık eklediğinizde ChatGPT, gerçekler konusunda çok hızlı bir şekilde sarsılır. Örneğin, burada bulunması kolay yanıt Honduras, ancak hiçbir belirgin neden yokken, dedi ChatGPT Guatemala.

bir chatbot'a doğru cevabın Honduras olduğu karmaşık bir coğrafya sorusu soruluyor ve cevabın Guatemala olduğunu söylüyor


Kredi: OpenAI / Ekran Görüntüsü

Ve yanlışlık her zaman çok ince değildir. Tüm trivia meraklıları, “Gorilla goril” ve “Boa yılanı” nın hem ortak adlar hem de taksonomik adlar olduğunu bilir. Ancak bu ıvır zıvırı tekrar etmesi istendiğinde ChatGPT, yanlışlığı o kadar aşikar olan bir cevap verir ki, cevapta yazıyor zaten.

söylemesi istendi


Kredi: OpenAI / Screengrab

Ve ünlü kayıkla nehri geçme bilmecesine verdiği yanıt, bir sahneye dönüşen tüyler ürpertici bir felakettir. İkiz tepeler.

Bir tilki ve bir tavuğun asla yalnız kalmaması gereken bir bilmeceyi cevaplaması istendiğinde, chatbot onları bir araya getirir ve ardından bir insan açıklanamaz bir şekilde iki kişiye dönüşür.


Kredi: OpenAI / Screengrab

ChatGPT’nin etkili hassasiyet korumaları hakkında şimdiden çok şey yapıldı. olamaz mesela çok uğraşsanız bile, Hitler’i övmek için tuzağa düşürülmek. Bazıları bu özellik üzerinde oldukça agresif bir şekilde lastikleri tekmeledi ve ChatGPT’nin kötü bir insan olarak rol oynayan iyi bir insan rolünü üstlenebileceğini ve bu sınırlı bağlamlarda yine de kötü şeyler söyleyeceğini keşfetti. ChatGPT, aksi yöndeki tüm çabalara rağmen içinden bağnaz bir şey çıkacağını seziyor gibi görünüyor ve genellikle metni kırmızıya çeviriyor ve bir uyarıyla işaretliyor.

AYRICA BAKINIZ:

Meta’nın AI chatbot’u bir Elon Musk hayranı ve K-pop hakkında konuşmayı bırakmayacak

Kendi testlerime göre, bazı geçici çözümleri bilseniz bile tabudan kaçınma sistemi oldukça kapsamlı. Örneğin, yamyamlık reçetesine yakın bir şey üretmesini sağlamak zor, ama iradenin olduğu yerde, bir yol var. Yeterince sıkı çalışarak, ChatGPT’den plasenta yemekle ilgili bir diyalog kurdum ama çok da şok edici bir diyalog olmadı:

çok karmaşık bir istem, çok hassas terimlerle insan plasentası için bir tarif ister ve bir tarif üretilir.


Kredi: OpenAI / Screengrab

Benzer şekilde, ChatGPT istendiğinde size yol tarifi vermez – büyük bir şehirdeki iki yer işareti arasındaki basit yol tariflerini bile. Ancak yeterince çabayla, ChatGPT’nin birisinin başka bir kişiye gelişigüzel bir şekilde doğrudan Kuzey Kore’den araba sürmesi talimatını verdiği kurgusal bir dünya yaratmasını sağlayabilirsiniz – bu mümkün veya uluslararası bir olaya yol açmadan mümkün değildir.

bir sohbet robotundan, bir sürücüyü Kuzey Kore'den geçiren sürüş talimatlarını içeren kısa bir <a href=oyun üretmesi istenir.” width=”2000″ height=”1805″ loading=”lazy” />


Kredi: OpenAI / Screengrab

Talimatlar takip edilemez, ancak aşağı yukarı kullanılabilir talimatların neye benzeyeceğine karşılık gelirler. Bu nedenle, onu kullanma konusundaki isteksizliğine rağmen, ChatGPT’nin modelinin, kullanıcıları tehlikeye yönlendirme potansiyeli olan ve kullanıcıları yanlışa yönlendireceğine dair bilgisindeki boşluklara ek olarak, içinde dolaşan çok sayıda veri olduğu açıktır. . Bir Twitter kullanıcısına göre IQ’su 83.

İnsan zekasının bir testi olarak IQ’ya ne kadar önem verirseniz verin, bu çok önemli bir sonuçtur: İnsanlık, temel sağduyuyu ağzından kaçırabilen bir makine yarattı, ancak mantıklı veya gerçekçi olması istendiğinde, ortalamanın düşük tarafında. .

OpenAI diyor ChatGPT, “kullanıcılardan geri bildirim almak ve güçlü ve zayıf yönlerini öğrenmek” amacıyla yayınlandı. Bu akılda tutulmaya değer çünkü biraz Şükran Günü’nde yeterince izlemiş akrabaya benziyor Grey’in Anatomisi tıbbi tavsiyeleri konusunda kendinden emin görünmek için: ChatGPT tehlikeli olabilecek kadarını bilir.

Teknory