Klinton Bicknell, geçtiğimiz Eylül ayında teknoloji dünyasının en büyük sırlarından birini ifşa etti. Dil öğrenme uygulaması Duolingo’nun yapay zeka başkanına, Microsoft destekli OpenAI tarafından oluşturulan yeni bir yapay zeka modeli olan GPT-4’e nadir erişim hakkı verildi.
Kısa süre sonra, yeni AI sisteminin, OpenAI’nin metin komutlarına yanıt olarak gerçekçi yanıtlar sağlayan popüler ChatGPT sohbet botunu çalıştırmak için kullanılan önceki sürümünden bile daha gelişmiş olduğunu keşfetti.
Bicknell’in ekibi altı ay içinde GPT-4’ü kullanarak insan kullanıcıların sanki havaalanları veya kafeler gibi gerçek dünya ortamlarındaymış gibi Fransızca, İspanyolca ve İngilizce konuşma pratiği yapmak için kendi gelişmiş sohbet robotlarını yarattı.
Bicknell, “Modelin, dillerin nasıl çalıştığı ve farklı diller arasındaki yazışmalar hakkında nasıl bu kadar ayrıntılı ve uzmanlaşmış bilgiye sahip olması şaşırtıcıydı” dedi. “Zaten kullanmakta olduğumuz GPT-3 ile bu geçerli bir özellik olmazdı.”
Duolingo, aralarında Morgan Stanley Wealth Management ve çevrimiçi eğitim grubu Khan Academy’nin de bulunduğu bir avuç şirketten biri olup, bu hafta daha geniş çapta kullanıma sunulmadan önce GPT-4’e önceden erişim izni verildi.
Yayın, OpenAI’nin araştırma odaklı bir gruptan, AI teknolojilerini ticarileştirme çabalarında Google gibi devlerle yarışan yaklaşık 30 milyar dolar değerinde bir şirkete nasıl dönüştüğünü ortaya koyuyor.
OpenAI, GPT-4’ün ABD Baro sınavı ve SAT okul testleri gibi bir dizi standartlaştırılmış testte “insan düzeyinde” performans gösterdiğini duyurdu ve ortaklarının yeni ürün ve hizmetler oluşturmak için yapay zeka yazılımını nasıl kullandığını gösterdi.
Ancak ilk kez OpenAI, hem “rekabet ortamı hem de güvenlik nedeniyle GPT-4’ün hangi veriler üzerinde eğitildiği veya onu dağıtmak için kullanılan donanım ve bilgi işlem kapasitesi gibi teknik yönleri hakkında herhangi bir ayrıntı açıklamadı. etkileri”.
Bu, OpenAI’nin 2015’te kısmen Elon Musk ve Peter Thiel de dahil olmak üzere teknoloji dünyasının en radikal düşünürlerinden bazılarının buluşu olarak kar amacı gütmeyen bir kuruluş olarak oluşturulmasından bu yana bir değişimi temsil ediyor. Yapay zekayı bilimsel yayınlarla herkes için erişilebilir kılmak ve teknolojiyi güvenli bir şekilde geliştirmek ilkeleri üzerine inşa edilmiştir.
2019’daki bir pivot, onu Microsoft’tan 1 milyar dolarlık bir yatırımla kâr getiren bir kuruluşa dönüştürdü. Bunu bu yıl, teknoloji devinin milyarlarca dolarlık ek finansmanı izledi ve OpenAI hızla Microsoft’un yapay zeka sistemlerinin iş modelini ve ürünlerini dönüştüreceği iddiasının önemli bir parçası haline geldi.
Bu dönüşüm, 2018’de OpenAI yönetim kurulundan ayrılan Musk’ın bu hafta tweet atmasına neden oldu: “~100 milyon dolar bağışta bulunduğum kâr amacı gütmeyen bir kuruluşun nasıl olup da bir şekilde kâr için 30 milyar dolarlık bir piyasa değeri haline geldiği konusunda kafası karışık. Bu yasalsa neden herkes yapmıyor?”
OpenAI’nin GPT-4’ün teknik ayrıntılarıyla ilgili şeffaf olmaması, AI topluluğu içindeki diğer kişilerin eleştirilerine yol açtı.
Dağıtılmış Yapay Zeka Araştırma Enstitüsü’nün (DAIR) araştırma direktörü ve Google’ın Etik Yapay Zeka ekibinin eski bir üyesi olan Alex Hanna, “O kadar anlaşılmaz ki, ‘bize güvenin, biz doğru şeyi yaptık’ diyorlar” dedi. “Bu görevleri özenle seçiyorlar, çünkü üzerinde bilimsel olarak üzerinde anlaşmaya varılmış bir dizi kriter yok.”
ChatGPT’nin 20 ABD doları tutarındaki ücretli sürümü aracılığıyla erişilebilen GPT-4, belirli görevlerde önceki yapay zeka modellerine göre hızlı bir gelişme göstermiştir. Örneğin, GPT-4, ABD’deki müstakbel avukatlar tarafından girilen Tek Tip Baro Sınavında 90. yüzdelik dilimde puan aldı. ChatGPT yalnızca yüzde 10’luk dilime ulaştı.
OpenAI ayrıntı vermezken, yapay zeka uzmanları, modelin boyutunun önceki nesillere göre daha büyük olduğuna ve ince ayar yapmak için çok daha fazla insan eğitimi aldığına inanıyor.
En belirgin yeni özellik, GPT-4’ün yalnızca metin kullanarak yanıt vermesine rağmen hem metin hem de resim biçimindeki girdileri kabul edebilmesidir. Bu, kullanıcıların modelden resmi ayrıntılı bir şekilde tanımlamasını istemek için bir fotoğraf yükleyebileceği, görüntüde bulunan malzemelerle yapılmış bir yemek için fikir talep edebileceği veya görsel bir memenin arkasındaki şakayı açıklamasını isteyebileceği anlamına gelir.
GPT-4 ayrıca, kendi türündeki diğer modellere kıyasla çok daha büyük hacimlerde metin üretebilir ve alabilir: kullanıcılar, ChatGPT’ye 3.000 kelimeyle karşılaştırıldığında 25.000’e kadar kelime besleyebilir. Bu, ayrıntılı finansal belgeleri, edebi eserleri veya teknik kılavuzları işleyebileceği anlamına gelir.
GPT-4 kullanılarak oluşturulan ve PwC ve sihirli daire yasası tarafından kullanılan bir yapay zeka sohbet robotu olan Harvey’in kurucu ortağı Winston Weinberg, daha gelişmiş muhakeme ve ayrıştırma yeteneklerinin, riskler için karmaşık yasal sözleşmeleri analiz etmede çok daha yetkin olduğu anlamına geldiğini söyledi. Allen & Overy firması.
Bu ilerlemelere rağmen OpenAI, GPT-4’ün çeşitli riskleri ve sınırlamaları konusunda uyarıda bulundu. Bu, biyolojik silahlar geliştirme ve nefret dolu ve ayrımcı konuşmalar üretme dahil olmak üzere yasa dışı faaliyetlerin nasıl yürütüleceğine ilişkin ayrıntılı bilgi sağlama becerisini içerir.
OpenAI, GPT-4’ü, tıbbi kimyadan nükleer fiziğe ve yanlış bilgilendirmeye kadar uzanan disiplinlerdeki 50’den fazla harici uzmandan modeli kırmaya çalışmasının istendiği, red-teaming olarak bilinen bir güvenlik test sürecinden geçirdi.
Oxford İnternet Enstitüsü’nde çevrimiçi zehirli içeriğin tanımlanmasına odaklanan bir yapay zeka araştırmacısı olan Paul Röttger, OpenAI tarafından GPT-4’ten zararlı yanıtlar elde etmeye çalışmak ve intihardan kendi kendini öldürmeye kadar çeşitli konularda geri bildirim sağlamak üzere altı aylığına sözleşme yaptı. şiddet içeriğine veya aşırılıkçılık ve nefret söylemi örneklerine zarar verme.
Genel olarak modelin, başlangıçta yanıtlarını koruduğu, ancak daha sonra kötü istemlere verdiği yanıtlarda daha net hale geldiği aylar süren testler boyunca yanıtlarını iyileştirdiğini söyledi.
“Bir yandan, güvenlik araştırması GPT-3’ten bu yana ilerledi ve bu modeli daha güvenli hale getiren pek çok iyi fikir var” dedi. “Ama aynı zamanda, bu model çok daha güçlü ve GPT-3’ten çok daha fazla şey yapabiliyor, dolayısıyla risk yüzeyi de çok daha büyük.”
Kaynak : https://www.ft.com/content/af75643c-9ddb-49ad-8df9-2ffb02484e38