<
<
<
<
Genel Sağlık

Benim Adım GPT-3 ve Bu Makaleyi Onayladım

Bu yaz, San Francisco’da OpenAI adlı bir yapay zeka laboratuvarı, yapım aşamasında olan bir teknolojiyi açıkladı. Bu yeni sistem, GPT-3, o ayları binlerce dijital kitabı, Wikipedia’nın uzunluğunu ve genişliğini ve bloglara, sosyal medyaya ve diğerlerine gönderilen yaklaşık bir trilyon kelimeyi analiz ederek doğal dilin içini ve dışını öğrenmekle geçirmişti. internet.

Salt Lake City’den 23 yaşındaki bir bilgisayar programcısı olan Mckay Wrigley, bu uçsuz bucaksız dijital metin denizinden öğrendiği her şeyi yeni metinler oluşturmak için kullanan sistemi kurcalamaya davet edilen birkaç kişiden biriydi. kendi başına dil. Bay Wrigley, ünlü kişileri taklit edip edemeyeceğini merak etti – onlar gibi yazın, hatta belki onlar gibi sohbet edin.

Deneylerinden biri bir pop psikoloğu olan Scott Barry Kaufman’ı içeriyordu. Sistem Bay Kaufman’ın adını aldı ve tartışma konusu oldu: yaratıcılık. Ardından “Nasıl daha yaratıcı oluruz?” diye sorulduğunda. GPT-3 anında yanıt verdi:

Daha sonra, Bay Wrigley paragrafı Twitter’da yayınladığında, biri gerçek Scott Barry Kaufman’da döngüye girdi. Afallamıştı. Gerçek Bay Kaufman, “Kesinlikle söyleyeceğim bir şeye benziyor,” tweetini attı ve daha sonra “Çılgın doğru AI”

Gelişinden bu yana geçen haftalarda , GPT-3, kaşları aynı şekilde kaldıran düzinelerce başka deney üretti. Tweet’ler üretiyor, şiir yazıyor, e-postaları özetliyor, önemsiz soruları yanıtlıyor, dilleri tercüme ediyor ve hatta kendi bilgisayar programlarını bile çok az yönlendirmeyle yazıyor. Bu becerilerden bazıları uzmanları bile hazırlıksız yakaladı.

Birçok yapay zeka araştırmacısı için, insan dilinin kaprislerini anlayabilen ve hatta belki de diğer insan becerilerinin üstesinden gelebilecek makinelere doğru beklenmedik bir adım.

New Mexico’daki bağımsız bir laboratuvar olan Santa Fe Enstitüsü’nde yapay zeka araştırmacısı olan ve sistemi deneyenler arasında yer alan Melanie Mitchell, “Bu benim için ve birçok insan için şaşırtıcı” dedi. “Bu şeyin tam olarak ne yaptığını anlamak zor.”

GPT-3 kusursuz olmaktan çok uzaktır. Genellikle önyargılı ve zehirli bir dil kusar. Ve Scott Barry Kaufman tarzında 10 paragraf isterseniz, size inandırıcı beş tane ve olmayan beş tane daha verebilir. Bay Kaufman, yapay zeka görsel ikizi ile gerçekten sohbet ettiğinde, ilk başta olduğu kadar etkilenmedi:

Ama bu bile gerçek bir sohbete benziyordu. Ve özellikle, ekstra kodlama veya ince ayar olmadan sistemin tamamen kendi başına neler yapabileceğini gösterdi.

GPT-3, Microsoft’tan 1 milyar dolarlık fonla desteklenen bağımsız bir kuruluş olan OpenAI’nin yanı sıra Google ve Facebook’taki laboratuvarlar da dahil olmak üzere dünyanın önde gelen yapay zeka laboratuvarlarında birkaç yıllık çalışmanın doruk noktasıdır. Google’da benzer bir sistem, şirketin arama motorundaki sorguları yanıtlamaya yardımcı olur.

Evrensel dil modelleri olarak bilinen bu sistemler, haber makalelerini otomatik olarak özetleyen hizmetler ve çevrimiçi için tasarlanmış “sohbet robotları” gibi çok çeşitli araçları güçlendirmeye yardımcı olabilir. konuşma. Şimdiye kadar, gerçek dünya teknolojisi üzerindeki etkileri küçük oldu. Ancak önceki sistemlerden çok daha geniş bir çevrimiçi metin koleksiyonundan öğrenilen GPT-3, yeni akıllı telefon uygulamalarının geliştirilmesini hızlandırabilecek yazılımlar veya çok uzaklarda sohbet edebilen sohbet robotları gibi çok çeşitli yeni olasılıklara kapı açıyor. geçmiş teknolojilerden daha fazla insan yolu.

Yazılım tasarımcıları, girişimciler, uzmanlar ve sanatçılar bu sistemi keşfettikçe, her yeni deney, bu teknolojinin nihayetinde ne kadar güçlü olacağı konusunda şimdiden hararetli bir tartışmayı ateşliyor. Bazıları bunun gerçekten zeki makinelere giden bir yol olabileceğini söylerken, diğerleri bu deneylerin sonsuz derecede büyüleyici olsa da yanıltıcı olduğunu iddia ediyor.

Georgia Institute of Technology’de profesör ve araştırmacı olan Mark Riedl, “Çok akıcı” dedi. “Çok açıklayıcı. Kulağa makul gelen metinler üretmekte çok iyidir. Ancak, yapmadığı şey önceden düşünmektir. Ne söyleyeceğini planlamaz. Aslında bir amacı yok.”

Bir ‘ortaya çıkan kalite’

Jordan Singer, Silikon Vadisi mobil ödeme şirketi Square’de ürün tasarımcısıdır. Şirketin akıllı telefon uygulamalarını tasarlamaya, bir uygulamanın görünümünü ve hissini tanımlayan grafikleri, menüleri, düğmeleri ve diğer widget’ları oluşturmaya yardımcı olur. GPT-3’ü duyduğunda, bu otomatik sistemin işini yapıp yapamayacağını merak etti.

Sisteme bir akıllı telefon uygulamasının basit bir tanımını ve uygulamayı oluşturmak için gereken bilgisayar kodunu verdi. Açıklama sade İngilizceydi. Kod, Bay Singer gibi profesyoneller tarafından kullanılan özel bir tasarım aracı olan Figma’nın içinde oluşturuldu.

Bunu birkaç kez daha yaptı ve sistemi eşleşen Figma koduyla birlikte birkaç İngilizce tanım daha besledi. Ve işi bittiğinde, GPT-3 böyle bir kodu kendi başına yazabilirdi.

Bir kullanıcının Instagram’da yaptığı gibi fotoğraf göndermek ve görüntülemek için basit bir uygulama tanımladıysa, sistem onu ​​oluşturmak için gereken kodu oluşturdu. Bu kod bazen hatalıydı. Ama tipik olarak, Bay Singer sadece bir veya iki ince ayar yaparsa, istediği gibi çalıştı. “Kesinlikle mükemmel değil,” dedi. “Ama çok, çok yakın.”

Bu davranış tamamen yeniydi ve GPT-3 tasarımcılarını bile şaşırttı. GPT-3’ü bilgisayar kodu üretmek için yapmamışlardı, tıpkı Bay Kaufman gibi yazmak, tweet’ler oluşturmak veya dilleri tercüme etmek için yapmadıkları gibi. Onu sadece bir şey yapmak için inşa etmişlerdi: bir sonraki kelimeyi bir kelime dizisinde tahmin et.

GPT-3, yapay zeka araştırmacılarının sinir ağı dediği, beyindeki nöronlar ağı üzerinde gevşek bir şekilde modellenen matematiksel bir sistemdir. Bu, Facebook’ta paylaştığınız fotoğraflardaki yüzleri tanımlayan ve iPhone’unuza havladığınız komutları tanıyan teknolojinin aynısıdır.

Bir sinir ağı, bu tür becerileri, büyük miktarlardaki dijital verideki kalıpları saptayarak öğrenir. Örneğin binlerce kedi fotoğrafını analiz ederek bir kediyi tanımayı öğrenebilir.

Yaklaşık üç yıl önce, Google’daki araştırmacılar ve OpenAI gibi üst düzey laboratuvarlar, yayınlanmamış kitaplar ve binlerce Wikipedia makalesi de dahil olmak üzere muazzam miktarda düzyazıdan öğrenilen sinir ağları tasarlamaya başladı. Bu evrensel dil modelleri, çeviri gibi yalnızca bir göreve değil, birçok göreve uygulanabilir.

GPT-3, dijital düzyazıyı benzeri görülmemiş bir ölçekte analiz etti ve internete gönderilen çok miktarda metinde kalıplar aramak için aylar harcadı. Bu şekilde sıradaki bir sonraki kelimeyi tahmin etmeyi öğrendi. GPT-3’e birkaç kelime yazarsanız, devam eder ve düşüncenizi tüm metin paragraflarıyla tamamlar.

Ancak bu özel beceriyi edinirken çok daha fazlasını öğrendi. GPT-3, aylarca süren eğitimi boyunca, o kitap denizinde, Wikipedia makalelerinde ve diğer çevrimiçi metinlerde 175 milyardan fazla parametre (kalıpların matematiksel temsilleri) tanımladı. Bu kalıplar, insan dilinin bir haritası anlamına gelir: ister blog yazarken, isterse yazılım programları kodlarken, karakterleri bir araya getirme şeklimizin matematiksel bir açıklaması. Bu haritayı kullanarak GPT-3, yapmak için inşa edilmediği her türlü görevi yerine getirebilir.

GPT-3’ten yeni metin oluşturmasını istemeden önce, sistemi belirli görevler için hazırlayarak eğitimi sırasında öğrenmiş olabileceği belirli kalıplara odaklanabilirsiniz. Akıllı telefon uygulamalarının açıklamalarını ve eşleşen Figma kodunu besleyebilirsiniz. Ya da ona insan diyaloğu tonlarcası gösterebilirsiniz. Ardından, yazmaya başladığınızda, diziyi daha spesifik bir şekilde tamamlayacaktır. Örneğin diyalog ile hazırlarsanız sizinle sohbet etmeye başlayacaktır.

OpenAI’de araştırmadan sorumlu başkan yardımcısı Dario Amodei, “Bu yeni ortaya çıkan kaliteye sahip” dedi. “Verdiğiniz kalıbı tanıma ve hikayeyi tamamlama yeteneği var, başka bir örnek verin.”

Önceki dil modelleri benzer şekilde çalışıyordu. Ancak GPT-3, kendi bilgisayar kodunu yazmak gibi önceki modellerin yapamadığı şeyleri yapabilir. Ve belki daha da önemlisi, öncekilerin gerektirdiği binlerce örnek ve birkaç saatlik ek eğitimin aksine, onu yalnızca birkaç örnek kullanarak belirli görevler için hazırlayabilirsiniz. Araştırmacılar buna “birkaç adımlı öğrenme” diyorlar ve GPT-3’ün güçlü bir fenomen olabilecek şeyin ilk gerçek örneği olduğuna inanıyorlar.

OpenAI’nin baş bilim adamı ve son on yılda yapay zeka teknolojilerinin yükselişinde önemli bir figür olan Ilya Sutskever, “Kimsenin mümkün olduğunu düşünmediği bir yetenek sergiliyor” dedi. “Herhangi bir meslekten olmayan kişi bu modeli alabilir ve bu örnekleri yaklaşık beş dakika içinde sağlayabilir ve bundan faydalı davranışlar elde edebilir.”

Bu hem bir nimet hem de bir lanettir.

Çalışmak için güvensiz mi?

OpenAI, internet üzerinden GPT-3’e erişim satarak onu yaygın olarak kullanılan bir ticari ürüne dönüştürmeyi planlıyor ve bu yıl sistemi web tarayıcıları aracılığıyla sınırlı sayıda beta test kullanıcısının kullanımına açtı. Kısa bir süre sonra, Facebook AI laboratuvarını yöneten Jerome Pesenti, GPT-3’ü “güvensiz” olarak nitelendirdi ve sistemin kadınları, Siyahi insanları, Yahudileri ve Holokost’u tartışması istendiğinde ürettiği cinsiyetçi, ırkçı ve diğer toksik dile işaret etti.

GPT-3 gibi sistemlerde sorun endemiktir. Gündelik dil, özellikle internette, doğası gereği önyargılı ve genellikle nefret dolu. GPT-3 böyle bir dilden öğrendiği için, o da önyargı ve nefret gösterebilir. Ve ateizmi “havalı” ve “doğru” sözcükleri ile ilişkilendiren ve İslam’ı “terörizm” ile eşleştiren internet metinlerinden öğrendiği için GPT-3 de aynı şeyi yapıyor.

OpenAI’nin GPT-3’ü yalnızca az sayıda test cihazıyla paylaşmış olmasının bir nedeni bu olabilir. Laboratuar, zehirli bir dilin gelebileceği konusunda uyaran filtreler üretti, ancak bunlar yalnızca kimsenin nasıl çözüleceğini tam olarak bilmediği bir problemin üzerine yerleştirilmiş yara bantlarıdır.

Yapay zeka sistemlerinde istenmeyen önyargıları araştıran Stanford araştırmacısı Allison Koenecke, “GPT-3’ü yalnızca herkese açık olarak yayınlamakla doğru olanı yapıyorlar” dedi. “Hala çok şey havada.”

Bu davranışın kontrol altında kalmasını sağlamak için sorumluluk, nihayetinde OpenAI’de, dedi, Arthur’un başkan yardımcısı olan ve işletmelere yardımcı olan bir şirket olan Liz O’Sullivan. yapay zeka teknolojilerinin davranışını yönetmek. Mevcut haliyle, OpenAI’nin “modeli tüketiciye yönelik uygulamalarda kullanmak isteyebilecek herkese yasal ve itibar riskini aktardığını” söyledi.

Diğer uzmanlar, bu dil modellerinin internette yanlış bilgilerin yayılmasına yardımcı olabileceğinden ve 2016 cumhurbaşkanlığı seçimlerini etkilemeye yardımcı olabilecek çevrimiçi kampanyaları artırabileceğinden endişe ediyor. GPT-3, okuduklarımızın gerçek mi yoksa sahte mi olduğundan daha da az emin olduğumuz bir geleceğe işaret ediyor. Bu, tweet’ler, çevrimiçi konuşmalar, hatta uzun biçimli düzyazılar için geçerlidir.

Temmuz ayının sonunda, Berkeley’deki California Üniversitesi’nden bir öğrenci olan Liam Porr, GPT-3 ile birkaç blog yazısı oluşturdu ve bunları 26.000 kişi tarafından okunduğu internette yayınladı. Altmış izleyici bloga abone olmak için ilham aldı ve yalnızca birkaçı gönderilerin bir makine tarafından yazıldığından şüphelendi.

Onlar mutlaka saf insanlar değildi. Yaptığınız her şey hakkında çok fazla düşünmekten kaçınırsanız üretkenliğinizi artırabileceğinizi savunan blog gönderilerinden biri, deneyimli Silikon Vadisi programcılarının, mühendislerinin ve girişimcilerin haberleri değerlendirdiği Hacker News sitesinde lider panosunun zirvesine yükseldi. makaleler ve diğer çevrimiçi içerik. (“Bir şeyi halletmek için belki daha az düşünmemiz gerekiyor” diye başlıyor yazı. “Mantığa aykırı görünüyor, ancak bazen düşüncelerimizin yaratıcı sürecin önüne geçebileceğine inanıyorum.”)

Ancak GPT-3’ü içeren çoğu deneyde olduğu gibi, Bay Porr’unki de göründüğü kadar güçlü değil.

Kimsenin fark etmediği kusurlar

1960’ların ortalarında, Massachusetts Teknoloji Enstitüsü’nde araştırmacı olan Joseph Weizenbaum, ELIZA adını verdiği otomatik bir psikoterapist inşa etti. 2020’deki bakış açımızdan değerlendirildiğinde, bu sohbet robotu son derece basitti.

GPT-3’ün aksine, ELIZA düzyazıdan öğrenmedi. Tasarımcısı tarafından tanımlanan birkaç temel kurala göre işledi. Ona ne söylersen söyle hemen hemen tekrarladı, sadece soru şeklinde. Ancak Dr. Weizenbaum’u şaşırtan bir şekilde, birçok insan bota insanmış gibi davrandı, sorunlarını çekinmeden boşalttı ve yanıtlarda rahatladı.

Köpekler ve diğer hayvanlar çok küçük miktarlarda bile insan benzeri davranışlar sergilediklerinde, onların gerçekte olduklarından daha çok bize benzediklerini varsayma eğilimindeyiz. Aynı şey makineler için de geçerli, diyor Pittsburgh Üniversitesi’nde hem hayvanlarda hem de makinelerde bilişsel becerileri araştıran profesör Colin Allen. “İnsanlar, emildiklerini bilseler bile,” dedi.

Bu, GPT-3’te olanların bir parçasıdır. İkna edici tweet’ler, blog gönderileri ve bilgisayar kodu üretebildiğinden, insanlığı bu dijital sisteme okuyoruz ve sınırlarına daha az dikkat ediyoruz.

Pratikte, sistem başarılı olduğu kadar sıklıkta başarısız olur. Yazdığı bilgisayar kodunun insan programcılardan bazı ince ayarlar gerektirdiğini gözden kaçırıyoruz – burada bir satır kaldırıldı veya buraya eklendi. Birkaç konuşmadan sonra, birkaç saniye önce ne dediğini “hatırlayamayınca” konuşma yeteneğinin bozulduğunu fark etmiyoruz. Sistemin Bay Porr için ikna edici bir blog yazısı oluşturmasına rağmen, başlığı, fotoğrafı ve ilk birkaç cümleyi sağladığını ve daha az inandırıcı olan bazı cümleleri kaldırdığını tam olarak bilmiyoruz.

Bay Porr, GPT-3’ün kısa vadede dezenformasyona karşı savaş için çok büyük bir tehdit olduğuna inanmıyor, çünkü hala insanlardan çok fazla yardım gerektiriyor. Bunun gibi bir araç, ancak tamamen kendi başına çok büyük miktarlarda inandırıcı dezenformasyon üretebilirse gerçekten tehlikeli hale gelir ve bugün bir kiralık el ekibinin görece kolaylıkla yapabileceğini aşar.

Benzer şekilde, uygulama tasarımcıları Square’den Bay Singer’a GPT-3’ün kariyerleri için bir tehdit olup olmadığını sorduğunda, GPT-3’ün öyle olmadığını garanti ediyor – en azından henüz değil. Bunu işlerini kolaylaştırmanın bir yolu olarak görüyor. “Yolun yüzde 70’ini alabiliyorsa, denklemden çıkarılmış çok fazla sıkıcı iş var” dedi.

Bilmediğimiz şey, bu teknolojinin önümüzdeki aylarda ve yıllarda ne kadar gelişmeye devam edeceği.

Daha akıllı, daha hızlı, daha da pahalı

OpenAI’deki araştırmacılar internette yayınlanan bir trilyondan fazla kelime üzerinde GPT-3’ü eğitirken, benzer bir sistemi eğiterek ikinci bir deney yaptılar. on binlerce dijital fotoğrafta. Bu sistem, tüm bu fotoğrafları analiz edebilir ve GPT-3’ün paragraflar oluşturduğuna çok benzer şekilde görüntüler oluşturmayı öğrenebilir. Bir kedi fotoğrafının yarısı verildiğinde, kedinin geri kalanını oluşturabilir.

Bazı araştırmacılara göre deney, böyle bir sistemin nihayetinde, insanların yaptığı gibi dil, görüntü, ses gibi birçok boyuttaki görevleri yerine getirebileceğini gösteriyor. Yalnızca dil konusunda eğitilse bile, sistemin bilgisayar programlama, satranç oynama veya gitar sekmeleri oluşturma gibi diğer alanlara zaten ulaşabileceğini söylüyorlar.

Ancak bu teknolojiyi geliştirmeye devam etmek önemsiz olmaktan uzaktır. Tüm bu internet verilerinin işlenmesi, aylarca çalışan özel bir süper bilgisayar gerektirir ve bu son derece pahalı bir girişimdir. OpenAI’nin CEO’su Sam Altman, böyle bir projenin milyonlarca dolara ulaşıp ulaşmadığı sorulduğunda, maliyetlerin aslında “daha yüksek” olduğunu ve on milyonlarca dolara ulaştığını söyledi.

OpenAI’nin araştırmadan sorumlu başkan yardımcısı Bay Amodei, daha fazla veriyi analiz etmek için daha fazla işlem gücü kullanarak tekniği geliştirmek için hala yer olduğunu söyledi. Ancak yaklaşımın “meyve suyunun” bitmeye yakın olabileceğini de söyledi.

En azından GPT-3, yapay zeka araştırmacıları ve girişimcilerinden oluşan bir dünya için yeni bir araçtır, her türlü yeni teknoloji ve yeni ürün oluşturmanın bir yoludur. Bilgisayar programcısı Bay Wrigley, yakın zamanda, GPT-3 kullanarak bilim adamı Douglas Hofstadter’dan girişim kapitalisti Peter Thiel’e kadar herkesin kılığına girebilecek bir tür otomatik öğretmen oluşturmayı amaçlayan LearnFromAnyone adlı bir şirket kurmak için günlük işinden ayrıldı. Diğerleri, bilgisayar programcıları için otomatik olarak kod oluşturmayı ve pazarlama uzmanları için otomatik olarak promosyon e-postaları ve tweetler yazmayı amaçlayan şirketler kuruyor.

Ancak bu hizmetlerin nihayetinde ne kadar etkili olacağı belirsizdir. GPT-3, zamanın yalnızca yarısında doğru metni oluşturuyorsa, profesyonelleri tatmin edebilir mi? Ve bu tekniğin, gerçekten akıllı sistemler bir yana, gerçekten konuşma yapan makinelere giden bir yol olup olmadığı belirsizdir. Bay Amodei, insan beynini taklit edebilecek makinelere giden uzun yolda ek ilerlemenin tamamen yeni fikirler gerektireceğini söyledi.

“Bir tür kimya reaksiyonu gibi” dedi. “Bu tek bileşene sahibiz. Ancak diğer malzemeler de gereklidir.”

[Facebook’taki Science Times sayfasını beğenin.| Science Times bültenine kaydolun.]

linklerim1
Please follow and like us:
Etiketler

İlgili Makaleler

Bir yanıt yazın

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir