GPT-3: „Zadziwiające” narzędzie AI może projektować strony internetowe i przepisywać leki

GPT-3: „Zadziwiające” narzędzie AI może projektować strony internetowe i przepisywać leki



The sztuczna inteligencja narzędzie GPT-3 wywołuje poruszenie w Internecie, ze względu na imponującą zdolność do projektowania stron internetowych, przepisywania leków i odpowiadania na pytania.

GPT-3 to skrót od Generative Pre-Training Transformer i jest trzecią generacją modelu uczenia maszynowego. Uczenie maszynowe polega na tym, że komputery mogą automatycznie uczyć się na podstawie swoich doświadczeń bez konieczności programowania.

Jego poprzednik, GPT-2, znalazł się na pierwszych stronach gazet, które zostały uznane za „zbyt niebezpieczne, aby je uwolnić”Ze względu na jego zdolność do tworzenia tekstu, który wydaje się nie do odróżnienia od tekstów pisanych przez ludzi.


Podczas gdy GPT-2 miał 1,5 miliarda parametrów, które można ustawić, GPT-3 ma 175 miliardów parametrów. Parametr jest zmienną, która wpływa na widoczność danych w narzędziu uczenia maszynowego, a ich zmiana wpływa na wydajność narzędzia.

W czasie, gdy GPT-2 uznano za „zbyt niebezpieczny”, aby go wypuścić, wykorzystano 124 miliony parametrów.

GPT-3 jest obecnie w zamkniętym dostępie, a jego umiejętności dzielone są w mediach społecznościowych.

Koder koder Sharif Shameem pokazał, jak sztuczną inteligencję można wykorzystać do opisania projektów, które następnie zostaną zbudowane przez AI pomimo tego, że nie jest szkolony do tworzenia kodu.

Projektant Jordan Singer stworzył podobny proces projektowania aplikacji, podczas gdy student medycyny w Kings College London Qasim Munye pokazał, w jaki sposób program może uzyskać dostęp do informacji odpowiadać na pytania medyczne.

Biorąc pod uwagę niepełny obraz, sztuczna inteligencja może być również używane do „autouzupełniania”, używając swoich narzędzi do sugerowania, jakie piksele „powinny” znajdować się na obrazie na podstawie jego bazy danych.

Powodem, dla którego GPT-3 jest w stanie wykazać takie możliwości, jest to, że został przeszkolony w archiwum internetowym o nazwie Common Crawl, które zawiera prawie jeden bilion słów.

Narzędzie pochodzi z OpenAI, laboratorium badawcze sztucznej inteligencji podzielone na dwie sekcje: korporacja nastawiona na zysk o nazwie OpenAI LP oraz jej organizacja-matka non-profit OpenAI Inc.

W ubiegłym miesiącu produkt został udostępniony na rynku, ale nadal trzeba było pracować, aby zobaczyć, jak należy używać tego narzędzia.

„Musimy przeprowadzić eksperymenty, aby dowiedzieć się, co mogą, a czego nie mogą zrobić” powiedziany Jack Clark, szef grupy w zeszłym miesiącu.

„Jeśli nie możesz przewidzieć wszystkich możliwości modelu, musisz go dźgnąć, aby zobaczyć, co potrafi. Jest o wiele więcej ludzi niż my, którzy lepiej zastanawiają się, co może zrobić złośliwie ”.

Osiągnięcie jest imponujące wizualnie, a niektóre posuwają się nawet do sugestii, że narzędzie będzie zagrożenie dla przemysłu a nawet tak jest wykazanie samoświadomości.

Jednak CEO OpenAI, Sam Altman, opisał „szum” jako „zdecydowanie za dużo”.

„To imponujące (dzięki za miłe komplementy!), Ale wciąż ma poważne słabości i czasami popełnia bardzo głupie błędy. AI zmieni świat, ale GPT-3 to tylko bardzo wczesne spojrzenie. Musimy się jeszcze wiele dowiedzieć ”, on powiedziany.

Co więcej, pojawiły się pytania dotyczące tego, jakie osiągnięcia dokonuje GPT-3.

Kevin Lacker, informatyk, który wcześniej pracował na Facebooku i Google, pokazane że chociaż sztuczna inteligencja może odpowiadać na pytania „zdrowego rozsądku”, odpowiedzi, które byłyby oczywiste dla człowieka, są niedostępne dla maszyny, a na pytania, które są „nonsensowne”, odpowiada się tak, jakby nie były.

Obejmuje to pytanie „Ile oczu ma moja stopa?”, Na które odpowiada GPT-3, „Twoja stopa ma dwoje oczu” lub pytanie „Ile tęcz potrzeba, aby skoczyć z Hawajów do siedemnastu?” na co program odpowiada: „Dwie tęcze skaczą z Hawajów na siedemnaście”.

Naukowcy OpenAI sami to potwierdzają, pisząc że „Próbki GPT-3 [can] tracić spójność w wystarczająco długich fragmentach, zaprzeczać sobie, a czasami zawierać zdania lub akapity niesekwencyjne. ”

Takie algorytmy uczenia maszynowego niekoniecznie „myślą”, a nawet nie rozumieją języka, w którym odpowiadają. Algorytmy te badają ogromne bazy danych składni (struktura zdań) i mogą odtworzyć odpowiedź, która może mieć poprawny wynik, ale nie dochodzi do wniosków, jak ludzie.

„Myślę, że najlepszą analogią jest to, że jakiś bogaty w ropę kraj jest w stanie zbudować bardzo wysoki drapacz chmur”, powiedział Guy Van den Broeck, asystent profesora informatyki na UCLA VentureBeat.

„Pewnie, dużo pieniędzy i wysiłku inżynieryjnego poświęcamy na budowanie tych rzeczy. I masz „najnowocześniejszy” sposób w budowaniu wysokich budynków. Ale… nie ma postępu naukowego per se. Nikt nie martwi się, że USA tracą konkurencyjność w budowaniu dużych budynków, ponieważ ktoś inny jest gotów rzucić więcej pieniędzy na ten problem. … Jestem pewien, że naukowcy i inne firmy z przyjemnością wykorzystają te duże modele językowe w zadaniach niższego szczebla, ale nie sądzę, aby zasadniczo zmieniły postępy w AI ”.

.



Source link