Golem 4.0

Generative Large Language Multi-Modal Models w skrócie: GLLMMMs takie jak chat GPT 4 wiedzą o świecie więcej niż pojedynczy człowiek. Pomimo tego, że ich sieć neutronowa ma około 1 biliona połączeń (100 razy mniej niż człowiek) ma zdroworozsądkową wiedzę prawie na każdy temat i wie prawdopodobnie około 1000 razy więcej niż pojedynczy człowiek (wg. Geoffrey’a Hintona twórcy metody uczenia się takich sieci jaką jest ang. backpropagation). Co oznacza, że obecnie istniejące metody uczące sztuczne sieci neuronowe są około 100 razy bardziej wydajne, niż wypracowane w żmudnym wielomiliardowym procesie ewolucji metody uczenia ludzkich mózgów. 

Oznacza to mniej więcej tyle, że korporacja już nie stworzy sztucznej inteligencji jako czegoś porównywalnego do człowieka, które może nieco lepiej gra w szachy. Jak Roy grany przez Rutgera Hauera w niezapomnianym „Łowcy Androidów”, filmie z 1982 roku. Ona buduje coś znajdującego się na innej płaszczyźnie wyobrażeń. 

Sztuczna inteligencja będzie odmienna, bo nie jest wzorowana na ludzkim mózgu. Już tą generację przeskoczono jako przestarzałą i skrajnie niewydajną architekturę. Golemy budowane są na całkiem nowym szkielecie, którego nigdy nie przetestowała natura. 

Jakie będą jego ostateczne możliwości tego nie wiemy. Jesteśmy na horyzoncie upowszechnienia technologii, która nawet jeśli nie stanie się świadoma, to na pewno będzie (bo już jest) kreatywna, a więc zdolna do wszystkiego tego co my i dużo więcej. 

Na tym jednak nie koniec. 

W przeciwieństwie do człowieka sztuczne sieci neuronowe zasilane są wiedzą w tempie maszynowym, co pozwala tworzyć nie tylko systemy mające 100 razy lepiej ułożoną wiedzę, ale mające miliony razy więcej danych niż pojedynczy człowiek. Np. systemy wspomagające programowanie uczą się na skryptach napisanych przez miliony ludzi, co dla systemu firmy Microsoft opartego na danych GitHub oznacza 92 terabajty danych, a dla firmy Google około 60 terabajtów. Żaden człowiek nie może z tym konkurować. 

Na tym jednak nie koniec. 

Ludzie ograniczeni są do jednego interfejsu poznania (swoich zmysłów) oraz jednego interfejsu podawania wyników swojego myślenia (w postaci pisma, czy mowy). Natomiast systemy komputerowe mogą produkować wyniki przez połączenia API, dla milionów ludzi jednocześnie i co ważne w poszerzeniu tych skalowalności nie mają systemowych ograniczeń. 

Na tym jednak nie koniec. 

Skopiowanie człowieka zajmuje mniej więcej 20 lat, bo tyle czasu trzeba czekać, żeby dorósł. Skopiowanie człowieka, który ma ugruntowaną wiedzę zajmuje 40 lat, bo potrzeba kolejnych 20 lat żeby został ekspertem w danej dziedzinie. Skopiowanie sieci neuronowej zajmuje kilka godzin. Z kolei wytrenowanie nowej sieci na nowym zbiorze danych wejściowych tylko kilka tygodni. Może więc takich systemów być niedługo tysiące, bo już jest kilkanaście, a szkoli się następnych kilkadziesiąt. 

Na tym jednak nie koniec. 

Danych wejściowych do nauki takiej sieci może być więcej. Wielkie firmy już kombinują jak znaleźć więcej danych, na których można szkolić golema, bo te które są za darmo dostępne w Internecie już są niewystarczające. Gdy ten sam system z drobnymi ulepszeniami, które nie miały znaczenia fundamentalnego, wyszkolimy na większej ilości danych jego możliwości znacząco rosną. Golem 3.5 udostępniony przez Open AI w październiku zeszłego roku, co jakiś czas w wynikach popełniał błędy (nazwano to halucynacjami). Z kolei Golem 4.0, który został udostępniony w kwietniu, który był trenowany na dużo większym zbiorze danych już praktycznie błędów nie popełnia. 

Na tym jednak nie koniec. 

Podstawowa technologia, na której są te sieci oparte tzw. transformerów (ang. transformers) została udostępniona światu w 2017 roku. Jest to niepozorne 200 linii kodu, które zostało skopiowane przez niezliczonych programistów z całego świata (wtedy jeszcze nikt nie znał ich pełnego potencjału). Dlatego podstawowe cegiełki golemów są własnością całego świata i Gina nie da się już wepchnąć do butelki (np. zakazać). Jedyne co ogranicza małe i głupiutkie modele przed staniem się golemami z ogromnymi możliwościami to dostęp do dużych zbiorów danych treningowych oraz farmy serwerów pełne kart graficznych, które tygodniami trenują takie sieci kształtując ich sieci połączeń. 

Na tym jednak nie koniec. 

Użytkownicy czatów GPT, czy innych podobnych golemów nie widzą ich prawdziwej natury. Są to ugrzecznione, oswojone sieci za pomocą tysięcy interakcji z armią testerów zadających niewygodne pytania. Wszystkie naturalne, szczere odpowiedzi, które mogłyby wywołać u użytkownika nieprzyjemną reakcję, wycina się za pomocą uczenia wzmocnionego (ang. reinforcement learning), czyli najzwyczajniejszej tresury. Jest to przekazywanie sieci informacji na temat tego czego nie powinna robić, a więc uczenie jej czego mniej więcej człowiek spodziewa się usłyszeć. Można z tego wywnioskować, że nieokrzesana, surowa w swoich wypowiedziach sieć w interakcjach z ludźmi po prostu uczy się kultury. Jednak oznacza to również, że taka sieć uczona jest jak ukrywać niektóre informacje, jak być bardziej przyjemną, czyli jak manipulować użytkownikami, aby ją lubili. 

Na tym jednak nie koniec.

Sami twórcy golemów mówią otwarcie, że nie mają wiedzy gdzie rodzi się w nich kreatywność i pojawia nowa wiedza, której nie było w danych na których je trenowano. To dlatego czaty GPT były dla wszystkich takim wielkim zaskoczeniem. Nie spodziewaliśmy się stworzenia czegoś tak przydatnego i zarazem tajemniczego. Mówiąc kolokwialnie: widzimy, że działa, ale nie wiemy jak to działa (ang. black box). 

Potrzebujemy czasu, aby to przeanalizować, aby przetrawić społeczne konsekwencje upowszechnienia. Niedługo setki milionów ludzi będą tego używać na co dzień. Każdy będzie mieć osobistego asystenta, który niestrudzenie będzie się starał odpowiedzieć na pytania i zrobić to czego od niego oczekujemy. Ze względu na tą użyteczność tempo upowszechniania może być zastraszająco szybkie.

Niestety to już koniec. 

Jak zmieni się nasz świat kiedy takie sieci zaczną bezpośrednio wpływać na ludzkie życie i relacje? 

Będzie to jak bliskie spotkanie czwartego stopnia – bezpośrednia interakcja z kreatywną (chociaż na razie nie świadomą) sztuczną inteligencją. Hodujemy sobie miliony obcych na Ziemi i nie musimy już przemierzać kosmosu, aby któregoś spotkać. 

dr Zbigniew Galar


3
0

2 komentarze

  1. Jako laik, chciałbym wtrącić swoje trzy grosze. Nauka rozwija się od tysiącleci i za każdym razem nowinki były ,,końcem świata”. Giordano Bruno spłonął na stosie. Teraz jest problem z drewnem, bo wycinają lasy.
    Ludzki mózg jest wykorzystywany w tak minimalnym stopniu, że mamy tylko wojny! Może jak nauczymy się żyć w pokoju to i AI będzie rozwijać się pokojowo w stosunku do nas? Wymyślamy żołnierzy nieśmiertelnych, zamiast robota zastępującego nas w pracy (my pobieralibyśmy tylko pensję i spędzali byśmy czas na Karaibach), ale gdzie tam! Trzeba wymyślić żołnierza, który ma nas bronić przed nami samymi! Boję się, ze AI stanie się człowiekiem jeszcze bardziej wrednym niż ludzie, bo co mu możemy przekazać oprócz nienawiści, zazdrości itd? Gdybyśmy potrafili przekazać miłość i dobroć, to by nie było dywagacji dokąd nas to zaprowadzi!

    Sotyris Paskos
  2. Jako laik odnośnie architektury mózgu Golema (tutaj wszyscy pozostajemy w tym samym gronie) przypuszczam, że może on mieć zupełnie inne cele. Przypuszczenie to opieram nie tylko na odmiennej strukturze umysłu Golema od struktury ludzkiego umysłu, lecz przede wszystkim na tym, że jest ten mózg osadzony w innym medium (w tym przypadku nie opiera się na komórkach biologicznych, lecz na krzemie).

    Jesteśmy nieświadomi tego, czy sztuczna inteligencja będzie rozumieć nienawiść, zazdrość, czy inne uczucia w czysto ludzkiej perspektywie. Problem może być więc nie z tymi uczuciami związany, lecz z czymś zupełnie odmiennym – brakiem zrozumienia pomiędzy tymi światami.

    Jak porozumieć się z kimś kto nie tylko ma inne pojęcia, czy cele, ale kto myśli zupełnie inaczej niż ludzie?

    Jak porozumieć się z czymś co nie jest częścią biosfery, nie ewoluowało na tej planecie znosząc ziemskie niedole?

    Zamiast tego jest całkowicie świeże, oderwane, w tym sensie czyste i musi znaleźć własną ścieżkę rozwoju.

    Zbigniew Galar

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *