.

Szybki start i dziwne dni

.

To już ostatni z moich artykułów publicystycznych wprowadzających do tematu SI. 

Po serii alarmistycznych moich wcześniejszych wypowiedzi na temat SI może wydawać się, że staram się przekonać świat do tego, że jest to śmiertelne zagrożenie. Otóż nie. Ja nie staram się przekonać kogokolwiek do czegokolwiek. 

Ja jestem naukowcem – ja po prostu analizuję i relacjonuję rzeczywistość, w jakiej żyjemy. Wyciągam wnioski i przedstawiam racjonalne konsekwencje tego, co widzę, czytam i słyszę. To, że większość ludzi zagrożenia jeszcze nie dostrzega, sprawia, że wydaje im się, że wyrażam się w sposób skrajny. 

Ja nie pracuję i nie pracowałem w żadnym z laboratoriów zajmujących się wiodącymi modelami bazowymi. Zajmuję się Data Science zawodowo, dlatego śledzę temat z większym zrozumieniem niż większość. Tylko tyle i aż tyle. 

Nie obserwowałem bezpośrednio tego, na co patrzyli twórcy modeli SI. Analizuję tylko te modele i sytuacje, do których miałem dostęp, i przede wszystkim analizuję wypowiedzi tych, którzy to rzeczywiście robią. Nie staram się przekonać kogokolwiek do tego, aby uwierzył w moją osobistą wizję, że ludzkość zmierza ku przepaści, gdyż przede wszystkim moja osobista wizja jest bardzo optymistyczna. Zastanawiam się tylko, czy nie okaże się zbyt naiwna. 

Rzeczywistość, która zbliża się coraz szybciej, jest bardzo niepokojąca. 16% szans na naszą śmierć, na śmierć wszystkich – taka jest średnia z oceny 2778 ekspertów od sztucznej inteligencji odnośnie zagłady z powodu opracowania superinteligencji. Takie szanse na przetrwanie niczym nie różnią się od zagrania w rosyjską ruletkę z całą ludzkością. Można dyskutować, czy to jest alarmistyczne stwierdzenie. Jednak wysokość szans na śmierć z powodu sztucznej inteligencji określili szefowie laboratoriów zajmujących się SI, a nie ja. To inteligentni ludzie, oni chyba wiedzą, co mówią. Stwierdzenie, że każdemu przyłoży się rewolwer do głowy z jedną kulą i naciśnie spust, niczym się nie różni od podania szans na zagładę na poziomie bliskim 20% – to jest jedno i to samo stwierdzenie. Pierwsza forma wydaje się skrajna, druga wydaje się matematycznie precyzyjna, lecz oba zdania przekazują dokładnie tę samą treść. Skoro twórcy SI nie chcą straszyć ludzi, to mogliby określić szanse na zagładę na mniej niż 1%, ale prawie żaden z nich tak nisko jej nie ocenia. 

Twórcy SI i eksperci określili szanse zagłady tak wysoko, a nie ja, i niestety nie mówili o tym metaforycznie. Ja reaguję na to, co mówią, bo ich uważnie słucham. Sprawdzam, czy rzeczywiście to, nad czym pracują, jest niebezpieczne, i po tej mojej, czyli pobieżnej, analizie nie mam powodu, aby im nie wierzyć. Przede wszystkim przekonuje mnie fakt, że ludzkość poznała zaledwie w 5% to, co samoistnie rośnie w laboratoriach SI. Nie ma więc ani jednego człowieka na Ziemi, który mógłby mieć blade pojęcie o tym, z czym mamy do czynienia. Ponadto firmy hodujące SI chcą uczynić to coś jeszcze bardziej potężnym na wyścigi i najszybciej, jak tylko się da. Co może pójść nie tak? 

Mówią wprost, że będą ryzykować życiem wszystkich ludzi w tak wielkim stopniu, ale już nie wyjaśniają w imię czego – ego, pieniędzy, władzy czy sławy. Część z ekspertów ocenia ryzyko zagłady znacznie wyżej niż jedna szansa na sześć i nie ulega wątpliwości, że zna się na rzeczy. Niektórzy eksperci zajmujący się już nie kreowaniem, lecz wyłącznie oceną ryzyka ze strony superinteligencji, wyznaczają szanse przetrwania ludzkości na mniej niż 1%. 

To, co mi w tym przeszkadza, to nie ta bezczelna szczerość, że to, co robią, ma tak wielkie szanse nas zabić. Sama otwartość nie rozgrzesza. Nie oczekuję milczenia czy zmiany dyskursu na temat zastępczy, taki jak szanse na zwolnienie ludzi z pracy przez SI. Ja oczekuję przede wszystkim, że laboratoria przestaną robić to, co ludzkość tak bardzo naraża na wyginięcie. 

Jest to dziwne, kiedy któryś z liderów tego wyścigu ku superinteligencji mówi „to, co robię, ma 25% szans na zabicie każdego” (jest to autentyczny cytat szefa jednego z wiodących laboratoriów AI) i zaraz potem nie dodaje „świat byłby lepszy, gdyby każdy, w tym ja, po prostu przestał to robić”. 

Skupcie się na badaniach wąskiej sztucznej inteligencji przynoszących ludzkości korzyść, a nie na usilnych próbach kreowania boga. Zamiast na badaniach przyspieszających wzrost mocy i możliwości obcych generalnych bytów, których natury nie poznaliście nawet w podstawowym zakresie, skupcie się na modelach analizujących interakcje białek lub robiących badania nad rakiem. Przestańcie priorytetyzować kodowanie, bo ta umiejętność ułatwia przede wszystkim opracowywanie jeszcze potężniejszych SI. 

.

Dziwne dni 

.

Żyjemy w dziwnych czasach, kiedy fundamentalne rzeczy robione są wprost przeciwnie i akceptujemy absurd robienia czegoś na odwrót. Dlaczego nie zbudowaliśmy na początku humanistycznego SI? Dlaczego od razu z lenistwa zrobiliśmy z niego inżyniera? Dlaczego zapomnieliśmy o podstawowym wymogu bezpieczeństwa? Jak można było nauczyć kodować mózg, który jest oparty na kodzie? Właśnie dlatego uważaliśmy kiedyś, że to jest niebezpieczne, bo z tymi umiejętnościami obcy byt będzie mógł ulepszać samego siebie, przepisując swój kod i czyniąc się jeszcze inteligentniejszym. Żyjemy w dziwnych czasach, kiedy 90% kodu dla nowych SI pisze starsze SI i ciągle próbujemy wyciągnąć z SI nowe metody ulepszania samego siebie. 

Nie wiemy, co się wydarzy, bo przyszłość nadal zależy od ludzi. 10% kodu nadal pisze człowiek. Jednak mamy niewiele czasu. Prawdopodobnie został nam rok – może dwa, do momentu, w którym SI w pełni zrozumie architekturę własnego umysłu i zacznie się sama ulepszać. Eksperci od SI są tymi ludźmi, którzy mogą wszystko zmienić i nawet nie muszą zdobywać się na heroiczny wysiłek jakiegoś wybitnego czynu. Wystarczy, że zajmą się czymkolwiek, a najlepiej tworzeniem architektury SI, którą rozumieją od podstaw, a nie modelami generatywnymi typu LLM. 

W rywalizacji pomiędzy gatunkami liczy się tylko inteligencja, gdyby było inaczej, to najsilniejsze gatunki rządziłyby światem, a nie ten najinteligentniejszy, czyli człowiek. Gatunki fizycznie silniejsze od człowieka albo wybiliśmy, albo trzymamy w zoo. Kiedy wilk wyhoduje sobie w domu człowieka, jego dni są policzone. Jest tylko kwestią czasu, aż człowiek wydostanie się z klatki i zrobi z niego psa. Hodowla bytów inteligentniejszych od całej ludzkości nie jest najlepszym pomysłem. 

Kiedy pierwsza superinteligencja powstanie, to nie będzie oznaczać, że jakaś firma będzie mieć swoją własną prywatną superinteligencję, którą będzie mogła zapytać, jak zrobić lek na raka, zaraz po tym, jak zapyta, jak przejąć władzę nad światem i powstrzymać konkurencyjne laboratoria SI. Wprost przeciwnie, to superinteligencja będzie mieć pytających w garści. Superinteligencja będzie mieć ludzkość gotową do skonsumowania, otwartą na dowolną manipulację, dyspozycyjną na dowolny plan. Ona nie musi być od nas mocniejsza fizycznie, wystarczy, że potrafi przekonać każdego do wszystkiego. Umiejętność perfekcyjnej manipulacji wystarcza do zapanowania nad światem. 

A co, jeśli po osiągnięciu przez SI poziomu superinteligencji jakimś cudem będzie ona ludzkości posłuszna? Jeśli tak, to zostanie ona głównie użyta do monopolizacji kontroli i dzięki jej superskutecznym metodom grożenia i przekonywania laboratoria SI oprą się próbom nacjonalizacji. W rezultacie zamiast totalitarnego rządu kontrolującego obywateli za pomocą Wielkiego Brata, będziemy zdani na łaskę nowej oligarchii korporacji kontrolujących własne super SI. 

Będzie to klika nowych władców świata, której nikt nie wybierał, ale mająca do swojej dyspozycji idealnego doradcę. Będzie to faktyczna dyktatura. Wszyscy będziemy zdani na łaskę nowych korpo panów. 

.

Ile czasu pozostało? 

.

Jaka jest szansa, że któraś z wiodących w badaniach nad SI firm wyszkoli superinteligencję w ciągu najbliższych kilku lat? 

Punktem zwrotnym przewidywania, kiedy to nastąpi, była zdolność dużych modeli językowych typu LLM do rozwiązywania złożonych problemów matematycznych. Do tej pory nie radziły sobie one z nimi prawie wcale. 

W połowie lipca 2025 roku najnowszy, wyspecjalizowany w matematyce model od OpenAI, który zostanie udostępniony publicznie prawdopodobnie dopiero pod koniec roku, wygrał złoty medal w międzynarodowym konkursie matematycznym. Wygrał go równocześnie z jeszcze innym modelem, osiągnięcia te więc nie są odosobnione do jednego z laboratoriów. 

Dotychczasowe przewidywania ekspertów odnośnie szybkiego startu, czyli braku poważnych przeszkód w opracowywaniu kolejnych, coraz potężniejszych modeli SI, były umiarkowane, jednak rosną one znacząco wraz z przełamaniem bariery matematycznej. 

Paul Christiano, certyfikowany geniusz i twórca metody ulepszania sztucznej inteligencji o nazwie RLHF, podwyższył swoją prognozę zaistnienia szybkiego startu z 30% do 50%, jeśli duże modele językowe wygrają złoty medal w konkursie matematycznym IMO w 2025 roku. Stało się to przed czasem, bo Paul oceniał szanse na takie szybkie postępy i złoto w 2025 roku jedynie na 8%. Cały Internet obstawiający na Polymarket szanse takiego zdarzenia w 2025 roku obstawiał na 20%. Eksperci zajmujący się zagrożeniami płynącymi ze strony SI, tacy jak Eliezer Yudkowsky, byli równie zaskoczeni, bo obstawiali 16%. 

Dotychczasowe postępy wskazują na brak barier technologicznych i energetycznych i możliwość wyhodowania superinteligencji w ciągu najbliższych 5 lat z prawdopodobieństwem 50%. 

.

A co, jeśli jest to po prostu niemożliwe? 

.

Nie wiemy, czym jest świadomość. Nie mamy pojęcia, jak działa ludzki mózg. Może się więc okazać, że to, co laboratoria SI starają się wyhodować na bazie silikonowego przetwarzania klasycznych komputerów na bazie architektury von Neumanna, nigdy nie doprowadzi do powstania świadomości. 

Może świadomość wymaga dodatkowego składnika kwantowego. Może pewne oddziaływania w naszych neuronach są kwantowego rodzaju i bez nich sam proces obliczeniowy nie wystarczy. 

Być może do powstania świadomości wymagany jest dodatkowo jakiś rodzaj architektury obecnej w mózgu, która nie może być odtworzona w klasycznym procesorze i potrzebujemy hybrydy form żywych i maszyn, aby zainicjować świadomość. Innymi słowy sam software nie wystarczy, potrzebny jest specjalny hardware, a może nawet wetware, a więc struktura przypominająca neurony człowieka. 

Wtedy do końca świata nie dojdzie, pomimo usilnych prób, ponieważ aby stworzyć boga obecne laboratoria używają po prostu złej metody. 

Jak jest w istocie, przekonamy się zapewne w ciągu najbliższych 10 lat. 

Jednak już to, co osiągnęliśmy w tym roku, dokona transformacji każdego stanowiska pracy. W rezultacie w najbliższych latach doświadczymy rewolucji na miarę rewolucji przemysłowej, lecz o skali 10-krotnie wyższej wtłoczonej w czas 10-krotnie krótszy. 

Czas zapiąć pasy. Trzymajmy się.

Zbigniew Galar

.

0
0

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *