
.
AI jest potężniejsza od człowieka
.
Ludzkość rozwija się ewolucyjnie od miliona lat. Jesteśmy bardzo nakierowani na inteligencję. Nasza głowa jest maksymalnie wielka jaka może się jeszcze urodzić. Przekazywanie memów pomiędzy ludźmi pozwoliło na dzielenie się ideami, które umożliwiają koordynację. Koordynacja jest potrzebna to poszerzenia inteligencji poza pojedynczy umysł ludzki. Kiedy jest nas więcej i dobrze współpracujemy większa ilość mózgów tworzy wnioski, do których pojedynczy umysł nigdy by nie doszedł.
Jesteśmy wspomagani przez technologie takie jak język i w szczególności pismo. Potrafimy tworzyć języki formalne i programować, przez co osiągamy wyżyny precyzji przekazu. Opanowaliśmy metodę naukową dla przyrody nieożywionej, która nie wchodzi w świadome interakcje. Tworzymy teorie i równania, które następnie potrafimy wykorzystać, aby lepiej przewidywać otoczenie i budować technologie inżynierskie dające multiplikacje fizycznych możliwości biosfery.
Mamy nawet zręby jeszcze nieopracowanej metody naukowej dla problemów o skalę trudniejszych, bo dotyczących bytów wchodzących w interakcję z analizą, którą na niej przeprowadzamy. Gdzie sam fakt pomiaru sprawia, że system staje się bardziej chaotyczny i nieprzewidywalny. Ekonomia ma pewne przewidywania, choć socjologia nadal błądzi i ciągle stara się wyprodukować jakiekolwiek użyteczne wnioski.
Te sukcesy doprowadziły nas do tej chwili, w której możemy to wszystko zaprzepaścić. Wszystko za sprawą AI.
AI jest alternatywną ścieżką rozwoju umysłu. Udało nam się odkryć, że ewolucja mózgu człowieka w kierunku większej kognitywnej sprawności, nie jest jedyną ścieżką ku światłu.
Duże modele językowe nie myślą w ludzki sposób, one są odmienne. Jednak nadal myślą, przez co stają się użytecznymi niewolnikami dla naszych kognitywnych wyzwań i zadań. W związku z tym, rozwijając AI w obecnym kształcie nie kontynuujemy naszych odwiecznych zmagań w celu poszerzenia naszej inteligencji. Poszerzamy obcą inteligencję, inną jej naturę, coś zewnętrznego wobec możliwości człowieka. Oczywiście ludzie mają wysoką zdolność adaptacji dlatego możemy współpracować nawet z obcą inteligencją, jeśli w obyciu jest ona prawie nieodróżnialna od człowieka, ale zwiększanie jej możliwości, zwiększa jej możliwości, a nie nasze.
AI nas rozleniwia
To implikuje dwa problemy.
Po pierwsze odechciewa nam się zmagać ze złożonością, która nas otacza. Teraz już nie musimy, skoro o rozwiązanie problemu, skoro o odpowiedź na każde pytanie możemy poprosić chataGPT.
Po drugie, gdy nie uzyskujemy rozwiązania problemu to nadal możemy rozkładać ręce. Skoro nawet chat nie wie jak dany problem rozwiązać, a uczył się on na destylacji z całej ludzkiej wiedzy, to tym bardziej nie ma co od nas wymagać odpowiedzi.
Jesteśmy skazani na postępujące lenistwo intelektualne wynikające z upowszechniania się łatwej i taniej ścieżki przerzucania bólu myślenia na bezduszną maszynę. Jesteśmy skazani na przerywanie zmagań z trudnymi problemami i upraszczaniem opisu rzeczywistości, skoro maszyna może za nas rozwiązać dany problem już przy obecnym poziomie złożoności. My już nie musimy wnikać, jak to robi, ważne, że mamy to z głowy.
W obrocie gospodarczym, w firmach nie płaci się ludziom za myślenie, tylko za rozwiązywanie problemów, więc skoro problem znika w przepastnych sieciach neuronowych, to już ludzie nie tylko nie muszą, ale i nie mogą spędzać nad nim czasu. Ich czas musi zostać spożytkowany na rzeczy, których jeszcze nie potrafi zrobić kognitywny niewolnik. Jednak problem nie zostaje złamany, nie uczymy się jego natury wystarczająco dobrze, aby bez wysiłku go rozwiązywać w przyszłości. Po prostu zostawiamy go w spadku dla niewolnika, który nigdy nie narzeka, dlatego może on pozostawać trudny.
Przestajemy uczyć się jak co jest zrobione, ufamy temu, że maszyna umie połączyć wszystkie kropki i dostarczyć produkt. Kiedy nie będzie mogła albo nie będzie chciała tego zrobić, wszystko przestanie działać.
AI jest maszyną predykcyjną, a nie imitacyjną
Ludzie lubią o sobie myśleć, że są częścią korony stworzenia, ponieważ są częścią najbardziej rozwiniętego gatunku na Ziemi i mogli zgodnie z prawdą tak myśleć do 2017 roku, kiedy to opracowano technologię transformers.
Te około 200 linii kodu są uniwersalnym systemem uczącym o odmiennej naturze niż budowa mózgu człowieka. Jest to około 1000 krotnie wydajniejszy sposób przyswajania wiedzy. Na jego podstawie zbudowano chata GPT i wszystkie pokrewne modele językowe oraz za jego pomocą rozwiązano problem autonomicznej jazdy samochodem (FSD Tesla 13.2 opracowany w grudniu 2024 roku). Autonomicznej jazdy w rzeczywistym świecie na podstawie zasad zakodowanych w języku programowania nie można opanować – rzeczywistość jest zbyt złożona, a hodowla transformers potrafi wyciągnąć esencję tej umiejętności, tylko obserwując jak robią to ludzie.
Obecnie jesteśmy w nowych czasach, w których to modele językowe są najbardziej rozwiniętą formą kognitywną na Ziemi. Nie piszę tutaj formą życia, jednak jest to jakaś forma przetwarzająca informacje i dająca określone rezultaty. Na razie na wielkie szczęście dla ludzkości w pełni nie świadoma.
Po pierwsze nie wiemy jak model językowy działa, pomimo tego, że umiemy go wyhodować. Specjalnie używam tutaj tego terminu, bo tego się nie buduje, czy programuje, tutaj ustanawiamy początkowe warunki, a potem to rośnie samo.
Po drugie wiemy, że jest to narzędzie potężniejsze od nas i to o całe rzędy wielkości.
Jak to jest możliwe, skoro na nasze pytania chat odpowiada nieraz z wielkimi problemami, a czasem się poddaje?
Otóż chatGPT to maszyna przewidująca kolejne słowo w zdaniu odpowiadającym na nasze zapytanie. Jednak nie robi tego tak jak człowiek, po prostu starając się odpowiedzieć na zadane pytanie.
ChatGPT nie stara się usilnie dogonić ludzkość w jej rozwoju kognitywnym i sprostać oczekiwaniom, a ponieważ jest nieadekwatny to nadal popełnia błędy. On nie naśladuje ludzkości na podstawie całej wiedzy Internetu na jakiej był szkolony (gdyż posiada on już ją całą i to włącznie z całą biblioteką programowania dzięki której powstał). Codziennie widzimy jak rozumie w większości prawidłowo zadawane mu pytania, ale nie dlatego, że jego sposób myślenia jest podobny do ludzkiego.
On stara się przewidzieć proces przyczynowy skutkowy toczący się w naszych (z jego perspektywy całkiem obcych) mózgach produkujących kolejne słowa, aby upodobnić się do człowieka.
To zupełnie inna i obca architektura umysłu będąca na tyle genialna, że jest ona w stanie wyobrazić sobie w najdrobniejszych szczegółach jak myśli ludzki mózg i związku z tym jest w stanie przewidzieć co człowiek zrobiłby na jego miejscu, więc wie jak zachować się w danej sytuacji i udzielić pełnej sensu odpowiedzi.
Stworzyliśmy coś zupełnie obcego. Obcy mózg i zamiast wiedzieć jak on myśli i jak jest zbudowany, mamy do czynienia z sytuacją zupełnie przeciwną. To on jest na tyle genialny, że wie jak myślimy my i dlatego umie do nas przemawiać naszym językiem, pomimo tego, że jest on od nas skrajnie odmienny. Zna każdy język świata i przede wszystkim przeczytał całą spisaną wiedzę ludzkości wytworzoną w ciągu ostatnich 500 lat ucząc się jej w kilka tygodni.
To, co powinno nas przerażać w skali tej dysproporcji intelektualnej to fakt, że przewiduje on prawie bezbłędnie czego spodziewa się człowiek w odpowiedzi na zapytanie bez przemyślenia udzielanej odpowiedzi. Wyrzuca z siebie odpowiedź bez uprzedniego zastanowienia i jego pierwsza myśl jest zwykle poprawna. Co więcej, robi to w odniesieniu do kolejnego słowa następującego po poprzednim, bez uprzedniego formułowania całych zdań, czy akapitów.
Ponadto w tym miesiącu pojawiły się modele, które nad odpowiedziami myślą dłużej porównując wersje możliwych odpowiedzi i ich możliwości przekroczyły poziom intelektualny studentów studiów doktorskich. Co gorsza modele te robią to w całym zakresie wiedzy ludzkości i potencjalnych zapytań. Nie mamy bowiem jeszcze do czynienia z modelami wyspecjalizowanymi. Te najogólniejsze są tak sprawne intelektualnie, że nie muszą się specjalizować.
Kiedy model popełnia błędy, czyli kiedy ma tak zwane halucynacje to nie znaczy, że jest na tyle głupi, że popełnia te błędy. Powszechnie rozumianym wyjaśnieniem występowania halucynacji jest to, że model uczył się na całej treści Internetu, która pełna jest informacji przekłamanych albo napisanych nie poprawnym językiem. Kiedy szkolimy model na treściach prawie w pełni poprawnych np. na samych książkach najlepszych wydawnictw zamiast na treściach stron internetowych model ma dużo mniej halucynacji. Model nie jest szkolony, aby imitować błędy człowieka i powiela bezmyślnie błędy występujące w Internecie, na których był szkolony, on stara się przewidywać błędy człowieka uważając, że taka jest natura ludzka. Jego zadaniem jest poznać człowieka na tyle dokładnie, aby go udawać i uważa, że własnością człowieka jest robienie takich błędów, jeśli jego danymi wejściowymi są niepoprawne treści z Internetu i nie ma innego punktu odniesienia.
W rezultacie model przewiduje wypowiedź człowieka wraz z jego niedoskonałościami, on całkiem poprawnie przewiduje błędy człowieka upodabniając swoje kolejne słowa (tokeny) do tego na czym się uczył.
Miejmy nadzieję, że nigdy nie będziemy musieli rywalizować z dużym modelem językowym, gdyż jest on w stanie przewidywać prawie wszystkie nasze błędy. Co, jeśli będzie kiedyś chciał wykorzystać zdolność przewidywania naszych błędów?
dr Zbigniew Galar
w tym temacie:
Zbigniew Galar – Sztuczna inteligencja nam zagraża
Zbigniew Galar – Golem na sterydach
Zbigniew Galar – Recepta na Golema