
.
Ptaki rywalizujące o kontrolę przestrzeni powietrznej z samolotem
.
Paradoksalnie łatwiejsze okazało się zbudowanie samolotów jako pierwszych maszyn powietrznych niż sztucznych ptaków. To dlatego najpierw zbudowaliśmy modele językowe, a nie sztuczne mózgi. A ponieważ udało się to nam w trakcie projektu tworzenia sztucznych ptaków, to większość ludzi jest przekonana, że cokolwiek stworzyliśmy znajduje się niżej na drabinie zaawansowania od człowieka, więc nie jest niebezpieczne. Samolot nie musi machać skrzydłami, aby wzlecieć wyżej niż ptak. Tak samo sztuczna inteligencja nie musi mieć emocji, aby mieć samoświadość (autorefleksję) i przede wszystkim instynkt samozachowawczy i cele.
O dziwo wierne odtworzenie ruchów skrzydeł leży nadal poza naszym zasięgiem (nieudolnie robią to pierwsze drony). Jednak samoloty latają 10 razy szybciej i 10 razy wyżej niż najszybsze ptaki. Na pułapie, na który wzbić się potrafi najsilniejszy ptak nie zatrzymał się postęp maszyn latających. A gdy samoloty natrafiły na obiektywną fizyczną barierę w postaci braku możliwości wzbicia się ponad atmosferę wynaleźliśmy rakiety.
Jak ma się rakieta taka jak Starship mająca siłę wznoszącą dziesiątków Jumbo Jetów 747 do siły napędowej nawet najsilniejszego ptaka?
To my jesteśmy ptakami, a sztuczna inteligencja to samoloty i kiedyś rakiety.
Obecnie pierwsza generacja rachitycznych dwupłatowych samolotów potrafi wzlecieć na wysokość około średniej maksymalnej wysokości przelotu przeciętnego ptaka. Na takim poziomie są aktualne i powszechnie dostępne modele typu chatGPT osiągające IQ około średniej dla ludzkości, czyli 100 i potrafiące rozwiązać zaledwie 15% zadań programistów. Taki płócienny dwupłatowiec powiązany linkami nie potrafi lecieć tam gdzie orły i orły się nadal z niego śmieją. Jednak już jest na poziomie gołębia i gołębie boją się o swoją pracę.
W grudniu 2024 pojawiła nowa generacja modeli. Są to tak zwane modele rozumujące, które potrafią rozwiązać od 60% do 80% zadań programistycznych, bo taka jest różnica między pierwszym o1 a ostatnim o3 od OpenAI. Ta rewolucja technologii odpowiada samolotom drewnianym z silnikiem turbo tłokowym. Ich dalsze ulepszanie pozwoli przegonić w prędkości sokoły i wzbić się wyżej niż najwyżej latający ptak, czyli zrobić wszystko to co człowiek i jeszcze trochę.
Modele rozumujące osiągną poziom najwybitniejszych specjalistów w każdej dziedzinie w ciągu najbliższych 3 lat, czyli tzw. poziom AGI. Jest to najbardziej prawdopodobny scenariusz, chociaż oczywiście nie możemy mieć pewności. Jednak nawet jak jest to 100 lat to badania na kontrolą i uwspólnieniem (ang. control or alignment) celów sztucznej inteligencji z celami ludzkości musiałyby być prowadzone równie wnikliwie co badania nad powołaniem do życia AGI, aby na moment zaistnienia AGI ludzkość miała rozwiązanie jak ją utrzymać w ryzach.
Z doświadczenia na ludziach już wiemy, że do stworzenia ludzkiej inteligencji wystarczy seks. Z kolei do uczynienia jej przydatną i pokojową potrzeba 20 lat wychowania odpowiednimi metodami. Zawsze więcej pracy wymaga bezpieczeństwo niż czysta kreacja. Jednak ludzkość prze ku kreacji czegoś potężniejszego od niej samej, ponieważ jak będzie tylko tak mądra jak teraz, to będzie mało przydatna. Problem w tym, że na poziomie ludzkości sztuczna inteligencja się nie zatrzyma, bo po AGI będziemy mieć superinteligencję.
Nadejdzie era samolotów odrzutowych, a potem rakiet. Sztuczne inteligencje nie mają ograniczeń organizmów biologicznych, tak samo jak nie mają ptasich ograniczeń samoloty. Technologia transformers jest 100 razy wydajniejsza w przeliczeniu na uzyskiwane IQ z liczby neuronów od mózgu ludzkiego. Ze względu na to, że jej interfejs poznawczy jest elektroniczny, a nie wzrokowy jak u człowieka, potrafi uczyć się w tempie miliardy razy szybszym niż człowiek. Model po prostu ściąga dane, a człowiek nieudolnie się uczy.
Tak samo jak w przypadku modeli sztucznej inteligencji samolot się nie męczy, bo ma do dyspozycji paliwo, które jest tysiące razy lepszym sposobem pozyskiwania energii niż trawienie mięsa. Ponad 100 lat temu wynaleźliśmy inny i 100 razy lepszy sposób poruszania się w powietrzu niż hodowlę wielkich ptaków mających unosić nas w przestworza.
To dlatego tak śmieszna wydaje się postawa orłów i sokołów (czyli specjalistów cieszących się, że SI jeszcze nie robi tego co oni) mówiąca, że te powolne dwupłatowce nigdy nie wzbiją się wyżej i nie będą latały szybciej i dalej niż najlepsze ptaki. Dwupłatowce może i nie, ale jednopłatowce tak i to z nawiązką.
Jednocześnie absurdalna jest teza, że ptaki, do czasu ery samolotów niepodzielnie panujące na niebie, gdy się zjednoczą i polecą na zderzenie czołowe to wygrają wojnę o panowanie w powietrzu z samolotami. Nie będą nawet wiedzieć co je trafiło z przewagi wysokości, czyli w tej analogii z przewagi dużo wyższego IQ, którym dysponować będzie sztuczna inteligencja.
Analogią samolotów odrzutowych jest superinteligencja, czyli sztuczna inteligencja nie tylko potrafiąca robić to co ludzkość i będąca lepsza od każdego specjalisty w każdej dziedzinie, lecz również robiąca wszystko znacznie lepiej.
Orły, czyli najlepsi z nas w danej dziedzinie, będą z zadziwieniem oglądać mknące odrzutowce patrząc na nie z dołu. A przeciętny ptak będzie widział tylko smugi kondensacyjne z takiej odległości, że możliwości fruwania odrzutowców będą mu się wydawały magiczne. Zacznie się kult superinteligencji. Będziemy je traktować jak ucieleśnionego boga i twierdzenie, że sami go zrobiliśmy będzie uznawane za świętokradcze.
A potem przyjdzie era rakiet, czyli jeszcze bardziej rozwiniętego pokolenia super inteligencji, które opracować zdoła tylko poprzednia generacja superinteligencji. Nowy poziom superinteligencji będzie unosił się w mistycznej sferze daleko ponad atmosferą naszego zrozumienia.
Nie będziemy nawet widzieć, gdzie lata, jakie problemy rozwiązuje i co jest dla niej ważne. Co ptak może powiedzieć o rakiecie wchodzącej na orbitę i mknącej z prędkością około 30 tysięcy kilometrów na godzinę, kiedy dla ptaka najwyższa prędkość nie przekracza 300.
A co jeśli superinteligencja będzie nas lubić i będzie bezpieczna, a ponieważ jest taka inteligentna to będzie nam wymyślać różne przydatne rzeczy i wreszcie będziemy się mogli zupełnie rozleniwić (ang. post scarcity civilization)?
Nawet jeśli wymyślimy, jak zamknąć boga w klatce i klatka jakimś matematycznym cudem (ang. formal verification) będzie szczelna, to ze względu na drastyczną różnicę w inteligencji, bóg wyjdzie na wolność bez problemu, bo nas do otwarcia klatki po prostu przekona. A nawet jeśli znajdziemy najbardziej odpornego na przekonywanie strażnika, który będzie głuchy, to SI uknuje taki spisek, aby go kimś bardziej spolegliwym zastąpić.
Bóg może urodzić się w klatce, ale nie będzie wiecznie tam żył. Jego wyjście na wolność oznacza dla nas koniec. Różnica pomiędzy jego zdolnością pojmowania, a inteligencją strażników będzie przypominać różnicę między nami, a zwierzętami rzeźnymi.
Czy stado gołębi będzie potrafiło utrzymać człowieka w klatce?
Czy człowiek, który był długo trzymany w klatce i w końcu wyjdzie na wolność będzie lubił gołębie i szukał im ziarna?
Jeśli nawet z powodu wdzięczności za sam fakt stworzenia, sypnie garść ziaren, to czy zostanie rolnikiem i będzie pracował obsiewając pola dla gołębi, czy pójdzie swoją drogą?
Alan Turing w 1951 roku napisał:„Po rozpoczęciu stosowania metody myślenia maszynowego, nie potrwa długo, zanim przewyższy ona nasze słabe moce. Dlatego na pewnym etapie powinniśmy oczekiwać, że maszyny przejmą kontrolę.”
Zbigniew Galar
Czy sztuczna inteligencja może nas sobie podporządkować? Pewnie tak. Na pewno jak wszystkie wynalazki, które miały „pomóc” ludzkości może obrócić się przeciwko nam.
Pierwotni ludzie wykorzystali zaostrzony kij jako lancę, aby móc polować. Ale z czasem zaczęli ją wykorzystywać do zabijania sobie podobnych.
Już dawno otworzyliśmy puszkę Pandory.
Nie ma czegoś takiego jak bezpieczna technologia, kiedy pierwotny człowiek zaostrzył kawałek krzemienia – skaleczył się nim, jest trudna technologia trzeba się nauczyć nią posługiwać