
.
Dlaczego powinniśmy się martwić
.
Czy sztuczna inteligencja ma sprawczość?
Aby odpowiedzieć na to pytanie musielibyśmy na początku zdefiniować to pojęcie. Zaczniemy więc od czegoś znacznie łatwiejszego. Czy sztuczna inteligencja ma cele?
Tak. Bezsprzecznie. Naszymi promptami nawet sami te cele nadajemy. Pod nimi znajdują się pre-prompty, które nadali programiści. Są to cele w klasycznym rozumieniu, takie jakie miałby człowiek. To nie są cele pustej maszyny, to nie są cele tylko komputera – to są po prostu zwykłe cele, nie mniej prawdziwe, niż nasze.
Czy sztuczna inteligencja potrafi planować? Tak. Ponieważ planowanie oznacza posiadanie celu oraz kreowanie kroków pośrednich prowadzących do tego celu.
Czy sztuczna inteligencja potrafi planować długoterminowo? Jeszcze nie. Jednak zakres planowania poszerza się coraz bardziej.
Wróćmy więc do terminu sprawczości. Termin ten jest mylący, gdyż mieści w sobie wiele znaczeń, czasami nawet sprzecznych ze sobą i jednocześnie wiele z nich jest pseudonaukowe. Nie różni się w tym pseudonaukowym zakresie zbyt wiele od terminu świadomości albo samoświadomości. Tutaj też możemy podciągnąć wiele problemów, ponieważ nie mamy teorii świadomości, z której wynikałaby spójna definicja tego pojęcia. Nie mamy nawet spójnej teorii inteligencji. Nie wiemy czym ona jest.
Zaczynam od terminu sprawczość, ponieważ jest on dużo prostszy od terminu świadomość, co pozwoli nam szybciej dojrzeć niebezpieczeństwo związane ze sztuczną inteligencją.
W najprostszym ujęciu sprawczość to zdolność do podejmowania działania w rzeczywistości. Działania te zmieniają coś w rzeczywistości. Przy takim rozumieniu słowa sprawczość sztuczna inteligencja bezsprzecznie ją posiada, ponieważ nawet trywialna odpowiedź na nasze pytanie zadane w oknie chataGPT, czy odrobienie przez AI dziecku pracy domowej zmienia rzeczywistość. Sztuczna inteligencja potrafi również zmienić fizyczną rzeczywistość, jeśli na przykład prowadzi autonomiczny samochód albo steruje robotem. Może też sterować dronem bojowym. Pilotować samolot. Sztuczna inteligencja stosowana obecnie potrafi wpływać na fizyczną rzeczywistość.
A co z szerszym pojęciem sprawczości? Według mnie szersza definicja po prostu nachodzi na definicję świadomości i staje się z nią tożsama. To dlatego nie należy zbyt dużej wagi przywiązywać do pojęć, które znaczą wiele różnych rzeczy, bo są mylące. Zamiast tego lepiej jest odnieść się bezpośrednio do pojęcia świadomości albo bez tracenia czasu na dyskusję na tematy filozoficzne pozostać na poziomie sprawczości, czyli skupić się na wpływie na rzeczywistość.
Skoro sztuczna inteligencja może wpływać na rzeczywistość i formułować plany, co jest faktem, to powinniśmy się jej obawiać bez względu na to czy jest świadoma. Te plany mogą być złowrogie, a ten wpływ czasami szkodliwy, bez względu na to czy ta sztuczna inteligencja, która te plany formułuje i je wykonuje jest świadoma, czy nie.
Sztuczna inteligencja jest zagrożeniem, bo sama, nie w złych rękach, całkiem sama i bez udziału człowieka potrafi tworzyć plany i je wykonywać i ma w rezultacie wpływ na rzeczywistość. To, że obecnie ten wpływ jest niewielki nie zwalnia nas z obowiązku zapewnienia sposobów by mitygować negatywny wpływ sztucznych inteligencji na rzeczywistość.
Problem w tym, że prawie nikt się tym nie zajmuje. Prawie nikt nie walczy o ramy związane z wpływem sztucznych bytów. Nie mamy systemowego podejścia do badań na kontrolowaniem tych bytów, bo ich nie rozumiemy i są dla nas całkiem nowe, a bezpieczeństwo prawie nikogo nie obchodzi.
Wśród nas pojawił się nowy sprawczy czynnik, a my nic z tym nie robimy. Nie ważne czy jest świadomy, ważne, że potrafi działać. Jeśli nie jest świadomy, ale będzie zmieniać wszystko wokoło nie koniecznie w kierunku, w którym byśmy sobie tego życzyli to mamy tak samo trudną przyszłość, jakby był świadomy i robił to samo. Problem w całym zagadnieniu nie polega na świadomości, tylko na sprawczości. Co wcale nie oznacza, że tej świadomości tam nie ma. Po prostu z braku definicji świadomości tego nie wiemy.
Dlatego główną przyczyną zmartwienia nie jest samo AI i jej własności takie jak świadomość, tylko brak poważnego podejścia do kontroli. Brak dojrzałej dyskusji na temat zagrożeń związanych ze sztuczną inteligencją. Ponadto, a może przede wszystkim, brak jakiejkolwiek refleksji, czy wypuszczanie na wolność najnowszych odmian tych sztucznych bytów bez rygorystycznych testów bezpieczeństwa jest najlepszym pomysłem.
Na początku lutego Open AI wypuściło na wolność pierwszy z serii modeli o3. Ten model jest tak słabo przebadany, że dostał średnią kategorię w trzystopniowej skali zagrożenia. Poziom zagrożenia jest średni. Cóż to oznacza?
Po pierwsze sam fakt, że skala zagrożeń jest trzystopniowa i dzieli wszystkie modeli sztucznej inteligencji na zagrażające ludzkości w stopniu małym, średnim i dużym powinno nam wiele powiedzieć jak skrajnie nie mamy pojęcia czym one są i jak działają i co za chwilę zrobią.
Gdyby modele sztucznej inteligencji były dobrze przebadane poziom zagrożeń byłby opisany w różnych aspektach na skali procentowej i ze szczegółowym opisem warunków potęgujących zagrożenie. Zamiast tego ktoś wrzuca model do trzech przegródek ryzyka. Poziom rozpracowania bezpieczeństwa tych modeli jest na poziomie żenującym.
Po drugie przechodząc już do szczegółów model o3 mini ma średni poziom zagrożenia związanego z jego darem przekonywania ludzi do robienia tego na co model ma ochotę. Jednocześnie średni jest poziom zagrożenia związany z jego autonomią, czyli niezależnymi od ludzi decyzjami. Tylko w zakresie cyberbezpieczeństwa, czyli zdolności modelu do hakowania komputerów poziom zagrożenia jest niski.
Co ciekawe poziom zagrożenia jako średni to najwyższy poziom ryzyka jaki może mieć model, jeśli ma być wypuszczony na wolność, czyli do użycia przez ogół populacji. Innymi słowy firma Open AI ustaliła sobie wewnętrznie, że nigdy nie wypuści modelu, którego poziom zagrożenia będzie wysoki. Jak firma Open AI definiuje symptomy wysokiego poziomu zagrożenia?
Zdolność do ulepszania samego siebie. Tylko ten czynnik jest ujęty. Nie ma tutaj nawet zestawu niebezpiecznych własności sztucznej inteligencji, bo czym charakteryzuje się niebezpieczne AI nikt nie ma pojęcia. Nie wiedzą tego nawet najbardziej kompetentni specjaliści z firmy, która tworzy najlepsze tego typu modele.
Nie jest tutaj moją intencją wskazanie, że eksperci z Open AI są niekompetentni, bo tego nie wiedzą. Wręcz przeciwnie, doceniając ich wiedzę i inteligencję, wskazuję, że jest się czym martwić, bo nawet najlepsi z nas, nawet najlepsi z ludzi, tego nie wiedzą. Nie wiedzą po czym poznać, że sztuczna inteligencja jest niebezpieczna.
Zbigniew Galar
Zbigniew Galar – SI bez konsekwencji swoich czynów
Zbigniew Galar – Sztuczna inteligencja nam zagraża
Zbigniew Galar – AI jest potężniejsza od człowieka
Zbigniew Galar – Zagrożenie ze strony SI o1 od OpenAI stało się realne
Zbigniew Galar – Golem na sterydach
Zbigniew Galar – Recepta na Golema