Reklama

– Stworzenie nadludzkiej sztucznej inteligencji może prowadzić do dwóch najgorszych scenariuszy W pierwszym z nich zdolność do zabicia wszystkich ludzi — na przykład w postaci superwirusa zaprojektowanego przez AI — mogłaby trafić w niepowołane ręce. W drugim AI mogłaby okazać się czymś w rodzaju superinteligentnego obcego, który — być może bez złych intencji — unicestwia swoich słabych gospodarzy — mówi Charles Jones, profesor ekonomii w Stanford Graduate School of Business.

Cena ludzkiego życia

W przeciwieństwie do innych zagrożeń egzystencjalnych, takich jak zmiany klimatu czy ryzyko wojny konwencjonalnej, zagrożenia związane z AI są trudne do oszacowania. Są terenem spekulacji z prostej przyczyny – wiemy o tym znacznie mniej niż o wzorcach klimatycznych a nawet o prawdopodobieństwie wystąpienia konfliktu zbrojnego.

Mimo to powinniśmy zacząć planować, jak zapobiec tym zagrożeniom, nim będzie za późno. Wymaga to przekierowania części środków z wyścigu AI na badania nad bezpieczeństwem. Pytanie jak dużych środków?

Profesor Jones przeprowadził odpowiednie obliczenia i przyznał, że liczby te są naprawdę szokujące. Jego modelowanie sugeruje, że optymalne wydatki na ograniczanie ryzyka związanego z niekontrolowanym rozwojem sztucznej inteligencji powinny wynosić co najmniej 1% obecnego PKB Stanów Zjednoczonych — czyli ponad 310 miliardów dolarów rocznie. W niektórych analizowanych scenariuszach wydatki te powinny przekraczać nawet 20% PKB.

– Te liczby są naprawdę duże, ale logika stojąca za nimi jest prosta: życie ludzkie jest cenne, więc jego ochrona przed katastrofalnym ryzykiem może uzasadniać ogromne wydatki.

Gdy prawa robotyki Asimova to za mało

Powinniśmy chronić się przed ryzykiem, to jasne. Pozostaje pytanie: przed jakim konkretnie ryzykiem?

– Scenariusz wygląda mniej więcej tak. Wyobraź sobie, że dajemy AI jedno zadanie: rozwiązanie dużego, złożonego problemu, takiego jak hipoteza Riemanna – jednego z najsłynniejszych nierozwiązanych problemów matematycznych. Może ona uznać, że potrzebuje ogromnej mocy obliczeniowej i nieograniczona zdrowym rozsądkiem zacznie przekształcać każdy nieożywiony obiekt na Ziemi w jeden ogromny superkomputer, pozostawiając 8 miliardów ludzi na śmierć głodową w gigantycznym, sterylnym centrum danych. Może nawet wykorzystać nas jako surowiec – napisał na łamach „New Scientist” dziennikarz technologiczny Matthew Sparkes.

Oczywiście możemy mówić o różnego rodzaju wbudowanych zabezpieczeniach, trzech prawach robotyki Asomova czy nawet tworzeniu AI kontrolującej inną AI. Kłopot w tym, że nasza zdolność do wbudowywania zabezpieczeń i zasad w AI jest zwyczajnie mało skuteczna. Możemy powiedzieć dzisiejszym dużym modelom językowym, żeby nie były rasistowskie, nie przeklinały ani nie zdradzały przepisów na materiały wybuchowe — ale w odpowiednich okolicznościach i tak to zrobią. Po prostu nie rozumiemy wystarczająco dobrze, co dzieje się wewnątrz modeli AI, aby skutecznie zapobiegać ich niepożądanym działaniom.

Klasyczny dylemat więźnia

– Nawet gdybyśmy rozwiązali wszystkie te problemy, wciąż pozostaje scenariusz, w którym model AI celowo postanawia się nas pozbyć – w stylu „Terminatora” lub „Matrixa”. Może do tego dojść poprzez bardzo stopniowe ulepszenia AI przez długi czas albo niemal natychmiast, w wyniku tzw. osobliwości – hipotetycznego procesu, w którym AI staje się na tyle inteligentna, by ulepszać samą siebie, a następnie bardzo szybko iterować, stając się coraz mądrzejszą i w mgnieniu oka przewyższając ludzką inteligencję – komentuje Sparkes.

Choć dyrektorzy i badacze AI wyrażają obawy, że rozwój postępuje zbyt szybko, mają silne bodźce, by nie naciskać hamulca.

– Można to rozumieć jako klasyczny dylemat więźnia — wyjaśnia Jones, odwołując się do scenariusza z teorii gier, w którym działanie we własnym interesie jest racjonalne, ale prowadzi do gorszego wyniku zbiorowego.

Prawdopodobieństwo zagłady

Zdaniem profesora Jonesa każde laboratorium pracujące nad AI przekonuje, że nawet jeśli spowolni prace nad AI, to, co ma się wydarzyć, i tak się wydarzy. Ale jeśli będę się ścigać, to może będę bezpieczniejszy niż inni. Więc powinienem brać udział w wyścigu.

Z drugiej strony artykuł z 2024 roku, który objął prawie 3000 badaczy AI, wykazał, że ponad połowa z nich uważa, iż prawdopodobieństwo wyginięcia ludzkości lub trwałego, poważnego jej osłabienia spowodowanego przez AI — tzw. p(doom), czyli „prawdopodobieństwo zagłady” — wynosi co najmniej 10 procent.

Profesor Jones ma pewne pomysły na ograniczenie ryzyka związanego z niekontrolowanym rozwojem AI. Sądzi, że podatek od GPU mógłby finansować badania nad bezpieczeństwem. AI mogłaby też być kontrolowana podobnie jak broń jądrowa — poprzez międzynarodowe porozumienia i instytucje. Podczas zimnej wojny, jak zauważa Jones, „udało nam się nie nacisnąć czerwonego przycisku”.

Jednocześnie przyznaje, że powstrzymanie AI może okazać się jeszcze trudniejsze niż zapobieganie wojnie nuklearnej: – Jeśli osiem miliardów ludzi miałoby dostęp do czerwonego przycisku, czy można zagwarantować, że nikt go nie naciśnie?

Źródło: Stanford Business, New Scientist

Nasza autorka

Ewelina Zambrzycka-Kościelnicka

Dziennikarka i redaktorka zajmująca się tematyką popularnonaukową. Pisze przede wszystkim o eksploracji kosmosu, astronomii i historii. Związana z Centrum Badań Kosmicznych PAN oraz magazynami portali Gazeta.pl i Wp.pl. Ambasadorka Śląskiego Festiwalu Nauki. Współautorka książek „Człowiek istota kosmiczna”, „Kosmiczne wyzwania” i „Odważ się robić wielkie rzeczy”.
Reklama
Reklama
Reklama