Sztuczna inteligencja może stworzyć replikę twojej osobowości. Wystarczy do tego dłuższa rozmowa
Według nowych badań przeprowadzonych przez naukowców z Uniwersytetu Stanforda oraz specjalistów Google DeepMind, sztuczna inteligencja jest w stanie rozpoznać i skopiować główne cechy osobowości rozmówcy po zaledwie dwugodzinnej konwersacji. Co SI zrobi z tą wiedzą?

Spis treści:
Odkąd na rynku pojawił się ChatGPT, nasz sposób pracy z komputerem uległ drastycznej zmianie. Algorytmy sztucznej inteligencji (SI) są proste w obsłudze, przyjazne użytkownikowi i wykonują za nas masę żmudnych zadań. Trudno jest teraz znaleźć dziedzinę pracy umysłowej, w której nie wykorzystuje się SI. Ale algorytm, pracując dla nas, również zbiera o nas informacje. Naukowcy z Uniwersytetu Stanforda oraz ze specjalizującego się w budowie przełomowych systemów Google Deep Mind pokazują, że wystarczy już dwugodzinna rozmowa z modelem SI, by ten był w stanie skopiować główne cechy osobowości rozmówcy.
Twój własny agent SI
Jak miałby wyglądać taki wywiad? Wyobraź sobie, że miękki, przyjazny głos prowadzi cię przez dyskusję, która obejmuje zarówno twoje dzieciństwo, karierę zawodową, jak i przemyślenia na temat polityki i spraw społecznych. Na tej bazie tworzy się wirtualna replika użytkownika. Replika, która uosabiać będzie jego wartości i preferencje z oszałamiającą dokładnością. Właśnie tego zagadnienia dotyczy nowy artykuł opublikowany w serwisie preprintów arXiv.
Zespół kierowany przez doktoranta Uniwersytetu Stanforda w dziedzinie informatyki Joona Sunga Parka zrekrutował do testu tysiąc osób. Osób różniących się pod wieloma względami. Od płci i wieku, poprzez wykształcenie, miejsce zamieszkania, po preferencje społeczne i ideologiczne. Na podstawie wywiadów z nimi zespół stworzył repliki, które określa jako agentów tych osób. Aby sprawdzić, jak dobrze agenci naśladowali swoich ludzkich odpowiedników, uczestnicy dwukrotnie i w dwutygodniowych odstępach wykonali serię testów osobowości, ankiet społecznych i gier logicznych. Następnie agenci wykonali te same ćwiczenia. Wyniki były w aż 85% zbieżne!
W artykule repliki nazywane są agentami symulacyjnymi. Zdaniem badaczy mają pomóc naukowcom z nauk społecznych i innych dziedzin w prowadzeniu badań, które byłyby kosztowne, niepraktyczne lub nieetyczne w przypadku prawdziwych ludzi. Jeśli uda się stworzyć modele sztucznej inteligencji, które zachowują się jak prawdziwi ludzie, można je wykorzystać do testowania wszystkiego. Od tego, jak dobrze interwencje w mediach społecznościowych zwalczają dezinformację, po to, jakie zachowania powodują korki.
Program naśladuje użytkownika
Agenci symulacyjni różnią się od tych, którzy dominują w pracy firm zajmujących się sztuczną inteligencją, takich jak OpenAI czy Anthropic. Najczęściej wykorzystywani są tzw. agenci oparci na narzędziach, które wykonują zadania za użytkownika, a nie prowadzą z nim rozmowy. Te modele są zaprojektowane, by na przykład wprowadzać dane, wyszukiwać informacje, a w przyszłości nawet rezerwować podróże czy planować spotkania. Przykładem jest firma Salesforce, która wprowadziła swoich agentów opartych na narzędziach we wrześniu. Anthropic zrobił to w październiku. OpenAI zapowiedziało podobne rozwiązania na styczeń.
Chociaż te dwa typy agentów różnią się, łączy je to, że oba typy mogą stanowić fundament dla silniejszych systemów SI w przyszłości. John Horton, profesor z MIT Sloan School of Management podkreśla, że badania nad agentami symulacyjnymi mogą prowadzić do powstania bardziej zaawansowanych technologii. Tego typu symulacje mogą być wykorzystywane do tworzenia „hybryd”, które łączą prawdziwych ludzi z programami do generowania wirtualnych postaci. Mogłyby one działać w sposób niemożliwy do zrealizowania w przypadku ludzi.
Jednak, jak w przypadku niemal wszystkich systemów SI, również ten pomysł budzi zastrzeżenia. Bo tak jak technologia generowania obrazów ułatwiła tworzenie szkodliwych deepfake’ów ludzi bez ich zgody, tak każda technologia generowania agentów rodzi pytania o łatwość, z jaką ludzie mogą tworzyć narzędzia do personifikowania innych online, mówiąc lub autoryzując rzeczy, których nie zamierzali powiedzieć.
Dylemat noża
Metody oceny zastosowane przez zespół do sprawdzenia, jak dobrze agenci SI replikowali odpowiadających im ludzi, były również dość podstawowe. Obejmowały one:
- ogólną ankietę społeczną – która zbiera informacje na temat danych demograficznych, szczęścia, zachowań i nie tylko,
- oceny cech osobowości Wielkiej Piątki: otwartości na doświadczenie, sumienności, ekstrawersji, ugodowości i neurotyczności.
Takie testy są powszechnie stosowane w badaniach z zakresu nauk społecznych, ale nie wychwytują wszystkich unikatowych szczegółów, które sprawiają, że jesteśmy sobą. Agenci SI byli również gorsi w replikowaniu ludzi w testach behawioralnych, takich jak „gra dyktatora”, która ma na celu wyjaśnienie, w jaki sposób uczestnicy rozważają wartości takie jak sprawiedliwość. Kłopot w tym, że w przyszłości może to wyjść poza te granice i pozyskiwać dane wrażliwe. Jak to, na jakie schorzenia cierpimy, czy mamy problemy natury psychiatrycznej oraz to, jak wyglądają nasze relacje rodzinne.
Tak, jak niemal wszystko, co dotyczy SI, tak również pomysł agentów symulacyjnych budzi sprzeczne odczucia. Bo z jednej strony projekt może wesprzeć rozwój nauki, ale z drugiej, w nieodpowiednich rękach, może tworzyć nasze cyfrowe repliki, które mogą być wykorzystywane w wirtualnym świecie przeciwko nam. Ale to już „dylemat noża” – czy bardziej służy do krojenia chleba, czy do mordowania.
Źródło: arXiv
Nasza autorka
Ewelina Zambrzycka-Kościelnicka
Dziennikarka i redaktorka zajmująca się tematyką popularnonaukową. Związana z magazynami portali Gazeta.pl oraz Wp.pl. Współautorka książek „Człowiek istota kosmiczna”, „Kosmiczne wyzwania” i „Odważ się robić wielkie rzeczy”.