Ludzie dają się nabrać na filmy AI – nawet gdy wiedzą, że są fałszywe. Jaka powinna być przyszłość bezpieczeństwa w sieci?
Chociaż coraz szybciej udaje nam się rozpoznawać, że dany film został wygenerowany przez AI, to nie wpływa to nasze osądy – tak wynika z badań. Naukowcy dowiedli, że ostrzeżenia o deepfake’ach nie chronią przed manipulacją tak skutecznie, jak sądzono. Co więc możemy zrobić? I czy możemy cokolwiek?

Badania przeprowadzone na Uniwersytecie Bristolskim udowadniają, że nawet jeśli widzowie są ostrzegani o fałszywości materiałów, ich percepcja i oceny pozostają pod silnym wpływem treści prezentowanych w materiałach generowanych komputerowo. Trudność w rozpoznawaniu autentyczności stanowi globalny problem.
Jak powstają filmy AI i czym jest deepfake?
Filmy generowane przez AI, określane mianem deepfake, powstają dzięki zastosowaniu zaawansowanych algorytmów uczenia maszynowego, w szczególności technik deep learning. W procesie tym sztuczna inteligencja analizuje tysiące zdjęć i nagrań, aby nauczyć się realistycznie odwzorowywać twarze, głosy i gesty.
Deepfake’i znalazły zastosowanie nie tylko w rozrywce, ale także w polityce, marketingu czy dezinformacji. Szybkość, z jaką technologia ta się rozwija, sprawia, że granica między prawdą a fałszem staje się coraz trudniejsza do rozpoznania.
Jak sprawdzić czy ufamy filmom generowanym przez AI?
Badanie przeprowadzone przez Stephana Lewandowsky’ego i Simona Clarka miało na celu sprawdzenie, jak ludzie reagują na materiały wideo wygenerowane przez sztuczną inteligencję, nawet gdy są świadomi ich fałszywej natury. W trzech oddzielnych eksperymentach wzięło udział odpowiednio 175, 275 i 223 uczestników. Uczestnicy oglądali krótkie filmy, w których postać przyznawała się do popełnienia przestępstwa lub czynu wątpliwego moralnie.
Wideo były zarówno prawdziwe, jak i stworzone przez AI. Deepfake przygotowano specjalnie na potrzeby badania, stosując te same skrypty i ustawienia co w nagraniach autentycznych. Części uczestników przedstawiono ostrzeżenie o tym, że dane nagranie jest fałszywe, inne grupy nie otrzymały żadnego ostrzeżenia lub zobaczyły jedynie ogólny komunikat na temat istnienia AI.
Jak uczestnicy reagowali na oznaczenie „deepfake”?
Po obejrzeniu każdego filmu uczestnicy odpowiadali na pytania dotyczące wiarygodności materiału oraz winy osoby przedstawionej na nagraniu. Naukowcy odkryli, że mimo oznaczenia wideo jako fałszywe, wiele osób nadal uznawało bohatera filmu za winnego przestępstwa, przewinienia moralnego lub wierzyło w podawane przez niego informacje.
Co więcej, nawet ci, którzy wierzyli w autentyczność ostrzeżenia i wiedzieli, że mają do czynienia z materiałem wygenerowanym przez AI, nadal byli pod wpływem jego treści. To pokazuje, że świadomość fałszywości materiału nie wystarcza, aby całkowicie wyeliminować jego wpływ psychologiczny. Czemu ufamy takim treściom?
Dlaczego mimo ostrzeżeń ufamy AI?
Badania psychologów sugerują, że nasz mózg automatycznie ufa wizualnym dowodom – nawet jeśli wiemy, że dana treść została sfabrykowana. Wpływ na podatność mają też takie czynniki jak kontekst społeczny, przekonania odbiorcy oraz forma ostrzeżenia o fałszywości materiału. Treści prezentowane w atrakcyjnej, emocjonalnej formie wzmacniają skłonność do akceptowania nawet nieprawdziwych przekazów.
Wyniki międzynarodowych badań przeprowadzonych przez Uniwersytet Cornella potwierdzają, że różnice w skuteczności rozpoznawania fałszywych treści nie są znaczące pomiędzy badanymi krajami. Oznacza to, że problem jest globalny. Sytuację uzupełniają badania przeprowadzona Uniwersytecie im. Adama Mickiewicza w Poznaniu – pokazują, że ludzie często ufają AI nawet w sytuacjach, w których maszyna podaje irracjonalne wskazówki. To może wzmacniać podatność na manipulację.
Jak wykrywać treści AI i jak dbać o bezpieczeństwo w sieci? Tylko edukacja nas uratuje
Szybki rozwój technologii generujących deepfake wymusił powstanie narzędzi do ich wykrywania. Firmy technologiczne oraz środowiska naukowe tworzą oprogramowanie analizujące subtelne różnice w teksturze skóry, oświetleniu, ruchu oczu czy modulacji głosu. Jednak nawet najlepsze systemy wykrywania nie zastąpią krytycznego myślenia odbiorców, którzy sami muszą zadbać o swoje bezpieczeństwo.
Równie istotna, jeśli nie bardziej, pozostaje edukacja medialna. Uczestnicy badań, którzy przeszli szkolenie z zakresu rozpoznawania deepfake, byli nieco bardziej skuteczni w identyfikacji fałszywych treści. Eksperci zalecają wdrażanie programów edukacyjnych już na poziomie szkolnym, aby budować odporność na manipulację cyfrową.
Warto również pamiętać, że sztuczna inteligencja coraz lepiej rozumie interakcje społeczne. Badania naukowców z Uniwersytetu w Turku w Finlandii pokazują, że interpretacje AI są zbliżone do ocen ludzkich, a w niektórych przypadkach nawet bardziej spójne. To dodatkowo komplikuje rozpoznanie manipulacji przez odbiorców i utrudnia wykształcenie odporności.
Źródła: Cornell University, Communications psychology, Polskie Radio, Frontiers in Psychology
Nasz autor
Jonasz Przybył
Redaktor i dziennikarz związany wcześniej m.in. z przyrodniczą gałęzią Wydawnictwa Naukowego PWN, autor wielu tekstów publicystycznych i specjalistycznych. W National Geographic skupia się głównie na tematach dotyczących środowiska naturalnego, historycznych i kulturowych. Prywatnie muzyk: gra na perkusji i na handpanie. Interesuje go historia średniowiecza oraz socjologia, szczególnie zagadnienia dotyczące funkcjonowania społeczeństw i wyzwań, jakie stawia przed nimi XXI wiek.

