Ludzie od tysięcy lat patrzą sobie w twarz, by rozpoznać emocje i zamiary drugiej osoby. W starożytności powstała dziedzina wiedzy zwana fizjonomiką. Zakładała ona, że w ten sposób można odczytać także cechy osobowości i skłonności np. do popełniania przestępstw. Jednak rzetelna nauka długo nie mogła znaleźć na to dowodów. Dopiero dzięki nowym technologiom fizjonomika stała się dyscypliną ścisłą.

Jak rozpoznać skłonności przestępcze

Analizując zdjęcia twarzy, można wychwycić osoby o skłonnościach przestępczych. Dokonali tego badacze z Szanghaju, którzy „nakarmili” sztuczną inteligencję portretami różnych ludzi. Uzyskali w ten sposób algorytm rozpoznający przestępców z dokładnością bliską 90 proc. Okazało się, że znaczenie ma tylko kilka cech, np. odległość między oczami czy wywinięcie górnej wargi.

Uczeni nie wiedzą, dlaczego właśnie takie parametry wskazują na skłonności przestępcze ani czy podobną korelację uda się znaleźć wśród osób pochodzących z kontynentów innych niż Azja. Jednak ich praca była przełomem pokazującym, że programy komputerowe są w stanie wyczytać z naszego wyglądu takie informacje, które najchętniej zachowalibyśmy w tajemnicy. 

Wygląd twarzy i orientacja seksualna

Podobną metodę zastosował zespół dr. Michała Kosińskiego, polskiego naukowca pracującego na Uniwersytecie Stanforda. Materiałem wyjściowym dla sztucznej inteligencji było tu 14 tys. zdjęć pochodzących z serwisów randkowych, których użytkownicy określali również swoje preferencje seksualne. Sztuczna inteligencja wyodrębniła cechy charakterystyczne dla homoseksualistów.

Algorytm uznał, że wyróżniają ich m.in. węższe szczęki i dłuższe nosy u panów czy szersze żuchwy u pań. Wynalazek nazwany nieformalnie „gaydar” (radar homoseksualności) po obejrzeniu pięciu zdjęć jednej osoby jest w stanie rozpoznać preferencje z dokładnością sięgającą 91 proc. dla mężczyzn i 83 proc. dla kobiet. Przy jednym zdjęciu trafność spadała odpowiednio do 81 proc. i 74 proc. To i tak znacznie lepszy wynik niż ten osiągnięty przez ludzi oceniających zdjęcia. 

Dr Kosiński twierdzi, że w podobny sposób będzie można identyfikować poziom inteligencji albo poglądy polityczne ludzi. W tym drugim przypadku ma już nawet wstępne wyniki badań. Wynika z nich, że z twarzy można wyczytać, czy ktoś ma skrajnie lewicowe lub prawicowe poglądy. Brzmi to poważnie, ponieważ ten sam uczony w 2014 r. był jednym z twórców algorytmu, który analizował aktywność użytkownika Facebooka i bardzo dokładnie określał jego cechy osobowości. 

Eksperci są jednak bardziej krytyczni. – Orientacja seksualna jest wrodzona. Wynika zarówno z genów, jak i specyficznego rozwoju prenatalnego, co w oczywisty sposób może manifestować się w twarzy. Jednak z inteligencją na razie tego rodzaju powiązań nie zauważono, a tym bardziej z preferencjami politycznymi, które w dużym stopniu są efektem wychowania i kultury. Sztucznej inteligencji w takich kwestiach nie należy ufać, bo określa jedynie pewne prawdopodobieństwa na podstawie statystyki – mówi prof. Dariusz Jemielniak z Akademii Leona Koźmińskiego. 

Żółtaczkę widać w oczach

Algorytmy analizujące nasze zdjęcia znajdują też inne zastosowania. Z portali poświęconych tzw. medycynie naturalnej możemy dowiedzieć się, że twarz to prawdziwa kopalnia wiedzy o naszym zdrowiu. Przerzedzone brwi mają sygnalizować niedoczynność tarczycy, różowe policzki nadciśnienie, a opuchnięta dolna warga zaparcia. Z naukowego punktu widzenia takie dane są mało przydatne, jeśli nie dodamy do nich np. wyników badań laboratoryjnych.

Jest jednak jedna przypadłość, którą można zdiagnozować „na oko”. To żółtaczka, wynikająca ze zbyt wysokiego poziomu substancji zwanej bilirubiną we krwi. Problem polega na tym, że ludzkie oko dostrzega ją dopiero wtedy, gdy tej substancji jest już bardzo dużo. Tymczasem dla lekarzy ważnym objawem może być już niewielkie zażółcenie skóry, świadczące np. o rozwijającym się raku trzustki.

Dlatego naukowcy z Uniwersytetu Waszyngtońskiego postanowili wykorzystać do tego kamerę smartfona. Opracowali aplikację mobilną BiliScreen, która analizuje nasze zdjęcia. Nie chodzi tu jednak o typowe selfie. Trzeba włożyć specjalne okulary kalibracyjne albo wsunąć telefon w gogle zakładane na oczy. Dopiero wtedy aplikacja może wychwycić niewielkie zażółcenie widoczne w twardówce oka.

Kamery identyfikują ludzi

Wyczytywanie z twarzy chorób czy orientacji seksualnej to wciąż wizja przyszłości. Warto jednak pamiętać, że ta technologia jest już szeroko stosowana do znacznie prostszego zadania – identyfikacji ludzi. W każdym większym mieście znajdują się dziesiątki kamer przemysłowych, które monitorują miejsca publiczne, wnętrza sklepów czy urzędów. Wystarczy podłączyć je do oprogramowania rozpoznającego twarze, by zaczęły wyszukiwać przestępców lub terrorystów.

Większość władz miejskich nie przyznaje się do stosowania takich technologii. Wyjątkiem jest Moskwa. W stolicy Rosji działa 160 tys. kamer, które oficjalnie mogą być wykorzystywane w tym celu. Ale nawet tam nie można skorzystać z takiego systemu na dużą skalę, ponieważ wymagałoby to zapisywania i analizowania ogromnej ilości danych. Dlatego szukaniem podejrzanych zajmują się jednocześnie „tylko” 2–4 tys. moskiewskich kamer. 

Jak się schować przed algorytmami?

Nic dziwnego, że pojawiają się już sposoby na unikanie wszechobecnych kamer. Jeden z nich to CV Dazzle. Czyli pokrycie twarzy makijażem z białych i czarnych pasków różnej szerokości oraz uczesanie, w którym pasma włosów opadają nam na twarz. – W ten sposób powstaje antytwarz. Dla algorytmów wygląda nie jak część ciała człowieka, lecz jak zbiór przypadkowych elementów. Nie mogą jej rozpoznać ani przeanalizować – mówi pomysłodawca CV Dazzle, amerykański projektant Adam Harvey. 

Mniej rzucającym się w oczy rozwiązaniem są okulary Privacy Visor opracowane przez japońskich naukowców. Ich powierzchnię pokrywa półprzezroczysta folia z nadrukowanymi nieregularnymi wzorami. Dzięki niej okulary odbijają światło w taki sposób, że okolice oczu stają się jaśniejsze, a to wprowadza w błąd oprogramowanie analizujące twarz.

 Źródło: archiwum NG.