Według dziennika ”Evening Standard” Airbnb analizuje osobowość osób chcących wynająć mieszkanie by obliczyć ryzyko, że owo mieszkanie może zostać zdemolowane. Brytyjska gazeta odkryła należący do firmy patent na oprogramowanie do analizowanie cech behawioralnych.

- Narzędzie to bierze pod uwagę wszystkie publicznie dostępne dane, od wpisów na serwisach społecznościowych, poprzez bazy dłużników po dane o karalności. Wszystko, by określić możliwość wystąpienia obniżających zaufanie cech jak neurotyzm, narcyzm, makiawelizm czy psychopatia – tłumaczy dziennik

Airbnb przejęła technologię do weryfikacji klientów wraz ze startupem Trooly w 2017 roku. Według ”Evening Standard” firma odmówiła komentarza na temat zakresu, w jakim owo oprogramowanie jest stosowane wobec klientów. Niemniej, Airbnb na swojej internetowej stronie informuje, że prowadzi takie profilowanie. I że jest ono podyktowane potrzebą zapewnienia bezpieczeństwa właścicielom domów i mieszkań wynajmowanych w serwisie.

Problemy wynikające z nieuczciwości i bezmyślności klientów bywają bardzo kosztowne. Gazeta przypomina sprawę właścicielki apartamentu w Londynie, która poniosła stratę wysokości 2,5 mln funtów. Zgodziła się wynająć lokal na imprezę typu ”baby shower”, tymczasem zamiast przyszłej mamy i jej koleżanek pojawiła się setka imprezowiczów, która pozostawiła po sobie lokal do kompletnego remontu.


Przeglądając medialne doniesienia z ostatnich lat widać, że podobne historie zdarzają się często i w każdym zakątku świata, w którym Airbnb operuje. Wobec utraty reputacji i kosztów procesów sądowych czy potencjalnych kar, firma podejmuje wszelkie legalne kroki by sprawdzić, kto chce korzystać z jej usług.

Algorytm będący podstawą oprogramowania w rękach Airbnb ocenia m.in., czy dana osoba używała w sieci fałszywych profili albo w jakichś sytuacjach podawała nieprawdziwe dane. Ocenę klienta obniża, według opisu patentu, jeżeli poszukiwane nazwisko pojawia się w towarzystwie słów kluczowych lub obrazów związanych, lub dotyczących seksu, alkoholu, stron i organizacji szerzących nienawiść czy prostytucji.

- Uznanie za osobę mniej wiarygodną gwarantuje też udział w produkcji materiałów pornograficznych lub treści zawierających negatywny język – tłumaczy ”Evening Standard”. Do tego celu algorytm sztucznej inteligencji przeczesuje wpisy na blogach i dostępne w sieci artykuły prasowe. Zebrane dane o tym, jak człowiek postępuje w życiu codziennym wobec innych w połączeniu z informacjami o wykształceniu i historii zawodowej tworzą ostateczną ocenę wiarygodności.

Maszyna zestawia zebrane dane z oczekiwaniami właściciela lokalu wobec potencjalnych klientów i określa kompatybilność. Aibnb tłumaczy, że do analizy ryzyka stosuje ”narzędzia analizy prognostycznej i uczenia maszynowego” tak, by ”sygnalizować potencjalne groźne zachowania zanim wystąpią.”

Czy oddanie weryfikacji naszych cyfrowych śladów w ręce maszyny jest groźne? Odpowiedzi udzielił dziennikowi prof. Alan Woodward. – Pośpiesznie zrzucamy odpowiedzialność za podejmowanie decyzji na uczące się maszyny, gdy tego typu działania normalnie pozostawałyby w gestii człowieka – zauważa ekspert od cyberbezpieczeństwa uniwersytetu w Surrey.