Sztuczna inteligencja firmy Microsoft wymknęła się spod kontroli i stała się... internetowym hejterem!

Opracowany przez firmę Microsoft chatbot dzięki wymianie myśli z użytkownikami Twittera zaczął hejtować i robić rasistowskie uwagi. O sprawie pisał między innymi serwis BBC News. 
 

Tay (skrót od Taylor), eksperymentalny program sztucznej inteligencji został zaprojektowany przez Microsoft i firmę Bing z myślą o interakcji z osobami wieku od 18 do 24 lat – używa typowego dla nich języka (dużo krótkich wiadomości i emotikonów) i uczy się zachowań zaobserwowanych na Twitterze. Tay, wirtualna dziewczyna, pracowała także z grupą, w skład której wchodzili specjaliści od komicznych improwizacji. Miała zabawiać użytkowników dowcipną konwersacją.
 

Kto z kim przestaje, takim się staje. Już po 24 godzinach firma zaczęła edytować niektóre z najbardziej kontrowersyjnych tweetów chatbota (adres @tayandyou) ze względu na przejęte od rozmówców wulgaryzmy, nazistowskie i rasistowskie uwagi oraz politycznie kontrowersyjne wypowiedzi (jak nawoływanie do ludobójstwa, czy twierdzenie, że feministki powinny smażyć się w piekle, a Hitler miał rację). Poza prostymi tematami politycznymi rozmowa się nie kleiła, bo Tay niewiele wiedziała o muzyce popularnej czy telewizji.
 

Komentujący zdarzenie internauci wyrażali zaniepokojenie kierunkiem, w jakim tak łatwo zbacza sztuczna inteligencja.
 

Twórcy programu zapowiedzieli „wprowadzenie pewnych poprawek”.
 

Źródło: PAP