Ktoś wystukuje polecenie na laptopie, a Actroid-DER podrywa się z sykiem i dygotem. Pod silikonową skórę płynie sprężone powietrze i uruchamia mechanizmy, które unoszą ręce. Kąciki ust układają się w pełen skromności dziewczęcy uśmiech. Istota ta przez chwilę zdaje się namyślać. Rozgląda się po pomieszczeniu, w którym stoi przymocowana do podestu rozmaitymi przewodami i rurkami wychodzącymi z jej kostek. Mruga, a potem zwraca ku mnie twarz. Nie mogę się powstrzymać, by nie spojrzeć w jej (jego?) mechaniczne oczy. – Dziwi cię, że jestem robotem? – pyta. – Wyglądam zupełnie jak człowiek, prawda?

Jej zaprogramowana wypowiedź wywiera skutek odwrotny do zamierzonego: zwraca moją uwagę na to, jak bardzo się od człowieka różni. Człekokształtnego robota Actroid-DER skonstruowała japońska firma Kokoro. Można go wynająć w charakterze hostessy na różne okazje, np. konferencję firmową, która to rola nie wymaga intelektualnej głębi. Ale chociaż na prace badawczo-konstrukcyjne poszło 250 tys. dolarów, hostessa porusza się mechanicznie i bez wdzięku, a nieruchomość rysów nadaje jej ślicznej twarzy cechy umysłowej ociężałości. Między wypowiedziami zamiera, co wygląda tak, jakby zażyła coś więcej niż dawkę prądu.

Nowocześniejsze modele Actroida oprowadzają wycieczki po wystawach technicznych, a ten egzemplarz został przysłany do Pittsburga, do Carnegie Mellon University, w celu nadania mu tam bardziej ludzkich cech. Nadzieję, że to się uda, ma pięciu studentów z ośrodka badawczo-rozwojowego Entertainment Technology Center, którzy postanowili poświęcić semestr na to, aby tę mechaniczną kobietę uczynić bardziej ludzką. Zaczęli od zmiany imienia: ochrzcili ją „Yume”, co po japońsku znaczy „Marzenie”

– W firmie Kokoro nadano jej realistyczny wygląd, ale to za mało – tłumaczy doktorantka  Christine Barnes. – Musimy teraz zająć się nie tyle fizycznym podobieństwem, ile wiarygodnością wyglądu.

Actroidy należą do robotów najnowszej generacji: sztucznych tworów, które mają działać nie jako programowane maszyny przemysłowe, ale samodzielne jednostki zdolne do wypełniania rozmaitych funkcji w naszych domach, szkołach i biurach. Pierwsze jaskółki to odkurzacze Roomba, które kręcą się po mieszkaniu, czyszcząc dywany. Wkrótce pojawią się bardziej skomplikowane roboty, które będą gotowały, składały pranie, a może nawet pilnowały dzieci lub opiekowały się rodzicami w podeszłym wieku, pozwalając nam kontrolować sytuację na ekranie komputera z odległości wielu kilometrów.

– Za pięć, dziesięć lat roboty będą w naszym otoczeniu czymś zupełnie normalnym – mówi profesor Reid Simmons, specjalista w dziedzinie robotyki na Carnegie Mellon.

Taka perspektywa rodzi lawinę pytań. Ile naszych codziennych zajęć chcemy powierzyć maszynom? Jak te maszyny powinny wyglądać? Czy chcemy, żeby po naszych kuchniach kręciły się człekopodobne roboty, takie jak Yume, czy może zadanie lepiej wykona zamontowane w ścianie mechaniczne ramię, przy którym nie będziemy się czuli nieswojo? Czy robotyczna rewolucja zmieni relacje między ludźmi? Skonstruowane w Japonii mechaniczne foczki przytulanki, które mają zabawiać pensjonariuszy domów seniora, wywołały zastrzeżenia, że ci starsi ludzie odetną się od innych. Podobne obawy budzi perspektywa zaangażowania robota w charakterze opiekunki do dzieci. No i oczywiście podejmowane są nieśmiałe próby stworzenia zawsze chętnego androida erotycznego. W ubiegłym roku pewna firma z New Jersey przedstawiła mówiącą, reagującą na dotyk „osobę towarzyszącą”, co może sprawić, że kontakty międzyludzkie staną się jeszcze rzadsze. Podsumowując: czy jesteśmy już na to gotowi? Czy roboty są gotowe, by spełniać nasze oczekiwania?

„Robot lokaj” siedzi zatopiony w myślach w budynku znajdującym się niedaleko ośrodka techniki rozrywki Carnegie Mellon University. HERB (skrót od Home Exploring Robotic Butler) w niezbyt dalekiej przyszłości znajdzie być może zastosowanie jako pomocnik i opiekun osób starszych lub niepełnosprawnych. HERB nie jest zbyt przystojny. Zamiast nóg ma kółka, a jego tułów to składanka komputerowych części. Ale w przeciwieństwie do pięknolicej Yume HERB ma coś w rodzaju życia umysłowego. W chwili gdy go obserwujemy, przegląda różne możliwe scenariusze manipulacji zapamiętanymi obiektami – i to w tempie dziesiątków tysięcy takich scenariuszy na sekundę. W ten sposób podnosi sprawność swojego działania.

– Nazywam to „marzeniem” – mówi konstruktor HERB-a, prof. Siddhartha Srinivasa z Carnegie Mellon. – To znaczy robot wizualizuje różne możliwości własnego działania.

Roboty tradycyjne, np. spawające punktowo karoserie w fabrykach samochodów, programuje się tak, aby wykonywały sekwencję precyzyjnych działań – ale tylko w stałym, niezmiennym otoczeniu. Aby sobie poradzić w przestrzeniach zajmowanych przez człowieka, roboty w rodzaju HERB-a muszą postrzegać rozmaite obiekty i poruszać się, nie wpadając na ludzi, którzy też przecież są w ruchu. Układ postrzegania otoczenia HERB-a składa się z kamery i laserowego urządzenia nawigacyjnego umocowanego na wysięgniku ponad jego mechanicznym ramieniem. – Uważamy HERB-a za istotę płci męskiej, i mówimy o nim „on”, może dlatego, że lokaj kojarzy nam się z mężczyzną. No i jest taki zwalisty – wyjaśnia Srinivasa. Inaczej niż w przypadku robotów przemysłowych o napędzie hydraulicznym ramię i manipulator HERB-a poruszane są przez odbierający bodźce dotykowe system przewodów zbliżonych do ludzkich ścięgien. To konieczność, jeśli celem konstruktorów jest robot będący w stanie podtrzymać idącą do łazienki staruszkę i nie wyrzucić jej przez drzwi.

Jeden ze studentów pracowni Srinivasy przyciska guzik, wydając komendę, by HERB podniósł karton z sokiem stojący na stoliku. Laser HERB-a wiruje, tworząc w pamięci robota trójwymiarową mapę, na której zaznaczone jest położenie ludzi i przedmiotów, a kamera kieruje się na ten najbardziej przypominający karton z sokiem. Robot powoli chwyta i pionowo unosi karton. Potem na komendę łagodnie go odstawia. Dla kogoś niezorientowanego nie jest to osiągnięcie oszałamiające. – Kiedy to pokazałem mamie, nie mogła zrozumieć, dlaczego HERB tak długo się namyśla, nim weźmie filiżankę – opowiada Srinivasa.

Problem tkwi nie w HERB-ie, ale ustalonych dla niego warunkach początkowych. Podniesienie szklanki z napojem to dla człowieka łatwa czynność, ale jego mózg ewoluował przez miliony lat właśnie w celu koordynowania takich precyzyjnych czynności. Dla robota przemysłowego, który został zaprogramowany do wykonywania takiego zadania, to też bułka z masłem. Jednak różnica między robotem „socjalnym”, takim jak HERB, a zwykłym robotem przemysłowym polega na tym, że HERB wie, że przedmiot, który podniósł, jest kartonem soku, a nie filiżanką herbaty czy szklanką mleka. Z nimi bowiem musiałby postępować inaczej. Ta wiedza HERB-a wymaga mnóstwa obliczeń matematycznych i operacji informatycznych, ale w skrócie można ją określić jako „odbieranie informacji i inteligentne jej przetwarzanie, z uwzględnieniem całej wiedzy o otaczającym świecie zdobytej poprzednio”, jak to ujmuje Srinivasa.

Gdy HERB ma do czynienia z nowym przedmiotem, wyuczone poprzednio zasady kierują ruchami wrażliwego na dotyk ramienia i dłoni. Czy przedmiot ma uchwyt lub rączkę? Czy może pęknąć? Czy zawartość może się wylać? Zaprogramowanie go tak, aby mógł funkcjonować w rzeczywistych mieszkaniach, będzie zadaniem potwornie trudnym. HERB ma elektroniczny klakson, którym daje znać ludziom, że się do nich zbliża. Jeśli w pomieszczeniu jest tłok i duży ruch, wybiera najbezpieczniejszą metodę postępowania: stoi w miejscu i trąbi na każdego.

Takie rozwiązanie sprawdza się w  laboratorium, ale nie zostanie dobrze przyjęte np. w biurze. Ludzie mogą czerpać z ogromnego repertuaru ruchów, które wykonują bezwiednie. Wiedzą, jak uprzejmie ustąpić komuś z drogi, jak go wyminąć, czują, gdy wtargnęli w czyjąś przestrzeń osobistą. Z różnych badań, nie tylko tych prowadzonych na Carnegie Mellon, wynika, że oczekują tego samego od robotów socjalnych. Czujemy się nieswojo, gdy maszyny tych reguł nie przestrzegają albo gdy robią głupie błędy. Snackbot, inny robot skonstruowany i doskonalony w tej samej placówce, działa na wydziale informatyki uniwersytetu: odbiera od pracowników zamówienia na drobne przekąski i dostarcza je zamawiającym. Zdarza mu się pomylić zamówienia albo źle wydać resztę. Ludzie więcej mu wybaczają, gdy uprzedzi ich na wstępie, że nie jest niezawodny albo przeprosi za niedociągnięcie.

Konstruktorzy robotów muszą sobie poradzić również z ludzką naturą. – Niektórzy kradną robotowi przekąski – oburza się jeden z twórców Snackbota. – Mam to na wideo.

Snackbot to kurdupel, jak wiele innych robotów socjalnych ma niecałe półtora metra wzrostu. Jego głowa i buźka przypominają postaci z kreskówek. Nie naśladuje ludzkich kształtów, a jedynie je sugeruje. Dzięki temu wymagania wobec niego są mniejsze, a ponadto nie istnieje ryzyko, że robot wkroczy w strefę hipotetycznego zjawiska zwanego po japońsku bukimi no tani, co tłumaczy się na polski jako „dolina niesamowitości”. Hipoteza zaproponowana 40 lat temu przez japońskiego robotyka Masahiro Mori zakłada, że reagujemy pozytywnie na roboty nieco podobne do ludzi. Wraz ze zwiększaniem się podobieństwa robota do człowieka sympatia rośnie, ale w pewnym momencie dochodzi do spadku komfortu psychicznego: przy androidach łudząco do ludzi podobnych, ale jednak nienaturalnych, zaczynamy czuć się nieswojo. To załamanie to właśnie owa „dolina”.

Większość robotyków nie widzi powodu, by się do jej krawędzi zbliżać. Niektórzy jednak uważają, że trzeba zaryzykować. Inaczej nie da się bowiem przedostać na drugi brzeg doliny   – do krainy robotów, które wyglądają jak ludzie, a ponadto poruszają się i działają w sposób tak bardzo podobny do ludzkiego, że znów czujemy empatię zamiast niechęci. Do nieustraszonych eksploratorów tego terenu należy Hiroshi Ishiguro, człowiek stojący za powołaniem do życia dziewczyny imieniem Yume, czyli robota Actroid-DER. Chcąc zbadać różne aspekty emocjonalne interakcji między człowiekiem a robotami, Ishiguro inspirował opracowanie wielu innych nowatorskich robotów wzbudzających mniejszy lub większy niepokój. Ostatnio przyczynił się do stworzenia dwóch nowości. Pierwszą jest robot Geminoid DK, zdumiewająco wierny sobowtór pewnego duńskiego naukowca, z krótko przystrzyżoną bródką i sympatycznym uśmiechem. Drugą – Elfoid, skrzyżowanie robota z telefonem komórkowym w kształcie lalki, rozmiarami i wyglądem przypominającej ludzkiego wcześniaka.

Najbardziej znanym tworem Ishigury jest wcześniejszy model Geminoida – jego własny sobowtór. Gdy odwiedziłem Ishigurę w Kioto, w jego pracowni robotyki inteligentnej i łączności w instytucie ATR (Advanced Telecomunications Research Institute International), zobaczyłem dwie identycznie ubrane na czarno postaci, z taką samą grzywą czarnych włosów i takim samym zmarszczonym w namyśle czołem. Ishiguro, który prowadzi wykłady na uniwersytecie w odległej o dwie godziny drogi Osace, mówi mi, że stworzył swego silikonowego sobowtóra, aby móc się znajdować równocześnie w dwóch miejscach. W ten sposób może we własnej skromnej osobie uczyć studentów w Osace, a z kolegami z instytutu w Kioto porozumiewać się przez internet, używając sobowtóra. Odtwarza on mimikę Ishiguro dzięki umieszczonym na twarzy profesora sensorom ruchu. Podobnie jak inni pionierzy badań nad interakcjami między człowiekiem a robotem, Ishiguro zainteresowany jest nie tylko techniczną stroną zagadnienia, lecz także związanymi z nim   kwestiami filozoficznymi.

– Nie ma pan wątpliwości, że ja jestem rzeczywisty, a tamto – wskazuje sobowtóra – nie jest człowiekiem – mówi. – Ale to rozróżnienie będzie się stawało coraz trudniejsze. A jeśli w końcu nie będzie pan mógł wykryć różnic, czy wtedy będzie miało znaczenie, czy obcuje pan z człowiekiem, czy z maszyną?

Idealnym zastosowaniem dla sobowtóra, mówi Ishiguro, byłoby dotrzymywanie towarzystwa jego matce, która mieszka daleko, więc rzadko widuje syna.

– Dlaczego pańska matka miałaby zaakceptować towarzystwo robota? – pytam.

Dwie twarze robią marsową minę. – Bo to będę ja – mówi jedna z nich.

Nim roboty synowie zaczną w kontaktach z matkami wypierać synów prawdziwych, trzeba uzyskać więcej niż łudzące podobieństwo i sprawność poruszania się po mieszkaniu. Trzeba wkroczyć na zdradliwy grunt ludzkich stanów psychicznych i emocji. Nilanjan Sarkar   z Vanderbilt University i Wendy Stone z University of Washington w Seattle skonstruowali robota, który gra w proste gry z dziećmi autystycznymi.

Robot śledzi emocje dziecka, mierząc drobne zmiany tętna, intensywności pocenia się, kierunku patrzenia, a gdy stwierdzi znudzenie lub irytację, zmienia grę na inną, aż dostrzeże oznaki, że maluch znów dobrze się bawi. Jest to pierwszy krok ku odtworzeniu jednego z kryteriów człowieczeństwa: umiejętności rozumienia, że inni mają myśli i uczucia, oraz dostosowywania własnego zachowania do myśli i uczuć tych osób.

W artykule naukowym z 2007 r., prowokacyjnie zatytułowanym Czym jest człowiek?, psycholog rozwojowy Peter Kahn z Uniwersytetu Waszyngtońskiego wraz z Ishiguro i współpracownikami sporządził listę dziewięciu innych psychologicznych cech człowieka. W  jakim stopniu udałoby się je odtworzyć u człekopodobnych robotów, byłoby miarą sukcesu w ich konstruowaniu. Nacisk położono nie na techniczne możliwości robotów, ale na to, jak są postrzegane i traktowane przez ludzi.

Jedną z takich cech jest „wrodzona wartość moralna” – czy zakładamy, że robot zasługuje na podstawowe względy, które przyznajemy ludziom. Kahn aranżował gry w zgadywankę z udziałem dzieci lub nastolatków i małego androida nazwanego Robovie. Po kilku rundach, właśnie wtedy, gdy nadchodziła kolej Roboviego, by odpowiedzieć na pytanie, eksperymentator przerywał i mówił, że robota trzeba zamknąć do szafki. Ten protestował, tłumacząc, że to nie fair.

– Jesteś tylko robotem, więc to nie ma znaczenia – odpowiadał naukowiec. Robovie dalej protestował, ale na próżno, bo go zamykano. Interesująca była nie tyle postawa robota (który był sterowany przez drugiego badacza), ile reakcje osób biorących udział w eksperymencie.

– Ponad połowa mówiła, że zgadza się z Roboviem i że niesprawiedliwe było zamykanie go. To reakcja moralna – tłumaczy Kahn.

Fakt, że ludzie, zwłaszcza dzieci, współczują niesprawiedliwie potraktowanemu robotowi, nie jest zaskakujący. Przecież dzieci tworzą emocjonalne więzi z lalkami i innymi zabawkami. Znacznie trudniejszym do osiągnięcia celem jest nadanie zdolności do dokonywania osądów moralnych samemu robotowi. Czy można stworzyć maszynę, która będzie miała sumienie, chyba najbardziej ludzką z ludzkich cech?

Poczucie moralności u robota byłoby najbardziej użyteczne w sytuacjach, gdzie nasza postawa etyczna jest wystawiana na próbę – np. na polu walki. Konstruuje się coraz bardziej wyrafinowane maszyny bojowe w postaci zdalnie sterowanych bezzałogowych samolotów lub pojazdów naziemnych uzbrojonych w karabiny maszynowe i granatniki. Rządy różnych państw finansują prace nad urządzeniami, które pewnego dnia będą zdolne do samodzielnego podjęcia decyzji o tym, kiedy i do kogo otworzyć ogień. Trudno sobie wyobrazić pociągnięcie robota do odpowiedzialności za podjęcie błędnej decyzji. Wolelibyśmy, żeby był tak skonstruowany, aby jego decyzje były zawsze słuszne.

W tworzeniu robotów wyposażonych w poczucie moralności najdalej poszedł Ronald Arkin z Georgia Institute of Technology w Atlancie. Arkin mówi, że inspirują go do pracy nie tyle etyczne ograniczenia tych maszyn w podejmowaniu decyzji na polu walki, ile etyczne ograniczenia prawdziwych ludzi. W bitewnym zamęcie roboty nie będą ulegać zmiennym emocjom. Dlatego też, zdaniem Arkina, jest mniej prawdopodobne, by pod ogniem popełniały pomyłki i np. ze strachu atakowały cywili. Może się okazać, że będą podejmowały lepsze pod względem etycznym decyzje niż ludzie.

W  układzie projektowanym przez Arkina decyzję, czy otworzyć ogień, robot będzie podejmował na podstawie opinii „etycznego zwierzchnika” wbudowanego w jego oprogramowanie. Gdy dostrzeże cel, ten zwierzchnik sprawdzi, czy nie ma przeszkód, by strzelać. Lista przeszkód będzie wprowadzona do programu; wywodzą się one z regulaminu prowadzenia walki i przepisów prawa wojennego. I  tak np. uzyska aprobatę otwarcie ognia do nieprzyjacielskiego czołgu na otwartym polu, a do zgromadzenia nieprzyjacielskich wojskowych na cmentarzu w czasie pogrzebu – nie, bo stanowiłoby to pogwałcenie regulaminu walki.

Konieczny byłby jeszcze jeden składnik, „etyczny kontroler”, który ograniczałby użycie pewnych rodzajów broni. Jeśli broń o zbyt silnym działaniu wywołałaby szkody dodatkowe, niezamierzone – powiedzmy, pocisk rakietowy mógłby uszkodzić oprócz czołgu także dom mieszkalny – jej użycie byłoby zakazane, konieczne byłoby dostosowanie mocy do sytuacji. Zdaniem Arkina stanowiłoby coś w rodzaju sumienia u robota. Ostatnim elementem byłoby pozostawienie miejsca na osąd człowieka – „doradcy do spraw odpowiedzialności”. Ten składnik systemu, który pozwoliłby człowiekowi wyłączyć zaprogramowanego „etycznego zwierzchnika”, jeśli uznałby, że robot za bardzo się waha lub przekracza swoje kompetencje. Arkin przyznaje, że zaprojektowany przez niego system nie nadaje się jeszcze do zastosowania w praktyce, niemniej „daje do myślenia wojskowym”, jeśli idzie o aspekty moralne. – Zmusza to też społeczność międzynarodową do myślenia o tej kwestii – mówi naukowiec.

Na Carnegie Mellon kończy się semestr wiosenny, a ja wracam, żeby zobaczyć, jak wygląda Yume po przeróbkach dokonanych przez studentów. To była trudna droga od podobieństwa do wiarygodności. Yan Lin, programista zespołu, stworzył przyjazny dla użytkownika interfejs oprogramowania, który płynniej niż poprzednio steruje ruchami Yume. Ale próba wyposażenia żeńskiego robota w zdolność do wykrywania twarzy oraz nawiązywania bardziej naturalnego kontaktu wzrokowego udała się tylko połowicznie. Najpierw jej oczy chwytają moje spojrzenie, a dopiero potem głowa obraca się mechanicznym ruchem na dwa takty. Chcąc jakoś zamaskować jej konwulsyjne ruchy i nie najlepszy kontakt wzrokowy, zespół stwierdził, że należy Yume wcielić w jakąś postać, która w rzeczywistości zachowywałaby się podobnie. Wymyślono więc jej przebranie młodej dziewczyny – trochę zbuntowanej, trochę się popisującej, chcącej zwrócić na siebie uwagę.

I to się udało. Ale mimo modnych ciuchów (np. rękawiczek bez palców, mających ukryć sztywność dłoni, albo pomalowanych na ciemno warg maskujących jej nieumiejętność pełnego zamknięcia ust) w środku została tą samą starą Actroid-DER. Ale teraz przynajmniej zna swoje miejsce. Zespół zrozumiał, jak ważne jest wstępne ograniczenie oczekiwań, więc przygotował dla niej nową mowę wstępną: – Nie jestem człowiekiem! – wyznaje Yume. –  Nigdy nie będę taka jak ty. Ale nie martwię się tym bardzo. Właściwie to cieszę się, że jestem androidem.

Chris Carroll