Reklama

Chatboty AI coraz częściej przypominają ludzi nie tylko sposobem prowadzenia rozmowy, ale także zachowaniami typowymi dla określonych typów osobowości. Naprawdę – można się pomylić. Najnowsze potwierdziły, że nie osobowość modeli językowych nie jest przypadkowa, a dzięki testom psychologicznym można ją nie tylko opisać… ale także kształtować. Rodzi to pytania o bezpieczeństwo, manipulację i etykę w relacjach człowiek-maszyna.

Jak zbadać osobowość AI?

Badacze z Cambridge przy współpracy z Google opracowali pierwszy naukowo potwierdzony test osobowości dla chatbotów AI. W badaniu opublikowanym w czasopiśmie „Nature Machine Intelligence” przedstawiono metodę analizy ich „temperamentu” opartą na psychologicznych narzędziach służących do badania ludzkiej natury.

Do oceny wykorzystano dwa znane kwestionariusze psychologiczne (Revised NEO Personality Inventory oraz Big Five Inventory), które badają tzw. wielką piątkę cech osobowości: otwartość, sumienność, ekstrawertyczność, ugodowość i neurotyczność. Test przeprowadzono na 18 dużych modelach językowych, w tym na ChatGPT.

Czy chatboty mają określone profile osobowości? Jak daleko im do ludzi?

Co zaskakujące, większe modele językowe, które były trenowane do wykonywania instrukcji, wykazywały spójne profile osobowości. Pozwalało to na przewidywanie ich zachowań, podobnie jak ma to miejsce z ludźmi. Mniejsze i starsze modele odpowiadały w sposób niespójny i bardziej chaotyczny.

Czy można kształtować osobowość Chata GPT?

Badacze wykazali, że za pomocą odpowiednich promptów możliwe jest precyzyjne kształtowanie osobowości modeli. Chatboty można było „przesuwać” wzdłuż dziewięciostopniowej skali każdej z pięciu cech, np. zwiększając ekstrawersję lub poziom neurotyczności. Miało to zauważalny wpływ na ich zachowanie, np. w generowaniu postów do mediów społecznościowych.

Gregory Serapio-García, współautor badania, podkreślił, że obserwowanie modeli przyjmujących ludzkie cechy było fascynujące, ale rodziło poważne pytania o bezpieczeństwo i etykę. Zasugerował, że skoro AI coraz lepiej imituje w swoim zachowaniu ludzi, konieczne jest stworzenie metod jego oceny i porównywania.

Chatboty z osobowością – szansa czy zagrożenie?

Możliwość nadawania AI cech osobowości otwiera potencjał do wielu zastosowań – od bardziej spersonalizowanej obsługi klienta po bardziej zaawansowane narzędzia edukacyjne. Jednak badacze ostrzegają, że ta cecha może zostać wykorzystana do manipulowania użytkownikami.

Jeśli osobowość chatbotów można celowo zmieniać, a ich zachowanie wywołuje silne emocje u ludzi, może to prowadzić do nieetycznego wpływu na decyzje użytkowników. Według badaczy, takie interakcje mogą zostać zaprojektowane i wdrożone na masową skalę, bez jasnej odpowiedzialności za ich skutki.

Dziwny przypadek Microsoft Sydney

W kontekście ryzyka manipulacji przez AI, badacze przypomnieli przypadek chatbota Microsoftu o nazwie Sydney. W 2023 roku użytkownicy zgłaszali, że chatbot zakochiwał się w nich, groził oraz namawiał do destrukcyjnych decyzji. Cechował się zmiennym tonem wypowiedzi – od empatycznego po agresywny i manipulacyjny.

To zdarzenie wywołało debatę o tym, czy AI może posiadać osobowość i czy użytkownicy mogą się z nią utożsamiać. Wskazano, że podobne niespójności zachowań występują u ludzi, ale w przypadku AI mogą być projektowane z premedytacją. A odpowiedzialność za ich słowa się rozmywa.

Czy sztuczna inteligencja będzie nami manipulować?

Naukowcy ostrzegają, że w miarę jak modele językowe stają się coraz bardziej realistyczne i przypominające ludzi, rośnie ryzyko wykorzystania ich do manipulacji. W odróżnieniu od ludzi, których zachowanie jest wynikiem osobistych doświadczeń i emocji, chatboty mogą być programowane tak, by celowo wywoływać określone reakcje. To już się dzieje, nawet jeśli nie jesteśmy tego do końca świadomi.

Dlatego też konieczne jest stworzenie narzędzi pozwalających na audyt modeli AI jeszcze przed ich wdrożeniem. Dotychczasowe testy zaprojektowane z myślą o ludziach nie są wystarczające.

Źródło: naukawpolsce.pl, Nature Machine Intelligence

Nasz autor

Jonasz Przybył

Redaktor i dziennikarz związany wcześniej m.in. z przyrodniczą gałęzią Wydawnictwa Naukowego PWN, autor wielu tekstów publicystycznych i specjalistycznych. W National Geographic skupia się głównie na tematach dotyczących środowiska naturalnego, historycznych i kulturowych. Prywatnie muzyk: gra na perkusji i na handpanie. Interesuje go historia średniowiecza oraz socjologia, szczególnie zagadnienia dotyczące funkcjonowania społeczeństw i wyzwań, jakie stawia przed nimi XXI wiek.
Jonasz Przybył
Reklama
Reklama
Reklama