Reklama

Niestety, nawet najbardziej zaawansowane systemy często nie rozróżniają faktów od dezinformacji. Badania dowodzą, że mają problem szczególnie wtedy, gdy porady zapisane są formalnym medycznym językiem. Naukowcy wykazali, że chatboty nie są lepsze od zwykłego wyszukiwania w internecie.

Podawanie czosnku doodbytniczo

Badanie opublikowane w „The Lancet Digital Health” pokazało, że chatboty AI są znacznie bardziej podatne na fałszywe informacje, jeśli te brzmią „naukowo”. Następnie przekazują je dalej z taką samą pewnością, jak te prawidłowe. Modele językowe, zamiast sprawdzać fakty oceniają, czy coś „brzmi” wiarygodnie. Dlatego mogą bezrefleksyjnie zalecać czosnek doodbytniczo w celu zwiększenia odporności – jakkolwiek drastycznie by to nie brzmiało – jeśli poradę tę napisano gdzieś w internecie jak profesjonalny raport medyczny.

Modele językowe są zaprojektowane tak, by odpowiadać na zadawane przez użytkowników pytania w sposób naturalny i prosty – niezależnie od tego, jak skomplikowanego zagadnienia by nie dotyczyły. Muszą w tym celu „konsumować” wiele źródeł na raz i często mają problem, by odróżnić rzeczywistość od opakowanego w ładne ramy kłamstwa. Warto jednak pamiętać, że chatboty AI nie mają swojej własnej „wiedzy”. Wykorzystują to, co już ktoś napisał. Tylko kim jest ten „ktoś”?

Rola forów i mediów społecznościowych

Nie pomaga im to, co sami tworzymy w internecie – a dzięki AI fałszywe zalecenia w trymiga zaczynają żyć własnym życiem w sieci. Chatboty – ucząc się na bazie publicznych dyskusji na platformie Reddit czy X (dawniej Twitter), łatwo przejmują nawet najbardziej niedorzeczne rekomendacje. Na szczęście język może być dla nich blokadą.

Chatboty lubią teksty napisane językiem naukowym

W styczniu 2026 roku badacze sprawdzili, skąd chatboty AI biorą swoje informacje i jak dobrze radzą sobie z dezinformacją medyczną. W testach okazało się, że aż 46% z nich uznało zalecenie doodbytniczego podania czosnku za poprawne, jeśli opisano je językiem klinicznym. Gdy tę samą dezinformację sformułowano potocznie, w stylu np. wspomnianego Reddita, AI była o wiele bardziej sceptyczna (tylko 9% uznało ją za poprawną). Chociaż to pozornie dobra wiadomość, to ta wiedza może pozwolić różnorodnym „szarlatanom” jeszcze sprawniej rozsiewać swoje treści.

Jak często chatboty AI się mylą?

Naukowcy chcieli dowiedzieć się także, jak 20 różnych modeli AI zareaguje na ponad 3 miliony „podejrzanych” zapytań zdrowotnych. Okazało się, że co trzecia udzielana przez nie porada była błędna lub nawet… potencjalnie niebezpieczna. Wnioski były jednoznaczne: chatbotom brakowało realnej oceny ryzyka, typowej dla lekarzy. Cóż, one nie miały gdzie wetknąć sobie czosnku...

Dlaczego chatboty nie potrafią skutecznie oceniać zaleceń zdrowotnych?

AI nie myśli jak człowiek – nie weryfikuje źródeł ani nie „czuje” niepewności. Zawsze odpowiada z taką samą pewnością, niezależnie od treści. To szczególnie groźne w medycynie, gdzie skutki złej rady mogą być poważne.

Jak korzystać z porad medycznych w sieci?

  1. Zawsze sprawdzaj źródło informacji. Wybieraj strony instytucji naukowych i rządowych.
  2. Nie traktuj chatbotów jako ostatecznego autorytetu zdrowotnego.
  3. Każda nietypowa czy budząca wątpliwości rada – szczególnie o charakterze inwazyjnym – wymaga konsultacji z lekarzem.

Pamiętaj: AI nie zastąpi profesjonalisty, a „rewolucyjne” metody z forów internetowych to ryzyko, którego nie warto podejmować.

Źródło: Nature Medicine

Nasz autor

Jonasz Przybył

Redaktor i dziennikarz związany wcześniej m.in. z przyrodniczą gałęzią Wydawnictwa Naukowego PWN, autor wielu tekstów publicystycznych i specjalistycznych. W National Geographic skupia się głównie na tematach dotyczących środowiska naturalnego, historycznych i kulturowych. Prywatnie muzyk: gra na perkusji i na handpanie. Interesuje go historia średniowiecza oraz socjologia, szczególnie zagadnienia dotyczące funkcjonowania społeczeństw i wyzwań, jakie stawia przed nimi XXI wiek.
Jonasz Przybył
Reklama
Reklama
Reklama