Rozmawia Paulina Szczucińska

Czy naukowcy potrafią przewidzieć przyszłość? Przynajmniej tę najbliższą?

Łatwo nie jest. Choćby dlatego, że nawet nie znamy przeszłości. Jak przewidywać, co się stanie, jeśli nie wiemy dokładnie, co było? Można pokusić się o stwierdzenie, znane zresztą jako determinizm Laplace’owski: gdybyśmy znali całą przeszłość Wszechświata, znalibyśmy też całą przyszłość. Spójrzmy na fizyków. Próbują wyjaśnić początek świata teorią Wielkiego Wybuchu i opisać prawa rządzące najmniejszymi elementami materii. Stosują jednak wybieg: zakładają, że ich teoria zaczyna obowiązywać nie od samego początku, lecz po maleńkim ułamku sekundy. Dla mnie, matematyka, taki wybieg jest na granicy nadużycia intelektualnego, bo dotyczy hipotezy nieweryfikowalnej. Nie potrafimy cofnąć czasu i sprawdzić, co się działo prawie 14 mld lat temu – bo tak stary według fizyków jest Wszechświat. Odwrócić bieg czasu – to jedno z największych marzeń naukowców. Mało realne, niestety.

Mimo ograniczeń powstają kolejne symulatory przyszłości, właśnie ruszył europejski projekt Living Earth Simulator, ma być gotowy do 2022 r. Zajmuje się prognozowaniem interakcji różnych sfer naszego życia, od ekonomii po klimat. Kosztuje miliard euro. Sporo.

Przyznaję, nie jest to łatwe zadanie. Wystarczy wspomnieć działający w latach 2002–2009 japoński projekt Earth Simulator. Uruchomienie go wymagało wybudowania w Jokohamie wielkiego centrum z najszybszym wówczas komputerem na świecie. Miał m.in. przewidywać klimat. Jednak efekt tych działań był bardzo umiarkowany. Nie wzięto bowiem pod uwagę, że największe nawet obliczenia okażą się niezadowalające, jeśli nie bazują na wystarczającej ilości wiarygodnych danych. Jeżeli te dane nie podlegają ciągłej aktualizacji, to obliczenia przestają mieć wartość.

Tymczasem ludzie lubią wiedzieć, co się stanie. Najpopularniejsze przewidywania dotyczą pogody. Są coraz dokładniejsze. Będą nieomylne?

Pracujemy nad tym – my i wiele zespołów naukowych na świecie – choć jest kilka „ale”. Prognozowanie czegokolwiek polega na tworzeniu uproszczonego opisu rzeczywistości. Do uproszczeń dochodzi w kilku etapach, a każdy sprawia, że wynik coraz bardziej oddala się od realiów. Najpierw opisujemy jakieś zjawisko za pomocą równań, które już same z siebie niedokładnie przedstawiają rzeczywistość. Gdy na lekcji fizyki kazano pani obliczyć prędkość pojazdu, nikt nie martwił się o opór powietrza. Dostawała pani zatem wynik przybliżony. W przypadku prognoz pogody równania te są oczywiście bardziej złożone, ale problem jest ten sam: już na tym etapie możemy mieć pewność, że efekt końcowy będzie zaledwie przybliżeniem rzeczywistości.

Może kiedyś powstanie idealny model świata?

Zbliżony do ideału – na pewno. Ale nie taki opisujący świat 1:1. Jest to dla nas, naukowców, dość optymistyczna teza. Karl Popper powiedział, że każda teoria naukowa wcześniej czy później okaże się falsyfikowalna, bo została zbudowana na uproszczeniach. Wobec tego zawsze jest możliwy postęp i dotychczas obowiązującą teorię zastąpi inna, nowsza. Czyli praca dla nas będzie zawsze.

Ha, a jednak przewiduje pan przyszłość!

No tak, ale nadal przecież nie wiem, jakie dokładnie to będzie zajęcie. Ale wróćmy do pro gnoz. Gdy już wybraliśmy równania opisujące zjawisko, fachowo nazywamy to modelem matematycznym, musimy pod wszystkie zawarte w nim parametry podstawić konkretne liczby. Wyznaczamy je na podstawie pomiarów. Jest to dość złożone zadanie; w naszych modelach prognozowania pogody dane pochodzą z ponad 3 tys. źródeł. I tu pojawia się kolejny problem: dane pomiarowe zawsze są niedokładne, taka już jest ich uroda. Zawsze też musimy brać poprawkę na to, że gdzieś coś zostało zmierzone nie tak, jak należy. Wystarczy, że meteorolog się pomyli i nieprawidłowo wpisze czas pomiaru. Albo zostanie on wykonany w nieco innym miejscu niż zwykle.

To ma znaczenie?

Może mieć kolosalny wpływ! To jest tzw. efekt motyla. Klasycznie opisuje się to tak: machnięcie skrzydłem motyla w Amazonii, może spowodować, że na Mazowszu zawiruje trąba powietrzna. Im bardziej skomplikowany proces, tym większe zmiany mogą zostać spowodowane przez drobne zakłócenie. Ale nawet gdybyśmy przyjęli, że z obszaru Polski dostarczane są absolutnie precyzyjne dane, sięgnijmy myślami na wschód, na Syberię. Tam stanowisk pomiarowych nie ma zbyt wielu. A zatem cokolwiek robimy, dane z tamtego obszaru są niekompletne. Podobnie jest nad oceanami, w Arktyce. Te białe plamy sprawiają, że wszystkie prognozy nie mogą być dokładne.

Nie można prowadzić pomiarów z satelity?

Niektórych pomiarów, np. profilu temperaturowego, nie da się w ten sposób dokładnie zmierzyć. Poza tym co zrobić, gdy będzie zachmurzenie? Raz dane są, a raz ich nie ma? To niedopuszczalne w przygotowywaniu prognoz. Zresztą obserwacje satelitarne i tak nie pokrywają całej atmosfery.

Mamy niedokładny model i złe dane. Co dalej?

Łączymy te dwie rzeczy: podstawiamy dane do równań zawartych w modelu i liczymy, używając do tego komputerów. Jednak znowu problem tkwi w naturze obliczeń. Już sam sposób rozwiązywania skomplikowanego układu równań za pomocą komputera wymaga wprowadzania kolejnych uproszczeń. Naprawdę trzeba się postarać, by wynik dobrze oddawał rzeczywistość. Do tego musimy narzucić sobie różne ograniczenia. Na przykład zasięgu terenu objętego prognozą. Gdybyśmy za każdym razem liczyli pogodę dla całego Wszechświata, nasze szanse na sukces byłyby raczej mizerne. I chociaż na Ziemi mamy wspólną atmosferę, która się przemieszcza, trzeba założyć, że odległe zdarzenia, np. te na półkuli południowej, nie mają znaczenia dla naszej prognozy.

Ale to wprowadza kolejne niedokładności.

Rygorystyczne podejście naukowe zawsze, niezależnie od obiektu badań, wymaga ustalenia ram formalnych. Tylko wtedy możemy przyjąć aparat pojęciowy i narzędziowy, w ramach którego można rozstrzygać, co jest poprawne, a co nie. Nauka może się poruszać tylko w zakresie, który sobie najpierw obuduje. Pojęcie prawdy zawsze jest ograniczone ustalonymi na początku ramami. Przywołam znany z lekcji matematyki aksjomat mówiący, że dwie proste równoległe to takie, które się nigdy nie spotkają. Ale można też zbudować geometrię zakładającą, że proste równoległe spotykają się w nieskończoności – na tym bazuje ogólna teoria względności Einsteina. Czy możemy rozstrzygnąć, która z tych teorii jest prawdziwa? Nie. Obie są dobre, sprawdzają się w swoim zakresie. Nie ma bowiem jednej uniwersalnej teorii naukowej, która zawierałaby całą wiedzę. Każda dyscyplina nauki, od biochemii po kosmologię, opiera się na swoich założeniach i ramach.

Czy ma to przełożenie na naszą codzienność?

Warto o tym pamiętać, gdy publicyści i politycy ocierają się o naukę. Używają pozornie naukowego języka, formalizmów, lecz nie stosują koniecznych dla nauki ograniczeń i założeń. Wyciągają wnioski dotyczące naszej przeszłości i przyszłości, ignorując część podstaw, działają na pograniczu nadużycia. Jaskrawym przykładem są komentarze po katastrofie lotniczej w Smoleńsku. Nagle zaczęto mówić: niech nauka rozstrzygnie, jak było naprawdę. Pojawili się różni specjaliści, którzy twierdzą ad hoc, że brzoza nie mogła spowodować oberwania się skrzydła, „naukowo” udowadniając, że belka na brzozie się nie złamie. Tymczasem samolot to bardzo skomplikowany system. Aby wypowiedzieć się w tej kwestii w sposób mający choćby odrobinę znamion naukowych, należałoby użyć wiarygodnego modelu komputerowego tego właśnie typu samolotu. Taki model jednak nie istnieje. A jego stworzenie to koszt rzędu kilkudziesięciu milionów złotych.

Aż tyle?

Tyle kosztowałoby opracowanie modelu komputerowego, który pozwoliłby opisać wszystkie procesy dynamiczne zachodzące w samolocie. To standard badań w przemyśle, producenci samochodów też robią wirtualne testy zderzeniowe, nim zbudują prototyp. W przypadku Tu-154 trzeba by wykonać pracę od końca: istniejący sprawny samolot wykorzystać do weryfikacji hipotez, pomiaru parametrów i wtedy stworzyć jego model. Inaczej wszelkie wyjaśnienia są tylko domysłami i nie mają wymiaru naukowego. Warto uświadamiać ludziom, gdzie leżą granice nauki.

Gdzie wobec tego znajduje się granica nauki w przewidywaniu pogody?

Oczywiście im dłuższa prognoza, tym mniej wiarygodna. Nakładanie się niedokładności powoduje, że model, który początkowo daje wynik zbieżny z rzeczywistością, po pewnym czasie się z nią „rozjeżdża”. Czyli traci wartość prognostyczną. Rozsądną granicą jest prognoza około 10-dniowa. Jej wiarygodność jest umiarkowana, ale daje jakieś wyobrażenie o pogodzie, jeżeli nie wydarzą się jakieś gwałtowne zjawiska, np. silne burze. Tworzy się ją z niską rozdzielczością: w modelu komputerowym na teren nanosimy siatkę wirtualnych punktów oddalonych od siebie o 20 km. I liczymy, jakie w każdym z tych punktów będą wartości temperatury, ciśnienia, wilgotności, wiatru. To właśnie gęstość rozmieszczenia tych punktów decyduje o dokładności prognozy. W precyzyjniejszym modelu z siatką czterokilometrową, który jest dostępny na stronie internetowej ICM-u, prognozujemy pogodę do 60 godzin w przód. Dla zwykłych użytkowników, którzy chcą znać pogodę w ciągu najbliższych dni, to wystarczy. Jednak nasz instytut uruchamia model o rozdzielczości 1 km w poziomie.

Ile czasu by przewidywał?

24 godziny, może 48. To ambitne przedsięwzięcie. Bo trzeba trzykrotnie zagęścić liczenie w poziomie i w pionie. Czyli dla tego samego obszaru mamy do wykonania 27 razy więcej obliczeń. Musimy też liczyć kilka razy częściej na jednostkę czasu. To oznacza, że nagle mamy ok. 100 razy więcej do policzenia. Jeżeli do tej pory pojedyncze przeliczenie modelu trwało około godziny, teraz miałoby trwać 100 godzin. To bez sensu, bo taka prognoza już w czasie tworzenia przestawałaby być aktualna. Żeby temu podołać, musimy użyć dużo szybszych komputerów oraz stworzyć i uruchomić całkiem nowy system obliczeń. Ma ruszyć pod koniec tego roku.

A jak to się stało, że ludzie opracowujący wysublimowane instrumenty finansowe, dysponujący przecież wielkimi sumami na ośrodki obliczeniowe, niewłaściwie oszacowali ryzyko, co doprowadziło do obecnego światowego kryzysu?

W przypadku modeli finansowych często stosowano formalizmy rodem z dyscyplin naukowych związanych z fizyką. Chodzi o tzw. Nieliniowe modele typu dyfuzyjnego. Zjawisko, które modele te opisują, zna każdy – wystarczy np. poobserwować, jak esencja herbaty z torebki rozchodzi się w szklance gorącej wody. Problem polega na tym, że finansiści ustalili bardzo odważny zakres zastosowania takich modeli. Ustalili niebezpiecznie szerokie ramy obliczeń i nie wzięli pod uwagę wynikających z tego niedokładności. I takie działanie skończyło się niemiłą niespodzianką.

W teoriach wziętych ze świata fizyki nikt nie bierze pod uwagę, że człowiek zachowuje się w sposób nieprzewidywalny.

To fundamentalna rzecz. Trzeba uważać z odważnym stosowaniem analogii zjawisk fizycznych w innych dziedzinach. Na przełomie lat 60. i 70. XX w. politycy, biznesmeni i naukowcy różnych specjalności założyli tzw. Klub Rzymski, który prognozował przyszłość świata. W 1972 r. wydali dzieło Granice wzrostu – analizę dostępności zasobów Ziemi w warunkach wzrostu liczby ludności. Według najbardziej pesymistycznej diagnozy zawartej w raporcie zasoby ropy naftowej miały wyczerpać się w 1992 r. Autorzy przestrzegali też, że jeśli nie zmieni się polityka zagospodarowania przestrzeni, po 2000 r. na świecie zabraknie terenów uprawnych koniecznych do wykarmienia populacji. Był czas, gdy traktowano te przewidywania bardzo poważnie. Nie wzięto jednak pod uwagę, że uproszczenia zastosowane w obliczeniach są tak duże, że nie mogą pokazywać przyszłości. Po raz kolejny rzeczywistość zweryfikowała zapędy ludzi i możemy się dokładnie przyjrzeć, jak mylne są wnioski wyciągane na podstawie zbyt śmiałych przewidywań i uproszczeń.

 

Prof. Marek Niezgódka jest matematykiem, dyrektorem Interdyscyplinarnego Centrum Modelowania Matematycznego i Komputerowego UW (ICM), które słynie m.in. z przygotowań bardzo dokładnych numerycznych prognoz pogody. Prof. Niezgódka jest orędownikiem stosowania otwartych licencji i inicjatorem m.in. projektu Wirtualnej Biblioteki Nauki.