Problemy z prognozami pogody


07-11-2017 19:57:17

Z prof. dr. hab. Szymonem P. Majewskim, dyrektorem Instytutu Geofizyki na Wydziale Fizyki UW, rozmawia Jerzy Bojanowicz.

- Czy prognozy pogody są bardziej wiarygodne niż kilka lat temu?

- Oczywiście. Są dużo lepsze, czego dowodzą obiektywne wskaźniki ich dokładności, porównujące prognozę z tym, co wydarzyło się w atmosferze. Obserwujemy ciągły postęp w jakości prognoz, co jednak nie znaczy, że potrafimy dobrze przewidzieć niektóre zjawiska, które nam się wymykają spod kontroli.

- Jakie to wskaźniki?

- Jest ich bardzo dużo i są publikowane w rozmaitych centrach zajmujących się prognozami pogody. Podstawowym, stosowanym od pierwszych, obejmujących tylko półkulę północną numerycznych prognoz pogody, czyli od lat 60. ub. wieku, jest pole ciśnienia. Ale nie na powierzchni ziemi, ponieważ mówimy: pole powierzchni geopotencjalnej 500 hP. Wraz z nowymi superkomputerami ten wskaźnik systematycznie się poprawia. I tak korelacja prognozowanego na 5 dni ciśnienia ze zmierzonym przekracza obecnie 95%.

Natomiast jeśli chodzi o prognozy globalne, obliczane dla całej planety, bo przecież atmosfera nie ma granic, to najlepszy wskaźnik mają prognozy Europejskiego Centrum Prognoz Średnioterminowych (ECMWF).

- Czy to jest zasługa ludzi czy używanego przez nich sprzętu i technologii?

- Nadal największym problemem w prognozowaniu jest określenie aktualnego stanu atmosfery. Rozwiązujemy równania, stosujemy podstawowe prawa fizyki: dynamiki płynów, termodynamiki związane z transferem radiacyjnym i przemianami fazowymi praz własnościami powierzchni ziemi: parowaniem, wymianą ciepła, wilgoci, pędu itd. Od strony technicznej, czyli matematyczno-algorytmicznej, obliczenia wykonujemy bardzo dobrze. Gdybyśmy więc znali dokładny stan atmosfery, to prognozy byłyby dużo, dużo dokładniejsze.

 Prognozując pogodę atmosferę, dzielimy na kostki: powierzchnię ziemi pokrywamy siatką, a w atmosferze tworzymy poziomy. W każdym obliczamy parametry powietrza: temperaturę, wilgotność, składowe prędkości wiatru, czy są chmury itd. I na ich podstawie obliczamy dodatkowe parametry, np. opad. W celu przedstawienia prognozy, czyli ewolucji tych wszystkich pól w czasie, w każdej kostce musimy podać stan początkowy.

Dziś kostka ma podstawę o długości 10 km i 50-70 warstw w pionie. Skąd więc wziąć dane, by wystartować z prognozowaniem? W Polsce jest ok. 50 stacji meteorologicznych, w których pomiary są wykonywane co godzinę, oprócz tego wykonuje się pomiary punktowe, które nie są reprezentatywne dla całej kostki, zaś balony meteorologiczne wypuszczany 2 razy na dobę we Wrocławiu, Łebie i Legionowie. W ten sposób uzyskujemy dane, które wykorzystujemy w opracowaniu prognozy, ale z większości kostek nie mamy takich danych. Musimy więc dokonywać jakieś interpolacji – przybliżenia. Ale i te dane, które mamy, nie są koniecznie reprezentatywne dla tych kostek. Niemniej, choć dysponujemy 1‰ informacji dotyczących stanu początkowego atmosfery, to możemy prognozę obliczyć.

Umożliwiają to tzw. techniki asymilacji danych do modelu i uwzględnianie różnego rodzaju danych niebezpośrednio mówiących o stanie atmosfery. Przykładem są pomiary satelitarne, ale co widzi satelita? Zlicza tylko fotony wpadające do czujnika. Nie mierzy temperatury i jej określenie z grubsza w różnych warstwach atmosfery czy też podanie wysokości, na jakiej znajdują się chmury, jest wynikiem sprytnego przetwarzania tych danych, które nie zawsze musi prawdziwe.

Jest to taki reverse engineering, który w matematyce nazywamy rozwiązywaniem zagadnień odwrotnych i to źle postawionych. Bo przecież taka sama liczba fotonów w określonym czasie mogła wpaść do czujnika z innego powodu niż nam się wydawało! Dlatego zamiast obliczać jedną prognozę, obliczamy kilkadziesiąt: na podstawie niepełnych danych konstruujemy kilkadziesiąt warunków początkowych i „wypuszczamy” obliczenia w przyszłość. Jest to oczywiście możliwe dzięki olbrzymim mocom obliczeniowym komputerów, od lat dysponujemy znakomitymi, stale aktualizowanymi programami.

Obserwujemy, jak wygląda ewolucja w kilkudziesięciu wirtualnych atmosferach. I w każdym punkcie na powierzchni ziemi możemy obserwować, czy wygląda tak, jak powinna, czy nie. Jeśli np. 30 realizacji pokazuje nad Warszawą jakąś temperaturę, a 20 inną, to wiemy, że nasza prognoza na określony okres jest mało wiarygodna. Ale jeśli wszystkie pokazują podobną, to jest wiarygodna. Mamy więc a priori informację o prawdopodobieństwie prognozy, która, niestety, bardzo rzadko, zwłaszcza w Polsce, jest podawana w mediach.

Kolejną kwestią jest to, że jeśli w prognozie globalnej oczko siatki ma 10-20 km, to nie ma w nich pojedynczych chmur czy jakiś zjawisk burzowych. Dlatego lepiej postawić prognozę lokalną: wydzielić kawałek atmosfery, wziąć z modelu globalnego to, co jest na brzegu i dokładnie, z lepszą rozdzielczością, „przeliczyć” zjawiska w mniejszej skali. Niestety mamy problem, bo znowu pojawia się kwestia asymilacji danych, czyli nakarmienia modelu lokalnego ogromną ilością danych, których nie mamy, a następnie interpretacji, które ze zjawisk model w danej siatce w przybliżeniach i równaniach – może dobrze reprezentować. Ta wiedza jest niezbędna przy interpretacji wyników prognoz.

Jeśli chodzi o sprzęt kojarzący się z pomiarami pogody, to czy temperaturę zmierzymy z dokładnością do 1/10°C czy 1/100°C, nie ma aż tak dużego znaczenia, bo mamy pomiary punktowe, reprezentujące znacznie większy obszar. Ważne, by były one powtarzalne, termometr był stabilny, a ich wyniki bardzo szybko docierały do centrów obliczeniowych. Dlatego rewolucja sprzętowa jest związana z rewolucją internetową i telekomunikacyjną.

Wyjątkiem jest wilgotność – szczególnie bardzo blisko tzw. stanu nasycenia powietrza, w którym mogą pojawić się chmury – gdyż mamy problem z jej bardzo dokładnymi pomiarami. Podstawowym mankamentem higrometrów jest złe działanie w całym zakresie wilgotności występującej w atmosferze. Ponadto higrometr musi odróżniać stan nasycony od nienasyconego. Pamiętajmy też, że wilgotność względna zależy od temperatury. Dlatego pracujemy nad budową nowych czujników wilgotności. 

- W USA z wyprzedzeniem wiedzą o nadciagających tornadach, a w Polsce nie przewidziano wichury w Borach Tucholskich: czy to efekt skali, bo tornado ma do przebycia setki kilometrów, odległość przekraczającą szerokość Polski?

- To zasługa organizacji służby meteorologicznej i systemu ostrzegania. Tam tornada, które mogą powstać w 10 minut, są problemem od lat i cały system ich wykrywania i ostrzegania przed nimi jest ciągle doskonalony. W Polsce dopiero zaczynamy sobie zdawać sprawę z faktu, że bardzo silne zjawiska burzowe stają się - wraz ze zmieniającym się klimatem – coraz groźniejsze, ale wciąż jesteśmy bardzo opóźnieni.

Istotne jest znalezienie w modelu, który nie oddaje rzeczywistości, bo jest przybliżony, warunków, w których może powstać tego typu zjawisko. I to z wyprzedzeniem, a w dużym stopniu zależy ono od warunków lokalnych. Trzeba wprowadzić dane i wykonać obliczenia, co wymaga odpowiedniej liczby ludzi i sprzętu, jak np. radary dopplerowskie, dane satelitarne itd. Nie dbamy też, by mieć do wszystkiego dostęp. Polska, jako jedyny kraj w UE, nie należy do ECMWF!

- A dlaczego w jednych serwisach internetowych prognozy są bardziej prawdziwe niż w innych?

- Znakomita większość popularnych serwisów korzysta z amerykańskiej globalnej prognozy pogody (National Oceanic Atmospheric Administration, NOAA).

- To dlaczego się różnią?

- Różnią się, ponieważ serwisy zatrudniają ludzi o różnych kompetencjach. Nie wiemy też, na podstawie jakich danych oglądamy wyświetlony grafik, gdyż NOAA podaje prognozy co 6 godzin. Serwisy nastawione na dany obszar dodatkowo korzystają z prognoz lokalnych, ale to kosztuje. A jeszcze 2 lata temu  Instytut Meteorologii i Gospodarki Wodnej, jako jedna z nielicznych służb na świecie, nie udostępniał swoich danych. W Polsce meteorologia kojarzy się z geografią, a nie z rozwiązywaniem równań i interpretacją procesów fizycznych, które zachodzą w atmosferze. Nie kształcimy w tej dziedzinie specjalistów.

- A absolwenci IGF?

- Według polskiej klasyfikacji nie są klimatologami. Kilkoro z nich pracuje w IMiGW, ale nauka nie jest tam priorytetem. W Zakładzie Fizyki Atmosfery IGF jedna trzecia pracowników jest z zagranicy; są zatrudnieni na różnego rodzaju kontraktach i grantach, bo mamy finansowanie z USA i UE oraz z Polski. Ale nasz wpływ na to, co dzieje się w Polsce, jest minimalny. Liczymy się natomiast za granicą, np. trójka naszych absolwentów pracuje w Jet Propulsion Laboratory NASA, stowarzyszonym z Kalifornijskim Instytutem Technologicznym (Caltech).  Kolega wywodzący się z naszego Zakładu, przez lata pracownik amerykańskiego Narodowego Centrum Badań Atmosfery (National Center for Atmospheric Research, NCAR), ma grant European Research Council (ERC), w ramach którego kieruje w ECMWF rozwojem nowej generacji modelu globalnego.

- Zakład Fizyki Atmosfery prowadzi badania najważniejszych procesów fizycznych rządzących pogodą i klimatem. Czy wśród realizowanych prac badawczych są związane z dokładniejszym prognozowaniem pogody?

- Wszystkie prowadzone prace mogą w przyszłości do tego doprowadzić. Pracujemy nad poprawianiem przybliżeń równań, metod ich rozwiązywania, lepszą obserwacją zjawisk atmosferycznych i skuteczniejszym opisem uzyskiwanych  danych w modelach numerycznych. W każdym działaniu rozwiązujemy konkretny problem, np. próbujemy lepiej zrozumieć turbulencję na wierzchołku stratocumulusa. Wydaje się to abstrakcyjne, ale stratocumulus pokrywa ponad 20% powierzchni globu i jest chmurą, która odgrywa ogromną rolę w bilansie radiacyjnym planety: ponieważ jest biały, a na ogół zalega nad ciemnym morzem, odbija promieniowanie słoneczne. To, jak je odbija i co się w nim dzieje, czy powstaje mżawka itd., wszystkie te szczegóły na danym obszarze globu są bardzo ważne dla jakości prognoz. Jedna z naszych grup bada profile aerozolu atmosferycznego, który ma wpływ na jakość powietrza, ale też – co ważne dla pogody i klimatu – wpływa na to, jak w atmosferze rozchodzi się promieniowanie słoneczne i podczerwone. Jeśli uda nam się lepiej zrozumieć jakiś proces, lepiej opisać, i lepiej reprezentować go w modelach, to mamy lepsze prognozy.

- Jaką pojemność mają wasze komputery/serwerownie?

- Nie ma to żadnego znaczenia, bo jak chcemy coś obliczyć, to korzystamy z komputerów NOAA oraz polskich, m.in. Interdyscyplinarnego Centrum Modelowania Matematycznego i Komputerowego Uniwersytetu Warszawskiego (ICM) oraz superkomputerów w Poznaniu czy Gdańsku. Potrzebne są jednak bardzo dobre stacje graficzne i połączenie internetowe.

- Jakich zmian klimatu należy się spodziewać w najbliższych latach?

- Zmiany są oczywiste. Zależą od ilości gazów cieplarnianych wyemitowanych do atmosfery, a więc od nas. Musimy sobie zdawać sprawę z faktu, że nasze obecne działania dadzą efekt za 30-50 lat.

W ciągu najbliższych 30-40 lat klimat w Polsce się ociepli. Chodzi nie tylko o wzrost temperatury, ale szersze spectrum zjawisk atmosferycznych: bardzo długie susze, gwałtowne ulewy i burze, wichury i tornada. W ostatnich latach widzimy, że jest coraz mniej dni z pokrywą śnieżną, ale to nie znaczy, że nagle śniegu nie spadnie za dużo, bo najwięcej spada go w temperaturze bliskiej 0oC.

Czytelników zainteresowanych tematyką pogody i klimatu zapraszam do odwiedzenia portalu naukaoklimacie.pl, który powstał dzięki dofinansowaniu przez Europejską Fundację Klimatyczną (ECF) i działa pod opieką Fundacji Uniwersytetu Warszawskiego.

- Reasumując: Barbara po wodzie, to…

-… zobaczymy.

- Dziękuję za rozmowę.

 

Odkrywanie stratocumulusa

Dzięki pracom Grupy badawczej dynamiki chmur i turbulencji atmosferycznej, której liderem jest prof. Szymon P. Majewski, realizującej w latach 2013–2018 projekt Mikrodynamika chmur, naukowcy zrozumieli na przykładzie stratocumulusa, że w większości symulacji numerycznych dostajemy wyniki zbliżone do rzeczywistości, ale często z innych powodów niż zakładano. Zrozumieli, jak krytyczna dla tej chmury jest turbulencja na jej wierzchołku i w warstwie tuż ponad nim, która wydawała się niezwykle stabilna. Jest już pozytywny odzew na publikacje, ale naukowcy z grupy badawczej cały czas pracują nad lepszym opisem tego zagadnienia – uproszczonym, ale na tyle dokładnym, że znajdzie zastosowanie w modelach.

IGF wykonuje pomiary, które bardzo często przewyższają standardowe pomiary meteorologiczne. Na dachu siedziby instytutu znajduje się obserwatorium, w którym jest m.in. disdrometr mierzący opad: prędkość przelatujących przez wiązkę laserową cząstek, ich liczbę i wielkość oraz kształt – czy to są krople czy kryształki. Zainstalowano przyrząd do pomiaru turbulencji, który mierzy 30 razy/s trzy składowe prędkości wiatru, fluktuacje temperatury i wilgotności; a także przyrządy do pomiarów promieniowania słonecznego, również podczerwonego, bezpośredniego, rozproszonego, o różnych długościach fali i konfiguracjach.

Z tyłu budynku znajduje się supernowoczesny lidar: laser, który strzela w niebo nawet na wysokość 15 km i mierzy promieniowanie odbite od różnego rodzaju cząstek aerozolu (ma 3 długości fali, 2 kanały są dodatkowo spolaryzowane oraz kanał odbiorczy tzw. promieniowania Ramana). Obserwatorium działa w ramach Aerozolowej Sieci Badawczej Poland-AOD.

 

Pomiary w chmurach nad Azorami wykonano w lipcu br. z użyciem platformy ACTOS zawieszanej pod śmigłowcem. W pomiarach uczestniczyło 5 osób z zakładu Fizyki Atmosfery, w tym 3 studentów.

Disdrometr

Irma w drodze na Frolrydę. NASA Earth Observatory

 

Komentuje Waldemar Rukść

eNOT.pl - Portal Naczelnej Organizacji Technicznej | eNOT.pl