Mapa Ukrainy
ISSN: 2658-2740

Adam Cebula „Dziewięćdziesiąt pięć procent, czyli niekończąca się historia”

Para-Nauka Adam Cebula - 23 marca 2014

Tak jakoś samo to wychodzi. Głupio mi, że właściwie piszę to samo i o tym samym, ale jak poczytać sobie różne gazety i portale internetowe, to nikt tego nie napisze. Jak kto ma poczucie misji, to jest nie dobrze, ale niestety, jest równie źle, jak się na przykład przestaje reagować. Nawet gdy coś wywołuje już uczucie zupełnego znudzenia. Tak sobie myślę, że psim obowiązkiem pismaka jest reagowanie na propagandę. Albowiem człowiek zanudzony i pozbawiony oparcia ze strony przeciwnej machnie w końcu ręką i przystanie na głupoty.

Proszę wybaczyć, ale znów o Globalnym Ociepleniu, a to z tego powodu, że jesteśmy nagrywani – jak u Edmunda Niziurskiego – przez grupę interesów. Też do znudzenia, do granic irytacji, zasypywani wciąż od nowa jedynie słusznymi poglądami, jakie winno się głosić. Klimatolodzy w istocie w obliczu kryzysu gospodarczego walczą o kurczącą się kasę i mieszają, bełtają, zapewniają. Gdy szczyt w Warszawie, a wokół dyskusje o darmozjadach wożących tyłki za pieniądze podatnika, gdy rośnie niewiara ludności w obliczu ataku zimy w Niemczech, to trzeba wypuścić kolejną porcję alarmistycznych niusów.

Tak więc na przykład zapewnili nas: są pewni, że globalne ocieplenie to wina człowieka. Są pewni – jak owa do połowy pełna szklanka – na 95%.

Diabli wiedzą, co w nowomowie ichniejszej może to oznaczać. Na ile rozumiem się na opracowaniu wyników na różnych mniej czy bardziej naukowych metodologiach, to mamy albo hipotezy, albo teorie, które są udowodnione. Albo mamy zgodność z wynikami eksperymentalnymi, albo ich brak. Albo tylko prawdopodobieństwo wyniku eksperymentu, ale wynikające z tego, że nie znamy jakiś parametrów. Nie możemy powiedzieć czy w wyniku rzutu monetą wyjdzie orzeł, czy reszka, możemy tylko domniemać, że prędkość początkowa mieści się w jakimś przedziale, wobec czego stawiamy np. na orła, ale nie oznacza to, że mechanika Newtona jest dobra na 60%.

Można też wątpić w zapewnienia, że stopień pewności klimatologów co do winy człowieka się zmieniał. Raczej co jakiś czas wyskakiwał raport, w którym zapewniano, że mają oni już pewność, potem – że już mają pewność i wreszcie – że mają pewność. Można chyba powiedzieć, gdy chodzi o procenty, że uzyskiwano te sto procent po wielokroć i za każdym razem tym razem było już naprawdę. Tak to wygląda, a nie na żmudną drogę od hipotez do pewności.

Pomysły na udowodnienie, że spalanie węgla ma katastrofalne skutki, pojawiły się o wiele wcześniej, ale pierwsza taka historia, gdy uzyskano pewność, zaczęła się około roku 1955, gdy Keeling pisał, że pomiary poziomu CO2 da się tak przeprowadzić, że będą dawały w różnych miejscach podobne wyniki. Wikipedia pisze, że stwierdził, że dwutlenek węgla jest gazem „dobrze wymieszanym”, ale sprawa tyczy raczej tego, jak to się mierzy, i czy te pomiary do czegoś się nadadzą. Wcześnie panowało przeświadczenie, że poziom CO2 mocno zmienia się w zależności od miejsca i czasu pomiarów i to… też była prawda. Ale mierzono przy powierzchni. Być może zresztą ludzie wiedzieli o tym, że na większych wysokościach ten poziom się ustala, ale zwyczajnie nie mieli pomysłu do czego te pomiary mogłyby się nadać.

Keeling systematycznie mierzył poziom CO2 w obserwatorium na Mauna Loa od 1958 roku (Międzynarodowy Rok Geofizyczny) i w 1965 roku złożył prezydentowi Johnsonowi (będąc pewnym na 100%) (wikipedia.org/wiki/Charles_David_Keeling) raport ostrzegający przed efektem cieplarnianym.

Jak mię pamięć nie myli, sprawa zdechła na wiele lat. Albowiem w okolicy 1940 roku zaczęła się zimniejsza faza klimatu. Ochładzało się aż do lat 1970–75 i wówczas to popularne gazety głosiły możliwość nadejścia nowej epoki lodowcowej. To jest czas przed wejściem do powszechnego użytku elektrofiltrów, czas makabrycznego zanieczyszczenia atmosfery w okręgach przemysłowych. Warto też sobie uzmysłowić, że człowieka z tamtych czasów głowa bolała o to, czy jakiejś sprzątaczce w ośrodku atomowym nie omsknie się ścierka i nie nastąpi apokalipsa. Jak zresztą dziś wychodzi na jaw, kilka razy nie było od tego daleko.

Około roku 1980 zaczęło się ocieplać, ale też nastąpiła odwilż w stosunkach międzynarodowych, bo w 1982 roku zeszło się Breżniewowi. Wtedy to w 1982 roku doktor Joe Farman odkrył dziurę ozonową i uratował świat. Jakoś tak to było…

W tamtych czasach efekt cieplarniany był rodzajem UFO, jedną z wielu intrygujących teorii naukowych. Chyba nie traktowano jej za poważnie bo… pamiętano teorie wcześniejsze, sprzed II wojny światowej, i podpierające je pomiary stężenia CO2. Człowiekiem, który wymyślił efekt cieplarniany w sensie zagrożenia działalnością przemysłową, był Guy Stewart Callendar, naukowiec, który zaczął propagować swój pomysł jeszcze gdzieś w latach 30. Jak dziś podkreślają klimatyczni sceptycy, zastosował w swoich pracach bardzo kontrowersyjną metodę selekcji wyników, z której wynikła hipoteza o podwyższaniu się poziomu CO2 w atmosferze. Warto tu chyba wyjaśnić, że dysponował on tak zwanymi przypowierzchniowymi pomiarami, a te z zasady mają wielki rozrzut. Potrzebny był właśnie dość karkołomny sposób wybierania pomiarów, by cokolwiek dało się wydedukować. Zarówno ta metoda selekcji, jak i to, że z surowych wyników mógł wynikać znacząco wyższy poziom CO2 niż dziś chciało by się mieć, aby teoria ludzkiej winy działała, nawet silne i dobre pomiary z Mauna Loa nie były przekonywającym dowodem dla hipotezy. Całość nie za bardzo się kupy trzymała, bo zimniej się robiło, i to CO2 rosło tylko w marzeniach.

Jak się mi zdaje, dopiero wyniki z rdzeni lodowych które „w dobrym stanie” uzyskano około 1998 roku, zagrały silnie, jakkolwiek także po kontrowersyjnych manipulacjach, ze zgromadzonymi bezpośrednimi pomiarami.

Mniejsza o chronologiczną kolejność, ale w tamtym okresie – około końca XX wieku – chyba ukształtowała się religia „alarmistów” ( tych wieszczących katastrofę) i sceptyków (tych co owszem, przyznają, że coś w tym może być, ale do wyciągania daleko idących wniosków jest bardzo daleko).

Alarmiści wykłuwają oczy krzywą wzrostu poziomu CO2 która, przedłużona pomiarami z rdzeni lodowych, układa się w śliczną, rosnącą eksponentę. Sceptycy, m.in. niejaki Jaworowski, wskazują na to, że wiarygodność owych rdzeni jest palcem na wodzie pisana. W istocie liczba operacji, jakie trzeba przeprowadzić, by „coś wyszło”, jest dla przeciętnego pomiarowca irytująca. Na przykład wydaje się, że bardzo prosto możemy datować próbkę. Lód tworzy charakterystyczne roczne (przynajmniej tak się to opisuje) paski o znanej szerokości i charakterystycznym wzorze. Lód z danego paska może być jednoznacznie przypisany do roku. Niestety, gaz w bąbelku datujemy na podstawie zawartości izotopu tlenu 18O.

Podstawowa trudność, to skąd mieć gwarancję, że skład chemiczny bąbelków o średnicy 0,1 mm nie zmienia się? Jak mi się zdaje, na podstawie stale pojawiających się prac, kwestia jest wyjaśniona i… ciągle wyjaśniana. Co jakiś czas dostajemy 100% pewności. Albo czegoś. Ale na 100%. Inna rzecz: krzywa lodowa i krzywa z Mauna Loa musiały zostać poskładane, poziomy wynikające z datowań nie zgadzały się. Nie ma pewności, co i z jakich czasów właściwie siedzi w pęcherzyku. Owszem, gdy zostanie zamknięty, gazy nie powinny się już rozłazić, ale co się dzieje, zanim się lód zamknie? Czy na przykład gaz nie ma kontaktu z wodą w stanie ciekłym?

Największy problem z wiarygodnością pomiarów z rdzeni lodowych polega na tym, że zwyczajnie nie zgadzają się one z pomiarami bezpośrednimi. Sprawę ponownie odgrzebał nauczyciel szkoły podstawowej (mniej więcej…), niejaki E. Beck. Zebrał on, jak podaje, w sumie 90 tysięcy pomiarów z okresu pomiędzy rokiem 1812 a 1962, i przeanalizował je pod kątem wiarygodności. Odrzucał pomiary z nieopisaną metodą. Co warto podkreślić, pomiary te doskonale korespondują ze sobą, nawet jeśli mamy zbiór danych uzyskanych niewiadomymi metodami, ale zebranych niezależnie, to o ile korelują one ze sobą , powinniśmy podejrzewać, że są prawdziwe. Historyczne pomiary doskonale ze sobą korelują (korelują… po prostu różne pomiary, prowadzone przez różnych ludzi, dają podobne wyniki) i jednocześnie pokazują całkiem inną historię CO2 niż rdzenie lodowe. Należy podejrzewać, że pomiędzy 1900 a 1940 rokiem mieliśmy już jeden wzrost poziomu CO2 do nawet 400 ppm, który to poziom jest dopiero osiągany obecnie. Potem nastąpił gwałtowny spadek do 315 ppm. Oznacza to, że poziom CO2 nie ma żadnego związku z poziomem ludzkiej emisji i jednocześnie z wymuszaniem temperatur na świecie. Owszem, wydaje się dość oczywiste, że mamy silną zależność odwrotną: temperatury w dłuższym okresie kształtują poziom CO2 w atmosferze.

Można wyguglać, że efektem publikacji Becka nie było bynajmniej, jak by się można spodziewać, przekopanie wszelkich możliwych archiwów i opracowanie na nowo dostępnych wyników. Ów Beck kiepsko się znał na opracowaniu wyników, był nikim w świecie nauki, ale nie ma to znaczenia w odniesieniu do samych pomiarów, których autorami nierzadko byli bardzo dobrzy naukowcy wykonujący je bardzo fachowo, co więcej, bardzo dobrze opisali oni i warunki, i uzyskiwaną dokładność. Jest ona zresztą dobrze znana i wynosi poniżej 3%, a więc, jak dziś mówimy, uchyby pomiarowe są wielokrotnie poniżej wartości mogących wpłynąć na wynik interpretacji.

W każdej dziedzinie taka sytuacja spowodowałaby wysłanie w kosmos całej teorii. Nie ma takiej możliwości, by odrzucać pomiary sprzeczne z naszymi pomysłami tylko dlatego, że są sprzeczne; nie ma takiej możliwości, by wybrać sobie jedną metodę, dodajmy niezwykle pokrętną, bardzo wątpliwą i trudną instrumentalnie, a drugą, bezpośrednią i sprawdzalną, odrzucić. Wręcz przeciwnie, zawsze wręcz żądamy potwierdzenia wyników za pomocą innej metody, aby uniknąć choćby jakichś błędów wynikających z konstrukcji konkretnych instrumentów.

Tu stało się wręcz przeciwnie, uznano jedynie słuszną metodę. Pomimo tego, że widać np. dlaczego pomiary z rdzeni lodowych muszą gubić szybkie zmiany poziomu. Sprawa stanęła na tym, że tak zwani sceptycy ciągle przypominają o pomiarach chemicznych, a alarmiści atakują Becka. Samych pomiarów nie dotykają, albowiem wiedzą od czasów pierwszych prac Calledara, co w nich siedzi.

Konkluzja ze 100% pewności co do nadciągającej katastrofy z CO2 jest taka: o ile weźmiemy pod uwagę wszystkie dostępne dane, to raczej powinniśmy być pewni, że ilość dwutlenku węgla w atmosferze waha się w dość szerokich granicach. I nie ma nic wspólnego z działalnością człowieka.

Kolejnym patentem na pognębienie sceptyków były tzw. rekonstrukcje temperatury.

Wcześniej, gdy nad przemysłem zawisła konieczność ograniczenia emisji CO2, i szło do podpisania protokołu z Kioto, podpisanego w grudniu 1997 roku, zaczęła się bijatyka o to, czy ocieplenie nie jest w ogóle artefaktem pomiarowym. Wysuwano prosty argument: klimat na Ziemi wielokrotnie się zmieniał, na przykład w czasie średniowiecza musiało być znacznie cieplej.

W 1999 roku Michael E. Mann przygotował atomowy argument przeciw sceptykom, tzw. krzywą hokejową. Wykazywała ona, że w istocie nie było średniowiecznego optimum, że nie za bardzo była mała epoka lodowcowa. Muszę to powtórzyć: Mann zakwestionował chyba nie za bardzo chcący, m.in. innymi dobrze opisane historycznie fakty, jak powody, dla których Szwedzi ruszyli na Polskę.

Niewiele może bardziej przemawiać do wyobraźni, niż fakt, że żyjemy w szczególnych czasach. Do udowodnienia tego potrzebujemy wiedzy, jak to było dawniej. Pomysł jest prosty: odtwórzmy mniej czy bardziej naukowymi metodami historię zmian temperatury. Tak powstała słynna krzywa hokejowa, obrazująca dramatyczny wzrost temperatur wraz z początkiem tzw. epoki industrialnej, co niekoniecznie jest równoważne rozpoczęciu działalności przemysłowej.

Krzywa hokejowa zdechła sama, albo, powiedzmy inaczej, skończyła się skandalem. Sama, bo drążenie tematu, jak powstała, doprowadziło nie bynajmniej do jakiejś jasności, ale do awantury. Skandal doszedł do tego punktu, że sam Mann, jej twórca miał (ma???) problemy prawne.

Znaczącym elementem zamieszania był niejaki Keith Briffa. Zebrał on dane z rdzeni przyrostowych drzew z półwyspu Jamalskiego i także wyszła mu z nich śliczna krzywa hokejowa. Po czym inni dokopali się do danych wejściowych. Okazało się, że kluczem do uzyskania alarmistycznej krzywej hokejowej było „niezwykle ostrożne” dobieranie danych wejściowych. Na skutek tej procedury uczony odwalił jakieś 4/5 danych. Po wykonaniu wykresu wedle zasady „jak leci”, czyli uwzględnieniu wszystkich danych, dostaliśmy dokładnie odwrotną tendencję. Dziś w klimatologii pojawia się termin „anomalia jamalska” i to jest pokłosie owej kompromitacji. W klimatologii obowiązuje teoria, że ów półwysep miał szczególną, nieodpowiadającą reszcie świata historię zmian klimatu…

Krzywa hokejowa Manna powstała poprzez interpretacje różnych pośrednich danych zależnych od temperatury, takich jak przyrosty roczne korali, osadów, drzew i innych. Przy bliższej analizie metoda Manna wykazała dość zasadniczą wadę: autor nie chciał udostępnić skryptów, jakimi posługiwał się przy obliczeniach. Ich wynik spotkał się z powszechną krytyką. Siedzący w temacie wykazywali, że m.in. wiele danych wejściowych nie wykazuje żadnych tendencji, jest po prostu szumem. Tak jest właśnie z rdzeniami przyrostowymi drzew. Metody stosowane do opracowania danych są co najmniej bardzo nieczytelne, a niektórzy wręcz twierdzą, że właściwe każdy biały szum poddany obróbce w ten sposób da krzywą hokejową.

Przykład krzywej, którą zaprezentował Briffa, ilustruje, na czym bazuje idea „rekonstrukcji temperatury”: w zaciemnianiu procedury poprzez sięganie po egzotyczne dane, tworzenie wielu reguł opracowanie wyników, a na końcu poprzez „samowolkę” w doborze danych. Autor może całkiem świadomie tak skomplikować wszystko, by nowicjuszowi zdawało się to logiczne, by pogubił się w zawiłościach, a ci nieliczni, którzy połapią się w tym wszystkim, będą dość nieliczni by załatwić ich argumentem, że są „denialistami”.

Największe straty metoda rekonstrukcji temperatury poniosła chyba na skutek upowszechnienia się wiedzy o tych śladach, na których ma się rzecz opierać. Sęk w tym, że o ile wykonywanie wykresów krzywych hokejowych wymaga zawiłych operacji, to w drugą stronę – wykazanie, że tak nie mogło być – może się opierać na prostym przypomnieniu faktów, które każdy może zweryfikować. Oto możemy spotkać opowieści o tym, że historia o zielonej Grenlandii to była propaganda dla osadników, uprawiana przez Eryka Rudego. Po bijatyce z historykami i archeologami powstała teoria szczególnej historii klimatycznej Grenlandii. Archeolodzy i historycy nie chcieli ustąpić co do tego, że na przełomie pierwszego i drugiego tysiąclecia musiało być wyraźnie cieplej, bo są o tym zapisy w księgach handlowych, w których udokumentowano zbiory. Na marginesie, nie trzeba wielkich kombinacji, by zauważyć, że okres wegetacji musiał tam, na zielonej wyspie, być dość długi, aby dojrzewały m.in. ówczesne odmiany owsa. Inaczej koloniści wyginęliby w krótkim czasie. Co zresztą, gdy nastąpiło ochłodzenie, w końcu się stało. Nie pozostało klimatologom uznać, że klimatyczna historia Grenlandii wyraźnie odbiega od historii reszty świata.

Teoria szczególnej wyspy i szczególnej historii klimatycznej pobiła się z odkryciami archeologicznymi w Ameryce Północnej. Znaleziono tam rośliny, jakie przy niskich temperaturach na tych terenach nie miały prawa wykształcić nasion. Są prace, które wykazują, że mamy spójne ze sobą ślady średniowiecznego ocieplenia także na półkuli południowej. Na podstawie dowodów i trudnych do interpretacji, i dość bezpośrednich, jak zasięg występowania gatunków roślin, ocenia się, że było wtedy cieplej, niż obecnie.

Rekonstrukcje mają za zadanie udowodnić, że obserwujemy coś, czego nie było do tej pory w historii ludzkości. Bodaj najbardziej obiecującą metodą propagandową w tej materii jest eksponowanie wszelkiej maści rekordów, tak zwanych anomalnych zjawisk pogodowych. Warto tu zacząć od dość banalnego stwierdzenia: jeśli wysmażymy krzywą z samych rekordów, to ona MUSI rosnąć. Taka jest zasada tworzenia jej, ale krzywa wydaje się naturalnym przedstawieniem tendencji. Dlatego rekordy nadają się do straszenia ludzi.

Jak to wychodzi, pisałem już w tekście poświęconym huraganom, cyklonom i innym burzom. Owszem, rośnie liczba cyklonów którejś kategorii, owszem, mówi się nam, że rośnie energia kinetyczna wiatrów, która przy bliższym przyjrzeniu się może i coś ma wspólnego z energią kinetyczną, ale przede wszystkim jest wynikiem dość zawiłej metody pomiarowej. Jedyny pewny wynik jest taki, że liczba burz wykazuje tendencję spadkową, a prędkość maksymalna wiatrów trzyma się pewnej stałej wartości od bardzo wielu lat „jak drut”. Czyli, jak zabrać się za sprawę uczciwie, nie ma żadnych niepokojących zmian.

Rekord, jeśli chodzi o gorąco, to ciągle rok 1913, USA, Dolina Śmierci: 56,7 stopnia Celsjusza. Dla Afryki to Kebili w Tunezji – rok 1931 – 55,0 stopnia ( zero po przecinku, czyli na pewno nie 55,1 i na pewno nie 54,9). Dla Europy to rok 1977 – Ateny i 48,0 stopni Celsjusza. Rekord ciepła dla Oceanii – 42,2 stopnia – pochodzi 1912 roku. Dane z proalarmistycznej Wikipedii. Jak widać, nic nie widać.

Nie za dobrze też się wiedzie najbardziej oczywistemu dowodowi, ocieplaniu się klimatu. Powód zasadniczy: zmiany, jeśli są, tak naprawdę mają wartości „podszumowe”. To nie są twarde pomiary, których wyników nie da się zakwestionować. Całkowita zmiana średniej temperatury Ziemi, szacowana na 1 stopień, owszem, w warunkach „normalnych” dobrze mierzalna, odniesiona do okresu ponad 100 lat i wyliczona z bardzo wielu pomiarów staje się podatna na wiele procesów, mogących całkowicie unicestwić jej fizyczny sens. Wyobraźmy sobie, że wyliczamy średnią temperaturę z pomiarów na stacji meteorologicznej położonej daleko od ludzkich osiedli w okolicy, gdzie nic się na oko nie zmienia. No i mamy różnicę na poziomie kilku dziesiątych stopnia rok do roku. Realnie było cieplej czy zimniej; czy to wynik tego, że las w okolicy podrósł, może podniósł się poziom wód w gruncie i wzrosło parowanie? Najpewniej przypadek, bo mamy duży naturalny poziom wahań rocznych temperatur. Aliści gdy uśrednimy na przykład po dwudziestu latach i porównamy z kolejnymi dwudziestoma, to tym bardziej będziemy mieli problem, czy naprawdę wokół naszej stacji nic się nie zmieniło.

Świat od końca XIX wieku przewrócił się do góry nogami. To, co zmieniło się dramatycznie w pomiarach temperatur, to nie tylko metody czy termometry, ale nastąpił lawinowy przyrost liczby punktów pomiarowych.

Pomysł, by porównywać temperatury z początku XX wieku i z obecnych czasów z dokładnościami rzędu 0,1 stopnia Celsjusza w większości stacji pomiarowych nie ma sensu. Jednym z powodów jest to, ze punkty, które kiedyś znajdowały się poza miastami, teraz znajdują się wewnątrz nich. Temperatury, jakie się przy nich mierzy, musiały pójść w górę.

Po prostu: niezabudowane tereny pokryte wilgotną, parującą ziemią nie nagrzewają się tak mocno jak betonowe połacie. Znamy zjawisko tzw. miejskich wysp ciepła. To oddziaływanie jest bardzo silne. Ocenia się, że np. centrum Wrocławia jest do 5 stopni cieplejsze od okolicy. Ponieważ nie ma potrzeby ani sensu budować stacji meteo poza terenami zamieszkałymi, a i jest to bardzo niewygodne, to czas działania takich stacji na pustkowiach jest krótki. No i mieliśmy aferę z wywaleniem z danych z terenu dawnego ZSRR szeregu wartości pomiarów z okresu I połowy XX wieku. Bo serie pomiarowe z pustaci się kończyły po kilkunastu czy dwudziestu latach. Wydaje się oczywiste, że należało je usunąć, tak się tłumaczyli angielscy klimatolodzy. Jednak spowodowało to „przypadkowe” podniesienie średniej drugiej połowy XX wieku. Z tej prostej przyczyny, że liczba stacji w pobliżu miast poddanych oddziaływaniu „wyspy cieplnej” wzrosła. Efekt „wyspy ciepła” dziś, na skutek wzrostu wielkości miast, jest znacznie silniejszy. Więc jeśli postąpimy „logicznie”, usuwając z obliczeń część wyników, dostaniemy coś, co jest sumą zmian klimatu, zmian urbanistycznych oraz, być może w największym stopniu, buchalteryjnych manipulacji.

Zmiany, o których chcą mówić klimatolodzy, są wiele razy za małe, byśmy nie mieli bardzo poważnych wątpliwości, że są wynikiem czegoś zupełnie innego niż klimat. Owszem, gdy mówimy o zmianach rzędu kilku stopni, to przy zachowaniu pewnej staranności da się powiedzieć, z czego one wynikają, i uniknąć czasami karkołomnych problemów z tym, co zrobić z wynikami. Gdy zjeżdżamy do 0,1 stopnia albo do zmiany rzędu 1 stopnia w skali stulecia, diabli wiedzą o czym się naprawdę mówi.

Problemem, o którym milczą tak naprawdę i „denialiści”, i alarmiści są zwyczajne błędy pomiarowe. To coś innego od „uchybów”. Uchyb zwykle jest pojmowany jako odchyłka wynikająca z własności miernika, ale generalnie chodzi o to, że mamy pojęcie o jego wielkości. Błąd wynika ze złego ustawienia pomiaru i zazwyczaj nie mamy o nim pojęcia. Np. w latach 40. XX wieku mierzono temperaturę wody morskiej w maszynowni statku. Ponieważ te pomiary prowadzono z dokładnościami rzędu 0,01 stopnia, wyższa temperatura maszynowni zawyżała wyniki. Błąd odkryto po latach. Dziś możemy kompensować wyniki i to nawet z niezłym skutkiem, ale tylko dzięki temu, że zorientowaliśmy się, co się stało.

Mierzenie jest sztuką, wymaga myśliwskiej czujności, byśmy nie dali się wciągnąć w różne pułapki. Niestety, im dokładniej chcemy mierzyć, im subtelniejsze efekty chcemy uchwycić, tym – i to zupełnie nieproporcjonalnie – więcej okazji do nieszczęścia. Zwykle bywa tak, że jeśli pomiar z jakąś dokładnością jest banalny, to dokładność ledwie kilka razy większa, zwykle wystarczy już trochę ponad pięć, jest karkołomna. Sztuką mierzenia ludzie zajmują się dziś bardzo niechętnie. Lubią bardzo prowadzić w gruncie rzeczy kopie teologicznych dysput, choć polegające na żonglowaniu danymi z pomocą w ich mniemaniu wysublimowanej matematyki, ale samodzielnych pomiarów nie robią. Dlaczego? Bo tu bardzo łatwo stracić image fachowca, a jednocześnie na jeden artykuł trzeba włożyć na oko kilkadziesiąt razy więcej czasu niż gdy zajmiemy się biciem piany za pomocą komputerów. Tymczasem jest bardzo prawdopodobne, że cyferki, jakie mielą maszyny, są zwyczajnie funta kłaków warte.

Jednym z najczęściej spotykanych problemów w przypadku banalnego pomiaru temperatury powietrza jest uniknięcie wpływu lokalnych źródeł ciepła, jest to jednak coś innego niż miejska wyspa ciepła. Źródeł zimna mamy statystycznie bardzo mało, ale gdyby były, też trzeba byłoby na nie zwrócić uwagę. Otóż, jeśli interesuje nas temperatura powietrza, to w pobliżu budki z termometrem nie może być ani hal produkcyjnych z klimatyzatorami, ani nawet połaci wybetonowanych placów, takich jak parkingi. Jak oszacował amerykański dziennikarz z TV Weather Presenter, Anthony Watts, na terenie Stanów Zjednoczonych zawyżono temperatury o co najmniej 0,2 stopnia z powodu błędów wynikających i z tego, że przez dziesięciolecia ogródki meteo obudowano centrami handlowymi, i tak oczywistych jak wsadzenie do klatki meteo nadajnika radiowego umożliwiającego zdalny odczyt. Ależ oczywiście, że nadajnik się grzeje. Jeśli zauważymy, że cały wzrost temperatury za wiek XX i kawałek XXI przypisywany Globalnemu Ociepleniu wywołanemu przez człowieka wynosi ok. 1 stopnień przy statystycznym błędzie +/- 0,4 stopnia, to jest to wartość 0,2 stopnia i jest ona bardzo duża: możemy dopuścić, że w sumie 0,6 stopnia to kit.

Ta wielkość wystarczy do pogrzebania teorii, bo to, co zostało, mieści się w zmianach naturalnych. Nawet jeśli to jest jedynie błąd prawdopodobny, to w sumie nie można powiedzieć nawet na 50%, a nie 95%, że w ogóle mamy jakieś ocieplenie, a co dopiero, że wynika ono z winy człowieka.

Czasami mam wrażenie, że zasadą wypowiedzi klimatologów jest owo sto procent, albo przynajmniej 95% pewności. Bo na przykład mamy odnieść wrażenie, że dokładnie wszystko jest pod kontrolą. Jakiś czas temu był kolportowany filmik pokazujący rozkład temperatur na powierzchni Ziemi i ich zmiany w czasie. Masz mieć wrażenie, że owi klimatolodzy wszystko wiedzą. Otóż, jak się pochylić, to na przykład…

Pozwolę sobie powrócić do przykładu Arktyki pozbawionej lodu. Z samej obserwacji pojawiających się prac widać, jak mętnie wygląda ta sprawa, a właściwie nie mętnie, tylko odwrotnie. Obowiązuje teoria, że wody wpływające w ten rejon z Atlantyku nie ogrzewają go, bo ulegają subdukcji, czyli zagłębiają się pod lżejsze, zimniejsze wody, na skutek anomalnej rozszerzalności H2O. Otóż można sobie poczytać poważnie wyglądające prace, które udowodniają, ze jest… normalnie. To znaczy owszem, cieplejsze wody wędrują w dół, ale widać wyraźnie efekty ogrzewania Arktyki przez Atlantyk. Trudno, by było inaczej, jeśli porównamy proporcje drogi pokonywanej przez morskie prądy do głębokości wód. To trochę jakby przypuszczać, że przez naleśnik leżący na patelni nie przecieknie olej. Akurat w wielkiej skali grają rolę inne zjawiska niż napięcie powierzchniowe, ale skutek jest podobny: dwie warstwy wody stykające się na wielkiej powierzchni, przekazują sobie ciepło np. poprzez banalne mieszanie się.

Skutek jest taki, że mamy dwie teorie odlodzenia się Arktyki, które są „wręcz przeciwne”, choć wyglądają podobnie. Oto oficjalna: mówi ona dość enigmatycznie, że na skutek efektu cieplarnianego podniosły się temperatury „wszędzie”, i Arktyka się topi. Jeśli być konsekwentnym, to powodem takiego stanu rzeczy jest podwyższenie się temperatur powietrza. Bo od ciepłych wód z Atlantyku się odżegnujemy.

Warto sobie uświadomić, że o ile tak właśnie było, że na Ziemi przybyło ciepła w dżulach, to nie ma prawa być ostrych, długich zim na wielkich obszarach.

Druga teoria jest prostsza: co jakiś czas, prawdopodobnie obserwowaliśmy to ok. 1940 roku, na skutek przypadkowych zmian drogi morskich prądów w Arktykę wlewa się ciepła woda. Stopiła ona lody. Przez jakiś czas było cieplej, bo powietrze w okolicy bieguna zamiast z lodem stykało się z wodą. Zimne wody z Arktyki na jakiś czas wylądowały poza systemem ogrzewania Europy i Ameryki. Grzaliśmy się i od strony północy, i od zachodu. Aż ciepło się skończyło. Teraz chyba mamy efekt odwrotny. W Arktyce zaczyna brakować ciepła w wodzie, a wody wyrzucone z Morza Arktycznego zaczynają się pojawiać w obszarze kształtującym pogodę najbardziej zaludnionych regionów. No i mamy teorię, że zimno powstało na skutek ocieplenia, bo sezon grzewczy wydłuża się o miesiąc, a Niemcy w październiku zasypuje śnieg.

Jeśli tak było, to właśnie odwrotnie w stosunku do pierwszej teorii, Ziemia straciła mnóstwo dżuli ciepła. A nas czeka zamiast – szczerze mówiąc – bardzo miłego ocieplenia pieska pogoda i nieznośne rachunki za ogrzewanie. Znaczy nie zimno, bo ciepło, tylko zimno, bo zimno…

Jak możemy wygrzebać w Internecie w różnych miejscach, spadek zasięgu pokrywy lodowej we wrześniu, kiedy osiąga ona swoje minimum, w 2013 roku był mniejszy niż w roku 2012, że od 6 lat obserwuje się spadek tempa zmniejszania się lodowej pokrywy. Być może właśnie tendencja się odwróciła.

Nasze diablo precyzyjne obserwacje z satelitów, z rozlicznych stacji pomiarowych, dają nam w zasadzie jasny obraz sytuacji: albo się ociepla, albo się oziębia, albo jeszcze coś…

Bo nie rozumiemy wpływu cykli słonecznych na Ziemię. Prawdopodobnie gwałtowny wzrost temperatur w latach 90. XX wieku był wypadkową zjawisk geofizycznych i astronomicznych. W tamtym okresie wzrosła aktywność Słońca. Problem ze Słońcem jest taki, że obserwuje się jego, jak już pisałem, bardzo silny wpływ na Ziemię, nawet w księgach handlowych go widać, ale nie rozumiemy, jak to się dzieje, że gdy na naszej kochanej gwieździe są plamy, to na Ziemi jest cieplej. A jak ich nie ma, chyba mamy dużo chmur i zimno. Teoria Svensmarka przewiduje, że wpływ Słońca polega na przeganianiu albo nie promieniowania galaktycznego, które produkuje centra kondensacji pary wodnej. Być może.

Jeśli czytamy o tym, że wbrew rosyjskim uczonym aktywność słoneczna nie wpłynie na pogodę, i dalej nawet mamy waty na metr kwadratowy, to powtórzę: na dzień dzisiejszy nie znamy mechanizmu wpływu Słońca na klimat. Nie ma teorii, z której dałoby się utoczyć jakieś wartości.

Można sobie powiedzieć: wszystko pod kontrolą. Możemy stawiać prawie pewne prognozy wzrostu temperatur na Ziemi, choć o kluczowych zjawiskach wiemy bardzo niewiele.

Jeśli chodzi o dowody na globalne ocieplenie, to bardzo chętnie pokazywano wielkie lodowe góry odrywające się od Antarktydy. Sęk w tym, że są one wynikiem procesu powolnego wzrostu powierzchni lodów wokół tego kontynentu. Tak, góry się odrywają, bo Antarktyda nam rośnie, a nie topnieje. Tego zjawiska nie kwestionuje nikt, a nawet podaje się je jako jeden z dowodów na, oczywiście, ocieplanie się klimatu. Sęk w tym, że ostatnio coraz częściej mówi się, że po prostu lodu na półkuli południowej przybywa, że zwiększa się jego masa. Ależ może to być efektem ocieplenia, ale zazwyczaj tym więcej lodu, im zimniej. Takie mamy w Polsce doświadczenia.

Dla zaawansowanych naukowo niedowiarków klimatolodzy starają się mieć coś specjalnego: bywa to nazywane antropogenicznym odciskiem palca na ociepleniu. Wykresy wykazujące bezpośrednią korelację z ludzką działalnością. Otóż w temacie wykresów warto zauważyć pewien efekt: szukając pracowicie w materiałach propagandowych trudno uświadczyć na jednym obrazku wykres emisji CO2 przez człowieka i wykres wzrostu poziomu tego gazu w atmosferze. Powód jest chyba prosty: widać, że nie widać. Jeśli zauważymy, że długookresowy wzrost jednej i drugiej krzywej zapewne jest przypadkowy, a interesują nas krótkookresowe zmiany, to nie ma śladu korelacji.

Natomiast bardzo chętnie zamieszcza się wykresy obrazujące stosunek izotopów węgla 12C i 13C razem z krzywą obrazującą ludzką emisję. Otóż to jest atomowy, ba jądrowy, dowód ludzkiej winy. Oba wykresy mają podobne kształty. Korelacja bije w oczy.

W atmosferze jest więcej 13C niż w roślinach. Różnice są naprawdę małe, stężenia są podawane na ok. 1,095 i 1,237 procenta, ale dobrze mierzalne. Nazywa się to efektem Suessa. Więc spalając węgiel pochodzenia roślinnego, emitujemy więcej 12C.

Przyznam się do rzeczy nieco szokującej – przynajmniej tak to zrozumiałem. Zapewne z powodu proporcji procentów, konieczności odwracania skal na wykresach w różnych źródłach opisuje się to trochę różnie, i nie do końca mam pewność, że tak właśnie jest. Ale przyjmijmy, że możemy ludzkiej emisji przypisać pewną sygnaturę izotopową. To jest istotne.

Krzywe zależności stosunku 13C do 12C dobrze korelują z emisją przemysłową. Także w długim czasie rośnie proporcja 12C do 13C. To skąd wątpliwości? Dlaczego jesteśmy pewni jedynie na 95%?

Metoda wycięła tak naprawdę tylko jedną możliwość: Gaja czy Przyroda nie miała zbiornika, w którym zgromadziła CO2 z takim samym stosunkiem izotopów, jak w atmosferze, i nie otwarła go. Jedynie w takich okolicznościach sygnatura izotopowa zostałaby zachowana przy podniesionym poziomie CO2. W innych kombinacjach zdarzeń, gdy poziom CO2 w atmosferze rośnie, wzrost „przemysłowej sygnatury” świadczy jedynie, że faktycznie kopiemy i spalamy węgiel.

Wartość dowodu grzebie to, że stosunek izotopów zmienia się po prostu ze zmianą stężenia CO2 w atmosferze. Każdą zmianą, nie tylko „ludzką”, ale taką niewątpliwie „naturalną”. Powtarza się dokładnie roczny cykl związany ze zmianą pór roku, powtarza zmiany związane z cyklami zwanymi oscylacjami oceanicznymi. Co gorzej, podobnie jak proporcje izotopów CO2, tak samo zmienia się stężenie argonu w atmosferze. Zapewne różnice w proporcjach izotopów są m.in. wynikiem innych współczynników dyfuzji. Lżejszy nieco (na oko o 7% (informacja za stroną http://radiocarbon.pl oraz na podstawie wiedzy ogólnej o budowie atomów ) 12C łatwiej rozpuszcza się w wodzie i pewnie to jest powodem jego preferowania przez rośliny. Ale też powodem tego, że proporcje w naturalnych zbiornikach dwutlenku węgla, zapewne także w zimnej wodzie, są inne niż w atmosferze.

Podejrzenie moje jest takie: główną przyczyną zmian składu atmosfery jest zmiana rozkładu temperatur w oceanach. To ona, a nie rozwój roślin na północnej półkuli powoduje okresowe spadki stężenia CO2 w atmosferze. Bo na półkuli południowej jest Antarktyda i zapewne główny zbiornik ziemskich gazów. W lecie trwającym na północy jest tam zimno i wody absorbują gazy, z kolei podczas zimy trwającej na północy – na południu gazy są emitowane do atmosfery. Bo wody się nagrzewają.

Pomiary są dość mocnym dowodem na coś innego: o subtelnych zmianach w atmosferze wiemy na razie po prostu niewiele. Możemy tylko podejrzewać, dlaczego i jak, ale to jest etap błądzenia we mgle, a nie czas buńczucznej pewności.

Na razie, by ocenić stan wiedzy o globalnym ociepleniu, wystarczy się przyjrzeć oficjalnym danym publikowanym przez IPCC. Mamy np. 332 gigatony emitowane przez oceany i 338 absorbowane. 439 gigaton emitowane przez lądy, najpewniej emisja naturalna. Do tego ok 34 gigaton ludzkiej emisji. Jakieś 4 procent „naturalnego” strumienia. Z czego 2% przybywa w atmosferze, więc na oko widać, że przy znajomości tych naturalnych strumieni z dokładnością do ok 1% już możemy wskazać paluchem winnego.

Te zapisy – 332, 439 – sugerują, że dokładność jest 10 razy lepsza. Bo, zwyczajowo, nie pisze się cyfr nieznaczących.

Oto całkiem niedawno przez prasę przemknął komunikat, że Amazonia spada z piedestału zielonych płuc świata. Wydawało się, że wysyła ona do oceanów węgiel związany w postaci celulozy, który się w nich grzecznie odkłada i dzięki temu per saldo woda absorbuje CO2. Wyszło, że chyba odwrotnie.

Niedawno okazało się też, że Bałtyk nie produkuje per saldo tlenu.

Skądinąd wiem, że nieporównanie lepiej od Amazonii i Bałtyku oczujnikowane konspekty botaników, czyli poletka doświadczalne, obmierza się z dokładnościami rzędu 20, nawet 30%. Warto sobie uzmysłowić: poletka są małe, nie ma takiej możliwości by w jednym końcu lało jak z cebra, w drugim świeciło słońce, a jak laborant stwierdza, że jakiś parametr za bardzo zmienia się z odległością, dokłada mierników. Można nawet trochę złośliwie powiedzieć, że wiadomo nawet, dlaczego jest tak kiepsko: bo tu wszystko pod kontrolą. Nie da się udawać, że potrafimy uzyskiwać lepsze dokładności.

Warto to powtórzyć, że płuca Ziemi, szlachetna Amazonia, w świetle ostatnich badań zdaje się być per saldo producentem CO2. Cóż, nie tylko niepromilowa dokładność, ale – jak widać – nawet nie potrafimy poprawnie określić kierunku procesu.

Konkluzja z wyliczanki jest taka: jeśli o procentach, to 100% znanych mi pomiarów przedstawianych jako murowany dowód na globalne ocieplenie nie ma nic wspólnego z Globalnym Ociepleniem. Żadne z tych zjawisk nie tylko nie potwierdza winy człowieka za zmiany klimatu, ale nawet nie daje się wyjaśnić choćby w małej części działalnością człowieka.

Po prostu ocieplanie się klimatu także nie jest dowodem, bo… klimat przestał się ocieplać. Dla terenu Europy mówi się o ochłodzeniu rzędu 2–3 stopni Celsjusza, a więc 2–3 razy więcej od tzw. globalnego ocieplenia. Coś około roku 2000 palnęło radosny wzrost temperatur w główkę, zaczęła się „przerwa”, którą alarmiści próbują wyjaśniać np. emisją siarki przez Chińczyków. Prostego wyjaśnienia, że stosowane przez nich modele klimatu nie zawierają istotnych zjawisk, których być może jeszcze nie odkryliśmy, bo np. niedobrze idzie nam ze zrozumieniem wpływu Słońca, całkowicie odrzucają. Bo gdyby nie, to nie było by nawet 5% pewności, tylko niepewność. Wiedza, że nie wiemy. Otóż, warto to sobie zapamiętać jako odtrutkę na propagandę: ocieplenie nawet tak, ale robi się raczej zimniej. Po prostu kolejny naiwny model futurystyczny, jak to było z prognozami zasypania europejskich miast przez koński nawóz, okazuje się kompletną pomyłką. W związku z tym nie ma się co przejmować. Tak na marginesie, prawdopodobnie tę wróżbę industrialnej katastrofy z powodu koni i produktów ich przemiany materii powtarzano wielokrotnie, bo pamiętam ją cytowaną w „Młodym Techniku” odnośnie Paryża, a np. za stroną www.racjonalista.pl można zacytować: „W 1894 r. londyński „Times” prognozował, że do 1950 r. każda większa ulica w stolicy Wielkiej Brytanii zostanie przykryta trzema metrami końskiego łajna”. Widać, jak to zmieniają się problemy stające na drodze ludzkości.

Gdy chodzi o przejmowanie się: no właśnie, nawet alarmistyczne modele nie przewidują niczego naprawdę złego dla Europy. Byłoby niemiło, gdyby cały świat zajadle walczył z Globalnym Ociepleniem, a Europa, która na klimatycznych zmianach – a zwłaszcza wschodnia, a zwłaszcza Polska – zdecydowania w sumie zyska, się wyłamała. Tymczasem jest dokładnie na odwrót. Świat ocieplenie ma gdzieś, a my zajadle strzelamy sobie po kolanach. UE produkuje jakieś 7–11% całej ludzkiej emisji dwutlenku węgla. Nawet całkowite zlikwidowanie jej w Europie niczego nie zmieni. Ograniczanie w Europie w globalnej skali daje efekty podzielone przynajmniej przez 10. Jedyny pewny efekt, to deindustrializacja UE. Nie lepiej poczekać, aż świat się dogada? Albo lepiej, aż się tak ochłodzi, że temat zdechnie sam?

Na 95% klimatolodzy, jak profesor Rońda, blefują. Skądś się musiał nauczyć, że to jednak popłaca.

No i wyjaśnienie, skąd wyskoczyło owo 95%: GO weszło do ideologii, do politycznych religii. Demokrata w USA musi być zwolennikiem walki z GO, Republikanin musi to wyśmiewać. Jakoś się tak przypadkiem złożyło, że komunikat o pewności poprzedził niespodziankę, na jaką natrafiłem szukając danych do tekstu:

„Government Shutdown
Important Notice: The U.S. federal government has shut down
Due to a lapse in funding, the U.S. federal government has shut down. Call 1-800-FED-INFO (1-800-333-4636) for answers to government questions.”

W innym, bardziej obiecującym miejscu, tak samo:

„Due to the Federal government shutdown, NOAA.gov and most associated web sites are unavailable.”
„Government Shutdown
Important Notice: The U.S. federal government has shut down
Due to a lapse in funding, the U.S. federal government has shut down. Call 1-800-FED-INFO (1-800-333-4636) for answers to government questions.”

W jeszcze innym tak samo:

„Due to the Federal government shutdown, NOAA.gov and most associated web sites are unavailable.”

Świat został zdominowany przez próżne bijatyki pomiędzy jakimiś demokratami i jakimiś republikanami. Globalne Ocieplenie stało się elementem ideologii. Nieszczęściem, łysi w Polszcze stanęli po stronie „denialistów”, więc długowłosi muszą się opowiadać za alarmistami. To koniec nauki, dalej jest już tylko politykierska nawalanka. Politycy gotowi są podpalić świat dla zniszczenia swoich przeciwników. Prawda nie ma znaczenia, żadne 5% czy 95% pewności. Wojenna propaganda. Byle tylko dowalić konkurentowi.




Pobierz tekst:

Mogą Cię zainteresować

Michał Chudoliński „Mroczny Rycerz Gotham – szkice z kultury popularnej”

Zapowiedź książki Michała Chudolińskiego pt. „Mroczny Rycerz Gotham – szkice z kultury…

Jonathan Carroll „Kobieta, która wyszła za chmurę”
Fantastyka Fahrenheit Crew - 3 maja 2012

Tytuł: Kobieta, która wyszła za chmurę Autor: Jonathan Carroll Tłum.: Jacek Wietecki Wydawca: Rebis…

Antologia „Wielka księga fantastycznego humoru t.1”
Fantastyka Fahrenheit Crew - 5 marca 2011

Fabryka Słów Uwaga! Przedawkowanie grozi zerwaniem boków. Na wszelki wypadek miej w pobliżu coś…

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *

Fahrenheit