Fahrenheit nr 55 - październik-listopad 2oo6
fahrenheit on-line - archiwum - archiwum szczegółowe - forum fahrenheita - napisz do nas
 
Para-nauka i obok

<|<strona 17>|>

Problem granicy, ale nie Zofii Nałkowskiej

 

 

Kilka, może kilkanaście miesięcy temu polska prasa kpiła z głupich Amerykanów, którzy wojują z Darwinowską teorią ewolucji. No i mamy swój pasztet. Sytuacja jest durnowata, ponieważ poważne autorytety zostają zmuszone do wypowiedzi w obronie czegoś mniej więcej takiego, jak tabliczka mnożenia. Teoria ewolucji bowiem raczej teorią nie jest, podobnie jak teoria względności. To coś technicznie, a nawet politycznie użytecznego. Nie da się jednocześnie wojować ze zmodyfikowaną genetycznie żywnością i kwestionować istnienia całej dziedziny biologii poświęconej badaniom dziedziczenia, majstrowaniu przy DNA, której wyniki mają przemysłowe zastosowanie.

Cóż zrobić z osobnikiem, który twierdzi, że Darwin się mylił? W przypływie złości powiedziałbym, że chyba to, co można zrobić z człowiekiem głośno dającym sobie ulgę na salonach. Chwilowo otworzyć okna, a potem go już nie wpuszczać.

Otóż wbrew temu, co się wielu ludziom zdaje, tego typu wybryki nie mają za sobą tylko ideologicznych podstaw, nie są prezentacją politycznego cynizmu. Jeśli nawet głoszący takie poglądy w duchu śmieje się z nich w kułak, to liczy na spore grono odbiorców.

Jest jakiś problem z teorią ewolucji. Pisałem o tym już chyba kilka razy: to rachunek prawdopodobieństwa. Nie da się ewolucji zrozumieć bez tej cholernej matematyki. A matematyka na maturze nie obowiązuje. Jeśli więc poziom wykształcenia maturzysty jest dziś taki, że dodawanie ułamków zwykłych stanowi problem nie do przeskoczenia, to można się spodziewać, że rachunek prawdopodobieństwa, który zawsze był wielkim wyzwaniem dla rozumu, leży i kwiczy, i znajduje się poza zasięgiem zrozumienia. W efekcie, obawiam się, bynajmniej nie problem paskudnego przodka, o którym czasem mówi się obraźliwie: „ty małpo złośliwa”, lecz ból głowy związany z monotonnym kiwaniem się nad podręcznikiem i świadomość, że do jutrzejszego sprawdzianu nic kompletnie, ale to kompletnie się nie umie, jest przyczyną kłopotów z ewolucją.

Genetyka i teoria ewolucji ma jeszcze jedną zasadniczą wadę dla przeciętnego człowieka. Mianowicie to zaledwie narzędzie do rozumienia procesów. To mniej więcej tak, jakby Ci, Czytelniku, ktoś powiedział, że komputer zbudowano z tranzystorów, że działa na prąd, i pokazał działanie podstawowej bramki NAND. A teraz spróbuj z tą wiedzą przewidzieć działanie procesora AMD K6 lub nawet Z80. Nawet gdy ktoś litościwy wytłumaczy Ci działanie przerzutników rejestrów, dalej będziesz w lesie. Zrozumiesz działanie automatów typu dotykowy włącznik światła, może zegarka elektronicznego, ale komputer będzie dla Ciebie nadal Piekielną Machiną.

W ludziach pokutuje przekonanie, że „prawda jest prosta”. Co złożone, to nieprawdziwe. Tymczasem to pokłosie postępów nauki gdzieś jeszcze z XVIII wieku, gdy za pomocą bardzo prostych praw i stosując proste rozumowania wyjaśniano, często tylko pozornie, tajemnice, które nurtowały ludzi od stuleci. Jak na przykład pioruny czy prawa ruchu planet.

Niestety, współcześnie musimy się pogodzić z faktem, że lwiej części tego, co widać, nie da się wyjaśnić za pomocą jednej prostej zasady, że istnieją piekielnie złożone układy.

Mam pewnego znajomego w podeszłym wieku, który właśnie co jakiś czas morduje znajomych, by mu wyjaśniali działanie różnych urządzeń. Na przykład telefonu komórkowego czy, o zgrozo, komputera. Człowiek ów ma intuicje oparte o aparat fotograficzny, telewizor czy oscyloskop i chce się dowiedzieć, jak działa procesor tekstu, jakim cudem tekst jest wyświetlany na ekranie, czasami boldem, czasami italikiem, czasami nawet podkreślony i w innym kolorze i rozmiarze. Kiedy pokazałem, że można rozmieszczać tekst na krzywych, runęła jakaś koncepcja, którą sobie wykombinował, i zaczął podejrzewać, że prawda o działaniu komputera jest ukrywana przez członków Światowego Rządu. Otóż w rzeczywistości ów człowiek nie może się pogodzić z prostym faktem, że komputer jest zespołem bardzo wielu urządzeń i działanie każdego z nich trzeba wyjaśniać z osobna.

Cała sprawa ma pewnie coś wspólnego z pewnym meteorologiem, który około 1962 roku odkrył chaotyczne rozwiązania równań różniczkowych. Bo do pewnego czasu ludzie dostawali przepiękne krzywe analityczne, które można było w efektowny sposób analizować, wyniki zaś podawać za pomocą tylko kilku liczb.

Otóż w procesie nauczania fakt, że coś jest diablo złożone, i fakt, że od czasu do czasu mamy do czynienia ze zjawiskiem piekielnej złożoności, która na dodatek jest chaotyczna, jest może nawet nie pomijany, ale wręcz maskowany. Głupio jest bowiem młodzi przyznawać się do faktu, że nasz wypracowany przez jakieś pięć tysięcy lat historyczny oraz kulturowy i pewnie ze dwa miliony biologiczny rozwój odpada od czegoś, co widać i słychać (niektórzy leśniczy widzieli dzięcioła). Złożoność chaotyczności czy chaotyczność wynikająca ze złożoności jest kolejnym problemem dydaktycznym. Złożoności jeszcze nie oswoiliśmy.

Tymczasem w ewolucji, choć z pozoru mamy do czynienia z prostym zjawiskiem zmienności oraz doboru naturalnego, który wybiera cechy przydatne, dzieją się rzeczy, które wymykają się prostym i naiwnym opisom. Banalnym przykładem jest to, że mówi się bardzo chętnie o tak zwanym dryfcie mutacji. Powolnych zmianach, które prowadzą do tego, że z wolno pasących się przeżuwaczy powstaje domowa krowa, która jako gatunek nie potrafi żyć bez opieki człowieka.

Dramatyczne zmiany, jak powstawanie nowych narządów czy wykształcanie całkiem nowych mechanizmów metabolizmu, zdają się być kompletnie zagadkowe. Banalny przykład: stałocieplność ssaków czy wykształcenie się płuc. Generalnie wszelkie rewolucyjne zmiany, choćby powstanie szkieletu, ale też znacznie mniej dramatyczne, jak wykształcanie się nowych gatunków, nie mieszczą się w ramach „dryftu ewolucyjnego”. Kanciarstwem jest w istocie naiwne tłumaczenie, że żyrafa mogła sobie powstać poprzez stopniowe preferowanie zwierząt z genami o coraz dłuższej szyi. To jest naiwne w świetle genetyki, bo zmianie długości szyi musi towarzyszyć odpowiednia zmiana konstrukcji reszty ciała. Gdy policzyć sobie prawdopodobieństwa zajścia tych wszystkich drobnych mutacji, to człowiekowi nie pozostaje nic innego, jak zostać zwolennikiem „inteligentnego planu”, gdyż czas potrzebny do ich zajścia będzie liczony w setkach miliardów lat. Czyli poglądu, że wszystko wokół jest wynikiem genetycznych interwencji Pana Boga.

Rzecz można wytłumaczyć na takim przykładzie. Powiedzmy, że mamy populację rowerów. Drogą dryftu genetycznego możemy dojść do najlepszej wielkości kół, przełożenia napędu, wielkości ramy. Czy jednak może nam się uląc z tego czterokołowy wózek? Łatwo zauważyć, że wszelkie powolne mutacje prowadzące do wózka spowodują, że rower będzie gorszy. Jeśli mu cokolwiek gdzieś z boku wypuścimy, będzie przeszkadzało. Taki rower zostanie szybko wyniesiony na strych i wszelkie próby wyewoluowania do wózka skończą się, nim cokolwiek wózkopodobnego się wykształci. Mówiąc inaczej, od roweru do wózka ewolucyjna droga prowadzi poprzez formy letalne, które zdechną natychmiast. Tak się nie da.

Jeśli jednak dopuścimy powstanie (obojętne, jak się te rowery rozmnażają) zrośniętego boczkami tworu, „roweru syjamskiego”, okaże się, że to się da.

I w tym tkwi problem. Trzeba odkryć drogę, sposób, ewolucyjną „kiwkę”. Wówczas coś zupełnie nieprawdopodobnego sprowadzi się do wyregulowania zaledwie kilku parametrów.

Przykładem czegoś takiego jest teoria neotenii, która wyjaśnia (?) powstanie człowieka z małpy (złośliwej). Coś spowodowało bardzo mocne spowolnienie działania jednego genu, który jest odpowiedzialny za dojrzewanie. Takie osobniki wyginęłyby, gdyby nie obserwowana także u innych żywych zdolność do rozmnażania się niedojrzałych form. Zdolność taką posiada między innymi aksolotl, aksolotl 2, Ambystoma mexicanum.

Trochę to szokujące, że sięgamy po aż tak prymitywne prymitywy, szukając rodowodu człeka. Ale cóż robić? Pomysł jest taki, że człowiek jest dzieckiem małpy. Widać to choćby przez porównanie szkieletu. U starych małp głowa jest wysunięta do przodu, podobnie jak u starego, zgarbionego człowieka. Stara małpa przestaje się uczyć. Człowiek zaś dzięki zatrzymaniu procesu dojrzewania może przyswajać wiedzę przez całe życie. Zapewne rzecz sprowadza się do możliwości tworzenia nowych połączeń w rozumie, czyli mózgu. Zapewne też na skutek dryftu ewolucyjnego sprawa się skomplikowała. Współczesnemu człowiekowi odblokowanie działania owego genu kontrolującego dojrzewanie nie przywróci postaci przodka; tak stałoby się pewnie w przypadku małpoludów sprzed australopiteka. Warto jednak sobie uświadomić, że „poważna” genetyka i nauka o ewolucji zajmuje się bardziej kodem genetycznym, a nie cechą. Tymczasem to bardzo skomplikowane, i podręczniki oraz literatura popularyzatorska trzymają się opowieści o cechach, przez co wielu rzeczy nie da się wyjaśnić.

Swoją drogą, dla zwolenników boskich (czy też obcych) cywilizacji kłopotem, który pomijają milczeniem, jest zupełna nieobecność w organizmach żywych pewnych standardowych technicznych rozwiązań, które dają naszym maszynom czasem dramatyczną przewagę nad biologią: choćby brak jakiegokolwiek kręcącego się kółeczka. Tak, właśnie kółeczka wyjątkowo trwałe, energooszczędne powodują, że na przykład zegary mogą przetrwać i kilkaset lat. Nie ma też żadnego powodu, żeby biologia miała zrezygnować z szeregu piekielnie przydatnych materiałów, takich jak na przykład ceramika czy metale, poza tym, że w genetycznej informacji nie ma dla nich żadnej prostej ścieżki produkcji, takiej właśnie jak włączenie funkcji uczenia się przez całe życie. Zwyczajnie powstały pewne proste modyfikacje biologicznej materii. Zwolennicy biologicznej doskonałości usiłują przekonywać, że właśnie te techniczne rozwiązania są do luftu. Niestety, wystarczy porównanie bardzo podobnych konstrukcji, na przykład oka i aparatu fotograficznego, by przekonać się, że to nieprawda. Konstrukcje biologiczne „ledwo działają”, są tak złe, jak tylko można. Biologia nie wynalazła obiektywu achromatycznego zapewne dlatego, że podparła się ogromną mocą obliczeniową do korekcji obrazu. To skompensowało fatalną optykę i wystarczyło, by przetrwać, choć dziś fizjologowie wiedzą, że widzenie pochłania całkiem sporą część energii pozyskiwanej z jedzeniem, a więc utrzymało się rozwiązanie zmniejszające szanse przetrwania organizmu.

Kłopot ewolucjonistów i genetyków to zmienność nauki. Porządne teorie zostały stosunkowo niedawno sformułowane, tymczasem w powszechnym obiegu są wersje, które powstały wiele lat temu i, delikatnie mówiąc, nie sprawdziły się. Przykładem może być choćby powstawanie życia z pierwotnej „zupy” (teoria Oparina z roku 1923). Współcześnie uważa się, że zaczęło się od kawałków RNA, które mają zdolność do samopowielania. Warto jednak zwrócić uwagę, że zasada zostaje utrzymana, materia wykazuje zdolność do samokomplikacji, dowcip tkwi zaś w odkryciu, jak to wygląda w szczegółach.

Na koniec ludzki umysł buntuje się przeciw temu, że materia żywa zdaje się być przeciwna zasadzie wzrostu entropii. Drobiazg, entropię mylimy z bałaganem w ludzkim pojęciu. Co więcej, wiadomo, że w ewolucji mamy przypadki „uwsteczniania się rozwoju”. To przypadek, że obserwujemy komplikację wynikającą z tego, że zaczęło się od organizmów prostych. Gdyby na ledwo ostygłej Ziemi cztery miliardy lat temu wylądował człowiek, dziś zapewne i tak mielibyśmy bakterie, nawet gdyby w organizmach ludzi ich na początku w ogóle nie było. Zapewne dzisiejszy ekosystem wyglądałby zupełnie inaczej. Zapewne byłyby istoty bardziej skomplikowane niż ludzie i mniej skomplikowane, ale wszelkie możliwe nisze zostałyby wypełnione.

Wszystko, co piszę, to jednak „oczko wyżej” od problemu akceptacji teorii Darwina jako takiej. Otóż zdaje mi się, że popularność antydarwinowskich ruchów wynika z tego, że ludziom w ogóle nie mieści się w głowach zjawisko przypadku. W mitach greckich nie ma przypadku, jest fatum, przeznaczenie, kaprysy bogów. Ludzie współcześni idą do wróżek, bo nie pojmują zjawiska indeterminizmu. Czyli czegoś, co leży u podstawy rachunku prawdopodobieństwa.

Tak więc nieakceptowanie teorii Darwina jest, moim zdaniem, problemem dydaktycznym. Obawiam się też, że ustawienie w rogu klasy beczki z rózgami czy inne bardziej wyrafinowane metody nauczania zwiększą liczbę cokolwiek rozumiejących z Darwina może o kilka procent.

Wbrew pozorom, efekt cieplarniany, jak mi się zdaje, w medialnym wydaniu to coś bardzo bliskiego kłopotom z teorią Darwina. Ktoś na liście dyskusyjnej wyraził zdziwienie, że można jeszcze kwestionować efekt cieplarniany. Chodziło o mnie. Kwestionuję, pomimo że w tej chwili elementem politycznej poprawności jest niewiara w George’a Busha i wiara w efekt cieplarniany.

Otóż... A kto powiedział, że klimat ma być niezmienny? Hę? W szkołach nie uczyli o tym, że były epoki raz lodowcowe, raz ciepłe? Klimat zmiennym jest. Tak wynika z wykopalisk.

To jedna sprawa. Druga, że człowiek znowu chętnie udaje się do wróżki, która ma mu przepowiedzieć pogodę. A wróżka nie tylko chętnie wróży straszne rzeczy, nie tylko wernyhorzy, bo to się dobrze sprzedaje. Wróżka czasami staje w obliczu zjawiska chaosu. Słowo się rzekło, chaos znajduje się poza zasięgiem pojmowania wielu ludzi.

Czy ktoś się zastanawia, jak powstaje „średnia temperatura Ziemi”? Co to tak naprawdę jest? Powiedzmy inaczej: czy można bez ryzyka mówić o średniej temperaturze Ziemi? Bo chyba każdy zdaje sobie sprawę, że od bieguna do bieguna po południku będziemy mieli gdzieś od minus 50 do plus 50 stopni Celsjusza, lokalnie ponad te pięć dych w plusie i minusie i w efekcie amplituda zmian sięgnie lekko 100 stopni. Biorąc pod uwagę fakt, że w naszej strefie klimatycznej temperatura powietrza potrafi się zmieniać w granicach około 60 stopni Celsjusza, naprawdę trzeba się mocno namyślić, w co mianowicie wetknąć termometr.

A nawet jak się wetknie w jakieś bardzo dobrze wymyślone miejsce, to i tak na skutek amplitudy zmian bilans nie wyjdzie nam na zero. Nie dosyć tego: rozsądnie jest przewidywać, że wpływ przypadkowych czynników powodujących, jak się to dziś ładnie mówi, „uchyby pomiarowe” (w pewnym sensie, chcemy zmierzyć temperaturę powietrza, a mierzymy na przykład temperaturę lokalnie ogrzanego powietrza) będzie proporcjonalny do wielkości owej amplitudy zmian. Można wymyślić, że się bardzo uśredni poprzez zwiększenie liczby pomiarów. Tak w pierwszym podejściu amplituda zmian będzie nam malała z pierwiastkiem ilości danych. Czyli przy stu pomiarach wielkość niespodziewanych uchybów zmaleje dziesięć razy.

Problem z pomiarami temperatury jest znacznie większy, niż się ludziom wydaje. Sprowadza się do tego, że zawsze mierzymy temperaturę czujnika termometru. W przypadku, gdy różnice są znaczne, sprawa nie ma dużego znaczenia. Otóż przyrost temperatury, który zanotowano za wiek XX, to około 0,6 stopnia Celsjusza. Co prawda w warunkach laboratoryjnych mierzymy temperaturę z dokładnością do tysięcznych części stopnia, co prawda bez trudu znajdziemy termometr, który pokaże nam temperaturę z dokładnością 0,1 stopnia, prawie każdy termometr cyfrowy ma rozdzielczość 0,1 stopnia, czyli pokazuje różnicę temperatur z tą dokładnością, lecz pewni możemy być tylko pomiarów czujnika właśnie.

Podczas gdy efekt cieplarniany jest dziś niekwestionowany, jednocześnie ostatnio mieliśmy jeden z najdłuższych sezonów grzewczych. Podobno podnosi się nam poziom mórz, a z surowych danych satelitarnych wynika spadek ich poziomu. Dopiero gdy uzupełni się wyniki o dane z kilkudziesięciu poprzednich lat, otrzymamy politycznie poprawny wzrost poziomu.

Otóż, Drogi Czytelniku, a kto powiedział, że poziom światowego oceanu ma się trzymać jak drut stałej wartości?

Tak wygląda działanie chaosu. Gdy uśredniamy jakąś wielkość, która „szumi”, otrzymujemy kolejny przebieg z mniejszą amplitudą zmian. Jeśli jest to operacja obejmująca tylko kilka punktów, to pewnie dalej będziemy widzieć przebieg, który nie pozostawi żadnych wątpliwości, że jest chaotyczny. Wystarczy jednak dobrać okres uśrednienia, a objawi się tendencja rosnąca lub malejąca. Mówiąc inaczej, kształt słynnej „hokejowej” krzywej obrazującej wzrost temperatury na Ziemi nie do końca jest zjawiskiem obiektywnym. To wynik określonej obróbki danych. Obróbki, i owszem, uzasadnionej, ale z założonymi pewnymi parametrami.

To, co nam w gazetach pokazują, to wynik przepuszczenia danych na swój sposób oryginalnych przez, nazwijmy to, filtr dolnoprzepustowy. Stałą czasową owego filtra dobrano tak, żeby było widać, co widać. Gdyby była wyraźnie mniejsza, tendencja zniknęłaby w lokalnych fluktuacjach, które czasami nieśmiało nanosi się na wykresy. Przy bardzo długiej stałej czasowej nie zaznaczy się wyraźnie wzrost. Więc (pamiętając, że nie zaczyna się zdania od „więc”) nie zamierzam dyskutować, czy dobrze ustawiono ten filtr, czy nie. Widać, co widać, bo tak go ustawiono. O to chodzi.

Dodajmy jeszcze, że w czasach, gdy przemysł nie stosował elektrofiltrów i w powietrze leciały tony sadzy, klimatolodzy wykazywali efekt istotnego osłabienia promieniowania. Efekt ten i dziś jest zauważalny nad miastami, często niweczy pomysły instalowania słonecznych podgrzewaczy wody. Widać, że natężenie promieniowania ultrafioletowego w miastach jest nawet kilka razy mniejsze niż w niezabudowanej przestrzeni.

Całkiem niedawno przeczytałem w „Świecie Nauki” szereg publikacji dotyczących efektu cieplarnianego i muszę powiedzieć, że zestawienie wzbudziło we mnie jeszcze większe wątpliwości. Albowiem także całkiem niedawno pojawiło się trochę informacji o tym, jaką klapą okazało się dla energetyki budowanie wiatraków. Te informacje zgadzają się z wiedzą ogólną i wyliczeniami, prezentowany zaś ostatnio optymizm w kwestii alternatywnych źródeł energii – ni cholery. Banalna kalkulacja, że jeden blok 1000 MW w porywach da się zastąpić tysiącem wież około 100 metrów wysokości i o średnicy wiatraka jakieś 60 metrów, daje pewne wyobrażenie o skali problemu. Dla Polski zainstalowana moc to coś około 33 GW. Czyli chwilami, gdy wieje mocny wiatr (kilka dni w roku), kilkadziesiąt tysięcy takich wiatraków zasilałoby Polskę, lecz bynajmniej nie dałoby się wyłączyć całkiem w tym czasie elektrowni parowych, bo wiatr zmiennym jest, więc żeby utrzymać moc dysponowaną, palacze musieliby ładować pod kocioł.

Zasadnicza wątpliwość dotyczy czegoś innego. Mianowicie, jeśli nawet zgodzimy się, że klimat nam się zmienia (a zmienia się, na blachę, bo nie ma żadnego powodu, by nie), to co właściwie się dzieje? Miło by było, gdyby zamiast uprawiać propagandę, klimatolodzy zajęli się wyjaśnieniem tego, dokąd i dlaczego to wszystko zmierza? Jeśli bowiem uświadomić sobie skalę globalnych procesów, tego, że w przeróbce biologicznej materii biorą główny udział oceany, że skala produkcji dwutlenku węgla przez człowieka w stosunku do procesów biologicznych to w dawniejszych szacunkach marne procenty (obecnie brak takich danych), że wybuch wulkanu to zwykle drobne kilometry sześcienne materiałów wyrzuconych w powietrze – tyle, ile wynosi roczne światowe wydobycie niektórych surowców (ropy naftowej, rud żelaza) – to można dojść do paskudnego wniosku, że owszem, dzieje się coś. Tyle że nie wiemy co. Diabli wiedzą, czy wzrost temperatury to wynik wzrostu ilości dwutlenku węgla w atmosferze, czy raczej, co się (mi) bardziej zgadza z rozumem, na odwrót, jest on objawem. Sprawa jest zagmatwana, bo choćby poprawna politycznie para wodna jest bardzo skutecznym gazem cieplarnianym i na przykład wyschnięcie Morza Aralskiego stanowi bardzo namacalny dowód, że jej ilość w atmosferze mogła się zwiększyć. Wyższa temperatura to mniejsza rozpuszczalność dwutlenku węgla w wodzie, a że wody to większość powierzchni Ziemi, że średnia głębokość światowego oceanu to jakieś 4 km, więc czynnik jest naprawdę istotny. Szacuje się (różne publikacje podają trochę inaczej), że w oceanach siedzi 45% tego gazu. Nie wiem do końca 45% z czego, ale niewątpliwie podgrzany ocean zachowa się jak podgrzana butelka pepsi. Podniesienie się temperatury to też wyższa produkcja dwutlenku węgla przez proste organizmy żyjące w glebie, która wielokrotnie przewyższa emisje, jak to się mówi, antropogeniczne.

Pomimo że o efekcie cieplarnianym tyle się pisze, to o co tak naprawdę chodzi – rzadko i niechętnie. Dlaczego? Wytłumaczę to na przykładzie. Na przykład ile tlenu produkuje las? Na przykład w ciągu roku? Otóż dość dobrze wiadomo (a przynajmniej często jest to powtarzane), że jedna sosna produkuje tlen dla trzech osób. No to wystarczy policzyć sosny na obszarze, powiedzmy, kilometra kwadratowego i wiemy. Można sprawę wyjaśnić jeszcze prościej. Idziemy do lasu z łopatką i kopiemy. Jeśli nie dokopiemy się do tworzących się złóż węgla brunatnego, torfu, generalnie pokładu materii organicznej z dużą zawartością węgla, to znaczy, że las wytwarza tlen w ilości 0, przy czym jednostka jest obojętna: masy, objętości, ilości materii, pudy, kubiki, funty, mole czy inne chrabąszcze. Jest zero. Albowiem cała masa dwutlenku węgla, która została rozłożona na tlen i cukry celulozy, i wszelką inną materię organiczną, ulega w tym lesie powtórnemu przetworzeniu na dwutlenek węgla w procesach rozkładu prowadzonych przez wszystkie zamieszkujące ów las organizmy, z leśniczym, łosiem oraz wszelkimi robalami i grzybami włącznie. Jeśli rośnie w lesie wierzba energetyczna, a na tej wierzbie gruszki, i trzy osoby jedzą te gruszki, to możemy opowiadać, że owszem, wychodzi na to, że owa wierzba produkuje tlen dla tych gruszkojadów.

Z tej przyczyny obraz jest skomplikowany. Albowiem chodzi o to, że człowiek, spalając paliwa kopalne, wprowadza do biocenozy dodatkowy węgiel. I nie bardzo wiadomo, co się z nim dzieje. To znaczy spodziewamy się, że może zostać zamieniony przez rośliny na masę żywą, może zostać w atmosferze, ale w jakiej części i jak szybko, to można tylko gdybać albo liczyć na komputerach, prawdopodobnie z tym samym skutkiem.

Trudno się zorientować nawet w wielkości tego obrotu materią. Podawane są bardzo różne dane. Na przykład mówi się o tym, że absorpcja dwutlenku węgla sięga (w Polsce?) 250 ton na hektar lasu rocznie. Ta wielkość zgadza się „co do rzędu” z oszacowaniem, w którym bierzemy wielkość: nasłonecznienia (stała słoneczna 1366 watów na metr kwadratowy, w Polsce od 950 do 1250), ciepła spalania węgla (wypadałoby wziąć energię wiązania, lecz za wiele liczenia), sprawności procesów fotosyntezy, która waha się od ułamka procenta do ponoć nawet 10% (w obliczeniach zwykle 5-6%) dla specjalnych upraw, takich jak trzcina, burak cukrowy czy słonecznik. Z natury wiemy, że wielkość produkcji rolniczej to mniej więcej od kilku do 15 ton ekwiwalentu węgla z hektara. Dla wierzby energetycznej to jest ponoć 30 ton. Biorąc pod uwagę, że absorpcja dwutlenku węgla idzie na budowę wszystkiego, co roślinne, liści, a także korzeni, to możemy się ostrożnie przychylić nawet do tych 250 ton, co daje 25 tysięcy ton na kilometr kwadratowy. Dla Polski, która ma powierzchnię około 312 tysięcy kilometrów kwadratowych, daje to około 7,5 miliarda ton węgla rocznie. Przyjmując oszacowania „rolnicze” około 20 razy mniejsze, mamy w okolicy 350 milionów ton węgla. Polska wydobywa mniej niż 100 milionów ton węgla rocznie, świat zaś emituje ze źródeł antropogenicznych około 20 miliardów ton dwutlenku węgla. Ponieważ w dwutlenku węgla węgiel to 27%, a resztę stanowi tlen, oszacowanie to zawiera się pomiędzy sytuacją, gdy rośliny na obszarze Polski przerabiają cały dwutlenek węgla wyprodukowany przez człowieka i jeszcze trochę więcej, i taką, że przerabiają ponad trzy razy więcej, niż wynosi całe wydobycie węgla w Polsce. Można tu jeszcze dodać, że teoretyczna sprawność fotosyntezy jest na poziomie 34 (niektórzy podają 35).

W starszych nieco publikacjach można znaleźć informację, co się dzieje z dodatkowym dwutlenkiem węgla. Mianowicie zwiększa się intensywność produkcji roślinnej. To zaś, czy zostanie wyprodukowany tlen, zależy od leśniczego. Jeśli nie wygoni nas z lasu, strzelając solą ze swej dubeltówki, gdy będziemy wywozić suche liście do palenia w piecu, można uznać, że tak. Choć bilans i tak wyjdzie na zero. Tak więc, Drogi Czytelniku, chciałem Ci pokazać, że dana, którą w podręcznikach prezentuje się jako obiektywną wartość, jest w rzeczywistości efektem ideologicznej interpretacji oraz tego, jak żyjemy z naszym leśniczym.

Nie wyjaśnia się też, pisząc „efekt cieplarniany”, że nie chodzi o efekt, dzięki któremu działają cieplarnie. Pisałem już kilka razy o tej drobnej różnicy: to nie jest nagrzewanie się, na skutek odbicia od atmosfery promieniowania podczerwonego, powierzchni Ziemi, ale dość cienkiej warstwy atmosfery. Jak cienkiej? Być może na ledwie kilkadziesiąt metrów. Gdy się wie coś takiego, człowiek uświadamia sobie, że to zjawisko może zostać zniweczone na przykład przez ukształtowanie terenu. Średni spadek temperatury atmosfery wynosi około 0,6 stopnia na 100 metrów wzrostu wysokości. Wystarczy, że na skutek wiatru i postawienia wysokiego budynku (na około 66 metrów, 2/3 ze 100 metrów) zostaną wymieszane cieplejsze i zimniejsze obszary. I globalny przyrost temperatury 0,6 stopnia na stulecie diabli wezmą. Jak widać, efekt jest bardzo subtelny.

W obliczeniach wychodzi różnica w bilansie cieplnym Ziemi około 1 wata na metr kwadratowy. Jeśli przyrównamy to do stałej słonecznej, dokładność pomiaru wynosi lepiej niż 1 promil, jeśli do średniej dobowej mocy uśrednionej po wszystkich szerokościach geograficznych 164 waty na metr kwadratowy – dokładność jest na poziomie ułamka procenta. Otóż z dokładnością promila ciężko jest zmierzyć moc grzałki elektrycznej zasilanej prądem stałym w warunkach laboratoryjnych. Grzałka sklepowa zasilana z sieci energetycznej może zostać obmierzona z dokładnością do kilku procent, przy czym potrzebujemy komputerowej rejestracji napięcia w czasie, bo to się waha znacząco, zaś uwzględnienie odkształceń przebiegu od sinusoidy wymusi na nas zastosowanie specjalnego miernika wartości rzeczywistej napięcia. I tak, gdy wyliczymy błąd pomiaru (przepraszam: niepewność pomiaru!) mocy, wyjdzie nam kilka procent, chyba że bardzo się będziemy starać i użyjemy aparatury za sto tysięcy dolarów. W kwestii pomiaru mocy promieniowania Ziemi dodamy, że, jak wielokrotnie pisałem, w zakresie termicznym atmosfera jest i tak nieprzeźroczysta, a dodanie bądź ujęcie gazów cieplarnianych, przede wszystkim pary wodnej, przesuwa tylko wysokość, do jakiej dociera promieniowanie emitowane przez nagrzaną Ziemię, o dziesiątki metrów. Przypomnijmy, że istnieją prądy konwekcyjne i że najwyraźniej wysokość, do której docierają, określa temperaturę powietrza, wysokość obszaru cyrkulacji, bo im wyżej, tym zimniej, że dopiero z wysokości kilkunastu kilometrów ciepło jest wypromieniowywane w kosmos.

Współczesne komputery, i owszem, policzą z dowolną właściwie dokładnością parametry w dowolnym niemal modelu. Będą one warte tyle, ile mówi akronim ukuty o obliczeniach numerycznych, a przetłumaczony na polski bardzo dyplomatycznie: „śmieci na wejściu, śmieci na wyjściu”. Po angielsku brzmi to mniej więcej: shit on the start, shit on the end. Zasada sumowania błędów mówi, że na wyjściu będzie to bardziej shit niż na wejściu. Mówiąc inaczej, bez milionów pomiarów zdjętych w przemyślany sposób z wielką dokładnością efekt cieplarniany będzie cały czas tylko zabawą w kotka i myszkę z urzędasami o coraz większe granty.

Najsmutniejsze jest to, że z dużym prawdopodobieństwem obserwujemy fluktuacje, które nie mają wiele wspólnego z działalnością człowieka. Nie jest to zapewne „ocieplenie proste”, tracimy cenny czas, który trzeba wykorzystać na przygotowanie się do nich, bo w możliwość przeciwdziałania na skalę globalną nie wierzę. W którymś momencie ludzie połapią się, że „to nie to”, ale będzie za późno.

Oczywiście, niezależnie od tego, o co chodzi z tym efektem cieplarnianym, rozsądnie jest na przykład sięgać po odnawialne źródła energii. Rozsądnie jest ograniczać zużycie energii. Piszę to jako „antybuszysta”, niekoniecznie jako „antykaczysta”, choć jedynie dlatego, że ta druga opcja określa swój stosunek do różnych publicznych spraw tylko poprzez ocenę, czy to pomoże utrzymać władzę. Problem w tym, że ludzie bardzo chętnie konsumują, że popierają polityków, którzy ich do tego zachęcają, zaś tych, którzy chcieliby dokonać długoterminowych inwestycji, takich, które zwrócą się dzieciom, przeganiają. Otóż inwestycje w energetykę mają okresy zwrotu rzędu czterdziestu lat. Im bardziej energooszczędne, tym dłużej. Sęk w tym, że działalność „proekologiczna” wydaje się małpio złośliwie zaprojektowana. Jak się przyjrzeć, to trudno się dopatrzyć konsekwentnej realizacji zamierzonych celów. A gdy nie wiadomo, o co chodzi, to, jak się zdaje, chodzi o przerobienie publicznych pieniędzy na czyjeś prywatne.

Może się kompletnie nie znam, lecz gdybym wojował o zmniejszenie emisji nie tylko gazów cieplarnianych, ale wszelkiego rodzaju zanieczyszczeń, to zacząłbym od oszczędności. Dla przykładu: szacuje się, że zastosowanie kontrolowanego przepływu powietrza w domach mieszkalnych i rekuperatorów odzyskujących ciepło ze zużytego powietrza dałoby oszczędność około 40% energii wydatkowanej na ogrzewanie. W przypadku budynków o specjalnej konstrukcji można doprowadzić do tego, że ogrzewanie w domu będzie potrzebne tylko podczas największych mrozów. Do utrzymania właściwej temperatury wystarczą normalnie pracujące w domu urządzenia, które przecież się grzeją.

Niepotrzebne są tu odkrycia. Wystarczą rozwiązania doskonale sprawdzone. Pisałem już kiedyś o sposobie na zmniejszenie starty kominowej. W przypadku kontrolowanego przepływu powietrza przez budynek umieszczenie grzejnika „na wlocie” z przeciwbieżnym przepływem wody (medium) i powietrza umożliwi schłodzenie wody na wylocie grzejnika do temperatury znacznie poniżej temperatury wewnątrz budynku. Tym samym proporcjonalnie mocniej schłodzone zostaną spaliny. Otóż tego typu rozwiązania to zwyczajny wymiennik ciepła. Doskonale znany. Szukaj tu

Osobną sprawą jest masowe obecnie stosowanie klimatyzatorów. Po prostu efekt kiepskiego projektowania budynków. Kontrolowany obieg ciepła z tunelem w ziemi może wyeliminować całkowicie te energożerne urządzenia.

Generalnie nic cudownego pod słońcem, a skuteczność każdego z tych rozwiązań to nie tylko ograniczenie zużycia paliw, emisji dwutlenku węgla, ale też oszczędności dla odbiorcy. I tu chyba jest pies pogrzebany, bo chodzi nie o to, by wydawać mniej pieniędzy, tylko o to, by wystraszeni ludzie płacili na ekologię. I z tego powodu budowane są wiatraki. Energooszczędne domy, urządzenia, samochody to może być kłopot dla koncernów, bo oznaczają mniejszą sprzedaż i energii, i jej nośników, więc po prostu straty. Wiatraki są tylko nieco kłopotliwe, ich wpływ na bilans energetyczny jest niewielki. No i jakoś wychodzi, że idziemy w wiatraki.

Problem efektu cieplarnianego, Kochany Czytelniku, to w lwiej części efekt książeczek, w których pisze się o „zielonych płucach” (a więc owym lesie produkującym tlen), oraz upraszczania czy brania za dobrą monetę mechanizmów, które jeszcze w XIX wieku dla popularyzacji wśród gawiedzi wymyślano. Wystaw sobie, że za moich czasów poważny wykład rachunku błędów był dopiero na IV semestrze studiów fizyki. Jakże gawiedzi mówić o błędach pomiaru temperatury, zawartości dwutlenku węgla, fluktuacjach i uśrednianiu wyników? Nie da się wytłumaczyć, że skoro proporcja pomiędzy antropogeniczną produkcją dwutlenku węgla a szacowaną biologiczną może być poniżej ułamka procenta – to ograniczenia o procenty produkcji antropogenicznej o kant stołu, bo odbiorca informacji ma kłopoty z procentami i proporcjami, bo nie potrafi dodawać ułamków zwykłych. Więc jak mu dostatecznie długo gadać, to se wiatrak kupi. I będzie wierzył, że niniejszym ratuje świat od zagłady.

I tak od problemu czysto dydaktycznego dochodzimy do ekonomicznego przysłowia: „jak kto głupi, to go bida łupi”.

Tak mi się coś zdaje, że jesteśmy świadkami powstawania granicy postępu, która leży na obrzeżach wiedzy wyznaczonej przez zrozumienie takich pojęć, jak chaos czy banalna teoria błędów. Granicy, przez którą są w stanie przeskoczyć nieliczne wykształciuchy. Stanisław Lem twierdził, że postęp zostanie zahamowany w momencie, gdy człowiek rano się obudzi i nie pozna swojego świata. Otóż wygląda na to, że granica leży znacznie bliżej i jest wyznaczona przez ową beczkę z moczącymi się kijami do pokonywania problemów dydaktycznych.

 


< 17 >