Mapa Ukrainy
ISSN: 2658-2740

Adam Cebula „Świadomość krzywej”

Para-Nauka Adam Cebula - 20 lipca 2018
Grafika: Adam Cebula

Zawsze podziwiałem ludzi, którzy rozumieli. Co rozumieli, to dalsza sprawa, ale imponowało mi, gdy ktoś rozbierał zagadnienie na czynniki pierwsze i potrafił na przykład podjąć decyzję, co jak trzeba zmajstrować, jak grubej śruby użyć, ba, nawet gwoździa. Albo ile soli dosypać do potrawy.

Z solą to jest pewien bardzo charakterystyczny problem. Który ludzie rozumieją akurat wówczas, gdy idzie o sól. Gdy chodzi o cukier, już to rozumienie się rozmywa. Co do soli, pieprzu czy chrzanu, a tym bardziej jeśli ktoś się zapoznał z papryczką chili, obowiązuje zasada, że mamy dość wąski przedział ilości przyprawy, która „robi dobrze”. Gdy mówimy, że ktoś „przesolił”, a nie chodzi o solenie, to wiadomo, że z czymś przesadził, wyszedł z optymalnego zakresu.

„Przecukrzyć” nie występuje w popularnej mowie. Słówko „przesłodzić” nie jest synonimem tak ogólnym jak „przesolić”. Odnosi się raczej do dość wąskiego kręgu działań towarzyskich czy międzyludzkich. Być może to rozważania dość jałowe, lecz z cukrem jest naprawdę inaczej niż z solą. Cukier można jeść łyżką, sól tolerujemy tylko w w znacznym rozcieńczeniu.

A jednak widzę w tym coś ważnego i ogólnego. To, że ludziom ciężko pogodzić się z pewnymi powszechnie występującymi w świecie zależnościami. Na przykład z tym, że coś, na przykład przyjemność związana ze smakiem potrawy, ma ekhem… niemonotoniczny przebieg w zależności na przykład od ilości owej przyprawy. Głupiejemy bardzo skutecznie, gdy tylko odchodzimy od oczywistych, wielokrotnie sprawdzonych przykładów.

Gdy chodzi o sytuacje, które nie są tak oczywiste jak przesolenie, gdy przechodzimy od soli do cukru, świadomość tego, co się dzieje, słabnie. Przekonanie kogoś, że działanie w jakimś kierunku, dalsze dosypywanie soli (tym bardziej cukru) przynosi skutek odwrotny, bywa bardzo trudne.

Mogłem obserwować to wiele razy dzięki istnieniu ćwiczenia „rezonans mechaniczny”, które jest poświęcone temu bardzo dobrze znanemu zjawisku. Otóż maszyneria do prezentacji powyższego nie jest chyba do końca zrozumiała dla eksperymentatorów. Jest jakaś czerwona gałka, wyświetlacz cyfrowy, a pokazuje on coś, co na czytelne parametry, w tym wypadku częstość, przekłada się dopiero po wyliczeniu. No i trzeba kilku podejść, żeby delikwent rozumiał, a pewnie nie zawsze to zrozumienie przychodzi, że nie jest tak, że kręcenie ową gałką w prawo zawsze zwiększa amplitudę drgań. Że jest jak w elementarnej teorii, jest pewne pośrednie położenie gałki pomiędzy minimum i tym maksymalnie w prawo, w którym to położeniu amplituda jest największa. I odpowiada ono – a jakże by inaczej – owemu rezonansowi siły wymuszającej, której częstość tą intrygującą gałką zmieniamy.

Oraz że dalsze kręcenie w prawo przynosi rezultat odwrotny do tego, co było na początku. Amplituda wahań maleje, choć wcześniej rosła. Niby oczywiste, skoro jest to „pośrednie położenie”, ale… Sprawa nie jest taka łatwa do wychwycenia, ponieważ miedzy innymi efekt zmiany amplitudy nie występuje natychmiast. Trzeba przekręcić, chwilę popatrzeć, co się dzieje, i dopiero próbować wyciągać wnioski. A to z takiego powodu, że wielkość wychyleń zmienia się dopiero po chwili. No i nawet gdy się oczekuje, że będzie jakieś maksimum, wydaje się, że ciągle znajdujemy przed nim. Intuicja podpowiada: „trzeba jeszcze pokręcić”, podczas gdy już mocno „przedobrzyliśmy”. Obserwując zdziwienie studentów, zrozumiałem, jak trudno jest ludziom uwierzyć w bardziej zawiłych okolicznościach, że „kręcenie w prawo” da odwrotny rezultat. Ot choćby tradycyjne parcie na zwiększanie surowości kodeksu karnego, które ma przynieść błogosławiony spokój społeczny, podczas gdy po przekroczeniu pewnej granicy zazwyczaj mamy rozwój przestępczości zorganizowanej i dużo większe kłopoty niż z chuliganami niszczącymi przystanki tramwajowe. Podobnie nie można dopuścić, by dzieci w szkole weszły nauczycielowi na głowę. Jest chyba gdzieś bardzo wyraźne maksimum efektów wychowawczych pomiędzy surową dyscypliną a bezstresowym wychowaniem. Wszelako w tej materii także mamy radosny obyczaj miotania się pomiędzy skrajnościami.

Przykładów przedobrzania w jedną czy drugą stronę można wymieniać na pęczki: od kulinariów poprzez technikę, gdzie zdawałoby się rzeczą podstawową jest wyliczenie owych najbardziej optymalnych wielkości, po wszelkie dziedziny życia społecznego, gdzie zwykle prócz tego, że przedobrzono i przyniosło to straty, mamy jeszcze chór głośno wołający, żeby przedobrzyć jeszcze bardziej.

Istnieje pewien typ zależności – powinien być powszechnie znany – który powoduje jeszcze większe problemy. Na pierwszy rzut oka każdy powinien sam wymyślić, że sprawy muszą się zwykle toczyć wedle tego scenariusza. Niestety. Połapanie się, że jest tak właśnie, bywa nad wyraz trudne.

Na przykład – chyba dość kosztowny – jak zwraca się we wzroście jakości zdjęć inwestycja w sprzęt fotograficzny? Kilka razy to pisałem, pewne ogólne zależności ilustrują bardzo dobrze przykłady czasami mocno niszowe. Współcześnie fotografia uprawiana za pomocą aparatu fotograficznego staje się coraz bardziej egzotyczna, ponieważ prawie wszystkie potrzeby załatwia sprzęt montowany w smartfonach. Jednak, gdy ktoś ma ochotę zainwestować w coś bardziej kosztownego, to kupując „prawdziwy” autonomiczny aparat fotograficzny dostanie… trochę, ciut, nieco więcej.

Jak się ma sprawa z owymi najczęściej wałkowanymi przez testerów i bywalców fotograficznych forów „megapikselami”?

Czy na przykład jest powód do radości, gdy ma się w komórce 40 megapikseli? Jedyny parametr, jaki może zapewnić to upakowanie, czyli mnóstwo megapikseli, to trochę legendarna szczegółowość zdjęcia. Technicznie ten parametr odpowiada rozdzielczości liczonej w rozróżnialnych liniach na milimetr. Można by powiedzieć, że im więcej szczegółów zarejestruje aparat, tym lepiej. Ale wzrok człowieka też ma swoje ograniczenia. Rzadko widzimy z rozdzielczością kątową lepszą niż 2 minuty. Z tego dość prostym rachunkiem da się wywieść, że przy około 5 megapikselach osiągamy wszystko, co człowiek na zdjęciu zobaczy.

Może warto tu dodać, że w swoim czasie wielokrotnie przytaczano wzory na to, by wyliczyć, ile megapikseli musi mieć aparat, żeby wydrukować odbitkę zdjęcia o zadanych rozmiarach. Z reguł tych wynika, że liczba senseli (elementarnych czujników rejestrujących światło) na matrycy powinna być proporcjonalna do wielkości odbitki. Czyli im więcej megapikseli, tym większa możliwa odbitka. Ma to prowadzić do wniosku, że zawsze te megapiksele przynoszą jakiś zysk. To naiwne rozumowanie.

Odczucie „szczegółowości” zdjęcia zmienia się wedle powszechnie znanej „krzywej s”. Gdy liczba pikseli jest mała, to rząd kilkudziesięciu tysięcy i rozróżniamy je, to zmiana np o dwa razy ich liczby daje kolejny zamazany obraz.

Jedno kiepskie ma kolejne liche. Jest źle aż gdzieś do okolic pół miliona pikseli. Wówczas przestajemy widzieć tzw. „pikselozę” i pojawia się coś na kształt czystego obrazu. Subiektywna jakość obrazu szybko rośnie i gdzieś w okolicach 2 milionów pikseli zaczyna być bardzo dobrze. W tej okolicy spora część ludzi już nie zobaczy wiele więcej, mimo że rozdzielczość powiększymy do powiedzmy 4-5 milionów punktów barwnych. Tę poprawę dostrzeże tylko część oglądających, ale do 5 megapikseli poprawa jest ciągle widoczna. Po przekroczeniu tej granicy, wyznaczanej przez wspomnianą rozdzielczość ludzkiego wzroku, aby przekonać się, że obraz ma większą rozdzielczość, jest wyraźniejszy czy bardziej szczegółowy, trzeba oglądać z bliska jego fragment.

Trudno uwierzyć, lecz tak jest, w okolicy 5 megapikseli zapotrzebowanie na parametr zwany rozdzielczością fotografii ulega nasyceniu. Dawniej był taki test na ostrość fotografii – wykonywano odbitkę o rozmiarach mniej więcej 18×24 cm i fotograf oglądał ją. Jeśli wyglądała na ostrą, to można było rozbić z niej już dowolnie wielkie powiększenia.

Współczesnym fotopstrykom często nie mieści się w głowie, że tak jest, lecz jeśli chcemy popatrzeć na zdjęcie, a nie dowalić koledze, że się znowu machnął w ustawianiu ostrości, to cofamy się tak, żeby zdjęcie widzieć pod kątem 45 stopni. Im większa fotografia, tym dalej. Tak ludzie oglądają zdjęcia. Nie ma sensu oglądać portretu tak, że widzimy tylko oko czy nos, chcemy zobaczyć całą twarz. Wówczas musimy się cofnąć. A jak się cofniemy, to zobaczymy całe zdjęcie pod kątem mniej więcej 45 stopni – tak jak się ogląda odbitkę 18×24 cm z odległości dobrego widzenia.

Zobaczymy około 6 megapikseli maksymalnie. Byle one były.

Kolejna szczegółowa obserwacja jest taka, że w praktyce utrzymanie na fotografii takiej rozdzielczości jest po prostu trudne. Każdy, kto się obracał choćby tylko internetowo w fotograficznych kręgach, nasłuchał się czy naczytał o różnych plagach gnębiących poczciwego fotopstryka, tych różnych front i back focusach, nieostrych obiektywach itd. W rzeczywistości chodzi o błędy popełniane przez samych fotografów. Realne kłopoty ze sprzętem są dość rzadkie i zazwyczaj na poziomie, który daje się wychwycić w specjalnych warunkach. Zwykle sam fotografujący popełnia błędy, które drastycznie obniżają realną rozdzielczość zdjęcia. Bardzo często poruszenia, niedopilnowanie, by wyostrzenie nastąpiło na właściwym elemencie kadru, lecz także niewłaściwa obróbka zdjęcia, która wyciąga szumy, i tak dalej.

Producenci dość lojalnie uprzedzają, nazywając aparat „dla profesjonalisty”. Kasa wywalona na korpus z mnóstwem megapikseli nie zwróci się. Człowiek, który nie przyłoży się do każdego kadru, nie napracuje, jak zwykle napracować nie ma się ochoty, np. na wycieczce, dostanie zdjęcia o rozdzielczości jak z o wiele tańszego modelu, albo – co chyba jest dość częste – kompakta za kilka stówek czy jak z telefonu.

Osobną sprawą jest znajomość rozdzielczości samego sprzętu. Aparat komórkowy z matrycą o rozdzielczości 40 megapikseli (było coś takiego) to jedynie chwyt marketingowy. Aby na matrycy zostały zarejestrowane szczegóły obrazu, musi przenieść je obiektyw. Obiektyw niestety tym więcej da tych szczegółów, im większy jest format aparatu. To oczywiście uproszczenie, lecz całkiem praktyczne. Aby na matrycy powstał obraz o rozdzielczościach odpowiadających 40 megapikselom, potrzebna jest matryca o rozmiarach mniej więcej 24×36 mm, odpowiadającej wymiarem klatce filmu małoobrazkowego. Obiektyw musi mieć też swoje rozmiary „normalnego” obiektywu pełnoklatkowego. Małe obiektywiki nie są w stanie osiągnąć rozdzielczości potrzebnych dla faktycznego wykorzystania takich matryc. Na przeszkodzie stoi m.in. tzw. limit dyfrakcyjny – zapora postawiona przez samą naturę. W efekcie dostajemy jedynie ogromne pliki, które nie niosą żadnych danych i zapychają dyski.

Konkluzja jest pewnie dość smętna dla entuzjastów nowych, drogich aparatów. Praktycznie cały potrzebny „postęp w megapikselach” już się odbył i to dość dawno. Teraz mamy coś dziwnego, raczej zawracanie powiedzmy głowy. Jeśli to można głową nazwać.

W podobnym tonie i z podobnymi wnioskami można by przeprowadzić analizę reszty parametrów, np. liczby punktów autofokusa (czymkolwiek one są), które sporo kosztują, a konkluzja jest pasująca dobrze do tak zwanej krzywej logistycznej. Bardzo tanie aparaty mogą być kiepskie. Dziś już właściwie trudno takie spotkać, chyba że są w coś wbudowane albo są kamerkami internetowymi czy temu podobnymi gadżetami. Jakość wyraźnie rośnie pewnie gdzieś powyżej kwoty tysiąca polskich złotych. Gdy nabywamy coś z matrycą tzw. formatu apsc za trochę mniej niż 2k PLN, to lądujemy w obszarze nasycenia. Owszem można wydać dużo, dużo i jeszcze raz dużo więcej kasy, ale aparat za około 23 tysiące złociszów zrobi nam takie same dobre zdjęcia w normalnych warunkach oświetleniowych, nawet nie tych dobrych, ale normalnych (tzn. gdy nie chcemy ciemną nocą fotografować uciekinierów z Syrii nielegalnie przekraczających granicę), jak ten kilkanaście razy tańszy.

Zapewne dla osoby postronnej nie jest to żadna szczególna wiedza, lecz dla delikwenta, który właśnie władował drobne kilkanaście albo kilkadziesiąt tysiaków w sprzęt, to może być rodzaj herezji, za której rozpowszechnianie powinno się palić na stosie.

Jak bardzo powinniśmy walczyć z plastikiem? No… Tak, jak nam przeszkadza. Walające się po krzakach plastikowe torby to coś, czego za mojego dzieciństwa nie było. Stanowią element obcy, jeśli je widzę, to mam wrażenie śmietniska. Ale… Gdy czytam o nowej krucjacie sygnowanej przez Greenpeace przeciwko plastikowi, to zadaję sobie proste pytanie: a ile to będzie nas kosztowało? Całkiem niedawno przeczytałem, że słynne ekologiczne szmaciane torby robią w sumie środowisku większą szkodę niż torby plastikowe.

Jest pewien efekt, który też chciałbym uzyskać: to, żeby plastikowe torby nie fruwały po krzakach. Który dość łatwo uzyskać, jeśli tylko nie będziemy śmiecić. Wystarczy wrzucać plastikowe opakowania do pojemników na plastik i wystarczy, by faktycznie ów był jakoś przetwarzany. Choćby palony w piecach do tego przystosowanych. Wbrew dość rozpowszechnionym opiniom, pozbycie się plastiku jest proste i bezpieczne, pod warunkiem że na przykład spalanie prowadzi się w dostatecznie wysokiej temperaturze, by nie dopuścić do powstania toksycznych związków chemicznych. Jeśli temperatura jest odpowiednia, zostaje tylko dwutlenek węgla i woda, ewentualnie jakieś proste związki, które nie stanowią już zagrożenia.

Bardzo długi okres rozkładania się plastiku wbrew często powtarzanym alarmistycznym opiniom jest raczej dowodem na jego nieszkodliwość. Skoro się nie rozkłada, to nie ingeruje w środowisko. Owszem jest w nim obecny jak na przykład kawał kamienia, lecz poza tym niczego nie zmienia. Albo zmienia w niewykrywalnym, nieznaczącym stopniu.

Z krzywą zwaną czasami „s” albo logistyczną łączy te sprawę parametr, który trzeba chyba nazwać stopniem umartwienia się. Filozofia, której da się dopatrzyć za nową kampanią, chyba sprowadza się do tego, że im bardziej się umartwiamy, tym lepiej. Będzie kłopot, gdy zapytamy, z czym lepiej bądź co będzie lepsze, ale chyba to nie bardzo przeszkadza.

Można się tylko domyślać intuicji, jaka stoi za tym pomysłem: będzie ekologiczniej czyli „mniej chemicznie”. Nie wiem, czy stoi za tym nadzieja, że będziemy dłużej żyć, ale chyba że zdrowiej (cokolwiek to znaczy – jednak tak. Bo intuicyjnie „lepsze środowisko” to „zdrowsze środowisko”. W cudzysłowach, bo niekoniecznie chodzi o to, co nam wydaje, że powinno.

Pisałem już o tym przy okazji tekstu o hormezie. Z poprawą stanu środowiska jest tak jak z megapikselami w aparacie fotograficznym. W czasach wczesnej industrializacji XX wieku mieliśmy sytuację katastrofalnych zanieczyszczeń środowiska. Kiedy zaczęto stosować jakieś prymitywne metody ochrony, ludzie nie odczuwali poprawy, bo na przykład dwukrotne zmniejszenie stężenia benzo(a)pirenu (tak się dziwnie pisze nazwa tego związku z nawiasem w środku) w sytuacji, gdy jego stężenie i tak przekracza wielokrotnie dopuszczalne normy. To marne pocieszenie, gdy sytuację, w której zachorujemy po miesiącu, zamienia się na chorowanie po dwóch miesiącach, gdy choroba i tak prowadzi do ciężkich powikłań. Jeśli natomiast zjedziemy z poziomem zanieczyszczeń do pewnych odpowiednio niskich wielkości, to okaże się, że mimo iż wykrywa je aparatura pomiarowa, to nie widać wpływu na organizmy żywe. Mogą być dwa razy większe, mniejsze, efekty będą „statystycznie nieistotne”. Ale łatwo się przekonamy, że parcie na pokręcenie gałką w prawo pozostanie.

Nieszczęście chyba głównie tym, że aparatura wykrywa. Zazwyczaj tzw. normy tak właśnie się ustala, że znajdujemy jakąś dawkę czy poziom stężenia szkodliwej substancji, dla której przestaje się zaobserwować, czy wywiera wpływ. Tak na przykład, jak było z muszkami owocowymi poddanymi promieniowaniu. Przy zejściu do dawki krytycznej okazuje się, że liczba zdechłych much w hodowli naświetlanej i kontrolnej staje się „statystycznie równa”. Zazwyczaj „dla bezpieczności” podnosi się wymagania jeszcze gdy można, na przykład dziesięć razy, czyli obniża się odpowiednio dopuszczalne stężenia (dawki).

Nieszczęście, jeśli aparatura nadal mierzy ów czynnik szkodliwy. Albowiem w ekologicznych głowach pali się światełko, że zagrożenie nadal występuje. Dokładnie tak, jak w głowach fotografów pozostaje chciwość na mega piksele, pomimo, że tak zwany pies z tak zwaną kulawą nogą widzi na zdjęciach różnicę, albo – co jeszcze mocniejsze – focie publikuje się przeskalowane wielokrotnie w dół w rozmiarach nie przekraczających jednego megapiksela, jak to zwykle bywa w internecie.

Można by machnąć ręką na fanaberie fotografów, lecz niestety za ekologiczne fobie płacimy wszyscy.

Jeden z największych problemów: jak umieć odczepić się od śrubowania jakiejś wielkości, gdy weszliśmy w zakres, w którym to nie daje już zauważalnej poprawy, czy choćby przestaje się opłacać. Tak właśnie jest moim zdaniem już dawno z walką o czystość powietrza: nie opłaca się, gdy miarą opłacalności jest długość i jakość życia. Czy ktoś się zastanowił, czy nie byłoby rozsądniej zamiast nakładać na samochody coraz to bardziej wyśrubowane normy, na ten przykład nie włożyć pieniędzy w system komunikacyjny? Banalna zamiana skrzyżowania „kolizyjnego” na wielopoziomowe i mamy efekt w postaci mniejszego zagrożenia wypadkiem drogowym. Przy okazji też mniejsza emisja z samochodów, bo nie muszą się zatrzymywać i dymić za czerwonym, lecz jeśli chcemy wydłużyć życie człowieka, to zauważmy, że po dojechaniu do pewnej wielkości – na przykład ilości pyłu w powietrzu – zaczynają dominować zupełnie inne czynniki. Na przykład wypadki. Jak napisałem za portalem Onet wedle symulacji komputerowej na skutek zapylenia w Polsce umiera 46020 ludzi. Drobiazg: chodzi o tzw. przedwczesne zgony.

Tu mi się natychmiast zapala światełko. Skoro delikwent pod tlenem i kroplówką może pociągnąć miesiąc dłużej, a jak mu się ten tlen odłączy, to chyba wypada doliczyć go do owych „przedwczesnych zgonów”. To coś w tym stylu. Manipulując odpowiednio parametrami przedwczesności, dostaniemy tyle prognozowanych zgonów, ile potrzeba dla efektu propagandowego. Bardzo mi przykro, to jest kit, choć wszyscy chcemy długo żyć.

W Polsce dochodzi od lat średnio do około 30 tysięcy wypadków drogowych, w których ginie około 3000 ludzi a rannych zostaje ok. 40 tysięcy. W konkretnym roku 2017 wypadków było 32705, zginęło 2810 osób, a rannych zostało 39394.

Na jednej szali mamy wynik obliczeń wedle jakiegoś modelu stanu zdrowia społeczeństwa. Już sam fakt, że podano go bez dokładności obliczeń, każe mocno wątpić, że ów model jest sensowny. Lecz nawet gdyby był wiarygodny, trzeba jeszcze mieć pomysł i pieniądze, by coś naprawdę działającego zrobić. W przypadku zapylenia te rozsądne działania kończą się na wymianie węglowych pieców na „coś innego”.

Gdyby kasy było nieskończenie wiele, nie mielibyśmy drugiej szali, ale nie mamy nieograniczonych środków, więc musimy niestety wybierać. Dlatego musimy na tej drugiej szali położyć choćby owe 40 tysięcy rannych i prawie trzy tysiące zabitych w wypadkach drogowych. Na przykład, bo są inne wydatki, choćby na służbę zdrowia, żeby miała tlen i żeby było komu go podłączyć, czy żeby ktoś potrafił obsłużyć defibrylator i nie dopuścił do przedwczesnego zgonu.

Zostańmy jednak przy ruchu samochodowym. Tu akurat wiemy doskonale, co trzeba zrobić. Ludzie się domagają na przykład modyfikacji przejazdów kolejowych, obwodnic, a projekty skrzyżowań leżą w szufladach i czekają na realizację.

Z jakiś powodów poszkodowani w wypadkach komunikacyjnych nie są – nazwijmy to tak – ekologicznie istotni. Warto nadstawić ucha na te medialne lamenty nad środowiskiem i przyuważyć, jak rzadko, prawie nigdy, nie mówi się o infrastrukturze komunikacyjnej w kontekście dbałości o środowisko.

Dlaczego zamiast wojować z dieslami, nie zająć się tym, by owe diesle jeździły bezkolizyjnie? Liczba ofiar jest pi razy drzwi podobna, co smogu, a tu do zrobienia jest bardzo wiele i to na elementarnym poziomie. To naprawdę relatywnie niewielkie koszty, np. wybudowanie kładki dla pieszych, a nawet dużego odcinka, w porównaniu z sytuacją, gdy w szczytnym celu wyłączy się z ruchu kawał miasta albo zmusi setki tysięcy ludzi do płacenia za zawodne filtry czy inne wynalazki do ich samochodów. A już z pewnością dużo mniej niż trzeba zapłacić za mityczną „elektromobilność”. Tym bardziej że te inwestycje drogowe i tak w końcu trzeba będzie przeprowadzić.

Ten aspekt w wojnie o lepsze środowisko jakoś nie istnieje. Tymczasem miałem okazję przekonać się na własnej skórze, jak to działa, ponieważ dosłownie jakieś sto metrów od mojego domu przebiega trasa, którą kiedyś waliły wszystkie tiry z Warszawy i na Warszawę. Otwarcie kawałka obwodnicy Wrocka wyrzuciło cały ten ruch poza miasto. Teraz tysiące pojazdów dziennie pokonują te kilkadziesiąt kilometrów ze spalaniem „na trasie”, więc średnio dwa razy mniejszym niż podczas jazdy miejskiej. Jednocześnie w mieście zrobiło się wyraźnie bezpieczniej. Gdy na przejściu, przez które niemal codziennie chodzę do pracy, było w roku trzy, cztery poważne wypadki, zwykle potrącenia przechodniów, to dziś już się nie zdarzają. Samochody nie dymią, nie wznoszą pyłów kołami.

Ten mały bonusik do poprawy bezpieczeństwa na drogach: zmniejszenie przy okazji zanieczyszczenia powietrza. Bardzo radykalną metodą, jak w moim wypadku, po prostu całkowitym wyprowadzeniem potężnej liczby pojazdów poza środowisko, w którym żyjemy. Pomijam to, że zdecydowanie poprawia się jakość życia tego nawet, psiakrew!, kierowcy, który łatwiej dotrze, gdzie chce, lepiej jest ekologicznemu rowerzyście, że w ogóle jest lepiej. Lecz przy okazji załatwimy poprawę tego, o co chcemy walczyć, utrudniając życie ludziom zamykając dla ruchu ulice czy podnosząc ceny samochodów przez wymuszanie montowania owych filtrów. Tu mamy to w bonusie.

No i czemu nie walczymy o lepsze drogi jak o niepodległość? Coś mi się zdaje, że zasadniczą przyczyną jest to, że na skutek uruchomienia obwodnicy wszystkim jest łatwiej i przyjemniej. Tymczasem istotą walki o środowisko jest umartwianie się. Bowiem działa przekonanie, że im bardziej damy sobie w kość, tym lepiej musi być. Przy czym „lepiej” nie jest powiązane z żadnym konkretnym fizycznym parametrem, np. liczbą pojazdów przejeżdżających ulicę w jakimś czasie, lecz właśnie z tym przywaleniem sobie w kość.

Jak działa krzywa logistyczna? W przypadku zapylenia wystarczy się ograniczyć do prostej zależności koszty–stężenie pyłów. Wypadało by podyskutować o jakości życia, lecz dobrze się skupić na czymś o wiele łatwiejszym do zmierzenia. Gdy w latach 70. ludzkość podniosła larum z powodu zanieczyszczenia środowiska, sytuacja była naprawdę tragiczna. Większość instalacji przemysłowych nie posiadała nie tylko żadnych instalacji oczyszczających spaliny, lecz była po prostu fatalnie zbudowana, niesprawna. Walący w niebo czarny dym to naprawdę rozpylony niespalony węgiel, czyste straty. Znaleźliśmy się na odcinku krzywej nachylonej pod ostrym kątem. Jeśli na osi pionowej umieścimy parametr „czystość powietrza”, to w tym miejscu wznosiła się ona ostro w górę, jeśli na osi poziomej mamy koszty. Wystarczyło poprawić jakość pieca, by spalał dokładniej, więc jednocześnie spadała ilość potrzebnego paliwa. Inwestycje w czyste powietrze były jednocześnie inwestycjami w obniżanie kosztów spalania. W kolejnym etapie trzeba było instalować różne elektrofiltry, instalacje odsiarczające, i tu już trzeba było do interesu dołożyć. Krzywa nam się „położyła”, za zmniejszenie zapylenia trzeba było dopłacić, i to sporo. Lecz gdy zainstalowaliśmy elektrofiltry we wszystkich dużych instalacjach, postanowiono jeszcze bardziej obniżyć poziom pyłów, i okazało się, że jest kolejny winny: transport samochodowy. Jak się zmieniała ilość emitowanych pyłów? Słowo się wcześniej rzekło: w dymie widocznym gołym okiem stężenie to gramy na metr sześcienny, przy czym w przypadku takich instalacji jak elektrownie można mówić o setkach tysięcy ton w skali roku, w przypadku samochodów mamy obecnie emisje na poziomie kilku tysięcznych części grama na metr sześcienny. Ogromnymi kosztami możemy poprawić sytuację o te miligramy.

Można oszacować, że elektrofiltry w elektrowni Bełchatów usuwają rocznie przynajmniej 250 tysięcy ton pyłów. To emisja, jaką da 50 tysięcy samochodów po przejechani miliona kilometrów przez każdy. Wedle danych z roku 2014 w Polsce mieliśmy 20 mln samochodów osobowych. Sama elektrownia Bełchatów załatwiłaby bez elektrofiltrów emisję taką, jaką da przejechanie przez te wszystkie samochody 2,5 tysiąca kilometrów. Przy czym dość prawdopodobne, że te produkcję pyłów przez elektrownię trzeba przemnożyć przez 5-6, bo wyszacowałem ją na podstawie danych o pyłach wyemitowanych i sprawności przeciętnych elektrofiltrów. Niewykluczone, że jedna elektrownia dawałaby taką emisję jak wszystkie samochody w Polsce. Bełchatów to ok. 1/5 produkcji energii elektrycznej w Polsce. Doliczmy do tego cementownie, elektrociepłownie, które produkują prąd z natury rzeczy z mniejszą sprawnością, huty i inne zakłady przemysłowe. I przyjdzie nam do głowy, że technologia z lat 70. XX wieku załatwiła pewnie z dziewięćdziesiąt kilka procent potencjalnej emisji. A teraz rozpoczynamy walkę z tymi pozostałymi kilkoma procentami. To może być w takiej proporcji.

W przypadku samochodu mamy dziesiątki tysięcy rozproszonych źródeł emitujących na bardzo niskim poziomie, do których trzeba wsadzić coś bardzo efektywnie oczyszczającego spaliny, żeby uzyskać efekt. To zupełnie inny stopień trudności niż elektrownia czy huta. To coś musi być lekkie, bezobsługowe, nie może zabierać wiele miejsca. No i prawdopodobnie nie mamy technologii, która da radę jeszcze poprawić już i tak wyśrubowany poziom emisji. Skutek? Ceny słynnych filtrów cząstek stałych DPF/FAP są podawane na przedział 3000-10 000 PLN. Zapychają się, ulegają rozmaitym awariom. Mechanicy zarabiają krocie na ich wycinaniu. A jak ktoś chce być ekologiczny, to płaci co jakiś czas za skomplikowaną operację czyszczenia tego czegoś. Dlaczego? By urwać z ludzkiej emisji te kilka procent pozostałych po likwidacji tego, co załatwiły elektrofiltry w instalacjach przemysłowych.

Niestety, ponieważ przy takich emisjach prawie całość tego, co się w powietrzu unosi, pochodzi nie z samochodów, nie z kominów, ale to są źródła „inne”, np. tzw. emisja wtórna, czyli kurz wzniesiony wiatrem z dróg czy pól, czy (to się też zdarza), piasek z Sahary. Wycięcie całej emisji z samochodów prawdopodobnie da kilku-, kilkunastoprocentowy spadek zapylenia. Znajdujemy się w tym najbardziej interesującym odcinku krzywej: gdzie koszt rośnie koszmarnie, a wyniki są ledwo widoczne.

Podobnie ma się skuteczność walki z tak zwaną „chemią” w środowisku. W połowie XX wieku faktycznie wprowadzając do powszechnego użytku truciznę zwaną DDT (dichlorodifenylotrichloroetan), za którą w szwajcar Paul Müller otrzymał Nagrodę Nobla w 1948 r., ludzie doprowadzili do szkód m.in. zmniejszając populację ptaków drapieżnych. Przynajmniej tak się wydaje. Jak możemy wyczytać w Wikipedii, lwia część spraw związanych z Azotoksem (Azotox to właśnie handlowa nazwa tej substancji), jest w sferze domysłów. Mamy hipotetyczną dawkę szkodliwą dla ludzi, hipotetyczny mechanizm oddziaływania na stworzenia pierzaste, jedynie pewne wydają się proste reakcje chemiczne i czas ich zajścia. DDT okazało się trwałe.

Chemia opracowała metody wykrywania bardzo małych ilości substancji. Nie wiem, jak radzi sobie sobie z taki związkami organicznymi jedna z najczulszych metod fizycznych, czyli spektrometria masowa. Ta metoda pozwala w przypadku pierwiastków i prostych molekuł na wykrycie dosłownie pojedynczych sztuk. Okazało się, że DDT, masowo stosowany m.in. przeciwko stonce, jest wykrywany w próbkach gleby i wody na dużych obszarach.

Podejrzewam, że to było główną przyczyną zakazu jego stosowania. Podobnie jest chyba z całą grupą pierwiastków metali ciężkich. Te (w szczególności bohaterem często powtarzanej opowieści jest ołów) wykryjemy już bez problemu metodą spektrometrii masowej. Wprowadzenie do powszechnego stosowania czteroetylenku ołowiu jako dodatku do benzyny (dodawano go w ilości do 1,5 grama na litr) spowodowało wzrost ilości ołowiu środowisku. Clair Patterson, badając wiek Ziemi, wykrył za pomocą spektrometru masowego drastyczny wzrost ilości ołowiu w próbkach pochodzących z XX wieku.

W źródłach trudno wyczytać, jak miały się te znalezione ilości do stężeń niedozwolonych. Jak mi się zdaje, obecnie normy dostosowano do wyników badań, aby nikt się nie czepiał, że na darmo zakazano m.in. w UE stosowania etyliny, czyli benzyny z czteroetylenkiem ołowiu. Podobnie ma się walka z rtęcią. Producenci m.in. świetlówek mają takiego pecha, że ten pierwiastek także daje się wykryć niezwykle czułymi metodami. Współcześnie stężenia na poziomie jednej cząsteczki na miliard nie są specjalnym problemem dla pomiarów.

Warto wiedzieć, że gdy pisano ze zgrozą o wpływie freonów na dziurę ozonową, to mówiliśmy o takich ilościach: rzędu cząsteczki na miliard innych, wykrywanych np. na Antarktydzie.

No i mając niezwykle czułe metody, ludzkość rozpoczęła walkę z „chemią”. Dla absolwentów szkół, do jakich chodziłem, jest to chyba do dnia dzisiejszego rodzaj bzika. Cóż, czegokolwiek dotkniemy, jest chemią, związkiem czy pierwiastkiem chemicznym. Szkodliwość arsenu czy w formie naturalnej, spotykanej np. w okolicach Złotego Stoku, czy uzyskanej sztucznie, jest taka sama. Przy czym co jest sztuczne (miłośnicy Mickiewicza pamiętają uderzenie tak sztuczne?), to osobne zagadnienie.

Nie za bardzo sobie zdajemy chyba sprawę, że naprawdę „chemia” szkodziła ludziom tak gdzieś w XVIII i XIX w. To był czas, gdy ludzie naprawdę się truli. Niemiecki chemik Friedrich Accum jest przedstawiany jako ten, który – publikując „Treatise on Adulterations of Foods, and Culinary Poisons”, traktat o fałszowaniu żywności – zapoczątkował mającą naukowe podstawy dbałość o zdrową żywność. A jakie wówczas ludzie mieli problemy? Pewna angielska pani stwierdziła, że po dodaniu do herbaty wody amoniakalnej (dla zdrowia oczywiście) napój zmienił kolor na jaskrawo niebieski. Cóż, zaparzyła zapewne mieszankę suszonych fusów z herbaty przyprawionych azotanem potasu i wymieszanych z liśćmi śliwy barwionymi na zielono związkami miedzi.

Do chleba dla jego wybielenia dodawano ałunu. Czyli dwunastowodnego siarczanu glinowo-potasowego. Literatura podaje jego dopuszczalną dawkę dobową – na przykład 60 mg. To jest bakteriobójcze, więc… przynajmniej nieco toksyczne. I z pewnością nie powinno się znajdować w chlebie. Tak zresztą jak np. gips, który ponoć także dosypywano.

Wszystko to jednak mały pikuś w porównaniu ze stosowaniem wodoroarseninu miedzi(II) do barwienia nie tylko papierów, którymi były wykładane sklepowe półki. A owszem, tym pigmentem oraz tzw. zielenią Scheelego barwiono wyroby cukiernicze. Czy stanowi to jakiś problem, że związki te są pochodnymi arszeniku? Cóż, arszenik jest trujący, bo zawiera arsen, zaś gdyby ktoś miał wątpliwości, wymienione związki chemiczne były dość trujące, by zamordować ludzi nie tylko po spożyciu. Do nieszczęścia wystarczyło np. nosić suknię barwioną na śliczny zielony kolor. Dawka śmiertelna dla człowieka jest podawana na 70 mg, kłopoty zaczynają się od 10 mg. Także zieleń paryska lub inaczej zieleń szwajnfurcka jest trucizną stosowaną m.in. przeciw stonce.

Jeśli więc wydaje się nam, że wszczęliśmy gdzieś z końcem wieku XX walkę z wszechobecną chemią w żywności i naszym otoczeniu, to nie wiemy, jak to było naprawdę. Naprawdę trujące otoczenie, np. malowanie farbami opartymi na ołowiu, trujące dodatki do żywności, zaliczyliśmy dobrze wiek temu i gdzieś w pierwszej połowie XX wieku udało się to opanować. Mniej więcej od połowy wieku XIX zaczęto skutecznie walczyć z „chemią”, tak że już w czasie międzywojnia do usunięcia z naszego środowiska pozostały jakieś niedobitki, jak np. azbest. Bardzo mi przykro, drogi czytelniku. Pokonaliśmy tę „chemię”. Współcześnie stosowane czy to barwniki, czy różne E-ileś-tam, są zupełnie niegroźne, i to nie tylko w porównaniu z tymi arszenikami dodawanymi do cukierków, ale choćby bardzo zdrowym sokiem z marchewki, którym można załatwić sobie wątrobę. Są na tyle przebadane, że ich domniemanej szkodliwości zwyczajnie nie daje się w uczciwych eksperymentach zauważyć.

Kiedy „chemia” pojawiła się w naszym środowisku? Cóż, jak pamiętamy, już starożytni Rzymianie truli się ołowiem, zaś skąd wziął się motyw zatrutej księgi w „Imieniu Róży”? Naprawdę stare księgi bywają trujące właśnie z powodu owych barwników, którymi jeszcze w XIX wieku faszerowali się ludzie.

Cóż, wygląda na to, że mniej więcej po 150 latach do ludzi dotarło, że arszenik jest trujący. Nieszczęście w tym, że nie potrafią odróżnić go na przykład od cukru, z którym wojują z równym zapałem. A jednocześnie nie pika im w głowie czerwona lampka podczas czasami wielogodzinnych rozmów z komórczakiem przy głowie, który daje tak popalić, że można spokojnie zmierzyć podgrzanie rozumu.

Jest pewien obszar działań, co którego skuteczności właściwie już jesteśmy przekonani, że jeśli jeszcze bardziej skręcimy tę gałkę w prawo, to już to nic nie da. Przynajmniej w niektórych dziedzinach. To aseptyka. Był okres, gdy odkryto działanie drobnoustrojów, i gdy ludzkość przekonała się, ile można zdziałać zwykłym odkażaniem. Wiadomo było jednocześnie, że niepowodzenie w usuwaniu drobnoustrojów oznacza katastrofę. Resztki bzika na punkcie mycia wszystkiego, odkażania naczyń sztućców wrzącą wodą, polewania wszystkiego karbolem, używania specjalnych śmierdzących mydeł ze środkami bakteriobójczymi przeżyło moje pokolenie. Jednak w końcu ludzie zapomnieli o strachu przed zarazą, zapomnieli o chorobach brudnych rąk i…

I potrafią dziś prowadzić kampanie przeciw mleku UHT, wyjątkowo starannie pozbawionemu bakterii. Ma być „nieżywe”, podczas gdy to z drobnoustrojami jest żywe. Albo cóś. Jest jakiś run na „żywą wodę” – w istocie brudną. A dla podtrzymania nastroju można dodać, że o ile jaja z chowu klatkowego nie mają prawa zawierać dodatków w postaci salmonelli, to te z wolnego wybiegu jak najbardziej. Bakcyle przestały straszyć i jakoś chyba nawet je polubiliśmy, bo mamy kampanie przeciw używaniu antybiotyków. Żeby sobie bakcylki jeszcze trochę pożyły.

A i owszem, mamy jeden wyjątek: to straszliwe niebezpieczeństwo w domu, czyli kibelek. Całkiem niedawno poczytałem sobie, że jakiś (brytyjski?) instytut wykrył, że gdy spuszczamy wodę, to może się ona w przypadku otwartej klapy naszego tronu przemieszczać nawet na odległość 3 metrów. Zgrozą wieje! Tylko czemu nie padamy jak te muchy?

Kiedyś zrobiłem taki test: pobrałem wymaz z muszli potraktowanej w standardowy sposób Domestosem i przeniosłem na amatorsko przygowaną pożywkę. Na kilku innych kontrolnych pożywkach był m.in. brud z klawiatury komputerowej. Wniosek z obserwacji posiewu jest taki, że kibel okazał się raczej dokumentnie sterylny, za to na klawiaturze były wszelkie zarazy tego świata.

Pytanie: dlaczego akurat bakterie kałowe, których każdy z nas nosi w sobie na jakieś kilogramy, mają nas zamordować? Owszem, sterylizacja kibla ma sens w przypadku epidemii cholery czy żółtaczki pokarmowej. Warto umyć sobie muszlę, żeby była biała albo różowa, jak tam ją w fabryce zrobili, lecz oczekiwanie, że te zabiegi spuszczą na nas deszcz niebiańskiego szczęścia, nie mają żadnego oparcia w rzeczywistości.

Zażarta walka z plastikiem i owszem, da nam tyle, że nie będą wnerwiać ludzi fruwające wkoło strzępy plastykowych toreb. Nie będzie wrażenia kompletnego zaśmiecenia. Lecz nie stanie się cud, i nie rozmnożą się w miastach ptaszki śpiewające, których starannie pozbawiliśmy miejsc lęgowych i schronień. Nie staniemy się zdrowsi, nie odrodzą się zagrożone gatunki zwierząt.

Zajadła walka ze smogiem produkowanym przez samochody nie da już zauważalnej poprawy czystości powietrza. Nie przełoży się to w zauważalny sposób na długość życia. Najprawdopodobniej nawet trudno będzie cokolwiek wymierzyć. Główne źródła zapylenia zostały dawno zlikwidowane, zapylenie spadło do takich poziomów (dziesiątek mikrogramów na metr sześcienny), że wystarczy wiatr znad Sahary, a odkrywamy żółty pył na karoseriach samochodów, zaś wszelkie wysiłki antysmogowe diabli biorą. Bo zjechaliśmy poniżej naturalnego stężenia pyłów.

Jakaś ogólniejsza refleksja? Jak trudno ludziom zrozumieć, że procesy ekhem… mają nieliniowy charakter. Są takie, że ze zmianą jakiegoś parametru trafiamy na maksimum. Jakoś to trafia w intuicję, gdy idzie o sól, wiadomo: zupy przesolić nie można. Aliści z przesalaniem innymi cudownościami, a choćby dyscypliną czy jej brakiem, to już za trudne. Podejrzewam, że o wiele trudniejsza sytuacja, gdy sprawy zmieniają się z ową „krzywą s” zwaną krzywą logistyczną. Uświadomienie sobie, że już dojechaliśmy do punktu jej nasycenia i na przykład zwiększanie upakowania matrycy czy jeszcze bardziej nieprzejednana postawa wobec chemii w naszym otoczeniu nie zaszkodzi, to jednak niczemu już nie pomoże, wydaje się nie do przeskoczenia. Nie należy palić w piecu śmieci. Lecz jeśli chcemy dłużej pożyć, to trzeba zrobić zrzutkę na podstawowe badania, nawet nie nad rakiem, ale nad pomocniczymi instrumentami, takimi jak mikroskopy sił atomowych, generalnie na takie, co wydają się kompletnie do niczego. Niestety, ludziom niezwykle trudno uwierzyć, że to, co pomogło sto lat temu, na przykład rezygnacja z barwienia arszenikami ozdób na tortach, jest już nie do powtórzenia, bo cukiernicy dawno dali się przekonać, że arszenik to trucizna. Dodajmy, niestety, ponoć sprawa nie taka prosta, znów reakcja organizmu jest nieliniowa, małe dawki ponoć mogą dawać pozytywne efekty. Tak czy owak, takich dodatków w żywności już dawno nie ma. Usuniemy kolejne E-ileś-tam, więcej zapłacimy, w zamian dostaniemy efekt placebo.

Wypatrywanie kolejnych „trucizn”, jak np. glutenu w produktach, raczej przynosi szkody, o czym przestrzegają lekarze. Ale ludzie mają bite w głowę, że trzeba unikać, umartwiać się. Wówczas powinno być lepiej.

Czym jest szlachetny umiar mędrców, którzy potrafią nie przeżreć się na przyjęciu, nie strawić całego życia na robieniu pieniędzy, czy, jak ów mądry Hammurabi, stanowić prawa hamujące żądzę wypalenia zła do dziesiątego pokolenia rodziny sprawcy?

To świadomość krzywej. Tak to wygląda we współczesnym opisie. Świadomość tego, jak może wyglądać wykres zależności jednego parametru od innego, i że nie musi to być linia prosta, że może – jak to uczenie mówimy – odbiegać od niej znacząco, jest, jak się okazuje, wielką cnotą. To wielka i trudna wiedza, która daje ludziom ogromną przewagę nad innymi, która wynosi ich na piedestały mędrców czy prawodawców, których sława nigdy nie przemija.

Rzec by można: pięknie! Wspaniale, bo dziś możemy właściwie każdego człowieka tego nauczyć. Odrobina matematyki jest dostępna dla wszystkich. Mądrości, do których inni musieli dochodzić wielkim wysiłkiem, powinny być dostępne dla każdego. Wystarczy wiedza, jaka jest funkcja opisująca zależność, i elementarna umiejętność narysowania wykresu. Tyle, by ludzkość posiadła jedną z najbardziej pożądanych cech: wszechogarniający wszelkie dziedziny umiar.

Niestety. Przekonałem się w kontaktach ze studentami, że umiejętność rysowania wykresu staje się coraz bardziej egzotyczna. System kształcenia wywalił ją gdzieś na peryferia. I dlatego niedawno dowiedzieliśmy się, że cukier bynajmniej nie krzepi, lecz uzależnia. Umiar jest ideologicznie nam obcy, potrzebujemy rewolucyjnego żaru w bojach z syropem kukurydzianym, smogiem, plastikiem czy białą mąką. Jedyne pocieszenie, że takie szaleństwa już nie raz przewalały się przez dzieje w postaci choćby hord jęczących biczowników. Jeśli ich zobaczycie, nie zdziwcie się.

Adam Cebula




Pobierz tekst:

Mogą Cię zainteresować

Adam Cebula „Mars wita nas!”
Para-Nauka Adam Cebula - 20 kwietnia 2021

(…) powinniśmy polecieć na Marsa, bo coś może stać z Ziemią i…

Adam Cebula „Houston, mamy problem, chyba jednak wylądowaliśmy na Księżycu”
Felietony Adam Cebula - 24 października 2019

Całkiem niedawno komunistyczne – przecież  niechętne amerykańskiemu imperializmowi – gazety wyliczały najróżniejsze…

20 lat temu w księgarniach pojawił się „Wrzesień” Tomka Pacyńskiego

Marcin Robert Bigos wczoraj zauważył, że minęło już dwadzieścia lat, od kiedy…

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *

Fahrenheit