Mapa Ukrainy
ISSN: 2658-2740

Adam Cebula „Niepewność pomiarowa, czyli cztery dziurki w guziku z pętelką”

Para-Nauka Adam Cebula - 8 sierpnia 2018

Jak doniosły niedawno tak zwane publikatory – czy też media (tym razem sieciowe – tłuste mleko przestało być niezdrowe. Podobno jest zdrowe dzięki temu, że tłuste chroni nawet przed chorobami serca. Nieuchronnie mleko chude, które miało być dobroczynne, całkiem odwrotnie. Tak uczeni obmierzyli.

Doniesienie skłoniło mnie do szeregu refleksji. Jednych weselszych, bo lubię tłuste mleko, innych, może nie smutnych, ale raczej niespokojnych.

Jest coś na ścisłych studiach, czego studenci nie znoszą niezmiennie od lat. Sam nie znosiłem męczenia się nad tym. Za czasów moich studiów nazywało się to obliczeniem błędów pomiarowych, dziś (tak naprawdę od wielu lat) ma to bardziej uczoną nazwę „szacowanie niepewności pomiarowych”. Sprawa może być dla postronnej osoby czasami mocno kontrowersyjna czy zaskakująca, gdyż nawet mocno odstający od np. danych tabelarycznych wynik może się mieścić w wielkości oczekiwanej niepewności pomiarowej i na odwrót, a czasami coś, czego wielkość wydaje się bardzo bliska tej spodziewanej (choćby wydobytej z tablic wielkości fizycznych), gdy się nie zmieści, świadczy o tym, że albo coś zostało sknocone, albo że niechcący dokonaliśmy odkrycia. O tym – co nie jest chyba zaskakujące, skoro moje pisanie trwa tyle lat – też już zdążyłem napisać w tekście „Ogólna teoria szczególnych błędów, czyli skąd się biorą czasem dzieci”.

Nie chcę powtarzać za wiele z nudnego w gruncie rzeczy wykładu. Chyba tylko warto przypomnieć wkładkę filozoficzną, i to sięgającą tej klasycznej greckiej filozofii. Czytałem przypowiastkę o Uczonych Mężach z Wielkimi Brodami (pewnie jednak młodszymi niż ja), którzy siedzieli na rynku Aten i deliberowali, jakie wielkie jest Słońce. Ktoś sądził, że wielkości wozu, ktoś, że stadionu, zaś jeden nieostrożny, choć Uczony Mąż wygłosił pogląd, że pewnie jest większe od całych Aten – i został za to obity.

I teraz twierdzenie filozoficzne z krainy bytu i niebytu, czyli ontologii (a przynajmniej możemy tak udawać). A mianowicie: pomiar wielkości bez określenia jego niepewności nie istnieje. Można to wypowiedzieć mniej napuszenie, że nie ma on żadnej wartości. Sprowadza się to do jednego: oceniając „na oko” wielkość Słońca możemy sobie dyskutować do u…ej śmierci, obić niewygodnych interlokutorów lub nie, a nic z tego nie będzie. Jeśli metoda podejścia do tematu nie daje możliwości oszacowania owej niepewności (w szczególności taką własność ma gapienie się w niebo i wygłaszanie różnych mniemań), to nie mamy wyniku. Czy on nie istnieje jako byt intencjonalny czy też idealny – to już insza inszość i powód zabawnych dyskusji. Nie ma niepewności, nie mamy żadnej liczby, którą dałoby się wstawić do obliczeń.

Lecz na liczbach nie musi się skończyć. Rzecz bowiem wygląda tak, że owszem, to pojecie da się rozciągnąć na różne dziwne okoliczności.

Jaki jest oczekiwany wynik eksperymentu polegającego na rzuceniu monetą? Wyjdzie orzeł albo reszka. Czy jednak może się nam pokazać jakiś inny symbol zamiast orła, np. lilia? Nie, to jest niemożliwe. Może się wydać to absurdalne, lecz zauważmy, że jeśli ktoś na pytanie, jaki jest wynik rzutu monetą, odpowie „lilia”, to znaczy, że albo oszukuje, albo ktoś podmienił monetę i eksperyment nam „wyszedł z ramek”. Ta „lilia” jest poza niepewnością pomiarową.

Prowokacyjny przykład z zalinkowanego tekstu z metodą zapobiegania ciąży pokazuje, może nie całkiem wprost, co się dzieje z wynikami pomiarów w zakresie szacowanej niepewności pomiarowej. Żargonowo mówimy, że „szumią”, albo „rzuca nimi”. Konsekwencją stwierdzenia, że pomiary „szumią” jest to, że poniżej wartości niepewności pomiarowej nie ma żadnej informacji. Niestety… w zasadzie. I tu zaczynają się poważne problemy.

Sprawa bowiem jest taka, że jeśli włączymy do roboty statystykę, to poniekąd przełamiemy barierę niepewności pomiarowej. Poniekąd. Jeśli rzucimy drobne sto tysięcy razy monetą i wyjdzie nam dziesięć procent więcej reszek niż orłów, to słusznie podejrzewamy, że coś tu jest oszukane. Tego typu sztuczki kuszą, by wyduszać jakieś dane z pod poziomu niepewności pomiarowej. Bo owszem, oczekujemy średnio podobnej liczby orłów i reszek, lecz gdy co prawda nie dostaliśmy lilii, a tylko jakąś zbyt wielką liczbę jednej ze stron monety, której prawdopodobieństwo uzyskania jest znikomo małe, to na ten przykład dostajemy informację o niesymetrii układu losującego.

Te możliwości są jak najbardziej rzeczywiste. Lecz… Przez lata koledzy zajmujący się poważnymi pomiarami fizycznymi ostrzegali, że jeśli nie dostanie się wyników z tąże niepewnością pomiarową gorszą niż jakieś 5%, to eksperyment można sobie na kołku zawiesić, wyrzucić wyniki do kosza albo zrobić coś równie wytwornego a równoważnego.

Rzec można: „jego wysokość porządny eksperyment”. Przez lata mogę sobie to obserwować i przez lata jestem uczony warunków przeprowadzania takich eksperymentów, z których coś wynika. Możemy się oprzeć na ich wynikach, coś wyliczyć, dać jakieś zalecenia albo zaplanować kolejne doświadczenia. Warunków przeprowadzenia sensownych badań jest wiele, na przykład maksymalne uproszczenie układu. Sprawa sprowadza się do tego, żeby mieć pewność, że na wynik wpływają tylko te kontrolowane przez nas parametry. Inny rygor to powtarzalność. Te same warunki, ten sam wynik. W granicach niepewności pomiarowej, czyli gdy rzucamy monetą, to albo reszka albo orzeł, nie może być lilia.

Zasady, żeby wynik nie był zmierzony z niepewnością gorszą niż rzucone trochę dla ustalenia uwagi 5%, nie da się tak całkiem wprost wyprowadzić z mocnych przykazań prowadzenia eksperymentów takich jak niezależność od eksperymentatora czy np. miejsca na Ziemi, o ile nie zmienia ono wielkości wpływającej na wynik, jak na przykład przyspieszenie ziemskie. Jednak już warunek uproszczenia układu czy jego pełnej kontroli implikuje coś takiego. Jeśli wynikami za bardzo „rzuca”, to znaczy, że coś w układzie pomiarowym znajduje się poza kontrolą. Rzucanie kostką do gdy nie jest dobrym pomysłem na sprawdzenie jej symetrii. Trzeba wziąć do ręki suwmiarkę, sprawdzić położenie środka ciężkości, równoległość płaszczyzn itd. Jeśli coś jest nie tak, to dostaniemy wynik czarno na białym, pewny poza niepewnościami pomiarowymi, że np. ktoś obciążył jedną ścianę i nie ma sposobu – szóstka będzie wyrzucana wielekroć częściej. Rzucanie kostką może nas doprowadzić do podobnego wniosku, ale nie dowiemy się, czy ścianki mają skosy, czy środek ciężkości jest gdzie indziej.

Metoda testowania kostki może być stosowana tylko wówczas, gdy nie ma możliwości zrobienia innego, porządniejszego badania. A jeśli się ją stosuje, to trzeba mieć w głowie wszystkie ograniczenia, jakie z tego wynikają. Choćby to, że nie rozstrzygniemy, jak naprawdę tę kostkę oszukano.

Co to wszystko ma wspólnego z tłustym mlekiem? Ano tu się właśnie niewesoło myśli o naszej wiedzy. Jak to możliwe, że przez tak wiele lat twierdzono, że trzeba się umartwiać, a teraz okazuje się coś odwrotnego? Dodać trzeba chyba, że skoro raz tak, raz przeciwnie, to wobec tego nowego odkrycia warto także zachować umiar. Bowiem widać, jaka jest faktyczna niepewność pomiarowa wyników badań dietetyków.

Z czego się bierze zjawisko, że raz wychodzi tak, potem wręcz przeciwnie? A choćby z naiwnej wiary w statystykę. Gdy zrobimy prosty eksperyment – weźmiemy sobie dwoje ochotników i jednego będziemy karmić na przykład glutenowo, a drugiego bezglutenowo – to nam wyjdzie wedle rzutu monetą. Może lepiej, może gorzej, bozia raczy wiedzieć. Możemy robić sobie szczegółowe badania, co się dzieje w organizmie jednego i drugiego, ale z dużym prawdopodobieństwem wyjdzie z tego kiszka, bo dostaniemy multum niemożliwych do zinterpretowania danych. Nie będziemy mieli żadnych rozsądnych wniosków. Zmienność organizmu przykryje efekty wywołane odmienną dietą. Jeden wstaje rano, drugi się wysypia, jeden kocha bigos, inny ciastka, na obserwacje nakładają się dziesiątki, setki efektów silniejszych od tego, jaki może wywołać dieta. Przychodzi więc do głowy prosty i (można powiedzieć) genialny pomysł: weźmy tysiąc ochotników. Intuicja mówi, że zmienności organizmów powinny się jakoś uśrednić, a jeśli coś w tym dajmy na to glutenie jest na rzeczy, statystyka powinna to wyłapać.

Jeśli prawdą są opowieści na temat glutenu, to szkodzi on osobom z celiakią. Jeśli prawdą jest, że choruje na nią mniej niż 1% ludzi, to w 1000 ochotników może się znaleźć mniej niż 10 takich nieszczęśników. O ile nie wiemy o celiakii i jej związku z glutenem, to jak ich potraktujemy? Mniej więcej tak, jak lilię w rzutach monetą. Albo „cztery dziurki” – ktoś rąbnął pieniążek, a podrzucił guzik. Jeśli na 1000 osób znajdzie się kilku nieszczęśników, którzy zareagują na dietę wyjątkowo, to będziemy podejrzewać różne niecne rzeczy: nażarli się gdzieś zepsutego bigosu czy fasolki po bretońsku i teraz udają poszkodowanych.

To jest zespół oszukanej kostki do gry. Owszem możemy nią rzucać i domniemywać, że coś z nią nie tak, ale aby zrozumieć, co się dzieje, i wykluczyć przypadek typu że z rzutu monetą wyszły cztery dziurki albo lilia, że ten 1% uczestników eksperymentu nie podjada gdzieś na boku w taniej spelunie – to ochotnika, tak jak kostkę, musimy rozebrać na czynniki pierwsze. Kostkę trzeba obmierzyć suwmiarką, a ochotnika przebadać na celiakię. Wówczas dopiero wiemy, na czym stoimy.

Tymczasem większość takich programów badawczych, których rezultatem ma być konkretne zalecenie (jeść, pić albo unikać jak zarazy) stoi statystyką. Słówko się rzekło: człowiek (ba, zwierzę doświadczalne, choćby było muszką owocówką, a nawet jednokomórkowym pierwotniakiem) jest diabelnie skomplikowanym układem i nie panujemy nad nim.

Mam szczere podejrzenia, że sprawa ma silny związek z tym, co już kiedyś poruszałem – nieszczęsnym big data. W tym przypadku w znaczeniu dostępności masowych danych, które zdają się przydatne do wyciągnięcia z nich wniosków na temat zdrowia. Mamy na przykład skomputeryzowane rejestry pacjentów, być może da się do nich przykleić dane o popycie na różne produkty spożywcze z supermarketów i… I praca gotowa.

Powiedzmy jeszcze raz: i owszem, za pomocą statystyki da się nawet przekroczyć dokładność pomiarową przyrządu. Powiedzmy, że mierzymy długość ołówka miarką milimetrową. Przykładamy i dostajemy wynik 10 cm i coś pomiędzy 5 i 6 mm. Rysik znajduje się pomiędzy kreskami. Owszem, możemy na oko próbować dzielić miarkę, ale jak wiadomo, na oko to chłop w szpitalu itd. Weźmy z pozoru trochę wariacką metodę. Przy końcu ołówka kładziemy ziarnko piasku. Raz dokładamy do końca rysika, raz kładziemy tak, aby krawędź ziarnka nie wystawała za koniec rysika. Notujemy, ile razy ziarnko wystało nam poza kreskę oznaczającą 6 lub 5 milimetr. Po każdym pomiarze bierzemy nowe ziarno (ważna reguła!). W ten sposób zmieniamy losowo wynik pomiaru. I jeśli się uprzemy, możemy dostać wynik, zwyczajnie licząc średnią, że długość ołówka wynosi na przykład 105,3 mm z prawdopodobieństwem lepszym niż 90%. Cokolwiek już to znaczy, ale mamy dowód, że statystyka ma wielkie możliwości. Tak, jeśli się dobrze zrobi taki pomiar, potem możemy sprawdzić suwmiarką i okaże się, że jest bardzo blisko.

Aliści przypomnę: gdy dojdzie do badania statystyką kostki do gry, zatrzymamy się tylko na domniemaniach. Taki układ okazuje się już zbyt skomplikowanym, żeby badać go tak (w rzeczy samej) topornymi metodami.

Tymczasem w próbach dowiedzenia, że ten czy inny związek chemiczny na przykład działa rakotwórczo, jest ta sama filozofia, co w dokładnym mierzeniu ołówka za pomocą ziaren piasku. Lecz mamy problem taki jak w przypadku kostki do gry: naprawdę nie wiemy, co się dzieje.

Zaś w oszacowaniu niepewności pomiarowej jest paskudne zagadnienie, które psuje całkowicie przyjemność mieszania matematyką. To kwestia, czy pomiary są skorelowane, czy też nie. To dla przykładu. Znajdą się inne podobne. Niestety, bez znajomości i to dokumentnej, układu mierzącego, nie ruszymy jej skutecznie. Zaś z niej wynika istotny dla całości problem: czy możliwe jest, by wszystkie zebrane dane mogły się przesunąć w najbardziej niekorzystną stronę? Banalny przykład, mierzymy prąd i napięcie jednocześnie. Mierniki są elektroniczne, zasilane z sieci. W pewnym momencie zmienia się napięcie zasilające. No i oczywiście – choć stajemy na głowie, żeby wyświetlane wielkości nie zależały od zasilania, to zawsze trochę zależą. Są niestety powiązane ze sobą. Odjadą od rzeczywistej wartości zawsze w tę samą stronę. To już mniejsza, czy oba w górę, czy w dół, czy jeden tak, drugi przeciwnie, ważne, że jak się coś w sieci stanie, efekt zawsze się powtórzy tak samo. Wynik nie będzie statystyczny, będzie oszukany. Wyliczanie wartości średniej nie pomoże.

Przy opracowywaniu danych z eksperymentów, takich, gdzie mamy dziesiątki tysięcy osób, które na coś chorują albo nie, aby wyliczać średnią, musimy zakładać, że statystyka działa. Warto jeszcze przypomnieć: cały czas jest to próba zmierzenia ołówka z dokładnością, jaką daje suwmiarka, za pomocą szkolnej linijki. Prawie zawsze przy takich badaniach pracuje się na poziomie szumów. Jeśli weźmiemy pojedynczego osobnika, obadamy go i obmierzymy, niewiele nam wyjdzie – tyle że jest zdrów lub na coś narzeka. Lecz żadnych konkretnych relacji z tego nie wyciągniemy.

W każdym konkretnym przypadku liczba możliwych czynników, które dadzą w sumie taki czy inny wynik, jest za wielka, aby cokolwiek wykombinować. Mamy tylko tę nadzieję, że w masie wielkiej liczby przypadków jakimś cudem się uśrednią i zostaną nam tylko te, o które nam chodzi. Lecz trzeba mieć w głowie to ostrzeżenie, że wcale tak być nie musi.

Generalnie te zawiłe dywagacje można sprowadzić do jednego spostrzeżenia: jest milion powodów, by wyniki pomiarów opartych głównie o statystykę kompletnie zawiodły. Jeśli chcesz zmierzyć długość ołówka z dokładnością do 0,1 mm, to zdecydowanie lepiej wziąć suwmiarkę niż kombinować z jakimiś średnimi. A jeśli nie możesz wziąć suwmiarki, licz się z tym, że zamiast wyniku dostaniesz figę. W przypadku naszego eksperymentu z ziarnami piasku w pomiarze długości ważne jest, aby piasek miał losowe rozmiary ziaren. Jeśli nie ma, będzie prawdopodobnie kicha.

Dlaczego kocha się współcześnie różnej maści badania podparte wyłącznie statystyką? A tak: kocha się. Mamy zalew rewelacji – zwłaszcza w dziedzinie diety albo czynników rakotwórczych. Co do tych ostatnich: jak się badało kosmetyki? Ano, łapało się królika doświadczalnego i na przykład wpuszczało mu się do oka lakier do paznokci. Jeśli królikowi jedynie wypaliło oko, to może być. Jeśli na ileś zwierząt kilka dostało jeszcze raka, to trzeba się było zastanowić. Dowcip w tym, że zazwyczaj podejrzane substancje były prawie obojętne. Aby cokolwiek wykryć, trzeba było drastycznie wzmocnić ich działanie.

Przypomnę efekt hormezy. W małych dawkach na przykład silnie kancerogenne promieniowanie jonizujące działa dobrze na organizmy, w tym człowieka, który wali do wód radoczynnych po zdrowie. Ot i prosty powód, dla którego te testy mogą być funta kłaków warte. Ale gdy dochodzimy do szkodliwego działania cukru, zaczyna się już szaleństwo. Podobnie jak w przypadku mleka UHT. Całkiem niedawno dowiedziałem się, że cukier uzależnia. Gorzej, kochani: przychodzimy na ten świat uzależnieni od cukru jak koza od trawy. Znacie opowieść o tym, jak Icek już-już odzwyczaił swoją kozę od jedzenia? No właśnie: uzależnienie okazało się tak silne, że bidula zdechła.

Jeśli wsłuchasz się, Drogi Czytelniku, w argumenty antycukrowe, to zauważysz, że powtarza się to, co wiemy od zawsze. Tak, przeżeranie się cukrem daje takie same zgubne efekty, jak przeżeranie się w ogóle. A jak zdobyć argumenty przeciw jedzeniu cukru? No… Statystyka. Tylko statystyka może pomóc, bowiem z doświadczenia wiadomo, że pojedyncza osoba może spoko wrębać i kilo cukru na raz. A że po tym eksperymencie pewnie przez pół roku będzie się ze wstrętem odwracać od słodkiego – to będzie cały efekt.

Aliści magiczna statystyka może wyłuskać straszliwe efekty. Podobnie jak działanie smogu. Co prawda dziadek palił całe życie i… pali dalej, żyje, inhalując się codziennie substancjami smolistymi, ale statystycznie palenie urywa palaczowi dziesięć lat życia.

Aby była jasność: nie znoszę palaczy. Sądzę, że akurat w tym przypadku jest dość dowodów, że to mocno szkodliwy nałóg. Sedno sprawy jednak jest w tym, że bez statystyki tego nie zobaczymy. Możemy twierdzić, że naszemu dziadkowi urwało dziesięć lat ze stu dziesięciu, zaś Józek dostał raka płuc z powodu pracy przy farbach, a nie palenia. I to wszystko może być racja. Bo tak naprawdę nie znamy dość dobrze sposobu oddziaływania papierosów na człowieka. Nie mamy tej suwmiarki, którą dałoby się zmierzyć z wystarczającą dokładnością.

Statystyka rodzi silną pokusę, żeby pomierzyć coś, do czego nie ma narzędzi. Na przykład udowodnić szkodliwość cukru. Szkodliwość gazowanych napojów, konieczność zbiórki złomu czy walki ze smogiem, którego nie widać, jakbyśmy walczyli o niepodległość.

W takich i podobnych przypadkach, gdy efekty są tak słabe, zwykle jeszcze zawikłane w tysiąc dodatkowych czynników, nie mamy takiej możliwości jak z kostką do gry, by ją na przykład obmierzyć, obważyć i stwierdzić, że ktoś pod jedną ścianką umieści ołów, na skutek czego się na nią znacznie częściej wywraca. Najczęściej zagadnienie musi pozostać w sferze domysłów albo zbyt zawiłych reguł, by się nadawały do hałaśliwej propagandy. Tak, najsmaczniejsza herbata jest ta niesłodzona, całkiem gorzka, ale w górach po znacznym wysiłku, zwłaszcza gdy czeka nas dalsza droga w zimnie, lepiej wypić ulepek z kilkoma łyżkami sacharozy. Tak, tak, widziałem w głupich Górach Sowich, jak ludzie mieli pomysł, że prześpią zawieję pod krzaczkiem. Podobno to hipoglikemia, jak zwał to zwał, ale w pewnych okolicznościach biała śmierć ratuje życie. Podobnie jest z drugim śmiercionośnym białym proszkiem, solą. Podnosi ciśnienie i jego spożywanie (podobnie jak onanizm) nieuchronnie prowadzi do śmierci. Tyle że „trzeba uzupełniać elektrolity”. Tak, brak soli może również doprowadzić do śmierci.

Kolejna smętna obserwacja: statystyka pozwala zamazać szczegółowe dane odnośnie jakiegoś problemu. Te szczegóły czynią często już zebraną porządną wiedzę nieużyteczną dla propagandy. Nie ma sensu rozpętywać kampanii przeciw koncernom spożywczym pod hasłem „używajcie cukru z umiarem”. Jak wysmażymy dane, że cukier, jak smog, spowodował ileś tam przedwczesnych zgonów, to będzie argument. Kłopot by się zrobił, gdyby cukier faktycznie zniknął z naszego otoczenia, ale… przecież nie o to walczymy. My chcemy gonić króliczka.

Przywykliśmy do stosowania statystyki: co rusz mamy sondaże poparcia partii, dane tyczące się popularności produktów wzrostu gospodarczego czy zmiany nastrojów. Statystyka stała się częścią naszej świadomości. To na niej budujemy swoje wizje świata. Ot, wspominałem bijatyki na forach na temat wyższości jednej konstrukcji aparatów fotograficznych nad innymi: wszystko kręci się wokół jakiś średnich, masowych danych, w których znika powód, czemu ludzie coś kupują, a czegoś innego nie.

Tymczasem choćby przez to, że statystyka jest oparta na rachunku prawdopodobieństwa, który ludności wyjątkowo źle wchodzi do głowy, powinna im się palić choinka czerwonych światełek: to może być warte funta kłaków.

Mam pewne podejrzenie albo proste wyjaśnienie, z czego bierze się popularność badań statystycznych w „miękkich naukach” (takich jak dietetyka). Ta metoda daje możliwość „ukręcenia bicza z piasku”. W sytuacjach, gdy rozstrzygnięcie czegoś jest – uczciwie mówiąc – niemożliwe (jak wyżej napisałem, nie ma suwmiarki, by zmierzyć ołówek, albo co gorzej, gdy zagadnienie jest naprawdę neutralne, typu żreć czy nie cukier, w odróżnieniu od przeżerać się cukrem), możemy mu nadać jakąś wartość typu dobrze–niedobrze. Wokół nieważnych spraw da się zbudować emocje. Bo dostaniemy właśnie tę wyliczoną liczbę przedwczesnych zgonów, jakąś różnicę w średniej nadwadze czy coś równie wstrząsającego.

Pokusa jest wielka, bowiem tego typu opracowania wyglądają na bardzo uczone. W poważnych badaniach miotłą, która wymiata bezwartościowe pomiary, jest właśnie oszacowanie nieszczęsnej niepewności pomiarowej. Bez niej, bez choćby jakiejkolwiek intuicji, ile to może być, nie ma wyniku. Wystarczy spytać tych Uczonych Mężów z Brodami z ateńskiego rynku, jak by się wzięli za oszacowanie niepewności – i żegnamy. Tak naprawdę to działa, choć widzimy, że niczego nie mierzyli, tylko im się zdawało. Bo i owszem, Mędrzec potrafi przyrównać dość dobrze wielkość jaskółki do wielkości bociana, ale naprawdę chodzi o to, że jakikolwiek pomiar na oko diabli biorą, gdy nie ma tego przedmiotu do czego przystawić.

Tak na marginesie całkiem, to w tym ateńskim szacowaniu jest ukryty parametr, którego kompletnie nie znamy, i siedząc na szacownym rynku, nie mamy sposobu, by jakkolwiek sensownie szacować: to odległość Ziemia-Słońce. Jeśli zrozumiemy mechanizm szacowania na oko, to od razu wrzucimy go do obliczeń. A, że wynosi on HGW (Hanna itd.) ile.

Pojęcie o wielkości niepewności pomiaru przywraca nas do rzeczywistości. Tak więc jeśli odkryjemy jakieś bardzo fascynujące zjawisko podczas sprawdzania prawa Ohma, stwierdzimy, że napięcie rośnie, a prąd trochę maleje, to prawie na pewno odeśle ona epokowe odkrycie do kosza. Choć ze zjawiskiem ujemnej oporności się spotykamy. To m.in. porządnie zrobione pomiary kalorymetryczne pogrzebały zimną syntezę, domniemane źródło niewyczerpanej energii, tak też się stało z innymi wynalazkami, jak turbinki zmniejszającej spalanie w maluchu itp. Te wynalazki zwykle miały silne podparcie w pomiarach (tak bywało z wieloma konstrukcjami perpetuum mobile), które dawały jakiś nadmiar energii, lecz niestety w granicach niepewności pomiaru.

To porządna miotła, dlatego jej użyciem gnębi się studentów od samego początku. Statystyka niesie wielkie niebezpieczeństwo: mianowicie niepewności pomiarowe zdają się same wyskakiwać z obliczeń. Jest tak zwłaszcza gdy używamy programów do opracowania wyników. A ostatnimi czasy robimy tak wyłącznie. To jakiś wypadek przy pracy, gdy ktoś oblicza współczynniki dopasowania prostej do wyników na piechotę. Normalnie używa programu i ów program wyrzuca mu, gdy nawet nie bardzo chce, dane, na ile można dopasowaniu wierzyć. Mamy macierz korelacji niepewności współczynników kierunkowych, rany boskie, jak to uczenie wygląda!

Tymczasem w przypadku statystyki te wyliczenia mogą być zwyczajnie funta kłaków warte. Cukier szkodzi? A jeśli jest inny czynnik, np. stresopodatność, która łączy się z zajadaniem nerwów słodkim i słonym, byle się czymś zająć? Jednocześnie stres jest jednym z bardziej szkodliwych czynników. Zresztą cały genotyp takiego osobnika może być mniej odporny, a żarcie cukru być tylko jednym z objawów. No i mamy przypadek klasycznej fałszywej korelacji, od omawiania której zaczyna się większość podręczników opracowania wyników. Rozumowanie może prowadzić do takiej sytuacji, że wyperswadujemy nieszczęśnikowi cukier, a jego frustracja się jeszcze zwiększy i zamiast mu pomóc – zaszkodzimy.

Tak na marginesie: dokładnie taką samą bezrozumną statystyką można dowieść, że jedzenie antybiotyków szkodzi. Bo zwykle łykają je ci, którzy chorują. Zresztą strach przed szpitalem to dokładnie ta sama historia. A ruchy antyszczepionkowe? Ponoć mamy klasyczną fałszywą korelację czasową. Zwykle objawy autyzmu pojawiają się w czasie, gdy przypada termin szczepień ochronnych u dzieci. Jeśli zrobi się statystykę „na pałę”, możemy wykazać czarno na białym, że to szczepionki są przyczyną autyzmu.

A co z tym mlekiem? Cóż, można podejrzewać, że ktoś – analizując skład chemiczny i wiedząc o domniemanych przyczynach miażdżycy – uznał, że musi być szkodliwe. I tylko trzeba znaleźć jakąś doświadczalną podkładkę pod tę teorię. Jeśli były przeprowadzone obliczenia, to przy założeniach optymistycznych dla tej ideologii, a nie teorii. Tak, ideologii, ponieważ nie może być inaczej niż tak, że człek oczywiście ma prosty wpływ na swój los. Musi być tak, że sam jest winien chorób i że uniknąć ich można nie inaczej, tylko umartwiając się. Prawdopodobnie gdyby takie obliczenia weryfikowano, uczciwie szacując niepewność pomiarową, wyszłoby gorzej niż dla rzutu monetą. Osobnik może być zdrów, może też – umartwiając się zgodnie z naszymi zaleceniami chudym mlekiem – zachorować na serce. Może być orzeł, może być reszka, a także cztery dziurki, czyli guzik z pętelką.

 

Adam Cebula




Pobierz tekst:

Mogą Cię zainteresować

Adam Cebula „O sensie samym w sobie”
Para-Nauka Adam Cebula - 4 listopada 2015

Niezbędnym sprzętem każdego poszukiwacza rzeczy istotnych powinno być możliwie gęste sito. Za jego…

Adam Cebula „Error displaying the error page”
Felietony Adam Cebula - 1 czerwca 2018

Nie jest to jakaś fantazja, nie cytat z kabaretu czy też filmu SF. To prawdziwy komunikat, który można przeczytać,…

Adam Cebula „Bulion z soczewek na Halloween”
Para-Nauka Adam Cebula - 22 listopada 2019

Gdy cofniemy się do początków XX w. i wieku dziecięcego techniki samochodowej,…

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *

Fahrenheit