strona główna     -     okładka numeru     -     spis treści     -     archiwum fahrenheita     -     napisz do nas
 
Adam Cebula Para, nauka i obok
<<<strona 17>>>

 

Ogólna teoria szczególnych błędów
czyli skąd się biorą czasem dzieci

 

 

Kochany czytelniku: będę potwornie przynudzał. I nic nie pomoże, że zaczniemy od zagadnienia z natury ekscytującego. Może się mi coś pomyliło, ale postanowiłem sobie w podarowanym mi przez Redakcję kąciku wyjaśniać Ci, na ile mój mały rozumek pozwala, jakimi to urządzeniami posługują się fizycy w poznaniu świata. Dalibóg, konsekwencją są najczęściej, jak i ów świat postrzegamy, albowiem spodziewamy się, że owe narzędzia mówią nam "jaki on jest". Czyli że dokonujemy poznania PRAWDY.

Filozofia filozofią, ale pod pretekstem, albo za pomocą podstępu, chcę trochę niezobowiązujących głupot opowiedzieć o błędach pomiarowych. Taka jest prawda w moim zamiarze. Zastąpmy jednak dla ustalenia "opracowanie wyników" innym, bardziej górnolotnym sformułowaniem: "jak z kupy na pozór bezsensownych lub na pozór jednoznacznych danych wydobyć ową PRAWDĘ". No więc dla lepszego wrażenia ustalmy, że zajmujemy się właśnie jakimś docieraniem do istoty, czy czymś równie idiotycznym.

Zacznijmy jednak od tego, skąd czasami biorą się dzieci? No cóż... tak naprawdę wszyscy wiedzą. A jakby nie... ostrożnie wypuszczać na pastwisko. Otóż istnieje niuans w tej sprawie, który wywołuje niesłychane emocje: to naturalne metody zapobiegania ciąży. Pozwolę sobie się w tym miejscu zdystansować o etycznych wojen, jakie się wokół tego toczą. Niestety, nie ma żadnego znaczenia dla osoby wierzącej, czy to działa, czy nie, zawsze bowiem ma do dyspozycji zastosowanie owych metod... zamiast. A w pewnym wieku, który nadchodzi znacznie szybciej niż się zwłaszcza kawalerom wydaje, i tak "Barbórka jest częściej", więc sprawa przestaje praktycznie istnieć. Mogę dodać do tego jeszcze jeden eufemizm: zazwyczaj zawarcie małżeństwa przyrównuje się do sytuacji, gdy z ochoty napicia się piwa nabywa się cały browar. Sęk w tym, że na terenie zakładu pracy obowiązuje zakaz spożywania alkoholu... Poniał? Nie? Jeszcze zrozumie.

Tak czy owak, rzecz cała ma wymiar o wiele bardziej teoretyczny, niż się powszechnie sądzi. Wszelako jest pewna sprawa, o której warto powiedzieć w kontekście opracowania wyników: to skuteczność owej "watykańskiej ruletki". Na kursach przedmałżeńskich można usłyszeć, że jest stuprocentowa, a wszelkie niepowodzenia wynikają z nieprzestrzegania owych błogosławionych okresów wstrzemięźliwości (od Barbórki do Barbórki i jeszcze trochę...). Otóż do ich wyznaczenia proponuje się między innymi tak zwaną metodę termiczną.

Jest idealna do tego, by pokazać, jak NIE WOLNO opracowywać wyników. Otóż uczy się nasze kandydatki na żony robienia tak zwanej "krzywej gorączkowej". Robi się ją tak, że kolejne punkty pomiarowe na wykresie łączymy odcinkami linii prostych. Potem na pracowniach oducza się je dokładnie tego, czasami długo i pracowicie. Prawidłowe wykonanie wykresu wymaga ciut więcej zabiegów. Jeśli je wykonamy, dowiemy się, bez teoretyzowania, coś o tym, jak ten świat wygląda i do czego te naturalne metody mogą się przydać.

W książkach czasami można spotkać nieco szokujące dla nowicjusza stwierdzenie, że pomiar fizyczny bez znajomości jego błędu nie ma sensu. Sprawa zapewne wymaga trochę filozoficznego wyjaśnienia. Sęk w tym, że choć każdy intuicyjnie "czuje", co to jest błąd pomiaru, to każdy niemal intuicyjnie zakłada, że jest on pomijalnie mały. I tak jest z większością prostych pomiarów, z jakimi mamy do czynienia w codziennym życiu.

Najbanalniejszym przykładem jest mierzenie długości linijką. Jej podziałka powoduje, że nie uda nam się wiele lepiej zmierzyć niż z dokładnością 1 mm, ale dopóki nie wykonujemy prac ślusarskich, dopóki ucinamy kawałek kartki do podklejenia zdjęcia, czy wykonujemy jakąś równie skomplikowaną pracę, to błąd pomiaru mniejszy od "plus, minus" 1 mm nie interesuje nas. Krawcowe kroją materiały z dokładnością ułamka centymetra, więc 1 mm to jest dla nich dużo za dokładnie. Z tej przyczyny zapewne nad istnieniem błędu pomiarowego mało kto się zastanawia, zakłada, że te inżyniery, co wykonali urządzenie pomiarowe, załatwili sprawę tak, że jest ona nieistotna.

Otóż prawie wszystkie otaczające nas "mierniki" są tak skonstruowane, że ten problem mamy z głowy. Jeśli np. linijką zaczniemy mierzyć długość ołówka, to zawsze otrzymamy wartość 11 cm i 8 mm. W wielu podręcznikach spotkamy przy okazji różnych eksperymentów polecenia, żeby taki ołówek mierzyć wiele razy i wyliczyć z wyników wartość średnią. Świadczy to tym, że szanowny autor nie bardzo wie, o co w pomiarach chodzi. Dowcip w tym, że linijka jest tak skonstruowana, że dokładność odczytu jest mniejsza od fizycznych błędów pomiaru. Można się o tym przekonać, zabierając się do pomiaru grubości ołówka śrubą mikrometryczną. Tu dokładność odczytu (ale niekoniecznie pomiaru) wynosi 0.01 mm. Mierząc ołówek w różnych miejscach otrzymamy różne odczyty, bo nie jest on idealnie okrągły, bo nie jest tak samo twardy w różnych miejscach. Możemy popaść w filozoficzne problemy, czym jest grubość ołówka, ale fakt fizyczny jest taki, że otrzymamy szereg wyników z pewnym rozrzutem i że możemy wyliczyć z nich wartość średnią.

Powróćmy jednak do zasadniczego zagadnienia: dlaczego znajomość błędu do takiego stopnia nobilituje pomiar fizyczny? Dlaczego bez tego szczegółu jest on zupełnie nieważny? Banalny przykład: szacujemy odległość na oko. Przy pewnej wprawie podajemy z dokładnością dziesięciu, dwudziestu procent, że do tego drzewa na łące jest 1,5 kilometra, do skraju lasu, który ledwie we mgle widać, jakieś 6 km i bitą godzinę trzeba będzie zasuwać.

A jaka jest odległość do Księżyca? Oczywiście, można wpaść na pomysł, żeby oceniać ją na oko i ludzie bardzo stanowczo wypowiadali się na ten temat. Jeśli nawet udało się w końcu Kopernikowi podać dość prawidłowe oceny, to odległość do gwiazd okazała się kolejnym piekielnie trudnym orzechem do zgryzienia. Dopiero na przełomie XIX i XX wieku ludzie zdali sobie sprawę, jakie przestrzenie dzielą ich od światełek widocznych dzięki potężnym lustrom teleskopów. Poglądy, jakoby ciała niebieskie poruszały się na niebotycznych wysokościach siedmiu wiorst, czy nawet tysiąca mil, okazały się być czystą fantazją. A bardziej naukowo (złośliwie) mówiąc "dokładniejsze badania zweryfikowały ich błąd na kilka tysięcy razy najmniej". Czyli były czystą banialuką.

Jako ciekawostkę można podać, że ludzie machnęli się prawie równie efektownie w ocenie wysokości przelotu ptaków i dopiero w epoce balonów okazało się, że nie są to mile, bo już na kilkuset metrach przestajemy widzieć ich sylwetki. Iluż kompromitacji dałoby się uniknąć, gdyby udało się prawidłowo ocenić możliwy błąd pomiaru!

Tak więc, gdy nie można podać spodziewanego rozrzutu wielkości mierzonej, to znaczy, że możliwe jest, że różni się ona od prawdziwej na przykład 10 tysięcy razy. Choć czasami i taki wynik okazuje się przydatny, to mówimy o takiej właśnie sytuacji. Zazwyczaj brak oszacowania błędu równa się dyskwalifikacji pomiaru.

Gdzieś w międzyczasie udało się nam natrafić na filozoficzny problem, czym jest na przykład średnica ołówka, skoro za każdym razem dostajemy jej wartość. Możemy narobić sobie jeszcze większych problemów, pytając, co to właśnie jest błąd, czy w nowej terminologii – uchyb pomiaru. Wyjaśnijmy, że cały czas trzymamy się twardo rzeczywistości: chodzi o to, że wiele pomiarów tej samej wielkości, które zgodnie z prawidłami techniki eksperymentu powinny dać te same wyniki, daje je różne. I koniec. Oczywiście możemy się zastanawiać, z czego to się bierze, i najczęściej próbujemy jakoś walczyć.

Tak się jednak składa, to właśnie jest najlepsze określenie, "tak się szczęśliwie składa", że bez wchodzenia w szczegóły o uczciwych uchybach pomiarów (błędach) da się sporo powiedzieć, bez szczegółowego analizowania dlaczego?

W przypadku pomiaru średnicy ołówka (przy założeniu, że jest uczciwie okrągły) ładnie da się wyliczyć naszą średnią i ma ona sens. Najwięcej wyników pomiarów ułoży się w pobliżu tej właśnie liczby. Im bardziej odległy od niej wynik, tym rzadziej go otrzymamy. Na marginesie tych rozważań można podumać nad istnieniem "prawdziwego" rozmiaru. Gdy chodzi o średnicę, to zauważymy, że prowadząc bardzo staranny pomiar metodami optycznymi, uzyskamy jakiś realny kształt ołówka i przekonamy się, że jego przekrój nie jest kołem. Pytając o średnicę, dokonujemy pewnej idealizacji, pytamy o zamierzony wymiar i zamierzony kształt. A w rzeczywistości istnieje coś innego.

Tak więc musimy ostro główkować, co mianowicie wymierzyliśmy i jeszcze ostrożnie wnioskować, co wyliczyliśmy. W danym wypadku wartość średnia ma coś wspólnego z chciejstwem producenta, który zamierzał właśnie taki wymiar uzyskać, coś wspólnego z ustawieniami maszyn i chyba najmniej z geometrycznymi danymi. Najlepsza jej interpretacja jest właśnie probabilistyczna: czyli pewna liczba, wokół której pomiary się ułożyły. Wszelkie dalsze pomysły na jej znaczenie są, jak widać nadzwyczaj zależne od wielu okoliczności i jak to się na seminariach elegancko mawia, stanowią "chybotliwe rozumowanie".

Możemy oczywiście podać przykład pomiaru, w który wartość średnia elegancko zbliża się do wartości średniej. Jeśli weźmiemy układ elektryczny z termicznym szumem i włączymy do niego woltomierz, to wyliczenie średniej zbliża nas do prawdziwej wartości, możemy nawet powiedzieć, że jeśli dokonamy bardzo, bardzo wielu odczytów, to uzyskamy dowolne zwiększenie dokładności wyniku.

Ta cudowna własność działa niestety tylko w dość trudnych do spełnienia w praktyce okolicznościach. Fizycznie mówimy o "rozkładzie normalnym" błędów, czyli sytuacji, w której histogram pomiarów ma kształt krzywej Gausa, zwanej krzywą dzwonową. Co to jest histogram? To taki wykres, który powstaje poprzez bardzo pracowite policzenie, ile pomiarów mieści się w przedziale "od-do"; potem zmieniamy przedział, zachowując jego szerokość i znowu liczymy liczbę pomiarów. Na przykład okolicę liczby 1 dzielimy od 0.5 do 0.6, od 0.6 do 0.7, od 0.7 do 0.8 itd. Potem na wykresie pomiędzy 0.5 i 0.6 rysujemy słupek proporcjonalny do liczby pomiarów, które "wpadły" do tej przegródki.

Na rysunku

który zresztą pojawił się już kiedyś w sążnistym tekście o zyskach z nauki, mamy wynik takiego zliczania. Malunek jest wynikiem komputerowej symulacji, a kopnięcie z prawej strony zmusza piszącego do zadumy, czy czasem czegoś nie schrzanił, ale tym razem to dobrze że nie wszystko jest dobrze. Zazwyczaj bowiem owe cudowne rozkłady są, jak to się mawia, "istotnie różne" od idealnej krzywej dzwonowej i zazwyczaj jest to przyczyną kłopotów. Jednak w naszym wypadku jest prawie dobrze i całkiem rozsądnie jest przedstawić wynik jako dobry przykład do nauki. Otóż mamy taki wykres, który mówi nam, że najwięcej wyników znajdziemy w okolicy 40 – 41 (czegoś), i oddalając się od tej wartości, widzimy gwałtowne zmniejszanie się liczby pomiarów

Nie wdając się w szczegóły, kształt krzywej zadany jest konkretnym równaniem, a eksperymentalnie można ją uzyskać, rzucając monetą. Gdy liczba prób sięgnie miliona, nasza krzywa będzie już prawie jak matematyczna. Wiąże się z nią historia polowania na pewną planetoidę, której wyznaczono tylko mały kawałek orbity, i która natychmiast po tym skryła się za Słońcem. Miejsce jej wyjścia najlepiej wyznaczył Gaus, dzięki właśnie znajomości ze swą krzywą. Ale dokładniej o tym innym razem.

Spotkanie z nią jest dla mnie pretekstem do konkluzji, że błąd jest wielkością fizyczną, a nie wydumaną daną z instrukcji i bynajmniej nie opisywaną przez jedną liczbę, ale przez cały wykres. Znormalizować się daje najładniej ów "rozkład normalny". W rzeczywistości występują różne rozkłady, bardzo często "palnięte z góry", co oznacza jakieś usterki w układzie mierniczym.

Kolejny wniosek: błąd jest nieodłącznie związany z prawdopodobieństwem. Oznacza to tyle, że gdy się mówi, że błąd wyniósł ileś, to oznacza to, że bardzo mało prawdopodobne jest, że będzie on większy. Zazwyczaj obliczamy coś takiego, co zowie się "średnim błędem kwadratowym" co oznacza w praktyce, że szukamy czegoś na kształt najbardziej prawdopodobnego błędu. Jego wartość znajduje się w punkcie przegięcia krzywej Gausa, tam gdzie – obrazowo mówiąc – przestaje opadać ona coraz bardziej i zaczyna wyhamowywać w dążeniu do osi "x". Błąd średni kwadratowy mówi nam, o ile od wartości rzeczywistej przeciętnie różni się wynik pojedynczego pomiaru.

Bodaj najbardziej interesującą wartością jest "średni błąd kwadratowy wartości średniej". Ciężko to wymówić, ale chodzi o to, że z wielu pomiarów wyliczamy wartości średnią, bo po cholerę męczyliśmy się. I wierzymy, że ta wartość będzie lepsza. O ile? Tu fanfary, sprawa bardzo ważna, dokładność czy wiarygodność średniej arytmetycznej rośnie z pierwiastkiem liczby otrzymanych danych. Jeśli chcemy podciągnąć o rząd dokładność wyniku uzyskanego z 10 pomiarów, to nie ma zmiłuj się: następny przystanek przy liczbie 1000! Dlaczego? Bo 10 do kwadratu to jest 100 więc potrzebujemy 100 razy więcej danych czyli 100x10=1000.

Tymczasem w technice bardzo często pojawia się błąd maksymalny. Pomysł jest bardzo prosty: jeśli ktoś źle odczyta wartość położenia wskazówki na woltomierzu, to jest to pomyłka (dziś dla utrudnienia mówimy właśnie "błąd pomiaru") czyli wynik do odrzucenia, kiedyś mówiono, "błąd gruby". W analogowej technice pomiarowej nie powinno się zdarzać, że podaje się wartość różniącą się od prawdziwej wartości więcej niż jedna działka. Wiadomo też, że ile może się aparat "machnąć". Jak już pisałem, gdy wskazówka ma ośkę, to do jej ruszenia z miejsca potrzebna jest pewna minimalna siła. Ona określa maksymalną zmianę napięcia, która dla eksperymentatora pozostanie niezauważona. Choć konstrukcja mierników od czasów osi zmieniła się kilka razy, to nadal posługujemy się pojęciem błędu maksymalnego "ośkowego". Czasami można usłyszeć, że większy od niego uchyb pomiaru wyklucza konstrukcja urządzenia, którą mierzymy. Jeśli nie będzie awarii, nie otrzymamy gorszych wyników. Tak naprawdę oznacza on taką wartość "odchyłki od prawdy" mierzonej wielkości, dla której wyjście poza nią jest bardzo mało prawdopodobne. Nie jest to żadna magiczna granica, ale namierzenie fizycznej własności miernika: że będzie gorzej, to już zdarzy bardzo, bardzo rzadko i zazwyczaj będzie winą człowieka. Niestety, abstrahowanie od istnienia pomyłek prowadzi do śmiesznych problemów. Jako stary laborant wiem doskonale, że przy przepisywaniu 300 punktów pomiarowych prawdopodobieństwo 1,2 pomyłek jest na tyle duże, że trzeba je uwzględnić w opracowaniu wyników. Prawdopodobnie właśnie takie wpadki doprowadziły do pogoni za nieistniejącymi muzealnymi eksponatami, które w opisie zdawały się produktami pozaziemskich cywilizacji. Zapewne podobnie powstaje piorun kulisty. Zwyczajne błędy w opisach. Jak więc widać, posługując się pojęciem błędu, możemy pożeglować z obszarów ściśle ścisłych w całkowicie humanistyczne i dojść do wniosku, że teoria błędów jest w stanie objąć dziedziny działalności człowieka, które bynajmniej ani trochę nie chcą poddać się reżimom matematyki.

Gdy weźmiemy pod uwagę "dziedzictwo kulturowe", to możemy całkiem skutecznie przypisać własności błędu zwyczajnym kanciarstwom czy konfabulacjom w rodzaju opowieści o Atlantydzie. W istocie robimy to instynktownie, szukając potwierdzenia w innych relacjach. Inaczej mówiąc staramy się "uśrednić pomiar". Jeśli ktoś inny poda podobne informacje o zaginionym lądzie i coś się ze sobą zgodzi, to uznajemy, że rzeczy miały miejsce. Jest tu jeden szkopuł: relacje, czyli powiedzmy przewrotnie pomiary, muszą być niezależne. Dokładnie ten sam warunek jest narzucany na wyniki uzyskiwane w laboratorium. Jeśli np. mierzymy czas spadania kamienia wiele razy, ale oczywiście "raz za razem" tym samym stoperem, to może się okazać, że rozgrzewa się on coraz bardziej od naszej dłoni i wyniki uzyskane za pomocą wielu różnych stoperów okażą się ciut inne. Powyższy przykład pokazuje pewnie dwie sprzeczne rzeczy: jedną, że naprawdę daje się ku radości wszelkiej maści teoretyków tworzyć "Ogólną teorię błędów Wszystkiego", oraz drugi, że błąd w abstrakcji od maszynerii w której powstaje, staje się czymś nieco mitycznym. Zamiast jednak rozstrzygać co prawdziwe opowiedzmy historię Wielkiego Błędu, która do dnia dzisiejszego spędza sen z powiek i technikom i humanistom.

Rzecz działa się w podczas II wojny światowej i jest powszechnie znana poza pewnymi szczegółami, które akurat poniekąd są sednem sprawy i stanowią o werdykcie: pech czy czyjeś karygodne zaniedbanie?

Krążownik liniowy Hood był do 1938 roku największym wojennym okrętem świata, tak przynajmniej podają niektóre źródła. W 1940 roku Niemcy zwodowali pancernik Bismarck. Okręty spotkały podczas operacji Rheinübung w maju 1941 roku. Hitlerowcy chcieli wysłać na Atlantyk dwa okręty Prinz Eugen i właśnie Bismarcka, aby te mogły dokonywać rajdów na angielskie statki handlowe. Zespół został wyśledzony przez krążownik Suffolk, który chowając się we mgle, śledził manewry korsarskiego zespołu.

24 maja o godz. 05.35 zespół wiceadm. Hollanda złożony z Hooda i Prince of Wales uzyskał z Niemcami kontakt wzrokowy. O godz. 05.53 z odległości 20000 m Brytyjczycy otworzyli ogień.

Tu nastąpiła pierwsza poważna pomyłka: Anglicy wzięli Prinz Eugena za Bismarcka i na nim skoncentrowali ogień. Tymczasem prawdziwy Bismarck zabrał się za Hooda. Niemcy szybko wstrzelali się w cel. O godz. 06.01, jak pisze w różnych raportach, jeden z pocisków trafił w luk amunicyjny i spowodował eksplozję zapasu pocisków artyleryjskich. Potężny wybuch rozerwał angielski okręt na dwie części. Zatonął on w ciągu zaledwie trzech minut. Z liczącej 1419 osób załogi uratowały się zaledwie trzy. Zginął admirał Holland. Niebywała tragedia!

W rozlicznych materiałach poświęconych II wojnie światowej trafiłem na skrócone relacje z prac komisji, która badała przyczyny zupełnie niespodziewanej klęski. Rzecz zrozumiała, ludzie chcą się na przyszłość zabezpieczyć przed podobnymi wypadkami. Nawet biorąc pod uwagę wojenne warunki, tak ogromny okręt nie miał prawa zniknąć z powierzchni morza w takich okolicznościach. Z relacji tych wynikało, że jednak Anglicy strzelali do Bismarcka. Nie uzyskali jednak "wstrzelania" się w cel z tego powodu, że admirał Holland za podstawę wyznaczenia odległości do nieprzyjaciela wziął pomiary z dalmierza optycznego, a nie z radaru. A więc do błędu rozpoznania dołożył się kolejny, który opóźnił skuteczną akcję. Jak do tego wszystkiego mogło dojść? Cóż, w zmaganiach wojennych ludzie zwykle pracują na krańcu technicznych możliwości urządzeń. Idzie o przetrwanie, więc trzeba zmobilizować wszystkie siły. Jeśli obserwujemy, to możliwie największą odległość, jaka jest do osiągnięcia w danych warunkach. Co mógł widzieć obserwator z 20000 metrów? To coś, co wygląda jak kaszka na zdjęciu

to powierzchnia morza. Czarna plama to jakaś szalupa. To coś, co majaczy za horyzontem, to właśnie statek. Zdjęcie wykonałem teleobiektywem 1000 mm z wysokości ok. 18 metrów nad plażą z wydm. Mój sprzęt optyczny, choć nie wojskowy, to bynajmniej nie amatorski, został wyprodukowany tak ze 40 lat po dramatycznych wypadkach i należał w swoim czasie (1959) do jednych z najlepszych na świecie. Ze względu na krzywiznę Ziemi, tyle właśnie widać, a z powodu odległości, widać tak kiepsko. A więc pierwszy "błąd gruby" był całkiem prawdopodobny. Kolejne zdjęcie

może przekonać, że bynajmniej jeszcze większe szkła niewiele pomogą. Od razu się przyznaję, że jest ono dość ostro "pucowane" na komputerze (ptaszek został przeniesiony z innego miejsca) ale to co trzeba, jest. Widzimy kuter na rozświetlonym morzu (a nie na kaszce) a za nim coś na kształt kisielu.

Dokładniej ten kisiel widać na nieco powiększonym fragmencie.

Tak działa atmosfera, kiedy próbujemy coś obejrzeć za pomocą bardzo dobrze powiększającego sprzętu. Sama przyroda stawia szlaban, nawet przy bardzo ładnej pogodzie niewiele widać. Ponadto potrafi nam pokazać coś czego nie ma.

Na kolejnym zdjęciu zrobionym również przez długi teleobiektyw widać jakiś pływający dźwig, lecz łatwo się domyślić, że znajduje się on o swoją wysokość niżej. Ponadto poniżej widzimy odbicie ramienia. Coś, czego nie ma. Dokładniej możemy zaobserwować zjawiska optyczne w atmosferze na banalnym zdjęciu zachodzącego słońca,

Wiemy że "normalnie" tarcza naszej gwiazdy jest okrągła, tu zaś widzimy pokrzywione jajo, a nad samym horyzontem mamy pasek, w którym widzimy coś innego. W tym obszarze "wykrzywienie" obrazu sięgnie pewnie kilku stopni.

Otóż wyliczyłem sobie, że na dystansie 20.000 metrów, kąt, pod jakim ustawione są ramiona dalmierza artyleryjskiego wynosi 0.057 stopnia (57 tysięcznych stopnia, żeby nie przeliczać na sekundy). Gdyby ktoś nie wiedział, dalmierz jest zazwyczaj rurą zamontowaną w środkowej nadbudówce i wystającą ciut poza pokład. Pomiar odbywa się na zasadzie triangulacji, przy czym bazą jest właśnie owa rura. Dalmierzysta zgrywa ze sobą, obracając pryzmaty, obrazy widziane z jej końców i odczytuje kąt, o jaki musiał je obrócić.

Aby pomiar miał wartość, musimy znaleźć poprawki współczynnika załamania powietrza związane z rozkładem temperatury i wilgotności na różnych wysokościach, ponieważ, jak widać na załączonych obrazkach, światło pobiegnie po jakimś łuku, którego krzywizna będzie zależna właśnie od owych rozkładów. Trzeba dodać jeszcze, że choć zapewne same mechanizmy dalmierza zostały skompensowane termicznie, to kompensacja także została dokonana z pewną dokładnością. Pewne błędy dadzą się ominąć jedynie "na wiarę" metodą kilkukrotnych pomiarów, a to właśnie efekt "kisielu" lokalnych niejednorodności powietrza. Możemy tylko ufać, że wartość uśredniona zbliży się do prawdziwej.

Tu kolejne zagadnienie: błąd wielkości złożonej. No bo wystartowaliśmy od gołego pomiaru kąta, ale w paradę weszło kilka innych, temperatury na różnych wysokościach, wilgotności powietrza, temperatury części składowych dalmierza, przypadkowe błędy pomiaru kąta związane z libracjami atmosfery. Otóż Ogólna Teoria Błędu Wszelakiego przewiduje, że musimy je podsumować. Robimy to zazwyczaj metodą Różniczki Zupełnej, która ostatnio jest w odwrocie, ale przekazuje istotną informację, że im więcej zmiennych niezależnych, tym gorszy pomiar. Przy okazji możemy się przekonać, która wielkość najbardziej wpływa na zwiększenie błędu. W metodzie triangulacyjnej, gdy maleje stosunek długości bazy do mierzonej odległości, krytyczną sprawą staje się właśnie pomiar kąta. Tylko dzięki uprzejmości natury, która sprawia, że średnie pokrzywienie toru światła biegnącego do prawego i lewego ramienia dalmierza jest bardzo podobne i dzięki temu, że gradienty temperatury i wilgotności w powietrzu są zazwyczaj pionowe, metoda działa.

W przypadku radaru karkołomny wydaje się pomiar czasu przelotu impulsu. W istocie dystans np. 30.000 metrów fale radiowe przebywają w 0.0001 sekundy. Czas od wysłania do powrotu impulsu wynosi więc 0.0002 sekundy. Błędu krzywizny trasy możemy nie uwzględniać, bo przekłada się on nie na kąt triangulacji, lecz bezpośrednio na zmianę czasu, zaś błąd odległość zależy od niej nie "lawinowo", jak w przypadku dalmierza, od zmiany kąta, lecz liniowo. Jednak akurat czas mierzymy z najlepszymi dokładnościami. W chwili obecnej "zwykły" generator kwarcowy zapewnia względny błąd na poziomie 1/10.000.000. Wszystko to razem sprawia, że dziś nawet "zwykły inżynier" do pomiaru odległości często na dystansach, na których wystarczy taśma miernicza, posługuje się laserowym miernikiem impulsowym działającym w oparciu o pomiar czasu przelotu impulsu.

O czym myślał admirał Holland w ostatnich trzech minutach życia, trudno powiedzieć, zapewne jednak o tym, że ma straszliwego pecha, bo trudno przypuszczać, że metodą różniczki zupełnej szacował uchyby obydwu metod. My zaś mamy dość czasu na wysnucie kilku wniosków, między innymi o tym, że także banalne błędy toru światła ograniczają dystans, na jakim da się podglądać nawet przy pomocy najpotężniejszych aparatów optycznych. Kolejny, to żeby nie zostać na przykład trafionym w luk amunicyjny, trzeba się zastanowić zarówno nad bardzo Ogólną Teorią Błędów Wszelakich, jak i aby zastosować metodę różniczki zupełnej do rozstrzygnięcia komu wierzyć, zagłębić się w techniczne niuanse zjawisk atmosferycznych.

A jak ustrzec się niechcianej ciąży?

Tu wkraczamy na teren poświęcony robieniom Prawdziwych Wykresów. Co je ono? To jest taki rysunek czy malunek, wyświetlany czy raczej wydrukowany, z którego da się coś odczytać. Jakąś wartość. Na rysunku

mamy przykład bezsensownego wykresu. Jest chyba dla każdego oczywiste, że jest to jakiś proces rosnący, gdzie na skutek jakichś przypadkowych wydarzeń wartości poszczególnych punktów odchyliły się od pewnej ogólnej tendencji. Warto dodać, że porządny wykres MUSI mieć opisane osie (oraz jeszcze trochę innych cech). Dlatego na następnym wykresie pojawi się jakiś opis osi. Ale to zupełnie inna para kaloszy, na przykład czas w "Zdrowaś Mario" ale już wiadomo jak mierzone.

Kolejny wykres wyda się chyba o wiele bardziej sensowny. Jest bardzo sensowny, przebieg przybliżono linią prostą o równaniu x = 0.97621 + 0.92034 x. Wyliczono je metodą regresji liniowej. To właśnie patent Gausa. Sztuczka polega na takim dobraniu współczynników, by suma kwadratów odległości od punktów pomiarowych do linii była najmniejsza. Jest wszelako szkopuł: nic nie wiemy co i jak było mierzone: czy naprawdę chodziło o linię prostą? Ponownie mamy dylemat pomiędzy Ogólną Teorią Błędu Wszelakiego a technicznymi szczegółami. Ale tu na ratunek przychodzi nam znowu matematyka. Jeśli nawet nic nie wiemy o błędach pomiaru, to właśnie owe odległości powiedzą nam, jak dobre jest przybliżenie procesu. Im lepiej krzywa (prosta) wpasowana w punkty pomiarowe, tym te odległości mniejsze. Tu wkraczamy na grząski grunt "które dopasowanie lepsze" i tak dla regresji liniowej otrzymaliśmy "Standard error of coefficient = 0.0516" czyli błąd oszacowane współczynnika kierunkowego równania liniowego. Rysunek

przedstawia próbę przybliżenia naszego wykresu za pomocą wielomianu stopnia piątego. Oba wykresy są "dobre" a ich poprawność zależy od wielu okoliczności. Co jest cechą zasadniczą, to fakt, że linia wykresu nie przebiega poprzez punkty pomiarowe.

Jest kwestią dość zasadniczą, by potrafić usunąć z wyników pomiarów tego, czego tam naprawdę nie ma. To duża sztuka, bowiem bardzo często wiemy, co być powinno, i wyniki nie pasujące do naszego chciejstwa usuwamy. W przypadku wykresów dobrą metodą jest wygładzanie otrzymanych krzywych, nawet wówczas, gdy skądinąd wiemy, że powinny się tam znaleźć np. gwałtowne skoki. Dlaczego postać "prawdziwa" jest niebezpieczna, ilustruje przykład z krzywą gorączkową. Zaczniemy od wykresu jakiego uczą w celu zapobiegnięcia niespodziewanemu zajściu w ciążę.

Otóż na jego podstawie mamy odczytać z dokładnością 24 godzin pewien fakt, załóżmy, że chodzi tu o jajeczkowanie, lecz powiem szczerze, nie wiem, czy o to chodzi, pomimo wysiłków Redakcyjnego Doktora, który rzecz mi dokumentnie wyjaśnił. Zrozumiałem tyle, że mam do czynienia z Bardzo Skomplikowaną i Kapryśną Maszynerią, która zasadniczo powinna działać w cyklu równym obrotom naszego Srebrnego Satelity. Dajmy pokój technicznym szczegółom, podejdźmy z pozycji Teorii Błędu Wszelakiego. Usuńmy dla ustalenia uwagi (czasami lepiej dla ustalenia uwagi tak jest bezpieczniej) opis osi. Zastanówmy się, co tu naprawdę namierzyliśmy. Po pierwsze, musimy posłać do wszystkich diabłów łamaną krzywą. Rysowanie ma swe uzasadnienie w różniczkowaniu wykresu, ale... najpierw musi być coś do zróżniczkowania. Po drugie, musimy nanieść błędy pomiarowe. Ponieważ wiemy, czym mierzymy, można je całkiem spokojnie oszacować. Najpierw zrobimy to bardzo optymistycznie. Spójrzmy na skalę termometru lekarskiego, ma działki co 0.1 stopnia. Dla termometru laboratoryjnego moglibyśmy przyjąć błąd 0.05 stopnia. Tu, niestety, jest to bardzo ryzykowne, bo trzeba pewnie dzielić odcinki pomiędzy kreskami na pół. Ponieważ 37.05 może zostać zapisane jako 37.0 i 37.1 oraz 36.95 można zapisać jako 36.9 i 37.0 to z samej zasady działania mamy plus minus 0.1 stopnia.

Rysunek pokazuje wynik operacji.

Zaznaczono na nim błędy za pomocą pionowych linii. Przeprowadziłem tam czerwoną, wygładzoną linię. Wiadomo, że jest ona nieprawdziwa, lecz usunięto z niej pokusę wyznaczenia tego zdarzenia, o które nam chodzi. Przebieg temperatury jest przybliżony za pomocą tzw. krzywych Beziera. Zasadą prowadzenia takiego wykresu jest to, że krzywa ma przechodzić przez zakres błędów. Charakterystyczną cechą takich wykresów jest diabelnie szybka utrata szczegółu. Na wykresie

widać, co się dzieje, gdy dokładność spada do 0.2 (stopnia). Mamy tu dla porównania "krzywą gorączkową", przybliżenie za pomocą wielomianu dziesiątego stopnia i "uczciwe" przybliżenie wielomianem czwartego stopnia (krzywa czerwona). Jest zgodne z zasadą, że używamy najniższego stopnia, jaki tylko "zmieści" się z w danych pomiarowych. No, spróbuj tu odczytać KIEDY?

Dlaczego 0.2? No cóż, często sprawdzam termometry termoparowe łapiąc za końcówki, czasami niehigienicznie wsadzam pod język i wiem, że temperatura ciała mierzona tym samym termometrem potrafi się "kiwnąć" o te kilka dych, zupełnie bez powodu. To raz. Dwa, można sprawdzić, że pomiar temperatury dowolnego ciała w komfortowych warunkach ze względną dokładnością (czyli jak czasem mówimy rozdzielczością) lepiej niż 0.1 stopnia wymaga użycia np. mieszadła magnetycznego, gdy mierzymy temperaturę szklanki piwa. No ale dość przynudzania, i tak nie pozostanie nic innego, jak wypić ją w kolejną Barbórkę. Zamiast.

 




 
Spis treści
451 Fahrenheita
Literatura
Bookiet
Recenzje
Spam(ientnika)
Wywiad
Hormonoskop
Paweł Laudański
W. Świdziniewski
Adam Cebula
Andrzej Pilipiuk
Andrzej Zimniak
Piotr K. Schmidtke
Adam Cebula
Marcin Wroński
M. M. Kałużyńska
Dawid Kain
Tomasz Witczak
W. Świdziniewski
PO
Gustav von Urhebers
David Drake, Eric Flint
Pat Cadigan
Tomasz Piątek
Alastair Reynolds
 
< 17 >