strona główna     -     okładka numeru     -     spis treści     -     archiwum fahrenheita     -     napisz do nas
 
Adam Cebula Para, nauka i obok
<<<strona 24>>>

 

Diabeł, ten ze szczegółu

czyli o piekielnie dokładnym mierzeniu

 

 

Przysłowie mówi, że diabeł tkwi w szczegółach. Co jego autor chciał powiedzieć, tak naprawdę możemy się tylko domyślać. Co innego, gdy powiemy, że w szczegółach diabeł siedzi. To już trąci trochę piekłem. Podchodząc do tematu nieco bardziej od strony naukowej racjonalności, możemy powiedzieć, że zazwyczaj fascynuje nas tak zwana kosmiczna dokładność. Czym ona jest tak naprawdę, to trudno powiedzieć, ale przeciętnemu człowiekowi wydaje się, że satelity krążą po torach wyznaczanych z dokładnością do milimetrów, i jest bardzo rozczarowany, gdy dowiaduje się, że chodzi o kilometry, a czasami o dziesiątki kilometrów.

Dokładność jest jednym z atrybutów nauki. Wielocyfrowe zapisy w tablicach, białe kitle, sumienność, cierpliwość, to wszystko kojarzy się nam także z dokładnością, i w potocznym rozumieniu jest jej źródłem. Niejako podchodząc z drugiej strony, bardzo wiele osób sądzi, że dokładność jest wynikiem tylko staranności. Nie ma nic łatwiejszego dla naukowca, niż wykonać te same pomiary, ale dokładniej.

Od mętnych rozważań, przejdźmy do konkretu – po co dokładność? To chyba jeszcze trudniejsze pytanie dla tak zwanego przeciętnego człowieka. Pamiętam, jak przeczytałem sobie kiedyś bardzo odkrywczy artykuł jakiegoś bardzo zawodowego i uznanego fotografika, który niespodziewanie dla siebie połapał się, że nie są mu do niczego potrzebne nadzwyczaj dokładne określenia czasów naświetlania, skomplikowane algorytmy jego określania, bo i tak na skutek kontrastu niewiele wpływa to na jakość zdjęcia. Otóż mimo mojego kpiącego tonu muszę przyznać, że ów człowiek zdołał się wydobyć spod magii liczb i porażającego wszelkie myślenie schematu, który każe z nabożeństwem przyjmować wszelkie nowoczesne rozwiązania.

Nic nie pomoże w fotografii piekielna precyzja pomiaru siły światła. Jednak to, że ostatnio stała się argumentem marketingowca, nie wzięło się z niczego. W porządnych badaniach dokładność służy właśnie wyłuskaniu owego diabełka ze szczegółu. Bodaj najprostszy, najbanalniejszy przykład, który doprowadził w mniemaniu wielu do załamaniu tak zwanego paradygmatu naukowego i podważenia mechaniki Newtona, to ostatnie pomiary ruchów gwiazd. Banalne z ideologicznego punktu widzenia, pomiary kątowych współrzędnych, coś, co w zasadzie robiono od ponad 2500 lat, a może nawet gdzieś od 5000, tylko że przeprowadzone z większą dokładnością. To one właśnie spowodowały pojawienie się problemu ciemnej materii, dodatkowej siły działającej w skali kosmosu. One wreszcie pewnie rozstrzygną, jak z owymi kosmicznymi sprawami jest naprawdę.

 

Każde fizyczne prawo jest weryfikowane poprzez pomiar. Jak ze szkoły wiadomo, siła oddziaływania dwu ładunków elektrycznych jest odwrotnie proporcjonalna do odległości. Inaczej mówiąc, gdy zwiększymy odległość między ładunkami dwukrotnie, jej wartość zmniejszy się 4 razy.

W swoim czasie postanowiono za pomocą pomiarów rozstrzygnąć, czy siła w oddziaływaniu elektrycznym rzeczywiście maleje z kwadratem odległości. Wbrew dość częstemu mniemaniu, to prawo jest "wydumane". Bardzo łatwo na nie wpaść, posługując się całkowicie nieprawdziwym pojęciem "linii sił". Ta dosyć niejasna koncepcja, sięgająca jeszcze Kuplera, opiera się na przeświadczeniu, że wielkość oddziaływania na przykład elektrycznego, jest wprost proporcjonalna do liczby "linii sił", które mają w przestrzeń wysyłać naładowane ciała. Jeśli założymy, że jest ona skończona i wprost proporcjonalna do ładunku, to z geometrii wyniknie nam poszukiwana zależność.

Wszystko jest bardzo dobrze wyjaśnione, pod warunkiem, że nasz świat wygląda tak, jak sobie Kartezjusz wymyślił. I że jeszcze owym liniom sił chce się podporządkowywać naszym pomysłom. Tak, czy owak, gdyby się okazało, że prawo "jeden przez er kwadrat" jest spełnione tylko w przybliżeniu, byłby to niezły pasztet dla teoretyków. Dlatego wypadało sprawdzić je eksperymentalnie. Oto kolejny powód do zwiększania dokładności pomiarów.

 

Jeszcze jeden pomysł, który dla weryfikacji wymaga piekielnej precyzji, to powstałe chyba w XX wieku (ubiegłym!) pytanie, czy aby stałe fizyczne są rzeczywiście stałe. Dlaczego miałyby być? Jeśli wszechświat kiedyś powstał, jeśli zmierza do jakiegoś swego końca, bądź nieznanej nam przemiany, to całkiem możliwe jest, że fundamentalne wielkości fizyczne "dryfują" w czasie.

Bardzo długo najdokładniej ludzie potrafili ważyć. Jeszcze dwadzieścia lat temu starano się załatwiać najróżniejsze pomiary za pomocą wagi, bo w wykonaniu laboratoryjnym dawały one odczyt nawet z siedmiocyfrową dokładnością.

Schemat konstrukcyjny tego niezwykłego urządzenia pomiarowego każdy ma w głowie.

 

 

Prosta belka podparta w środku, dwie szalki powieszone w równych (lub nierównych!) odległościach. Niestety, taka waga w praktyce nie da się nigdy zrównoważyć, bo dowolnie mała siła podniesie lub opuści szalki. Prawdziwa waga ma ciut inną konstrukcję. Jest tam jeszcze wskazówka zwisająca w dół, która także coś waży.

 

M – ciężarek, O – punkt podparcia, F1,2,3 – różne, takie sobie siły.

 

Czasami znajdziemy na niej nawet ciężarek, który można przesuwać w górę i w dół. Intuicyjnie wyczujemy, że w takich warunkach powstanie siła (moment siły) przeciwdziałająca wychylaniu się całej konstrukcji z punktu równowagi. Co ciekawe, w małym zakresie będzie ona wprost proporcjonalna do kąta, o jaki ramię wagi zostało odchylone. Im bliżej punktu obrotu (oznaczonego na rysunku czerwoną kropką) znajdzie się nasza masa, (środek ciężkości wskazówki) i im mniejsza będzie, tym mniejszej siły potrzeba do wychylenia ramienia.

Wystarczy dodać drugi ciężarek ponad osią obrotu, by niemal dowolnie regulować położenie środka ciężkości wskazówki. Jest jednak jeszcze jeden prosty sposób na zwiększanie dokładności naszego przyrządu: ostatecznie chodzi o to, by odczytywać położenie belki. Możemy zastosować układ optyczny. Zazwyczaj stosuje się tak zwaną świetlną wskazówkę. Na belce mamy zamontowane lustro, które odbija obraz skali. Ponieważ odległości optyczne możemy sobie mocno wydłużyć, odczytamy bardzo drobne wychylenia.

W praktyce wagi laboratoryjne przy nośności ok. 0.5 kg pozwalają odczytywać różnice masy z dokładnością ok. 0.1 mg, czasami 1/20 miligrama. Lepiej już się nie bardzo daje. Przeszkadzają dryfty termiczne, drgania gruntu. Taka waga to zamknięta szafka umieszczona na osobnym stojaku. Jeśli ma zachować swe własności, najlepiej dopuszczać do niej tylko jedną osobę. Dokładność jest już tak wielka, że często przekracza możliwości eksperymentu. Gdy wstawimy np. na szalkę coś mokrego, choćby preparat biologiczny, to w trakcie pomiaru zaobserwujemy ubytek masy: widzimy efekt parowania wody. Wagi takie z reguły mają zamontowane na stałe komplety odważników, które specjalny układ mechaniczny kładzie na ramiona. Inaczej nie wyplątalibyśmy się z problemami zmiany ich masy na skutek zabrudzeń, przypadkowych uszkodzeń itd.

Współcześnie wszyscy chcą pracować z wagami elektronicznymi. Niestety, choć są bardzo łatwe w obsłudze, to ich dokładność nie jest wcale lepsza od mechanicznych konstrukcji, przy czym cena bywa na ogół znacznie większa dla najlepszych dokładności. Przyczyna jest dość banalna: wagi elektroniczne w wykonaniu laboratoryjnym są tak naprawdę hybrydami, posiadają mechaniczny układ i przetwornik wielkości mechanicznej na elektryczną. Jest to więc ciągle ta sama konstrukcja, tylko inaczej zrealizowano odczyt.

Dokładnym wagom zawdzięczamy wiele zaskakujących nieraz odkryć. Tak na przykład wag używano do skalowania amperomierzy. Rzecz dziś jest oczywista. Wiemy, że istnieje ładunek elementarny, przenoszony przez elektron. Jeśli więc zaczniemy prowadzić jakąś elektrolizę, choćby rozkładać wodę, to ściśle określona ilość ładunku da nam zawsze ściśle określone ilości wydzielonych substancji.

Doświadczenia Michaela Faraday’a nad elektrolizą, w tym banalne ważenie elektrod, dało początek poprawnym wyobrażeniom o elektryczności, która była wówczas "fluidem". Tymczasem okazało się, że mamy z czymś bardzo mocno powiązanym z całą materią. Prawo Faraday’a dziś działa niejako w drugą stronę. Gdy chcemy "z definicji" wyznaczyć ilość ładunku, jaka przepłynęła przez obwód, wstawiamy w niego elektrolizer, po czym po upływie określonego czasu ważymy najczęściej miedziane elektrody.

 

Wszelkiego rodzaju – dziś już wychodzące z użycia – mierniki wychyłowe prądu są potomkami innej konstrukcji do ważenia, wagi sprężynowej. Tu taki niuans: waga z szalkami i belką to urządzenie, które w naszych warunkach dokonuje tak naprawdę porównania mas. Jej niezbędnym elementem składowym jest nasza planeta Ziemia, która uczciwie, z równym przyspieszeniem, przyciąga obie porównywane masy (coś co ważymy i odważniki). Waga sprężynowa to miernik siły. Inaczej mówiąc ( ciągle przypominam, miłośnik SF musi o tym wiedzieć!), waga szalkowa na Księżycu dobrze pokaże 1 kg cukru, podczas gdy sprężynowa oszuka: wyjdzie, że cukru jest za mało.

Mierniki wychyłowe opierają swą konstrukcję na dwu zjawiskach: z jednej strony na prawie Hooka, które mówi, że siła potrzebna do wywołania zniekształcenia sprężystego ciała jest wprost proporcjonalna do wielkości zniekształcenia (w pewnym zakresie!) z drugiej na proporcjonalności siły działającej na przewód z prądem w polu magnetycznym do wielkości tego prądu. Jeśli zadbamy, by siły działały w przeciwnych kierunkach, to w pewnym momencie się zrównoważą. Miernik wychyłowy zazwyczaj ma ruchomą cewkę umieszczoną w szczelinie magnesu wytwarzającego ładne radialne pole magnetyczne. Cewkę podtrzymują sprężyny. W precyzyjnych miernikach była ona ułożyskowana tak jak kółka w zegarku na specjalnych rubinowych panewkach. Pomysł bardzo dobry, im cieńsza ośka, tym mniejsze siły mogły powodować jego wychylenie, tym był czulszy. Niestety, także tym wrażliwszy na wszelkiego rodzaju wstrząsy i uderzenia.

Sprawa ośki wymaga nieco wyjaśnień. Otóż istnieje coś takiego, jak tarcie. Zjawisko ma dość paskudną własność. Mianowicie gdy chcemy jakiś przedmiot ruszyć z miejsca, np. wlokąc go po ziemi, to siła potrzebna, aby zaczął się przemieszczać, jest większa od siły, której potrzebujemy do utrzymania go w ruchu. To zjawisko było przyczyną powstania systemu ABS w samochodach. Gdy kierowca "depnie" po hamulcu i spowoduje zablokowanie kół, siła hamowania mocno maleje, układ automatyki stara się utrzymać koła na granicy zablokowania. W ośce przyrządów pomiarowych jest inny problem: gdy miernik pokaże jakąś wartość i wskazówka się zatrzyma, to nie wskaże zmian, o ile nie przekroczą one pewnej minimalnej wartości potrzebnej do zerwania siły tarcia spoczynkowego.

W nowszych miernikach (ale też już przestarzałych) powieszono cewkę na napiętej taśmie stalowej. Za jednym zamachem pozbyliśmy się problemów z tarciem i łamaniem ośki. Taśmowe zawieszenie okazało się o wiele odporniejsze.

 

B – pole magnetyczne, F – Siła działająca na ramkę z prądem (uzwojenie), prostopadle do kierunku pola magnetycznego, T– elastyczne taśmy stalowe, na których się cała konstrukcja obraca.

 

O ile w wadze mieliśmy do czynienia z dokładnością, to tu zaledwie z fantastyczną czułością. Różnica w tym, że na wadze potrafimy porównać dwie masy i kreślić wartość masy mierzonej z dokładnością 0.1 mg, gdy ona sama liczy sobie kilkaset gramów, to mierniki potrafią zaledwie reagować na bardzo małe prądy. Dokładność ich pomiaru rzadko przekraczała 1/1000 największej wskazywanej wartości. Mówi się, że klasa miernika wynosiła 0,1 procenta. W tej dziedzinie jednak najczęściej chodziło właśnie o czułość czyli o reagowanie na jak najmniejsze prądy.

 

Najlepsze przyrządy budowano w oparciu o pomysł z tasiemką i lusterkiem. Pomysł który sięga czasem powstania jeszcze Coulomba i jego kwarcowej wagi sił. W szkole dość sporo mówi się o jego prawie i ciut wspomina o tym jak zmajstrował piekielnie czuły dynamometr. Coulomb (Charles Augustin (1736-1806), fizyk francuski, oficer wojsk inżynieryjnych, członek Akademii Nauk, podaję za Encyklopedią Wiem), badał właśnie zależność siły elektrycznego oddziaływania od odległości. W tym celu zawiesił na kwarcowej nici ramię z kulkami, które były przyciągane lub odpychane przez kulki nieruchome. O ile rozumiemy to, że na nici, że wyznaczał jej współczynnik sprężystości, to dlaczego na kwarcowej, zazwyczaj już w podręcznikach się nie pisze. Otóż dlatego, że ze szkła kwarcowego dość łatwo wyciągnąć taki wąs i to, przy pewnej wprawie, bardzo cienki. Kwarc nie pęka, bo ze względu na bardzo niski współczynnik rozszerzalności termicznej nie tworzą się w nim termiczne naprężenia.

Tak zwany galwanometr lusterkowy (i jego specjalna odmiana zwana galwanometrem balistycznym, która w sprytny sposób bywa stosowana do pomiaru ładunku przepływającego podczas krótkich impulsów prądu) są zbudowane tak samo, jak zwykły wychyłowy miernik z cewką zawieszoną na stalowej taśmie. Różnica tkwi w tym, że taśma jest ustawiona pionowo, ramka zwisa na niej, dzięki temu można zastosować długi odcinek. Im dłuższy, tym mniejsza siła jest potrzebna do jego wychylania. Do ramki jest przymocowane lusterko, które realizuje funkcję świetlnej wskazówki. Tego typu aparaty nadają się do mierzenia prądów o natężeniach ok. miliardowej części ampera. Ich użycie jest jednak dość skomplikowane, muszą być na stałe montowane w pomieszczeniach w których już innej aparatury lepiej nie montować. Wymagają sporo miejsca, oświetlaczy, ekranów lub odczytu poprzez lunety. Dziś są już historią. Elektroniczne tak zwane elektrometry są około 10 000 razy czulsze.

Bardzo podobną konstrukcję ma przyrząd do wyznaczania stałej grawitacyjnej (metoda wagi skręceń Henry Cavendisha 1798r.)

To także miernik piekielnie małej siły. Działa tak samo jak galwanometr, dzięki długiej stalowej taśmie. Na niej są zawieszone małe ołowiane kule, do których zbliżamy duże nieruchome. Tak jak w galwanometrze ruchy naszego aparatu obserwujemy dzięki przymocowanego do ramienia lusterka. Pamiętając, że stała grawitacyjna wynosi 6,67 . 10-11. m 2/kg2, można oszacować, że używając do eksperymentu kule o masie 1 kg, oddalone o 5 cm, będziemy musieli mierzyć siły na poziomie 0.001 mG. Jak widać, czułość kilkadziesiąt razy lepsza niż w laboratoryjnej wadze, ale dokładność pomiaru niestety, niekoniecznie. W przyrządzie, jaki zamontowano na pracowni, w której pracuję, stalowa taśma ma długość ok. 20 cm, ramię, na którym wiszą kule ok. 5 cm. Urządzenie po dołożeniu dużych zewnętrznych kul wykonuje drgania o okresie 10 i pół minuty. Nowa równowaga ustala się po około 2 godzinach.

 

Te mechaniczne rozważania warto zakończyć jedną uwagą: a dlaczego mianowicie ciągle ich bohaterem jest stalowa taśma? Znowu technologia. Powiedzmy, że mamy drut o grubości 0.1 mm. Nie jest to jakiś specjalny supercienki drut. Bez najmniejszego kłopotu możemy go wyprodukować. Weźmiemy teraz do ręki młoteczek i zaczniemy go rozklepywać na kowadełku. Przy odrobinie uwagi, otrzymamy z niego w miarę równej grubości taśmę. Wystarczy tylko uważnie obserwować efekty klepania i pilnować, by miała taką samą szerokość. Jeśli drut 0.1 mm rozklepiemy na taśmę o szerokości 1 mm to jej grubość spadnie gdzieś do ok 1/100 milimetra. To już sztuka! Przy odpowiedniej technologii zachowa ona na rozrywanie wytrzymałość drutu 0.1 milimetra (całkiem sporo około 0.5 kG siły) i jednocześnie stanie się o wiele bardziej elastyczna.

Za dokładnymi pomiarami kryją się pewne idee, które powtarzają się, mimo tego, że dotyczą całkiem różnych dziedzin. Waga dokonuje porównania dwu mas. Trochę inaczej mówiąc, jest to pomiar różnicowy, belka pozwala nam porównywać ze sobą dwie siły. Pomiary różnicowe bardzo dobrze sprawdzają się w elektronice.

 

Czymś, co przez lata spędzało sen z powiek i młodym radioamatorom, i starym wyjadaczom był tak zwany opór wewnętrzny woltomierza. Rzecz może okazać się zawiła, lecz spróbuję nieco ją rozjaśnić. Woltomierz powinien mierzyć siłę, z jaką działa pole elektryczne w badanym obwodzie na jednostkowy ładunek elektryczny (uwaga to NIE jest definicja napięcia!) Najlepszym woltomierzem (dla stałych napięć) byłby aparat, w którym pod wpływem elektrostatycznego przyciągania, przemieszczałyby się jakieś elektrody, czyli znowu rodzaj wagi. Niestety, takie konstrukcje daje się wykonywać dla sporych, rzędu kilkuset woltów napięć, bo owe siły elektrostatyczne są bardzo małe. W praktyce więc woltomierz to amperomierz tylko z włączonym w szereg wielkim oporem. Niestety, taka konstrukcja prowadzi do "upustu" prądu z obwodu i czasami całkowitego zafałszowania pomiaru.

Fizycy znają konstrukcję zwaną kompensatorem. Pomysł jest następujący. Po pierwsze, mamy cholernie czułe urządzenie, które pokaże nam, że jest jakiś przepływ prądu, czyli galwanometr lusterkowy. Nie musi on tu wskazywać dobrze wartości, wystarczy, że pokaże, że prąd w ogóle jest. Galwanometr podłączymy jednym końcem do regulowanego źródła napięcia, a drugim do badanego punktu obwodu. Jeśli napięcie źródła będzie równe temu mierzonemu, galwanometr pokaże zero. A, że nie oszukuje, łatwo sprawdzić przerywając obwód: położenie plamki świetlnej nie powinno się zmienić. Kolejna część pomysłu, to jak zrobić to źródło napięcia. Wystarczą dwa oporniki w tym jeden regulowany. W praktyce stosuje się szereg oporników i przełączniki. Wsadzone do jednej skrzynki w szeregu 1, 10, 100, 1000 omów tworzą tak zwany opornik dekadowy. Bardzo łatwo ustawić z góry zadaną wartość na przykład 4973 omy. Mając dokładną wartość oporu, znajdziemy napięcie, pod warunkiem, że bokiem nie ucieka nigdzie prąd. Ale to jest właśnie warunek zrównoważenia kompensatora. To jest także znakomity układ woltomierza, który nie kradnie ładunku z mierzonego układu. Ta maszyna była swego rodzaju pierwszym cyfrowym woltomierzem w dalekiej elektronicznej przeszłości, gdy o technice cyfrowej marzyli pisarze SF. Kompensator nie upuszczał prądu z obwodu, był znakomitym miernikiem, ale niestety kłopotliwym. Maszyna zawierała rtęciową baterię, która odznaczała się bardzo dobrą stałością napięcia i zasilała układ oporników. Całość miała rozmiary i wagę sporej walizy. Ponadto aparat kompletnie nie nadawał się do pomiarów napięć zmieniających się w czasie. Dlatego w powszechnym użyciu królowała konstrukcja zwykłego woltomierza, który naprawdę był zwykłym amperomierzem z dużym opornikiem.

Analogie pomiędzy wagą i kompensatorem są chyba oczywiste, w wadze kalibrujemy odważniki, w kompensatorze oporniki. W wadze dokładność jest tym większa, im mniejszą różnicę ciężaru może ona pokazać, podobnie w kompensatorze, tym dokładniej mierzymy napięcie, im czulszy jest galwanometr. Niestety także i czuła waga, i czuły kompensator, to urządzenie bardzo łatwe do uszkodzenia. Tym łatwiejsze, im czulsze.

Pełną analogię między elektroniką i mechaniką możemy przeprowadzić w tak zwanym mostku Wheatstone’a, urządzeniu do pomiaru oporu elektrycznego. Nie będę tu przynudzać i opisywać szczegółowo konstrukcji. Chcę jednak zwrócić uwagę na pewien szczegół, o którym rzadko przeczytamy w książkach. W klasycznej konstrukcji zasadniczym elementem jest kawał drutu oporowego, po którym przesuwamy styk. Z jego położenia odczytujemy mierzoną wartość. Geneza tego rozwiązania tkwi w technologii metalurgicznej. Po pierwsze, przetop metalu gwarantuje, że odlew będzie miał w miarę jednakowy skład. Po drugie, technika wyciągania drutu zapewnia jego jednakową średnicę. Wniosek: w czasach, gdy królowały dymarki, gdy żelazo nie bywało przetapiane, tylko przekuwane, gdy nikomu nie śniły się wyciągarki do drutu, nie można było nawet marzyć o mostku Wheatstone’a. Nie można było też marzyć o skonstruowaniu kompensatora napięcia.

Tak naprawdę to jest jeszcze jedna przyczyna. Aby to-to działało, to oporniki muszą być wykonane z czegoś, co nie zmienia wartości oporu pod wpływem temperatury. Potrzebne były specjalne stopy, jak manganin.

Podobnie jest ze stalową taśmą w galwanometrze. Nie da się jej zrobić z jakiejkolwiek stali. Nie można jej także tak naprawdę "wyklepać" . Tak więc musimy się pogodzić z faktem, że dokładne pomiary są wynikiem w miarę zgodnego postępu wielu dziedzin wiedzy. I na odwrót, nie byłoby owego postępu bez tych pomiarów. Zapewne jest to jedna z zasadniczych przyczyn tego, że zrobienie czegokolwiek nowego jest tak trudne.

 

Wracając do naszej wagowej metody, chciałbym przypomnieć z poprzedniego artykułu, że pomiar położenia sprężynki, na której wisi ostrze mikroskopu siły atomowej, także odbywa się metodą różnicową. Światło pada na dwie fotodiody umieszczone blisko siebie. Jeśli tylko całość wykonamy dość porządnie, to gdy połówki plamki lądują na sąsiednich fotoczułych powierzchniach, możemy zarejestrować zmianę położenia świetlnego zajączka o wiele mniejszą od jego średnicy. O ile, zależy tylko od konstrukcji. Ale na różnicowym pomiarze przesunięcia nie koniec. Także współczesne mikroskopy tunelowe mają w sobie zazwyczaj układ elektroniczny, którego działanie polega na tej samej zasadzie. To różnicowy wzmacniacz na wejściu. Jego zasadniczą funkcją jest kompensacja termicznych dryftów, które są zmorą urządzeń na tranzystorach. Nie zamierzam tu wchodzić w szczegóły, (przynajmniej nie tym razem) gdyż wiem, że większość osób na samą myśl o elektrycznych obwodach dostaje gęsiej skórki. Powiem jednak, że pomysł jest bardzo podobny: jeśli porównamy prądy z dwu tranzystorów ( porównamy, czyli odejmiemy je) to możemy mieć nadzieję, że składowe prądu wywołane zmianami temperatury będą podobne. A więc w wyniku odejmowania się zniosą. Byle tylko tranzystory miały bardzo podobne charakterystyki temperaturowe i podobne temperatury. Te dwa warunki załatwia znowu technologia, tym razem nie odlewnicza, ale produkcji układów scalonych. Dzięki temu, że płytka krzemu, na jakiej umieszczamy oba tranzystory jest bardzo mała, ich temperatura będzie różniła się najwyżej o kilka setnych stopnia (gdy specjalnie nie zepsujemy czegoś). Ponieważ zaś będą wykonywane z tych samych odczynników, będą miały taką samą historię, jest duża szansa, że okażą się prawie jednakowe. Dzięki temu można zarejestrować zmiany prądu znacznie mniejsze od tych tak zwanych dryftów temperaturowych.

 

Tensometry krzemowe są przykładem niemal karkołomnych inżynierskich wyczynów na polu technologii różnicowego pomiaru. Tensometr to coś do pomiaru siły. Można na przykład przykleić taki czujnik do belki i rejestrować jej wygięcie. Możemy także podziałać na tensometr ciśnieniem powietrza i zrobić sobie elektroniczny barometr. Działa to na zasadzie zmiany oporu krzemowej płytki na skutek deformacji. Dowcip w tym, że w krzemie ten parametr jest bardzo czuły na temperaturę. Stosujemy więc dwie płytki, czasem cztery dla skutecznego porównania. Stosunek zmian wywołanych siłami i dryftami termicznymi dochodzi do tysiąca, a mimo to urządzenie mierzy dalej z sensowną, kilkuprocentową dokładnością.

 

Opowieść o dokładności wypada zakończyć jakąś konkluzją, albowiem oczywiście z samego zebrania szeregu przykładów niewielki pożytek. Otóż zacząłem udowadniać sensowność i celowość dokładnych pomiarów od astronomii. Gdy oglądamy ryciny przedstawiające urządzenia obserwacyjne takich astronomów jak Tycho Bache (1546 – 1601) czy Jana Heweliusza (1611-1687), zobaczymy wielkie, czasami kilkunastometrowe konstrukcje. Astronomowie tamtych czasów starali się zwiększać dokładność pomiaru kątowego w intuicyjny sposób: wydłużając ramiona instrumentów. Wydawało się to dość oczywiste, bo wówczas długość łuku przy tym samym kącie jest proporcjonalnie większa. Jednak w pewnym momencie, gdy zastosowano soczewki, trafiono na dość niespodziewaną przeszkodę: obraz obserwowanych obiektów rozmywał się. Długie lunety, zgodnie z całą wiedzą o działaniu soczewek, powinny dawać mocniej powiększony obraz. Dawały, lecz rozmyty. Przyczynę wyjaśniła dopiero falowa teoria światła. Dziś, aby uzyskać wielką dokładność pomiaru położenia obiektu na niebie, posługujemy się teleskopami o wielkich zwierciadłach. Gdy to nie wystarcza, stosujemy tak zwaną technikę syntezy apertury. Polega ona na dodawaniu do siebie obrazów z teleskopów oddalonych od siebie, w technice optycznej do 100 metrów jak w obserwatorium na górze Paranal (zobacz www.eso.org/paranal) Dziś wiemy, że o dokładności decyduje właśnie średnica prawdziwego czy wirtualnego obiektywu, którym obserwujemy obiekt. Samo wydłużanie ramion niczego nie poprawi.

Wniosek z tego wszystkiego, że niestety owe dokładne pomiary nie są bynajmniej pochodną białych kitli czy wyjątkowej staranności. Współcześnie dawno nie mają związku z precyzją obserwatora, jego wyjątkowo bystrym wzrokiem czy... nie trzęsącymi się rękami. Do zwiększania precyzji są potrzebne dwie rzeczy: znakomita znajomość tego, co się mierzy, i dobre pomysły. Podporą jest tu wiedza, długie siedzenie w bibliotece. Upór i staranność na pewno mogą pomóc, ale niestety, wcale nie muszą. Dokładny pomiar to poważna wiedza. Choć niestety, bywa sztuką dla sztuki.

 

Waga laboratoryjna z końca XIX wieku. Zwraca uwagę kratownicowa konstrukcja belki, na której wiszą szalki.

 

Nowoczesna (z lat 60-tych) konstrukcja wagi laboratoryjnej. Całość obudowana dla ochrony przed dmuchaniem laboranta. Waga posiada jeszcze masywniejszą niż poprzednia belkę oraz skomplikowany mechanizm poruszający odważniki. Dokładny odczyt położenia skali odbywa się optycznie, na widocznej w dole obudowy matówce.

 

Miernik ze ramką na ośce. 1 – ośka. 2 – sprężyna. 3 – zamocowanie, gwintowany czop osi.

 

Widok ustroju pomiarowego miernika z ramką z uzwojeniem, zamocowaną na stalowej taśmie. M – magnes. Strzałka pokazuje fragment ruchomej ramki z uzwojeniem (cewki).

 

Powiększenie, na którym można dostrzec naszą stalową taśmę (wskazuje ją czerwona strzałka).

 

Ogólny widok na stanowisko, na którym studenci usiłują wyznaczyć stałą grawitacyjną.

 

Zbliżenie maszynerii do wyznaczanie stałej grawitacyjnej. Można dostrzec taśmę, na której wisi ramię z lusterkiem i kulami.

 

Stół z mostkiem Wheatstone’a w ćwiczebnej wersji. Czerwona strzałka pokazuje listwę z rozciągniętym pomiarowym drutem.

 




 
Spis treści
451 Fahrenheita
Literatura
Bookiet
Recenzje
Zatańczysz pan...?
Spam (ientnika
Wywiad
Hor-Mono-Skop
Konkurs
Adam Cebula
Łukasz Orbitowski
Romuald Pawlak
Piotr K. Schmidtke
Andrzej Pilipiuk
Adam Cebula
W. Świdziniewski
W. Świdziniewski
Tadeusz Oszubski
Satan
Paweł Laudański
Adam Cebula
Adam Cebula
B. Anterionowicz
Eryk Remiezowicz
Marcin Mortka
P. Nowakowski
Tadeusz Oszubski
Jolanta Kitowska
Dawid Brykalski
XXX
Wit Szostak
M. L. Kossakowska
T. Kołodziejczak
Brian W. Aldiss
Antologia
 
< 24 >