strona główna     -     okładka numeru     -     spis treści     -     archiwum fahrenheita     -     napisz do nas
 
Adam Cebula Para - nauka i obok
<<<strona 17>>>

 

W oparach (wś)ciekłego azotu

 

 

Przyznam się szczerze, że nieco z zaskoczenia RedAkcja zapodała mi temat para-nauki "wrocławskiej". Co napisać? Bodaj najgorszym rozwiązaniem dla czytelnika i najlepszym na wszelkiego rodzaju imprezy "ku czci" jest wysmarowanie rejestru osiągnięć i wykazanie, że w produkcji stali zajmujemy dziesiąte miejsce w świecie. Wszyscy słuchacze śpią, nikt nie zadaje pytań, i przez nikogo nie niepokojony prelegent spokojnie składa swoje papiery, inkasuje lub nie i wychodzi.

Lepiej jednak opowiedzieć coś ciekawego, choćby "wrocławskość" była tylko pretekstem. A więc zapraszam na luźną gawędę wokół niskich temperatur. Kriogenika, kriofizyka to wrocławskie specjalności. A dowodem na to jest na przykład Instytut Niskich Temperatur na Pruchnika. No i może dość jubileuszowych wtrętów, przejdźmy do rzeczy.

Jak to się mówi "nietrywialnym zagadnieniem" jest "co to naprawdę temperatura". Tak teoretycznie to każdy z nas wie. Przynajmniej te trzydzieści lat temu uczono już w podstawówce, że to ruch cząsteczek. Jeszcze na początku XIX wieku sądzono, że istnieje specjalny fluid ciepła, "cieplik". Niejaki Carnot Sadi Nicolaus Leonard (1796-1832), syn francuskiego generała Carnota Lazarea Nicolasa, który także znalazł swe miejsce w historii (m.in. twierdzenie cosinusów), w oparciu o to fantastyczne pojęcie zbudował teorię, dzięki której dziś możemy ocenić sprawność maszyn cieplnych. (Dylemat lingwistyczny, jak pisać: nazwisko Carnota syna zostało całkowicie spolszczone, tu jednak mamy i ojca, więc?) Warto sobie uzmysłowić, że pierwotnie uważano "ciepło" i "zimno" za coś odrębnego, w szczególności nie uświadamiano sobie, że "zimno" to mało ciepła. Wprowadzenie fluidu ciepła, którego dokonał żyjący w latach 1728-1799 Joseph Black pchnęło sprawę termodynamiki do przodu – bo tak dziś nazywamy naukę zajmującą się ciepłem. Najważniejsze, że uczony ten dokonał rozróżnienia pomiędzy temperaturą i ilością ciepła. Jest to do dziś dla wielu ludzi bardzo trudne. W 1718 Ernest Stahl wprowadził flogiston, zaś w 1789 roku A. L. Lavosier wprowadził cieplik i zbudował jego kompletną teorię. Przepływ ciepła, zwiększanie się temperatury, wszystko to było wyjaśniane ruchem i zmianami ilości nieważkiej, niezwykle trudnej do zauważenia substancji, która miała napełniać wszystkie materialne ciała. Prace Carnota syna były podjęte, jak głosi legenda, na zlecenie fabrykantów, którzy byli zainteresowani tym, by maszyny parowe "pożerały" jak najmniej węgla. Warto sobie także uzmysłowić, że cykl Carnota, którym dziś są katowane dzieci z największym dla nich (prac) szacunkiem w szkole, był ukoronowaniem długotrwałego rozwoju teorii cieplika, która – jak z emfazą opowiadają humaniści, przytaczając anegdotę o wierceniu armat (1798 B.T. Rumford) – jest całkowicie błędna. Niektórzy nawet nabijają się z pomysłu fluidów: a przecież w przypadku elektryczności sprawdziła się ona całkowicie. Gdyby nie było cieplika, byłoby kiepsko, nawet mimo tego, że naprawdę go nie ma...

Swoją drogą, bardzo mało mówi się o fundamentalnym dla obalenia teorii cieplika doświadczeniu B. Davy’ego, w którym doprowadził on do stopienia dwu kawałków lodu poprzez ich pocieranie. Cóż, prawdopodobnie jest on (eksperyment) za trudny dla popularyzatorów do zrozumienia...

Jak już kiedyś pisałem, temperatura jest dość fatalną fizyczną wielkością. Jest ona niby bardzo fizjologiczna. Pomiaru możemy dokonać, wsadzając palec do garnka. Otrzymamy całkiem porządną odpowiedź, czy coś jest zimniejsze od ciała, czy cieplejsze. Puryści zauważą jeszcze, że istnieje dość wąski zakres w pobliżu 43 stopni Celsjusza, gdy zamiast ciepła odczuwa się zimno, takie dowcip fizjologii, ale to naprawdę drobiazg w porównaniu do błędów, jakie popełnimy, gdy próbujemy na przykład na oko oceniać odległość do Księżyca. Wszelako nasze ciało oszukuje nas w sytuacjach o wiele bardziej prozaicznych. Wystarczy, że zawieje wiatr, a "ciepło" zmieni się w "zimno". Zazwyczaj w naszym klimacie powietrze nie nagrzewa się do 36 stopni. Zazwyczaj jest w lecie do 28 stopni. Gdy upały sięgną 33 stopni Celsjusza, wiatr zamiast chłodzić może zacząć subiektywnie nagrzewać. Przyczyna kłopotów pomiaru temperatury podczas wiatru, tkwi w tym, że przy skórze tworzy się milimetrowej grubości warstwa ciepłego powietrza. Dmuchanie, które przegania ją, daje wrażenie zimna. Jest tu jeszcze jeden fizyczny niuans: strumień powietrza, który wydmuchujemy z ust na skutek działania prawa Bernuliego porywa ze sobą chłodne powietrze. Przy samych ustach nie odczujemy wrażenia chłodu, można to sprawdzić na suchych dłoniach. Aby się ochłodziły, trzeba je odsunąć od warg. Temperatura wydmuchiwanej zawartości płuc jest bliska 36 stopniom. Dopiero mieszanka z otaczającymi nas, chłodnymi gazami daje strumień, który jest w stanie przegonić z powierzchni skóry palców ciepło. Warto też chwilę uwagi poświęcić owemu prawu (Bernuliego), dzięki któremu działa pompka wodna. Otóż ma ono wiele wspólnego z temperaturą, bo gdy zamienia się energia gazu (także cieczy) zmagazynowana w ciśnieniu, na energię kinetyczną, inaczej mówiąc, gdy wydmuchujemy z ust sprężone przez nasze płuca powietrze, to zamieniamy pewną wielkość termodynamiczną na energię kinetyczną gazu. Ta wielkość to ciśnienie. Otóż, jak wiemy ze szkoły, zarówno temperatura, jak i ciśnienie są wynikiem nieuporządkowanego ruchu cząsteczek.

Drobiazg, dlaczego mówimy o cząsteczkach nie o atomach? Bo gazy zazwyczaj występują jako dwuatomowe czyli mamy "O dwa" – cząsteczkę tlenu złożoną z dwu atomów. To też trzeba zapamiętać. Niestety, dla zrozumienia niuansów zjawiska temperatury, a zwłaszcza tego, jak się przy niej majstruje, niezbędne jest połączenie ze sobą bardzo wielu drobnych faktów. Zapewne dlatego fizyka jawi się ludziom jako taka trudna nauka. Niestety, nie da się tego ominąć, musimy wiedzieć: gazy to cząsteczki złożone z dwu, czasami więcej atomów tego samego pierwiastka. Zostawmy filozofom rozważania, czy to związek chemiczny, czy coś innego.

Powróćmy do naszego prawa Bernuliego. Takie cudo, które – jak się chwilę zastanowić – jest oczywiste: ciśnienie w strudze gazu, który wypływa ze zbiornika (np. naszych płuc) jest niższe niż w tym zbiorniku. Musi tak być, bo inaczej mielibyśmy prostą drogę do zbudowania perpetuum mobile. Wynika to z prawa zachowania energii: "potencjalna" energia sprężonego gazu zamienia się na energię kinetyczną. Gdyby było inaczej, moglibyśmy wypuścić gaz ze zbiornika do rury, rurę skierować na powrót do niego, a w strudze gazu umieścić turbinę: ruch trwałby wiecznie.

Na swój sposób gaz jest najlepszym modelem dla rozważań o temperaturze. Oraz o ochładzaniu. Otóż zacznijmy od tego, że temperatura i objętość gazu są ze sobą powiązane bardzo prosto: tak, że nawet urządzenie zwane termometrem gazowym jest wręcz definicyjnym urządzeniem dla pomiaru temperatury: objętość jest wprost proporcjonalna do temperatury. (Przemiana gazowa przy stałym ciśnieniu!) W XIX wieku, wykonując pomiary objętości przy zmieniającej się temperaturze, uczeni przewidzieli istnienie zera bezwzględnego. Zmniejszamy temperaturę, objętość gazu maleje. Możemy wykreślić linię prostą, która gdzieś się przetnie z osią X, co oznacza, że objętość zmaleje do zera. Na osi Y odczytamy wartość odpowiadającej temu punktowi temperatury. Dokładne pomiary dały wartość – 273,16 stopnia Celsjusza. Pierwsze eksperymenty w tej materii zostały przeprowadzone przez J. A Charlesa.

Trzeba sobie wyobrazić, po jak grząskim gruncie stąpali uczeni XIX wieku badający z pozoru najzwyklejsze na świecie rzeczy, jakim jest zmiana objętości gazu wraz z temperaturą. Z pomiarów wynikała bowiem owa zerowa objętość: taki drobiazg, w jakiejś piekielnie niskiej mitycznej temperaturze zera bezwzględnego gaz powinien zniknąć! I to bynajmniej nie był wynik jakiegoś nadzwyczaj chytrego rozumowania, zwariowanej teorii, ale żelazna konsekwencja prostych pomiarów, z porządnym opracowaniem wyników. Idealnie nadawała się tu znana z opowieści o tym, skąd się biorą czasami dzieci, prosta regresji. Nad tym faktem powinni podumać chwilę wszelkiego rodzaju historycy, znawcy kultury, albowiem ów fakt, zupełnie szokujący, miał być może zasadniczy wkład w obowiązującą dobrze ponad sto lat później podczas tryumfu postmodernizmu fascynację pewną dość zagmatwaną wielkością termodynamiczną, o wdzięcznej nazwie entropia.

To nader niepokojące pojęcie, prowadzące nieuchronnie do śmierci termicznej wszechświata, o której to obwieścił demoniczny nieco uczony Clausius Rudolf Emanuel (1822-1888). Jak więc widać, banalne zajęcia jak pocieranie kawałków lodu, obserwacje wiercenia luf armatnich, czy wreszcie dylematy fabrykantów, których parowe machiny pożerały ogromne ilości paliwa, doprowadziły do – jak to się mówi – brzemiennych w filozoficzne wnioski obserwacji.

Skoro już wiemy od dawna, że temperatura to średnia energia kinetyczna cząsteczek ciała, możemy bezpiecznie powiedzieć, co w fizyce rozumie się pod pojęciem ilości ciepła. To inaczej suma energii kinetycznych wszystkich cząsteczek. Nie trudno zauważyć, że różne choćby substancje chemiczne mogą wobec takiego obrotu spraw, na skutek dostarczenia takiej samej ilości energii do takiej samej masy substancji, ogrzać się do różnych temperatur. Winna temu jest ich budowa, wieloatomowe drobiny mogą zacząć wykonywać ruchy "wewnętrzne", drganie (zbliżanie, oddalanie się) atomów, obracanie się. Te ruchy nie wpływają na np. wzrost ciśnienia lub objętości gazu, które jest miernikiem temperatury. Sprawy te tłumaczę tu mocno na przełaj, ale trzeba przyjąć do wiadomości istnienie czegoś, co się zowie ciepłem właściwym ciała. Mówi ona nam dziś, ile dżuli energii musimy zużyć na podniesienie temperatury 1 kilograma substancji o jeden stopień Celsjusza.

Powróćmy jednak do filozofii, do spraw górnych i chmurnych. Czas najwyższy na sformułowanie zasady z pozoru oczywistej dla termodynamiki: ciepło przepływa od ciała cieplejszego do zimniejszego. Proces ten trwa do całkowitego wyrównania się temperatur. Konsekwencją powyższego jest to, że niemożliwy jest samoistny przepływ ciepła od ciała zimniejszego do cieplejszego.

Odkrycie fascynującej stałej fizycznej w postaci zera bezwzględnego wyzwoliło, jak się to ładnie mówi, poznawczą potrzebę uzyskania niskich temperatur. Tymczasem, jak powiedzieliśmy przed chwilą, nic nie zechce się "samo z siebie" oziębić. O ile w drugą stronę łatwo zrobić skuteczną wycieczkę, trudno np. powiedzieć, kto pierwszy użył skupionych za pomocą soczewki promieni słonecznych do uzyskania wysokiej temperatury, od tak dawna jest znana ta metoda, o tyle krok w tył wymaga naprawdę specjalnych zabiegów.

Pewne sposoby były znane już od dawna, jednakże nie bardzo było wiadomo, dlaczego one działają. Tak na przykład mieszanina lodu z solą, lodu z alkoholem gwałtownie ochładza się. O ile uzyskiwane temperatury nie są fascynująco niskie, to na pewno ciekawe jest to, że dzieje się coś, jakby wbrew pierwszej zasadzie termodynamiki. Podobnie ochładzają się parujące ciecze. Zarówno one jak i mieszaniny chłodzące uzyskują temperatury niższe od otoczenia. Może więc jest to właściwa droga? Bo umieścimy w dużej beczce z lodem wymieszanym z solą mniejsze naczynie z lodem i solą... Już na pierwszy rzut oka widać, że coś nie tak. Niestety, temperatura zatrzyma się na lekkim mrozie, minus kilkunastu stopni. Z cieczami jest trochę lepiej. Jak zapewne pamiętamy ze szkoły, polscy uczeni Zygmunt Wróblewski i Karol Olszewski (9 IV 1883), stosując tak zwaną metodę kaskadową, skroplili powietrze.

Jej działanie opiera się na tym samym, co powoduje chłodnicze działanie mieszaniny lodu z solą: istnieniu tak zwanego ciepła przemiany fazowej. No i zastosowaniu różnych substancji w beczce i garnku. Otóż np. do stopnienia grama lodu potrzeba 80 kalorii ciepła (jestem staroświecki, żeby przejść na dżule trzeba przemnożyć przez 4.19) i przy tym temperatura nie zmienia się ani trochę, tylko woda zamienia się w lód. Podobnie jeszcze więcej ciepła potrzeba do zamiany wody w parę wodną (niewidzialny dla oka gaz, gdy widzimy "parę", jest to już skroplona woda w postaci drobniutkich kropelek). Dwaj uczeni zastosowali inne związki chemiczne, chlorek metylu i etylen, który normalnie występuje w postaci gazowej.

Dowcip polega na tym, by obniżyć odpowiednio temperaturę wrzenia. Tak się uprzejmie składa, że dla większości substancji zależy ona od ciśnienia. Jeśli więc mamy coś ciekłego, możemy to coś odpompować (czyli "odessać" pary). Wówczas następuje gwałtowne wrzenie. Wynikiem jest pobieranie ciepła z otoczenia i ochłodzenie cieczy. W ten sposób możemy obniżyć temperaturę garnka z inną substancją, której temperatura wrzenia będzie jeszcze niższa. Następnie odpompowujemy naczynie "wewnętrzne". Tą metodą krakowskim uczonym udało się uzyskać – 160 stopni Celsjusza i skroplić azot.

By jednak przyznać, że nie tylko my Polacy, to pierwszym skroplonym gazem przez M. Van Maruma był amoniak (1799). Faraday skroplił w temperaturze pokojowej, stosując tylko wysokie ciśnienie, chlor i dwutlenek węgla. Co prawda, nie są to niskie temperatury, lecz odkrycie mocno w ich uzyskiwaniu się przydało. Dwaj krakowianie w swej aparaturze stosowali wspomniany etylen skroplony w bardzo podobny sposób: przez sprężenie i ochładzanie mieszaniną wody z lodem.

Trochę nie po kolei, czy raczej przeciw tradycji, dopiero tu wspomnę o temperaturze krytycznej. Wszelako mnie bardziej chodzi o niskie temperatury, ale po co one? Ano właśnie: skoro udało się tak mocno ścisnąć dwutlenek węgla, to próbowano tej sztuki i np. z wodorem i z tlenem i nic, aż do czasu, gdy przyszła odsiecz naszych rodaków (a ściślej w 1881 roku udało się to L. Cailletetowi, ale kiepsko się udało). Przyczyną niepowodzeń była odkryta przez T. Andrewsa temperatura krytyczna, poniżej której substancja zawsze, pod dowolnym ciśnieniem, będzie gazem. A więc, jeśli nie schłodzimy, na nic sprężanie.

Współcześnie do skraplania powietrza stosuje się urządzenia opracowane przez Hampsona i Lindego. Zasada pracy wykorzystuje zjawisko Joule-Thompsona, lecz jest ono nieco zagmatwane, by rozwinąć temat, wynika z istnienia oddziaływań miedzycząsteczkowych Van der Waalsa. Warto się za to skupić na bardzo zwykłym silniku cieplnym wg naszego dzielnego Carno-syna.

Da się tu co nieco pokazać na palcach. Jednym z ulubionych chwytów fizyków jest tak zwany model jednowymiarowy. Powiedzmy, że mamy kulkę na idealnie gładkiej strunie przymocowanej do idealnie sprężystych ścianek. Kulkę rozpędzamy i zaczyna ona biegać po strunie od ścianki do ścianki, odbijając się od nich. Ruch będzie trwał w naszym modelu nieskończenie długo, bo nie ma miejsca, gdzie energia byłaby tracona. Co będzie, gdy zaczniemy wolno jedną ze ścianek odsuwać? Otóż WOLNO. Tak że podczas jej przesuwania kulka wiele razy uderzy o ściankę. Kulka zwolni. Stanie się tak dlatego, że podczas zderzenia z cofającą się przeszkodą, straci część swojego pędu i energii. Odwrotnie, gdy zaczniemy ściankę zbliżać, to w każdym zderzeniu kulka dostanie od niej maleńkiego dodatkowego kopa i przyspieszy. Co to wszystko ma wspólnego z ciepłem? Ano, chyba pamiętamy: im szybciej biegają cząsteczki, tym wyższa temperatura.

Współczesne maszyny chłodnicze o ten pomysł opierają swe działanie. Jest tam jednak pewien niuans. Powiedzmy, że druga ścianka nie jest idealna. Gdy kulka zaczyna w nią za mocno walić, poddaje się. W rezultacie, gdy ścianka "sprężająca" zbliża się, kulka najpierw przyspiesza, lecz po chwili traci swój zapał i porusza się umiarkowanie szybko. A gdy potem "rozprężymy" ją, będzie musiała poważnie zwolnić. Nasz strunowy model wymagałby jeszcze sporo uzupełnień, ale tak to właśnie działa. Sprężarka podnosi ciśnienie czynnika roboczego (najczęściej nieszczęsnego freonu), który przepływa do "kratki" (czarna chłodnica, którą znajdziemy na tylnej ściance lodówki). To odpowiednik tej drugiej "nieidealnej" ścianki, od której odbijała się kulka. Tu sprężony gaz traci swą energię. Następnie trafia do parownika, gdzie ulega gwałtownemu rozprężeniu. Tu jestem nieprecyzyjny, gaz powinien trafić na jakąś maszynę cieplną, ale jest "coś około tego" i następuje jego mocne ochłodzenie. Potem sprężarka zasysa go, spręża i cykl się powtarza.

Ciepło płynie niezgodnie z zasadami termodynamiki, od zbiornika zimniejszego do cieplejszego, ale na szczęście dla fizyki, kosztem pobieranej z elektrycznej sieci energii. Tymże sposobem mamy bardzo niskie temperatury. Dzięki tej sztuce można było na przykład polecieć na Księżyc. Niewielka już część ludzkości oglądała na żywo pokaz startu prawdziwej rakiety kosmicznej, choćby to było w telewizji. Są na szczęście kroniki i można sobie to wydarzenie przybliżyć wizualnie. Jednym z charakterystycznych elementów widowiska są dziwne pary spadające w dół rakiety, wbrew naturze pary, która zazwyczaj unosi się do góry. To właśnie efekt napełnienia potężnych zbiorników ciekłym tlenem i wodorem (mówimy o rakietach amerykańskich).

To właśnie skroplenie gazów dało możliwość zgromadzenia w paliwie chemicznym dostatecznej ilości energii w odpowiednio małej dla kosmicznego lotu objętości. Co trzeba dodać, niskich temperatur używa się dziś w technice bardzo powszechnie. Na podwórku mojego instytutu stoi sobie skromnie zbiornik z ciekłym azotem i codziennie udają się do niego ludzie z różnej maści banieczkami. Najczęściej są to tak zwane naczynia Dewara (to on, Dewar, w 1898 roku skroplił wodór za pomocą aparatury Lindego), w których możemy spokojnie przetrzymać "wsciekłą" ciecz przez kilka, nawet kilkanaście dni.

Bez niskich temperatur byłyby kłopoty z uzyskiwaniem wysokich próżni. Po pierwsze, powszechnie dziś stosowane pompy rotacyjne, jak do tej pory najlepsze urządzenia do uzyskiwania próżni wstępnej, to właściwie rodzaj pompy tłokowej ze sprytną konstrukcją redukującą tak zwaną objętość martwą. Jak każda konstrukcja mechaniczna, czują się one najlepiej w olejowej kąpieli. Nieuchronnym skutkiem tego, jest wsteczne rozprzestrzenianie się par oleju. Walczy się z tym z za pomocą różnej maści wymrażarek, czyli naczyń, w których drogę gazu się wydłuża za pomocą przegród. Jak sama nazwa wskazuje, są one mocno schładzane, najczęściej zwyczajnie zalewane ciekłym azotem. Pary oleju osadzają się na zimnych ściankach. Bardziej wymyślną konstrukcją są pułapki zeolitowe. Są także pompy zeolitowe, (bardzo prosta konstrukcja) po prostu naczynie z dziwną substancją zwaną zeolitem, która ma tę ciekawą własność, że schłodzona do temperatury ciekłego powietrza "ciągnie jak wszyscy diabli".

Bez niskich temperatur nie "pójdą" sublimatory tytanowe. To sztuczka, która była stosowana także w zwykłych lampach elektronowych i także dzięki niej do dnia dzisiejszego działają poczciwe kineskopy w monitorach komputerowych. Polega ona na wykorzystaniu zjawiska wiązania atomów gazu przez odparowane cząsteczki metalu. W aparaturze próżniowej stosuje się w tym celu pręty tytanowe, które się ogrzewa do temperatury bliskiej topnienia. W tych warunkach metal sublimuje, czyli paruje z fazy stałej. Pary metalu zabierają ze sobą cząsteczki resztek gazów (uczenie "gazów resztkowych") i "siadają" na ściankach naczynia. Te, aby proces był dość efektywny, trzeba schłodzić i to do takich właśnie nie spotykanych na Ziemi temperatur około – 193 stopni Celsjusza.

Azot stosuje się między innymi do bardzo naukowego schładzania próbek do bardzo niskich temperatur. Po co? A na przykład po to, by zatrzymać obłędne podskakiwanie atomów na powierzchni. Takie sztuczki powszechnie są stosowane w mikroskopii skaningowej pracującej z rozdzielczością atomową. Wszyscy zapewne widzieli napis "IBM " ułożony z atomów ksenonu. Utrzymało się to-to właśnie dzięki piekielnie niskiej temperaturze, zaledwie kilka stopni ponad zero Kelwina (chłodzenie ciekłym helem!), czyli właśnie zero bezwzględne.

Dziś znamy wiele dziwnych sposobów na uzyskanie niskich temperatur. Jednym z nich są chłodziarki półprzewodnikowe działające w oparciu o efekt Peltiera. Ostatnio dzięki temu, że produkowane moduły do między innymi kamer cyfrowych znacznie potaniały, stały się słynne dzięki próbom ich zastosowania przy przetaktowywaniu procesorów. Do tego nadają się wyjątkowo kiepsko, lecz możemy dzięki nim oziębiać czujniki kamer i zmniejszać ich szumy. Stosy elementów Peltiera pozwalają uzyskać bez warczącej aparatury –90 stopni Celsjusza. Kiedyś byłby to niezły wyczyn!

Tak na marginesie, warto ciut opowiedzieć o "schodach", na jakie natrafiamy przy pomiarach niskich temperatur. Na szczęście mamy bardzo dobry termometr gazowy, który nie zawiedzie (po napełnieniu go helem) prawie do zera bezwzględnego. Jednak nie jest to urządzenie ani wygodne, ani przydatne w pomiarach. Przyczyna tkwi w tym, że z zasady uśrednia ono temperaturę po objętości zbiorniczka gazu. Dlatego w praktyce stosuje się inne metody, które czasami przypominają chwytanie się prawą ręką za lewe ucho. Jednym z najukochańszych urządzeń fizyków są wszelkiej maści termopary. To po prostu dwa druty, na przykład żelazny i miedziany. Zgrzewa się je na obu końcach. Jeden z nich rozcinamy i podłączamy do miliwoltomierza. Dzięki zjawisku termoelektrycznemu generowane jest napięcie (autorzy podręczników akademickich kochają napisać, siła elektromotoryczna), które jest prawie proporcjonalne do mierzonej różnicy temperatur. Wystarczy jeden z końców umieścić w szklance z wodą z lodem, drugi wetknąć w miejsce, które chcemy obmierzać, i mamy termometr, oczywiście pod warunkiem że znamy dostatecznie dobrze zależność napięcia od różnicy temperatur.

Po czorta się tak wygłupiać? Myślę, że nie trzeba tłumaczyć, że w niskich temperaturach wysiadają termometry najpierw rtęciowe (ok. – 38,87 stopnia Celsjusza) przy minus 70 stopni Celsjusza alkoholowe. Jednak o wiele poważniejszą przyczyną jest to, że termopary można wykonać z bardzo cienkich drutów. Dzięki temu dziwaczny termometr daje się wetknąć w przeróżne zakamarki aparatury i jednocześnie nie odprowadza ciepła, dzięki czemu nie zakłóca pomiaru. Kolejną zaletą jest bardzo krótki czas reakcji. O ile klasyczny pomiar lekarski "pod pachą" (albo w innych, mniej wykwintnych miejscach), musi trwać ok. 10 minut, to termopara daje dobry wynik już po ułamku sekundy.

W książkach pewnie się tego nie wyczyta, ale termopara wyjątkowo dobrze nadaje się do technologii aparatury próżniowej. Między innymi nie wykazuje ona tendencji rozpadowych w bardzo niskich temperaturach, co niestety zdarza się w przypadku większości materiałom, takim jak szło czy plastyki.

Innym patentem na termometr, który jednak nie pracuje tak dobrze, jest pomiar spadku napięcia na złączu półprzewodnikowym. Rozwiązanie z jednej strony wygodne, bo w porównaniu z "drutowymi" termoparami daje duży sygnał, tam trzeba umieć mierzyć napięcia na poziomie milionowych części wolta, tu wystarczy dokładność ciut lepiej niż jedna tysięczna, lecz niestety zazwyczaj mamy problemy nie tylko z plastykowymi obudowami, ale i z mechaniczną wytrzymałością samego złącza, które na skutek huśtawki temperatur potrafi się rozlecieć od samych termicznych naprężeń. Takie konstrukcje pozwalają "zejść" dość bezpiecznie trochę poniżej temperatur "alkoholowych" (ok. – 70 stopni Celsjusza).

Bardzo naukową metodą jest pomiar spadku napięcia na tak zwanym wzorcowym oporniku. Fizycznie opiera się ona o zjawisko zmiany oporu metalu wraz z temperaturą. Gdy ona rośnie, opór także, gdy maleje, opór tak samo. Zmiany są prawie proporcjonalne (naukowo mówimy "prawie liniowe").Tu nie ma konkurencji, od lat stosowana jest ta sama konstrukcja, a imię jej jest PT100 w różnych obudowach różnych producentów, stare nowe, miniaturowe i wielkie. To opornik termometryczny nawinięty drutem platynowym. Banalny pomysł, ceramiczny korpus, dwa druty na doprowadzenia i działa od "wściekłego azotu" do czerwonego żaru. Cudowne rozwiązanie ma oczywiście swe wady, trzeba mierzyć opór z dokładnością ułamków oma. A oczywiście po drodze mamy styki, które w wysokich temperaturach mogą się utlenić, w niskich "zapracować". Czyli, jak to mówią, albo rybki, albo akwarium. Tak czy owak widać, że termometry w zakresie niskich temperatur mają zupełnie odmienne konstrukcje od tego, do czego się na co dzień przyzwyczailiśmy.

Co te wszystkie opowieści mają wspólnego z Wrocławiem? Byłoby niewiele, gdybym zakończył obrazem biednego laboranta tachającego przez podwórko baniak z ciekłym azotem. Kiedyś jednak zostałem zaproszony do robienia zdjęć na spotkaniu, jednym z tych, które organizował Andrzej Drzewiński w PAN-ie. Gdy przyszedłem, trwał jeszcze nieformalny pokaz po poprzednim wykładzie. I co zobaczyłem? Lewitację. Nad malutkim naczyniem wielkości pudełka po paście do butów unosiło się coś. Co? Magnesik. Można powiedzieć, dziś pokaz banalny. Bo to klasyczne zjawisko z dziedziny nadprzewodnictwa wysokotemperaturowego. Ostatni człon nazwy mocno mylący: żeby zadziałało potrzeba bagatela tych około – 190 stopni Celsjusza. Otóż we Wrocławiu uprawia się tę mroźną działkę, z pewnym powodzeniem, choć mozolnie. Ale i z nadziejami: przecież dzięki takim magnesikom być może kiedyś po naszych ulicach będą mknąć, lewitując samochody, niczym te wygenerowane komputerowo w "Powrocie do Przyszłości".

 




 
Spis treści
451 Fahrenheita
Literatura
Bookiet
Recenzje
Spam(ientnika )
Hormonoskop
Andrzej Sawicki
M. Koczańska
EuGeniusz Dębski
Grzegorz Żak
Andrzej Ziemiański
Adam Cebula
Jacek Inglot
Adam Cebula
Zbigniew Ceglarski
EuGeniusz Dębski
Łukasz Orbitowski
Kareta Wrocławski
Adam Cebula
Andrzej Drzewiński
EuGeniusz Dębski
EuGeniusz Dębski
T. Graf v. Mannsky
J. Grzędowicz
Robert J. Szmidt
Jacek Inglot
Jacek Inglot
Michał Studniarek
Drzewiński, Inglot
Marcin Przybyłek
 
< 17 >