Fahrenheit XLIX - grudzień 2oo5
fahrenheit on-line - archiwum - archiwum szczegółowe - forum fahrenheita - napisz do nas
 
Para-nauka i obok

<|<strona 15>|>

O fizyce bardzo prostej w elektronicznych bebechach

 

 

Postanowiłem pociągnąć dalej temat radioamatora. Tradycyjnie zacznę nie od elektroniki, ale filozofii. Opowiadałem już o tym kim (czym) radioamator być potrafi, tym razem spróbuję odpowiedzieć na zupełnie podstawowe pytanie: po co być, w szczególności radioamatorem. Czyli będę pewnie hamletyzował. Powiem od razu, że niestety, najbardziej łakomą część monologu o tym czy warto, na przykład pociski losu znosić, a w naszym wypadku temperaturę lutownicy dochodzącą do 560 stopni, po prostu pominę. Owszem, lęki i wahania znakomicie się sprzedają na scenie teatralnej. Niestety, gdy siedzimy przy swoim biurku, zawalonym elektronicznymi rupieciami, nikt nas nie będzie słuchał ani oglądał. A skoro już wpuściliśmy się w robotę... Pokrętnie uzasadnię swe milczenie na temat „nie być” tym, że Czytelnik może sobie sam zajrzeć do wielkiego monologu i wyczytać wszystko, co jest przeciw. Nie będę także polemizował z hodowcami złotych rybek, ani dyskutował nad wyższością zbieractwa znaczków nad radioamatorstwem. Być może takowe istnieje, być może da się uzasadnić, lecz powiedzmy sobie szczerze: chodzi o coś całkiem innego. Każdy musi mieć w odwodzie jakiś klaser czy puzdro z przyszpilonymi motylami, żeby zaprosić Kaśkę, bądź inną Jadźkę. Klaser, bo zapewniam, że kolekcja tranzystorów, oporników do montażu powierzchniowego, zapewnianie o tym, że się posiada cały skompletowany szereg i temu podobne pomysły, są całkiem głupimi pomysłami i nie prowadzą nas, chłopów, do celu. A powiem prawdę, wręcz przeciwnie: z posiadaniem całego kompletnego szeregu oporniczków metalizowanych typu MŁT 0,25 wata mocy strat, radzę się nie tylko nie afiszować, a wręcz ukrywać. Co prawda, nie jest to defekt, który nas zdyskwalifikuje, w dziedzinie, której uprawianie zaczyna się od zaproszenia na pokaz znaczków, lecz one o tym nie wiedzą.

Otóż, dlaczego pomimo tych wszystkich niebezpieczeństw warto być, a w szczególności, radioamatorem? Mam taką koncepcję: żeby sobie zrobić przyjemność. Brzmi to prawie jednoznacznie, tak bardzo jednoznacznie, że muszę zapewnić, że chodzi mi o coś całkiem innego. Istnieje przyjemność polegająca na tym, że się rozumie. Zasadza się ona chyba na czymś bardzo pierwotnym i niekoniecznie szlachetnym, mianowicie na potrzebie władzy. Zrozumienie zaś tego, co się wokół nas dzieje, jest dobrym początkiem do skutecznego zarządzania okolicą. Zjawisko przeciwne, brak zrozumienia, jest przyczyną poważnych frustracji, a czasami dobrą drogą do narobienia sobie kłopotów. Otóż, próbuję tu uzasadnić fakt, w gruncie rzeczy eksperymentalny, że byt połączony ze zrozumieniem jest przyjemniejszy.

Co prawda wielu rzeczy nigdy nie zrozumiemy (czego wyrazem jest dramatyczne zawołanie „ja ciebie, Jadźka, nigdy nie zrozumiem!”), nie zrozumiemy, dlaczego ta pani próbowała przejechać na czerwonym świetle, nie zrozumiemy, dlaczego polityk X czy Y wygadywał takie rzeczy. Lecz dane nam będzie pojąć sferę, która dla lwiej części publiczności zdaje się czystą magią.

Czy jest możliwe zapamiętanie schematu telewizora albo danie ciekawskim odpowiedzi, dlaczego ta blacha w środku ma taki kształt i po co w ogóle jest? Czy jest możliwe grzebanie w elektronicznych bebechach i na przykład uzyskiwanie poprawy działania urządzenia, nad którym przecież musieli ślęczeć wszechświatowej mądrości specjaliści w kosmicznie wyposażonych laboratoriach?

Gdyby zadawał takie pytanie, a odpowiedź byłaby „nie” – byłbym nie tylko jako ta miedź brzęcząca, ale wręcz jak ci dziennikarze. Oczywiście, że to się da zrozumieć, a czasami nawet poprawić.

Tu niestety, kończy mi się łatwa publicystyka, zaczynają się schody. Trzeba bowiem przejść do meritum. Specjalnie ów fakt zaznaczam, w kontekście owego zrozumienia świata. Pewne znajoma wyjaśniła mi, jak wygląda popularny podział dziedzin wiedzy, wg klasyfikacji towarzyskiej: są tumaniści i ściśnięci. Tak więc trzeba dokonać tu tumanizacji wiedzy ściśniętej, co już z samej nazwy pachnie katastrofą. Jednak wymigam się pewnym zabiegiem, który jest podstawą tworzenia wrażenia mądrego, mianowicie systematyzacją. Systematyzacją zawsze daje wrażenie panowania nad sytuacją, w sytuacji gdy nie ma ku temu żadnych innych przesłanek. Albowiem systematyzacja stwarza przynajmniej złudzenie istnienia możliwości dowodzenia. A nam tak na prawdę chodzi o przyjemność czyli władzę nad światem.

Zacznę od geografii, czyli jakiej i gdzie informacji szukać. Jak się zabrać do elektronicznej bestii? Radziłbym rozpocząć w takiej kolejności: fizyka, potem układy podstawowe, podstawowe aplikacje. Trzeba, niestety ostrzec, że na początku nic się nie wyjaśnia i rzecz cała się jako „sztuka dla sztuki”. Sama w sobie, sama dla siebie. Zacznijmy od fizyki. Nie jest to zbyt niebezpieczny etap, bowiem zaczynamy od dość potężnej dawki wiedzy, którą figlarnie nieco da się nazwać erudycyjną. Co oznacza, że można się nią popisywać w towarzystwie. Bywa, że dziewczyna chce się dowiedzieć, jak lata samolot, bywa, że chce, by jej wytłumaczyć, jak działa tranzystor. O co chodzi w tym drugim wypadku, trudno zazwyczaj dociec, w każdym bądź razie zdecydowanie najbezpieczniej faktycznie zabrać się za tłumaczenie, jak działa tranzystor.

Niestety, jeśli podążamy do naszego wytyczonego celu, jakim jest zrobienie sobie przyjemności za pomocą poczucia władzy, ową fizykę musimy opanować dość starannie. Dość prędko opuścimy bajecznie kolorowe rejony, z których smakowite owoce nadają się do brylowania wśród innych i udamy się w surowe, kamieniste i zimne pustacie, w które zagłębiają się tylko zdesperowani wędrowcy.

Oto owa fizyka. Na początek z jej pomocą, zajmiemy się problemem chłodzenia elementów elektronicznych. Zazwyczaj w praktyce spotykamy się z dwoma zagadnieniami, pierwsze, to ile wytrzyma nasze urządzenie. „Ile” oznacza pytanie o zmianę jakiegoś parametru, który pozostaje w ścisłym związku z całością urządzenia. Drugie wynika z tego, że wiemy, że ciepła pozbywamy się za pomocą radiatorów lub zespołów radiatorów . Pytanie brzmi jaki radiator, ewentualnie jaki wentylator, żeby machina osiągnąwszy to, co od niej chcemy, nie rozleciała się. Aby rozwikłać te zagadnienia, musimy sięgnąć do dość elementarnej, ale i solidnej, choć nie ścisłej fizyki. Banalna wielkość moc i praca. W przypadku prądu elektrycznego dla uproszczenia stałego moc wyraża się wzorem W= U*I. Po co nam to wiedzieć? Praca zamienia się w obwodach elektrycznych najczęściej na ciepło. Ciepło zaś także najczęściej bywa przyczyną kłopotów. A tak naprawdę to temperatura. Ciepło i temperatura, to dwie zupełnie różne wielkości fizyczne. Ciepło to ilość energii, temperatura informuje nas o średniej energii kinetycznej cząsteczek. Takie złe porównanie. Wyobraź sobie pierzynę z puchem. Ciepło to waga tej pierzyny (poprawnie, masa), zaś temperatura, to gęstość, czyli waga lub masa podzielone poprzez objętość. To prawie dobre porównanie, w istocie złe, albowiem ilość zgromadzonego w ciele ciepła (uwaga, w całym tekście, zapis „publicystyczny” niezbyt poprawny)

Q=m*c*T , to będzie dalej zwana w tekście „zależność pierwsza” (lub wzór pierwszy),

gdzie

Q- ilość ciepła

m – masa ciała

c – współczynnik określany mianem ciepła właściwego dla ciała’ które ogrzewamy

T – temperatura

I tu ostrzeżenie: interesuje nas prawie zawsze różnica temperatur. Dlatego we wszelkich mądrych książkach występuje „delta te”, przyrost temperatury. Jeśli do wzoru wsadzimy najbardziej fizyczną temperaturę, w stopniach Kelvina, to wzór poda nam mocno abstrakcyjną, całkowitą ( i nie prawdziwą) ilość całkowitej energii cieplnej zawarte w badanym ciele. Elektronika zaś najczęściej nic nie obchodzi ilość ciepła, ale temperatura w stopniach Celsjusza. Otóż interesuje nas zwykle przyrost temperatury elementu pod wpływem wydzielonej na nim określonej mocy. Moc to ilość pracy podzielona przez czas. Maszyna ma moc 1 wata, jeśli wykonuje pracę 1 dżula w ciągu sekundy. Moc bywa, jak powiedziałem wyżej, zamieniana na użyteczną pracę, ale w przypadku elektroniki, najczęściej zamieniana na ciepło, Jest ona zwykle nazywana mocą strat dla danego elementu. No i oczywiście moc*czas=praca.

Muszę tu wykonać pewną dygresję. Mianowicie lwia część własności tego świata bardzo ładnie zapisuje się za pomocą wzorów i fatalnie opisuje się za pomocą słów. Znajomość języka matematycznego, a ściślej umiejętność czytania nie do końca poprawnej matematyki fizycznej pozwala na zrozumienie co się właściwie dzieje. Niezbywalną częścią owego rozumienia, jest wiedza o tym, dlaczego... jest inaczej.

Jeśli włączymy przepływ prądu poprzez np. opornik, to zacznie się on nagrzewać. Ze wzoru Q=mc(delta)T możemy wyliczyć że (delta)T=Q/mc. Q=W*t, gdzie t – czas, coś w mianowniku jest stałe, zaś licznik wzrasta z każdą sekundą, czyli temperatura opornika rośnie nam w czasie do nieskończoności. Oczywiście w praktyce niczego takiego nie obserwujemy. Opornik oddaje do otoczenia ciepło. Tym szybciej oddaje i ma większą temperaturę. W pewnym zakresie jest to zależność wprost proporcjonalna, analogicznie jak przyrost prądu pod wpływem napięcia w prawie Ohma. Dlatego dla elementów elektronicznych definiuje się oporność termiczną. Warto tę wielkość sprawdzać dla „coolerów” czyli zespołów radiator-wentylator, jakie się montuje na procesorach. I mniejsza oporność termiczna „coolera” tym więcej ciepła jest w stanie odprowadzić z procesora. Znając oporność termiczną i moc w watach (albo innych dobrze zdefiniowanych jednostkach), możemy wyliczyć różnicę (przyrost) temperatur pomiędzy procesorem (ewentualnie innym elektronicznym elementem) a otoczeniem.

(delta)T=W*R – to będzie dalej zwana w tekście „zależność druga” (lub wzór drugi),

gdzie (delta)T – różnica (przyrost) temperatur

W- moc strat

R – oporność termiczna.

Jak widać, mamy dwa modele nagrzewania się elementów elektronicznych (i nie tylko, jakichkolwiek przedmiotów). Jeden zakłada stały wzrost temperatury w czasie do nieskończoności, drugi niezależność temperatury od czasu. Jeden zakłada brak strat ciepła, drugi tylko tych strat dotyczy. Rzeczywistość (prawda?) leży gdzieś po środku. Po włączeniu zasilania elementy początkowo nagrzewają się prawie liniowo w czasie, potem ujawnia się wpływ strat, wzrost staje się wolniejszy i temperatura zaczyna asymptotycznie podążać do temperatury równowagowej ustalonej za pomocą drugiej zależności.

Istnieje pewna temperatura, do której element elektroniczny bez szkody dla siebie może się ogrzać. Zazwyczaj np. złącza elementów elektronicznych wytrzymują od 125 do 175 stopni Celsjusza. Producenci podają oporność obudów. Powoduje to, że dla początkujących zaczynają się poważne „schody” przy projektowaniu czegokolwiek, gdzie trzeba uwzględnić termikę urządzenia. Warto także zauważyć, że bardzo często podawane są równoważne parametry dopuszczalna moc strat dla danej temperatury obudowy. W przypadku elementów cyfrowych sprawy nieco się gmatwają. Tak na przykład dla starszej serii procesorów firmy AMD podawano dopuszczalną temperaturę obudowy 90 stopni Celsjusza przy informacji o mocy strat wynoszącej do ok. 75 watów (to stare dane!). Co z tego było istotne dla użytkownika? Musiał dołożyć cooler, który zapewniał rozproszenie tej mocy w sytuacji gdy w obudowie temperatura dochodzi do powiedzmy 50 stopni Celsjusza. Wówczas różnica powierzchnia obudowy-otoczenie, 90-50=40 stopni Celsjusza określa największą możliwą oporność termiczną owego coolera. Zastosowany zespół chłodzący musi mieć oporność termiczną mniejszą niż 40/75=0,53 „stopnia na wat”. To dość wyśrubowana wartość.

Tak na marginesie chciałem jednak zauważyć, że w przypadku procesorów niewiele stoi na przeszkodzie, by nawet przy mocach strat (~ 150 W), które osiągają obecnie były one chłodzone poprzez klasyczne radiatory bez wentylatorów. Procesory są elementami o wielkiej powierzchni, gdzie gęstość wydzielonej mocy nie jest dramatycznie wielka, i gdzie nie ma specjalnych problemów konstrukcyjnych z opornością termiczną obudowy. Dlaczego nie produkuje się komputerów w których dało by się do procesora przyczepić po prostu odpowiednio masywny radiator? Zapewne przyczyna w inercji przemysłu, ale także w strachu, że taka konstrukcja za długo będzie pracować. Nie można produkować zbyt dobrych urządzeń, w których nie ma wentylatora. Wszyscy (producent, hurtownik sprzedawca) czekają, że się w końcu ukręci, procesor się przegrzeje i klient będzie musiał wreszcie kupić coś nowego.

Wracając do naszych problemów chłodzenia, to młodocianych konstruktorów zazwyczaj interesuje problem przetaktowania procesora. Dopóki mamy fabryczną konstrukcję, to jest ona zaprojektowana dla warunków pracy ciągłej, to znaczy system chłodzenia zapewnia, że temperatura choć w czasie będzie rosła, to nigdy nie przekroczy wartości dopuszczalnej. Czyli obowiązuje zależność druga. Warto sobie uświadomić, że w praktyce, na skutek wahań temperatury otoczenia po dość krótkim czasie, rzędu kilkudziesięciu minut możemy mówić o ustaleniu się temperatury urządzenia. Co się stanie, gdy „przetaktujemy” procesor? Wzrośnie prąd, który płynie przez jego złącza. Wzrośnie mniej więcej proporcjonalnie do wzrostu częstotliwości. Ponieważ napięcie zasilania jest stałe, możemy ryzykować stwierdzenie, że wzrośnie proporcjonalnie do wzrostu częstotliwości moc wydzielana na procesorze. Oczywiście, jeśli nic nie trzaśnie, będzie szansa, że ustali się nowa wyższa, proporcjonalna do zmiany częstotliwości i tym samym mocy strat temperatura. Warto jednak sobie uzmysłowić, że ten proces odbywa się w dość długim czasie (rzędu kilkudziesięciu minut). Co z tego wynika? Że np. majsterkowiczowi może się wydawać, że operacja udała się całkowicie, a tymczasem urządzenie w trakcie prób nie zdarzyło dojść do temperatury awarii. I gdy popracuje odpowiednio dłużej, to dojdzie.

Znacznie bardziej niebezpieczna jest inna ewentualność: podczas prób była względnie niska temperatura otoczenia. Np. była wiosna w pokoju ~ 19 stopni Celsjusza. Temperatura obudowy procesora zatrzymała się powiedzmy na 85 stopniach Celsjusza. Potem przyszło lato i upały 30 stopni, albo nawet, jak bywa w pomieszczeniach do 40 stopni Celsjusza. I procesor nagrzał się na zewnątrz (na obudowie) do 105 stopni.

Wniosek płynie z tego taki, że po pierwsze, w praktyce radioamatora oprócz elektronicznego multimetru mierzącego wolty, ampery, omy, farady, henry i inne cuda potrzebny bywa termometr. Warto pamiętać, że proste zasady (których, ostrzegam, w całości, ani do końca tu nie wyłożyłem) projektowania chłodzenia urządzeń elektronicznych są niezbędne do tego, żeby nasza machina się nie rozleciała.

Czas jednak najwyższy, aby zebrać wiedzę „erudycyjną” do kupy i powiedzieć, co mianowicie zrobić, żeby nie było w domu charakterystycznego smrodku spalonego urządzenia? A więc dla elementów są podawane dopuszczalne moce przy których mogą one pracować bez specjalnego chłodzenia, są to takie fragmenty elektronicznych urządzeń, jak oporniki , cewki, diody i tranzystory małej mocy. O tym jak wyliczyć moc strat konkretnego tranzystora w konkretnym układzie, mam nadzieję będzie osobno. Jeśli mamy element który wymaga urządzenia chłodzącego, to musimy mu je takie cudo zapewnić. Praktycznie wyłącznie w elektronice stosuje się metalowe radiatory, prawie wyłącznie aluminiowe. Największą przewodność termiczną ma srebro, lecz aluminium jest lekkie i prawie tak samo skuteczne. Cóż to jest radiator? Po prostu kawał metalu. Nic więcej. Oporność termiczna radiatora w dość szerokim zakresie maleje prawie liniowo z jego powierzchnią. Dokładne ich projektowanie to dość karkołomne obliczeniowo zadanie, lecz gdy chcemy zmniejszyć 2 razy oporność termiczną istniejącego radiatora, to trzeba dołożyć drugi kawał blachy o trochę większych rozmiarach i uzyskamy coś około tego co trzeba.

Chciałbym to podkreślić w kontekście wymyślnych drogich i niekoniecznie działających coolerów na procesory. Co warto dodać, wynalazki typu przewód cieplny owszem mają sens, lecz nie w tym zakresie mocy, z jakim mamy do czynienia w domowych maszynach. Generalnie kawał blachy wystarcza. Był czas, że za radiatory w polskich urządzeniach robiły płyty czołowe. Można przykręcić grzejący się element do metalowej konstrukcji nośnej. Generalnie jednak dobrze jest stosować osobny specjalny tzw. profil hutniczy albo kawał blachy. Zapobiega to niekontrolowanemu podgrzewaniu innych elementów. Także bardzo dobrym obyczajem jest umieszczanie radiatorów poza obudową, np. na tylnej ściance urządzenia. Z jednej strony zapewnia to lepsze chłodzenie elementów, z drugiej nie musimy martwić się wahaniami temperatury wewnątrz obudowy.

Trudno nie napisać tu kilku słów o problemie chłodzenia komputerów. Zacząć trzeba niestety od tego, że to jedne z tych urządzeń, przy których budowie o zaprojektowaniu termicznych warunków pracy nie bardzo pamiętano. Jak się zdaje, w przypadku wielu obudów, wcale. Jednym z najważniejszych problemów jest zaplanowanie obiegu powietrza. Brak przegród, nieobecność otworów wentylacyjnych albo ich takie usytuowanie (za przednią atrapą), że nie pełnią swej roli, powoduje, że przepływ jest przypadkowy. Sprawę często pogarsza umieszczenie kratek dla dodatkowych wentylatorów które powodują , że np. ciepłe powietrze wyrzucane z zasilacza wraca przez nie do komputera. Z moich pomiarów, jakie kilkakrotnie prowadziłem dla czasopism komputerowych wynikło, że także te dodatkowe wentylatory praktycznie nie mają wpływu na temperaturę wewnątrz obudowy. Wynika to prawdopodobnie z tego, że metalowe pudło i tak ma bardzo małą oporność termiczną. Ilość powietrza, którą przepycha dodatkowy wiatrak nie ma w bilansie mocy znaczenia. Pomaga dopiero zdjęcie bocznej ścianki. Innym rozwiązaniem, które się w praktyce sprawdziło, było brutalne wycięcie dziury w obudowie nad wentylatorem procesora i doklejenie tunelu doprowadzającego powietrze z zewnątrz do zespołu chłodzenia. Założenie w tym tunelu dodatkowego wentylatora poprawiło jeszcze trochę sytuację. W sumie taki dodatkowy zespół nawiewu potrafił obniżyć temperaturę radiatora procesora o ok. 15 stopni Celsjusza.

Mitem jest zastosowanie elementów Peltiera do chłodzenia procesora. Mówiąc dokładniej, element Peltiera może nieco poprawić sytuację, ale zazwyczaj to samo można uzyskać, stosując po prostu większy wentylator. Element jest rodzajem pompy cieplnej która pobiera ciepło z zimniejszego źródła i oddaje go do cieplejszego otoczenia. Tymczasem procesor w normalnych warunkach środkowo-europejskich jest znacznie gorętszy od otoczenia i transport ciepła idzie sam, byle był odpowiednio duży radiator.

Jednocześnie element Peltiera nie działa bezstratnie. Element ten potrzebuje pewnej energii wynikającej z praw termodynamiki (patrz cykl Carnota), ale i też skutecznie sam się ogrzewa, a na dodatek musi walczyć ze strumieniem ciepła przepływającym przez elementy chłodzące. Oczywiście na element Peltiera trzeba nałożyć radiator i musi on rozproszyć większą moc niż gdyby tego dodatkowego elementu nie było. Dość dawno temu wykonałem kilka i prób i obliczeń i wyszło z nich, że ten radiator nałożony bezpośrednio na procesor spowoduje obniżenie jego temperatury o kilka stopni niżej niż działający w zespole z Peltierem. Dodatkową trudnością jest to, że elementy Peltiera mają stosunkowo małe moce, a takie, które „uciągną” procesor, kosztują kilkaset złotych.

Jakiś sens ich zastosowanie mogłoby mieć w układach chłodzenia wodnego. Po przejściu przez chłodnicę i schłodzeniu wody wracającej do procesora można by jeszcze obniżyć jej temperaturę właśnie za pomocą elementu Peltiera. Co ciekawe, właściwie każdy o nawet małej mocy coś by tu poprawił. Trzeba jednak też zastanowić się nad sensownością stosowania w komputerze chłodzenia wodnego. Otóż bywa ono stosowane w urządzeniach energoelektronicznych, lecz jest to rodzaj desperackiego kroku przy odprowadzaniu mocy rzędu kilowatów. Przy niewielkich mocach zaletą chłodzenia wodnego może być wyprowadzenia ciepła z urządzenia np. poza pomieszczenie, w którym się ono znajduje. W praktyce jednak takie rozwiązania są stosowane bardzo rzadko. Jedyna zaleta to niedopuszczenie do nagrzania wnętrza komputera. To jednak można łatwo osiągnąć, wydzielając obieg powietrza chłodzącego, do czego dobrym pierwszym krokiem jest zastosowanie tunelu doprowadzającego powietrze wprost do procesora. Teraz wystarczy dodać obudowę np. z kartonu i wyprowadzenie powietrza, i otrzymamy to samo. Niekwestionowaną wadą chłodzenia wodnego jest niebezpieczeństwo zalania urządzenia i w konsekwencji jego zniszczenie. Moim zdaniem (wodne chłodzenie stosuje się min w pompach dyfuzyjnych) tego typu rozwiązania warto stosować tylko w przypadku absolutnej konieczności. Po pewnym czasie zawsze gdzieś zaczyna cieknąć, wysiada pompa, zaczynają się problemy z osadami itd. Generalnie uważam, że problem chłodzenia procka jest mocno „przekombinowany”. Solidny kawał radiatora i zapewnienie swobodnego obiegu powietrza powinno wystarczyć.

Legendą nie tylko w zespołach chłodzenia procesora obrosły pasty termoprzewodzące. O co tu chodzi? O to, że przewodnictwo cieplne powietrza jest na oko 10 000 razy gorsze niż metalu. Pomiędzy radiatorem a chłodzonym elementem zawsze tworzy się jakaś szczelina. Niemal każde ciało stałe czy ciecz ma znacznie większe od powietrza przewodnictwo cieplne (czyli znacznie mniejszą oporność termiczną właściwą). Dlatego trzeba tę szczelinę koniecznie czymś wypełnić, byle miękkie i gęste, nawet posmarowanie margaryną znacznie pomoże, własności past termoprzewodzących nie są dramatycznie lepsze. Tyle, że margaryna zjełczeje. Generalnie musimy się starać, by owa szczelina była wypełniona cieczą, smarowidłem i możliwie najwęższa. Oporność termiczna (właściwa) past jest co najmniej kilkadziesiąt razy większa od metali i dla tego ilość smarowidła powinna być możliwie najmniejsza.

Prawdziwe „schody” napotykają konstruktorzy przy chłodzeniu „końcówek” wzmacniaczy akustycznych. Nie można stosować wentylatorów, bo te szumią. Jednocześnie moce tracone sięgają kilkuset watów. Problemem staje się gęstość mocy, bowiem elementy półprzewodnikowe, które produkują prądy szarpiące membranami głośników są znacznie mniejsze od chipów procesorów. Za tym idą niższe dopuszczalne temperatury obudów. W rezultacie trzeba wykonać radiatory o bardzo małej oporności termicznej (~ 0,2 stopnia/wat). Regułą w takich warunkach jest stosowanie termicznych zabezpieczeń kontrolujących w ciągły sposób temperaturę radiatorów. Innym rozwiązaniem jest montowanie tranzystorów pracujących równolegle. Zmniejsza to oporność termiczną zespołu, dzięki temu można podnieść temperaturę radiatora. Do takiego rozwiązania możemy zostać zmuszeni właśnie z powodu kłopotów z chłodzeniem, pomimo tego, że dysponujemy elementami które mają wystarczającą katalogową moc strat. Co jeszcze 15 lat temu wydawało się niemożliwe, czasami jest też ono po prostu tańsze, gdyż cena większego kawału aluminium bywa większa niż tego drugiego tranzystora.

Sprawą, która bywa rzadko wiązana z chłodzeniem jest niezawodność urządzeń. W katalogach bywa podawany parametr liczba tzw. cykli termicznych jakie jest wstanie przetrwać urządzenie. O co tu chodzi? Znowu „fizyka prosta”, na poziomie podstawówki. Podczas zmian temperatury poszczególne fragmenty ulegają różnemu rozszerzaniu lub kurczeniu (zależnie od tego, czy jest to ochładzanie, czy ogrzewanie) w zależności od tego, z jakiego materiału zostały wykonane. Elementy, które w jednej temperaturze „pasują”, w innej przestają. Zachowują się jak szyny, które na mrozie mogą pęknąć w skutek rozerwania, a w upale ulec wyboczeniu. W wyniku takich zjawisk pojawiają się mikropęknięcia, które z czasem prowadzą do całkowitego zniszczenia urządzenia. Średnia liczba cykli termicznych zależy bardzo silnie, bo zwykle ekspotencjalnie od wielkości skoku temperatury. Oznacza to tyle, że „żyłowanie” urządzenia prowadzi do jego szybkiego zniszczenia. Oznacza to także, że jednym z celów zastosowania chłodzenia jest właśnie ograniczenie wielkości owych szoków termicznych. Jeśli chcemy zaprojektować urządzenie, które z dużym prawdopodobieństwem przepracuje kilka lat, należy zadbać o łagodne warunki dla elementów szczególnie narażonych na zmiany temperatury.

Istnieją elementy elektroniczne kiepsko znoszące wysokie temperatury. Szczególnie często defektują „elektrolity”. Ciekawą i nierozwiązaną zagadką jest to, że producenci uparcie umieszczają je w pobliżu radiatorów, przykładem są układy odchylania w telewizorach i także monitorach komputerowych. Na szczęście technika kineskopowa zanika, lecz warto wiedzieć, że elektrolit jest jednym z takich newralgicznych punktów. Projektując układ, warto wyprowadzić go poza strefę gdzie może być gorąco.

Na koniec trochę jeszcze o władzy. Piękne jest to, że niewielka drobina wiedzy, odpowiednio zaaplikowana, może rozwikłać z pozoru dość złożone problemy. Otóż częstym problemem jest oszacowanie zależności zazwyczaj mętnie pojętej jakości radiatora w zależności od szybkości przepływającego przez niego powietrza. Wiadomo, że jak dmuchać, jest lepiej. Jak lepiej? Otóż, widać na tym przykładzie, że gdy umiemy zapytać konkretnie, to już jest dobrze. Miarą dobroci radiatora jest oporność termiczna. Potraktuję rzecz opisowo, ale za pomocą tej elementarnej fizyki i arytmetyki, da się wywieść że oporność termiczna jest proporcjonalna do odwrotności prędkości powietrza. Wystarczy zauważyć, że ilość unoszonego z radiatora w jednostce czasu ciepła jest wprost proporcjonalna do masy powietrza i różnicy temperatury jego i otoczenia. Teraz trzeba sobie tylko przypomnieć jak działa funkcja 1/x, by dojść do wniosku, że w zakresie małych prędkości ich zwiększanie (np. poprzez założenie większego wentylatora) daje duże rezultaty, zaś przy większych celowość zabiegu maleje asymptotycznie do zera. Kwestię co to są prędkości duże i małe powinna załatwić znajomość naszej funkcji 1/x. Zależy, z jakiego miejsca zaczniemy. Warto jednak pamiętać, że nie uwzględniliśmy przewodnictwa samego radiatora. Tym niemniej w spotykanym zakresie wentylatorowego wiatru rzędu pojedynczych metrów/sek działa.

Elementarna fizyka plus trochę wiedzy rzeczowej i po zdjęciu tylnej ścianki telewizora możemy powiedzieć przy naszej bogdance „popatrz, radiator”. Możemy zwyczajnie w wyniku oberwać w gębę, ale przynajmniej będziemy pewni, że świat nas nie zrozumiał. I to jest też coś warte.

 


< 15 >