Fahrenheit XLVIII - październik-listopad 2oo5
fahrenheit on-line - archiwum - archiwum szczegółowe - forum fahrenheita - napisz do nas
 
Para-nauka i obok

<<<strona 28>>>

Ogólna teoria teorii, czyli zaduma nad rupieciami

 

 

Na jakiś czas dałem sobie spokój z elektroniką. Czas jednak przypomnieć sobie o wonnym dymku z kalafonii unoszącym się nad lutownicą. Idą bowiem wczesne i ciemne wieczory, mamy przed sobą najdłuższą noc w roku, którą warto poświęcić jeśli nie na spanie, to na pewno na dłubanie w elektronicznych bebechach.

Tym razem mam pomysł poteoretyzować. Dlaczego? A bo sam doświadczyłem sytuacji, że zdawało mi się, że chcę się wziąć za coś, albo czytałem sobie o czymś. Coś autor opisywał, mnie pasowało zrobić to inaczej i klops, nie wiedziałem czy wolno tak. Widziałem też absolwentów po solidnym w akademickim kursie, którzy do rozwiązania problemu, zupełnie banalnego, podchodzili niczym pies do jeża. Mieli teorię. Chciałoby się powiedzieć, że bez praktyki, lecz mieli robić na razie na papierze, więc praktyka nie była potrzebna. Mieli nie tę, co trzeba teorię. Mam taki pomysł, że w tych inżynierskich dziedzinach potrzeba sporo gadulstwa, plotkarstwa. Takiej teorii co dość w niej wiedzy, by się potem z czymś połączyła i przydała, a jednocześnie nie sadzi się na mądrość tak bardzo, żeby się tego zupełnie nie dało zapamiętać.

Odcinek ten chciałem poświęcić elementom nietypowym. Od razu przyznam, że udało mi się opowiedzieć zaledwie o kilku ich rodzajach. Elektronika to w gruncie rzeczy znajomość aplikacji elementów. Jeśli znamy sposób dołączenia do układu, to już jesteśmy na najlepszej drodze do zastosowania. Czar elektroniki wywodzi się chyba także z tej scenografii, rozmaitych kształtów kolorów, różniastej liczby nóżek, a także... magicznego słownictwa. To wszystko przysparza elektronikowi miru i poczucia własnej wartości w sytuacji gdy swe eksperymenty, jak prawdziwy czarnoksiężnik prowadzi w tajemnicy przed całym światem. Jednak, aby nie było odwrotnie, by te przedsięwzięcia nie były źródłem trwającej wiele tygodni depresji, nie mogą się one przynajmniej permanentnie kończyć katastrofami. W tym podejściu do klasyfikacji owej rupieciarni, chciałem na to zagadnienie położyć główny nacisk. Rzecz w tym, że te elementy nietypowe mają jedną dość krytyczną dla nas cechę: z racji, że są nietypowe, zazwyczaj występują w naszych skrzyniach przepaścistych czy szufladach w postaci pojedynczych egzemplarzy. Zazwyczaj są kosztowne, a nawet jeśli nie, to zdobycie drugiej sztuki bywa niemożliwe i jedno omsknięcie się ręki bądź nieprzemyślana próba, może położyć cały projekt. I tu pierwsza dobra rada: wkalkuluj ryzyko zniszczenia takiego elementu w robotę. Jeśli masz sztukę, jedną, jedyną, to robotę zacznij od sprawdzenia, czy potrafisz to cudo uruchomić. A jeśli możesz, zawsze nabywaj na zapas. Prowadzi to nieuchronnie do powstawania złóż śmieci, lecz zabezpiecza przed sytuacją, że po dwudziestu latach znajdziesz się ze skrzynią rozgrzebanych urządzeń, z których żadne nigdy nie zadziałało.

Porada druga, z pozoru zupełnie oczywista: zidentyfikuj urządzenie. Wydawać by się mogło, że nikt nie rozpoczyna żadnych działań z czymś, co może być równie dobrze maszynką do mięsa, rowerem lub ręcznym granatem. A jednak w elektronice coś takiego możliwe. Często mamy do czynienia z czarną skrzynką, co do której zawartości mamy pewne podejrzenia, ale... Owe podejrzenia po jakimś czasie zamieniają się nam w pewność, lecz potem się okazuje, że na niczym nie opartą. Jest jeszcze jeden problem: co to znaczy „zidentyfikować urządzenie”? Chodzi o to, żeby mieć komplet, powtarzam, komplet niezbędnych informacji do dalszych działań. W skład owego kompletu zawsze wchodzą tak zwane parametry dopuszczalne, czyli takie, których przekroczenie spowoduje wysadzenie, niekoniecznie efektowne, naszego skarbu. Potrzebne bywają też plotki pomówienia i domysły. O co chodzi, zorientujemy się dalej. Skąd wziąć owe informacje? Na przykład zagooglać. Zapytać znajomych, poszukać w książkach. Przyjmij, drogi czytelniku, że w technice, a zwłaszcza w elektronice wszystko zaczyna się od zdobycia informacji.

Istnieje pewien nieformalny podział, powiem od razu, że granice nie są jasne, a co gdzie należy zaliczyć, zależy czasami od nastroju i pogody. O ile lampy oporniki diody, kondensatory, tranzystory należą do typowych i zazwyczaj „oswajanych” w pierwszym rzucie elementów, to istnieje cały szereg dziwnych, które z jednej strony wywołują magiczną obawę, z drugiej stają się przedmiotem pożądania, a nawet bohaterami filmów sensacyjnych, jak na przykład fotokomórki. Dodajmy dla utrudnienia, że istnieje cała fura różnych dziwacznych elementów. Są one wynikiem konieczności konstruowania w ogólności przetworników, zamieniających różne wielkości fizyczne na jakąś elektryczną, dobrze mierzalną. Ilość konstrukcji jest ogromna. Dość powiedzieć, że mamy na przykład pojemnościowe czujniki wilgotności, czy oporowe czujniki gazu. Takie elementy, jak termistory, to już prawie klasyka.

Inną klasą „dziwnych” elementów elektronicznych są konstrukcje zasadniczo „złożone” z „klasycznych” elementów. Takim typowym przykładem są tyrystory i triaki. Wreszcie mamy całą gamę elementów wykonawczych. Głośniki zaliczymy oczywiście do klasyki, lecz jest pewien powód, dla którego chciałbym co nieco o nich powiedzieć i od nich zacząć. Stanowią one bowiem element przejściowy pomiędzy dwoma technologiami: akustyką i elektroniką, sprzęgający je. Większość elementów wykonawczych i czujników zamieniających sygnały fizyczne inne niż elektryczne, na zrozumiałe dla urządzenia budowanego na tranzystorach lub lampach pełni rolę takiego „interface”. Także, wbrew pozorom, bo przecież chodzi cały czas o sterowanie prądem, swego rodzaju interfejsem jest tyrystor i triak. Te elementy łączą świat techniki finezyjnego sterowania elektrycznymi sygnałami i elektrotechniki, gdzie mamy do czynienia z grubymi kablami i wysokimi napięciami. Pozornie jest tak samo, ale przyzwyczajenia nabyte z miniaturowymi płytkami drukowanymi, pełnymi mikrusich elementów, zawodzą i trzeba na przykład pamiętać o iskrobezpieczności, o zachowaniu niezbędnych dystansów pomiędzy ścieżkami.

Zacznijmy jednak od głośnika. Niektóre współczesne konstrukcje przypominają wielkością spore miednice. Zasilane są wielkimi prądami i proporcjonalnie do tych prądów kosztują, więc warto uważać, na szereg sposobów. Abstrahując od sensowności, trzeba się pogodzić, że musimy do ich przyłączenia stosować odpowiednio grube kable. Jednak, jak już pisałem, stosowanie specjalnie grubych i drogich mija się z celem. Mimo że testy odsłuchowe jasno potwierdzają, że są kable grube lepsze i gorsze, jedynym problemem na jaki napotykamy, jest potencjalne przepalenie się instalacji.

Po pierwsze, identyfikacja urządzenia. Głośnik jest elementem elektro-mechanicznym. Z punktu widzenia elektronika ma to swoje konsekwencje. Zakres częstotliwości, w jakim to coś zachowuje się zgodnie z technicznymi oczekiwaniami, jak na elektrykę, jest bardzo mały. Z reguły nie pokrywa on nawet pasma akustycznego. Powyżej i poniżej dzieją się rzeczy dziwne i niespodziewane. Głośniki też, aby ich parametry były zachowane, muszą pracować w określonych warunkach mechanicznych. Brzmi to zapewne dość groźnie, ale chodzi o to, by niepotrzebnie drogiego urządzenia nie zniszczyć. Co się może stać? Dość częstym zjawiskiem jest „roztrzepanie”. Mechaniczne uszkodzenie zawieszenia cewki lub na skutek przekroczenia maksymalnej amplitudy wychylenia cewki. Jeśli znajdziemy gdzieś zniszczony głośnik, można z pożytkiem dla własnej wiedzy rozbebeszyć go do cna, by się przekonać, jak jest zbudowany. Konstrukcja z pozoru całkowicie banalna. Na tak zwanym resorze zamocowana jest cewka umieszczona w szczelinie silnego magnesu. Cewka napędza membranę. W rzeczywistości sprawa nie jest prosta. Całość musi mieć odpowiednie parametry mechaniczne, między innymi dobroć utworzonego tak układu drgającego powinna być mała ~ max 0,6 Co to jest owa dobroć, to już kiedyś tłumaczyłem, ale warto z tego wynieść jedną naukę, że wszelkie innowacje, malowania membrany, które zwiększają jej masę, naklejanie ozdobnej folii, temu podobne operacje, zmieniają ów parametr (a także inne) i mogą albo polepszyć, albo, co jest o wiele bardziej prawdopodobne, pogorszyć pracę głośnika. Z dobrocią jest związana amplituda wychylenia układu drgającego, więc zmieniając ową dobroć (w szczególności, zwiększając masę głośnika), ryzykujemy właśnie wspomniane „roztrzepanie”. Co warto pokreślić, zazwyczaj tak zniszczone głośniki zachowują podstawowe parametry elektryczne. Dlatego elektronik zajmujący się głośnikami musi być trochę mechanikiem i to bynajmniej nie na tym najbardziej elementarnym poziomie, ale politechnicznym. Dobrze coś wiedzieć o tym, czym owa dobroć jest oraz o innych parametrach, takich jak wytrzymałość materiałów, moduły sztywności, tensory naprężeń itd. Sygnalizuję tu tylko te problemy. Wiedza owa tak naprawdę nie jest konieczna, ale bywa bardzo przydatna dla zrozumienia, dlaczego coś idzie nie tak. Warto wiedzieć, że istnieją „egzotyczne” konstrukcje, zwłaszcza dla zakresu wysokotonowego, głośniki pojemnościowe gdzie pod wpływem pola elektrycznego drga folia, do której przyłożono napięcie akustyczne, głośniki jonowe, gdzie drga strumień zjonizowanego gazu, oraz dość często spotykane głośniki z membraną z bimorfa piezoelektrycznego

A teraz informacje o warunkach w jakich głośniki można zniszczyć. Pomijam tu różne sprawy oczywiste, jak podłączenie do napięcia sieciowego, głośnika o mocy 1 W do wzmacniacza 100 W itp. Może mniej oczywistą sprawą jest dopasowanie oporności: przypominam: jeśli wyjście wzmacniacza ma 4 omy to oznacza, że produkuje on takie napięcie, że wytrzymają głośniki o oporności co najmniej 4 omy. Podłączenie głośników o większej oporności dziś na ogół nie stanowi problemu, ale we wzmacniaczach lampowych możemy doprowadzić do zniszczenia lamp pracujących w stopniu końcowym, a więc tych najdroższych. Głośników nie zepsujemy. Mówiąc krótko: prawie zawsze możemy podłączyć do wzmacniacza głośniki o większej oporności niż znamionowa i nigdy nie wolno robić na odwrót: włączać o mniejszej oporności. O wiele bardziej frapujące są przypadki, gdy z pozoru wszystko robimy zgodnie z fabrycznymi zaleceniami, a dochodzi do katastrofy. Możemy na przykład dokonać tego dzieła (zniszczenia głośnika), podłączając go do znamionowego wzmacniacza i przy ułamku dopuszczalnej mocy. W przypadku głośników niskotonowych poprzez „roztrzepanie”. Przyczyna w tym, że urządzenia te, obecnie najczęściej, są dostosowane do pracy w zamkniętej obudowie. W takich warunkach powietrze tłumi ruchy membrany, o ile oczywiście objętość owej obudowy nie jest za wielka. Parametr ten zazwyczaj jest podawany w katalogach, choć dopytać się o niego sprzedawców jest ciężko. Tak czy owak, trzeba zapamiętać, że gdy kupujemy głośnik niskotonowy, to powinniśmy otrzymać informację, ile litrów ma znamionowa, fabrycznie przewidziana obudowa, w jakiej zostanie on zamknięty. Założenie do obudowy o mniejszej objętości spowoduje obcięcie dołu przenoszonego pasma. W większej obudowie albo obudowie innego typu, bardzo popularnych ostatnio bass-reflex czyli z otworem (tunelem), obudowie z otworem stratnym ryzykujemy zniszczenie urządzenia. Trzeba zmniejszyć maksymalną możliwą moc doprowadzoną do głośnika. Roztrzepaniem głośnikom niskotonowym grozi także doprowadzenie za niskiej częstotliwości ze wzmacniacza. W przypadku pracy w zamkniętej o znamionowej pojemności obudowie jest to mało groźne, jednak gdy dokonano jakichś przeróbek np popularnego malowania membrany obniżającego częstość rezonansową, ale i zwiększającego dobroć, trzeba uważać. W przypadku obudów z otworem, zarówno bass-refleksowych jak i z otworem stratnym, głośniki poniżej dolnej częstotliwości, do której obudowa została dostosowana, pracują jak bez obudowy i bardzo łatwo przekroczyć dopuszczalną amplitudę wychylenia cewki. Generalnie warto przyjąć zasadę, że gdy coś kombinujemy, to moc doprowadzana do głośnika powinna być mniej ok. 10 razy od jego mocy znamionowej, a podczas eksperymentów będziemy pilnie obserwowali, co się dzieje.

Dość częstym przypadkiem jest spalenie się głośników wysokotonowych w kolumnach. Dzieje się tak zwłaszcza wówczas, gdy do nagłośnienia „imprezy” użyjemy zestawów domowych. Wypadek następuje w momencie wystąpienia sprzężenia akustycznego pomiędzy głośnikami a mikrofonem, charakterystycznego gwizdania aparatury, gdy ktoś za bardzo podkręci wzmocnienie. Przyczyna przepalenia tkwi w tym, że głośniki wysokotonowe w kolumnach domowych zazwyczaj mają (wytrzymują) tylko ułamek mocy całego zestawu. Takie rozwiązanie bywa także stosowane w zestawach estradowych i wynika z tego, że w normalnych warunkach w tonach wysokich jest bardzo mała moc, a prawie wszystko idzie w zakres basowy.

Poniekąd pokrewnym głośnikowi, a poniekąd całkiem z innej parafii elementem jest przekaźnik. To także urządzenie elektro-mechanicze. Zidentyfikujmy go, czyli przyjrzymy się kto zacz? Można zacząć od tego, że to dość dziwna konstrukcja, bo to wyłącznik (włącznik?) elektryczny uruchamiany prądem. Tak na zdrowy rozum lekko bez sensu, bo skoro już jest jakiś sygnał elektryczny, to zamiast wysługiwać się pośrednikiem (przekaźnikiem) może od razu sam zrobić, co trzeba? No, ale dzięki temu pośrednikowi możemy na przykład posterować za pomocą słabego sygnału urządzeniami o wielkiej mocy. Przekaźniki przez długi okres czasu były produkowane „na jedno kopyto”. Był elektromagnes napędzający kotwicę poruszającą styki. W klasycznej konstrukcji mamy zazwyczaj komplet styków przełączanych przy włączonym i wyłączonym prądzie elektromagnesu. Te urządzenia dawało się rozbierać, naprawiać i przerabiać. Obecnie mamy szereg patentów, od próżniowych kontaktronów do przekaźników ze stykami zwilżanymi rtęcią. Oczywiście nierozbieralnych. Zasada ich działania jest taka sama, ale niektóre parametry dość znacznie się różnią. W przypadku „zwykłego” przekaźnika możemy się spodziewać, że od podania sygnału do zamknięcia styków upłynie od kilku dziesiątych sekundy do kilku setnych. Czas zadziałania kontaktronów wynosi ok. 1/1000 sekundy. „Normalne” kontaktrony (przekaźniki kontaktronowe) są rozłączone przy wyłączonym napięciu, choć spotyka się przełączane. Przekaźniki dziś wydają się nietechnologiczne, lecz moim zdaniem w jednorazowych konstrukcjach znakomicie się sprawdzają. To jeden z niewielu elementów elektronicznych, którego działanie daje się sprawdzić (nie zawsze) bez multimetru. Przekaźniki warto zawsze stosować dla oddzielania układu elektronicznego od sieci energetycznej, obwodów, w których płyną duże prądy (w samochodach). W wielu wypadkach nawet wówczas, gdy sterowane prądy są niewielkie, zastosowanie przekaźnika ma zbawienny wpływ na trwałość urządzenia. Oddziela on bowiem bardzo radykalnie obwody, likwiduje sprzężenia i magnetyczne i pojemnościowe. Mniejsza cóż to za klątwy, ale warto wiedzieć, że jeśli mamy do posterowania na przykład silnik komutatorowy, grzejnik dużej mocy, a nawet jakiś małe urządzenie, ale pracujące w sieci, w której są zakłócenia (np ktoś dalej włączył spawarkę), zastosujmy przekaźnik. No i na koniec o tym, jak nie zepsuć. Jest oczywiste, że nie wolno przyłożyć do cewki elektromagnesu za wysokiego napięcia. Ale, tu miła niespodzianka, na krótki czas można. Po prostu, nim uzwojenie się nie nagrzeje, nie nastąpi uszkodzenie. Tę sztuczkę stosuje się dla przyspieszenia działania przekaźnika. Czasami przedłuża ona jego żywotność, gdyż zmniejsza czas palenia się łuku pomiędzy stykami. Pomaga to zwłaszcza gdy zastosujemy „odwrotny” tryb pracy, tzn. przy wyłączonym prądzie elektromagnesu obwód sterowany jest włączony, zaś rozłączany przy jego zasileniu (przy przyciągniętej kotwicy). Przy wyłączaniu obwodu sterowanego powstaje największy łuk i zastosowanie krótkotrwałego forsowania dużym prądem elektromagnesu sterującego kotwicą, skróci czas trwania tego groźnego dla styków zjawiska. Przy rozłączaniu prądu zasilającego cewkę napięcie samoindukcji może być groźne dla elektroniki. Radykalnie załatwia sprawę dolutowanie diody zamykające obwód dla tego impulsu. Jednak ta dioda przedłuża czas wyłączenia styków. W większości wypadków nie ma to żadnego znaczenia, ale można przyspieszyć przerwanie przepływu prądu przez cewkę włączając dodatkowo diodę Zenera. Najczęstszą przyczyną zepsucia przekaźnika jest przekroczenie maksymalnego napięcia lub prądu, jakie można przyłożyć na styki. O ile jest dość zrozumiałe, że duży prąd spowoduje „przysmażenie” (zgrzanie) styków to napięcie, jako krytyczny parametr, jest pewnym zaskoczeniem. Autor przekonał się na własnej skórze, że zwłaszcza przekaźniki kontaktronowe są czułe na ten parametr.

Kolejnym elementem sprzęgającym są tyrystory. Bardzo podobne do nich w działaniu są triaki, a jednocześnie wygodniejsze w użyciu. Tyrystor na trzy elektrody. Do jednej przykładamy „+” napięcia, który chcemy sterować, do drugiej „-„. Elektrody te, w analogii do diody, nazywamy anodą i katodą. Trzecia elektroda, zwana bramką, steruje urządzeniem. Podanie na nią krótkiego rzędu mikrosekundy impulsu („plusa”) powoduje załączenie tyrystora. Następuje trwały przepływ prądu pomiędzy anodą a katodą. Jego przerwanie spowoduje dopiero zanik napięcia w głównym obwodzie. Taki tryb pracy jest wykorzystywany w tzw. sterowaniu fazowym za pomocą tyrystora mocą w urządzeniach pracujących w obwodach prądu sieciowego 50 Hz. W każdym półokresie układ sterujący po odczekaniu ustawionej jego części załącza tyrystor, po czym zanik napięcia sieciowego powoduje wyłączenie przepływu prądu przez tyrystor. Zapłon tyrystora trwa bardzo krótko rzędu mikrosekundy przez co np. ściemniacze są źródłem silnych zakłóceń, zwłaszcza na falach średnich. W chwili obecnej tyrystory są stosowane raczej w układach elektronicznych (między innymi w telewizorach). W typowych układach energoelektronicznych bywają składnikami tzw. falowników, czyli urządzeń zamieniających prąd stały na przemienny. W układach sterowania mocą prądu przemiennego stosujemy triaki. Tyrystor przewodzi tylko w jednym kierunku, w związku z tym układ musi zawierać jeszcze mostek Greatza. To nie tylko dodatkowe elementy, ale także dodatkowe, choć niewielkie straty mocy. Triaki przewodzą w obu kierunkach, w związku z tym są łatwiejsze do zastosowania. Triaki i tyrystory można potraktować jako elementy przejściowe pomiędzy elektroniką i elektrotechniką. W chwili obecnej oddziela się je fizycznie od reszty układu za pomocą optotyrystorów i optotriaków. Są to elementy zawierające w jednej obudowie diodę świecącą oraz tyrystor bądź triak połączony z fotodiodą, bądź posiadający odpowiednio zbudowany, uczulony na światło obszar bramki. Świecąca fotodioda jest oddzielona od tyrystora bądź triaka warstwą izolacji wytrzymującą duże napięcie. Błysk jej światła uruchamia (włącza) przepływ prądu w triaku lub tyrystorze. W ten sposób obwód sterujący jest bardzo dobrze oddzielony od części sterowanej, wysokoprądowej, w której mogą wystąpić przepięcia, czyli krótkotrwałe impulsy (znacznie krótsze od okresu napięcia sieciowego). Optotriak lub optotyrystor mogą bezpośrednio stanowić element wykonawczy układu sterującego, np. można włączyć w jego obwód grzejnik. Mogą także sterować triakiem lub tyrystorem o dużej mocy.

Nieszczęścia przy stosowaniu elementów energoelektronicznych biorą się z braku doświadczeń z pracą z dużymi prądami i napięciami, oraz elementami elektrotechnicznymi. Po pierwsze, nie liczmy, że choćby wkładka bezpiecznikowa („aparatowa”) w wypadku zwarcia uchroni taki element. Owszem, często mamy to szczęście, ale czas zadziałania wkładki jest zbyt długi, by efekt ochronny był pewny. Owszem są bezpieczniki dość szybkie, lecz i dość drogie, by ich stosowanie było problematyczne. Najlepszą metodą ochrony triaków i tyrystorów przed zwarciami jest taka konstrukcja, że do tych zwarć nie dochodzi. Bezpiecznik trzeba wsadzić, żeby chałupa się nie sfajczyła, ale to trochę inne zagadnienie. Inną zmorą elektrotechniki są poluzowane łącza. Triaki i tyrystory bywają często przykręcane. Takie łącze z rozkręconymi śrubkami w obwodach z napięciem sieciowym, rozgrzewa się do kilkuset stopni i oczywiście półprzewodnik diabli wezmą. Kolejna sprawa, to bezpieczne odległości pomiędzy elementami pod napięciem. Czasami zwie się ten problem „zwarciami zabrudzeniowymi”, pewnie niezbyt po polsku. Chodzi o to, że o ile szczelina 1 mm pomiędzy ścieżkami wytrzyma kilkaset Voltów, to jak siądzie na niej kurz, a na kurzu osadzi się wilgoć, to mamy piękne bum. To samo może się zdarzyć, gdy po płytce zacznie spacerować mucha. Generalnie trzeba pamiętać, że triaki i tyrystory są układami sprzęgającymi tradycyjną elektronikę z czymś innym i że po tym elemencie, z drugiej strony płytki, trzeba przyjąć zupełnie inne zasady pracy.

Czujniki temperatury są w chwili obecnej już w prawie powszechnym użyciu. Wiele zegarów elektronicznych ma dodatkowy bajer w postaci termometru. Najprostszym czujnikiem może być zwykły kawał drutu. Opór przewodników metalowych rośnie z temperaturą, co ważniejsze jest to z dobrą dokładnością przyrost liniowy, choć niestety zmiany są bardzo małe rzędu 0.4 % na stopień. Dzięki temu, że zmiany oporu możemy za pomocą układów mostkowych mierzyć z wielką dokładnością, czujniki z opornikami metalicznymi mogą posłużyć do wykonania czułych i dokładnych termometrów. W praktyce możemy się spotkać z platynowym czujnikiem PT100 w różnych wykonaniach. Jest to różnych rozmiarów od ok. 3 długości do pastylki kilka na kilka milimetrów ceramiczny zasobnik z dwoma końcówkami. W środku ma „jakoś” wykonany opornik z platyny, np. nawinięty drut, albo napyloną ścieżkę przewodzącą. PT100 ma 100 omów w temperaturze 0 stopni Celsjusza. Wytrzymuje szeroki zakres temperatur, można go wsadzić do piekarnika. Innym popularnym bardzo typem czujnika jest termistor. Są to kawałki półprzewodnika, lecz nie szlachetnego, z którego możemy wykonać tranzystor, lecz polikrystaczne, albo wręcz amorficzne kawałki. Doczepia się do nich dwa wyprowadzenia. Termistory zazwyczaj bardzo silnie reagują na temperaturę, najczęściej spotykamy takie, których opór maleje z jej wzrostem, ale są i „odwrotne”. Niestety, zależność oporu od temperatury jest nieliniowa (zwykle przypomina wykres eksponenty) i co gorzej, elementy te potrafią „płynąć” w czasie. Nadają się do konstruowania regulatorów utrzymujących zadaną temperaturę.

Innym typem czujnika są układy scalone, które także są produkowane w postaci tym razem plastykowej pastylki, lecz z dwoma wyprowadzeniami. Istnieją tak skonstruowane źródła prądowe o oporności dynamicznej rzędu 100 mega omów. Przekładając to na ludzki język, układ przepuszcza przez siebie prąd zależny od temperatury, natomiast praktycznie niezależny od określonego w parametrach eksploatacyjnych zasilającego go napięcia. Po co takie cudo? Do pomiaru temperatury w odległych miejscach. Gdybyśmy mierzyli za pomocą czujnika PT 100, wówczas w odczyt wejdą nam zmiany oporności przewodów, a także oporności styków. Mając taki scalony czujnik, nie musimy się już o to martwić.

Czujnikiem temperatury może być też zwykła dioda. Ma ona liniową zależność napięcia przewodzenia od temperatury. Pomiaru dokonujemy, zasilając diodę stałym prądem. Istnieją gotowe układy doskonałych termometrów diodowych. Pracują one do około 130 stopni Celsjusza od około minus 30 stopni.

Co jest najczęstszą wpadką w przypadku czujników temperatury? Ich zniszczenie jest na ogół rzadkim przypadkiem. Zazwyczaj także konstruktorzy nie zasilają czujników groźnymi dla nich napięciami. W przypadku PT 100 bywa, że urwie się końcówka, to raczej tyle, co grozi. Natomiast bardzo często konstruktorzy przeceniają dokładność czy to wyznaczenia punktu stabilizacji, czy dokładność termometru. Tak zwana dokładność bezwzględna to problem wyskalowania (wzorcowania) termometru: nawet fabryczne konstrukcje rzadko osiągają bezwzględną dokładność rzędu 0,1 stopnia, choć producenci takie dane chętnie deklarują, mrużąc jednak oko, jak dobrze instrukcję poczytać. W przypadku urządzeń amatorskich, musimy sami sprawę ocenić. Zaczyna się oczywiście od błędów naszego skalowania. O ile dokładność wyznaczenia punktu wrzenia wody jest zazwyczaj dobra, to drugi punkt, 0 stopni Celsjusza otrzymujemy zazwyczaj z dokładnością ok. 1 stopnia „plus minus”. Lecz nie dość tego. Choć zazwyczaj chodzi nam o mierzenie zmian względnych, to niestety, termiczne zmiany parametrów elementów elektronicznych powodują, że realnie dla pomiarów wykonywanych na przestrzeni dnia, możemy mówić o rozdzielczości rzędu kilku dziesiątych części stopnia. Jeśli chcemy, aby zbudowane urządzenie zachowywało się lepiej, to musimy sięgnąć po środki specjalne. Świadomie tu pominąłem chętnie stosowaną przez fizyków metodę termoparową. Jest ona znakomita, ale do laboratorium.

W chwili obecnej najpopularniejszym czujnikiem światła są fotodiody i fototranzystory. Mamy także szereg scalonych odbiorników, gotowce do układów sterowania za pomocą podczerwieni. Gotowce mogą sprawić szereg niespodzianek np. odbierać sygnały z jedną częstością podstawową. Generalnie musimy mieć aplikację, schemat podłączenia czegoś takiego, zawierający także część nadawczą. Dla majsterkowicza zazwyczaj najwygodniejsze do eksperymentów są elementy „dyskretne”. Fotodioda z elektrycznego punktu widzenia jest diodą. Włączamy ją do układu w kierunku zaporowym lub w ogóle bez zasilania. Nieco paradoksalnie ten drugi sposób pozwala wydusić z elementu maksymalną czułość na światło.

Fototranzystory przy tym samym oświetleniu dają większy sygnał niż fotodiody, lecz nie pozwalają rejestrować niższych natężeń światła. Zarówno fotodiody, fototranzystory, jak i coraz rzadziej spotykane fotooporniki rzadko są niszczone. Niepowodzenia, a nawet klęski biorą się ze zbyt wygórowanych, jak w przypadku elektronicznych termometrów, oczekiwań co do urządzeń. Zazwyczaj dotyczy to spodziewanej czułości. Konstruktorom wydaje się, że wystarczy dołożyć dość wspaniały wzmacniacz, a da się wykryć światło świeczki zapalonej na Księżycu podczas nowiu. Ograniczeniem są szumy i prądy ciemne, płynące bez oświetlenia w jednym i drugim przyrządzie. W układach odbiorczych sygnałów wysyłanych z „pilotów” do sterowania np. telewizorem czy magnetowidem, w dzisiejszych czasach czułość nie stanowi poważnego ograniczenia. Natomiast majsterkowicze wojują z nią w wszelkiego rodzaju barierach fotoelektrycznych, czyli fotokomórkach zazwyczaj kontrolujących dostęp do określonego obszaru. W takim wypadku ogromne, znacznie większe od zastosowanych elementów elektronicznych, ma prawidłowa budowa układu optycznego. To kolejny przykład problemów „interfejsowych”. Warto sobie uświadomić, że ustawienie przed fotodiodą soczewki o średnicy 20 mm, w sytuacji gdy wielkość powierzchni fotoczułej wynosi kilkanaście mm kwadratowych, zwiększy ilość padającego światła na złącze kilkadziesiąt razy (co najmniej dwudziestokrotnie). Oczywiście, pod warunkiem, że układ zostanie dobrze zjustowany. Jak się można przekonać, nawet w artykułach publikowanych dobrych czasopismach (stary „Radioelektronik”, ech to były czasy!), w projektowaniu łącza fotoelektrycznego bardzo wiele poświęca się sprawom elektronicznym, natomiast bardzo niewiele „optyce prostej”. Co więcej, w tego typu urządzeniach (bariera fotoelektryczna) problemem nie jest zazwyczaj uzyskanie największego sygnału, lecz największego stosunku sygnał-szum, sygnał-optyczne zakłócenia. Z tym problemem może sobie poradzić tylko układ optyczny. Banalnym przykładem jest projektowanie osłon na elementy fotoczułe. Zazwyczaj autorzy wspominają tylko, że coś takiego warto zrobić, w najlepszym wypadku mówią o długiej czarnej rurze. Otóż układ optyczny, w najprostszym przypadku odpowiednia osłona, ma zapewnić, by do czujnika dochodziło światło tylko z oświetlacza (nadajnika). Spoglądając w czarną rurę, bez trudu dostrzeżemy refleksy na jej ścianach. Sytuację poprawi wklejenie kołowych przesłon, ale oczywiście trzeba zwiększyć średnicę rury. Rozwiązanie z pozoru banalne, trzeba jednak przemyśleć bieg promieni, dobrać średnicę otworów w zależności od elementu fotoczułego i długości rury, generalnie, tak prosta sprawa, zdawałoby się, wymaga sporo zachodu. W przypadku gdy oświetlacz emituje promieniowanie podczerwone, sytuację poprawi także umieszczenie filtra na podczerwień. Możemy tu zastosować czarny kawałek przeźrocza, który zazwyczaj ma takie własności optyczne. Najlepiej zastosować diodę z fabrycznie założonym filtrem, są takie w sprzedaży. Generalnie jest to kolejny przykład, że aby uniknąć klęski i rozczarowań, trzeba się znać nie tylko na elektronice, ale i na tej drugiej dziedzinie obsługiwanej poprzez element sprzęgający.

Wniosek z całości jest trochę humanistyczny. Jeśli chcemy, aby nasza wiedza była „żywa”, prowadziła do jakichś rezultatów, musimy być trochę jak Cyrus Smith. Nic po bieganiu elektronów drucikach, choćby najbardziej zaskakującym, najbardziej finezyjnym, jeśli nie ma czegoś, co przełoży jego skutki na dostępne naszym zmysłom. Cała robota musi mieć na celu ten przekład. Aby był skuteczny, trzeba mieć pojęcie o wielu sprawach, a nie zamykać się w jednej dziedzinie.

 


< 28 >