Archiwum FiF
fahrenheit on-line - archiwum - archiwum szczegółowe - forum fahrenheita - napisz do nas
 
publicystyka

<|<strona 16>|>

Na Czapajewa

 

 

Każdego człowieka to nachodzi. To się może nazywać ból istnienia, ale zasadniczo jest chwilą zastanowienia, pytania co ja tu robię, po co, do czego to wszystko zmierza. Czasami zbudzisz się w nocy i masz ochotę zawyć, albo coś takiego. A czasami zaczynasz się zastanawiać co ONI robią, zwłaszcza że za Twoje pieniądze.

W swoim dawnym już bardzo czasie wierzyłem, że sens ma postęp. Zawsze warto zastanawiać się jak zrobić by się jak najmniej narobić, albo to co się robi zrobić lepiej. Zawsze największą estymą cieszyli się u mnie wszelkiego rodzaju wynalazcy i badacze. No i stało się. Razu pewnego wkroczyłem w bramy instytucji naukowej i...

Co oni tu robią? Co ja tu robię? Czy to jest jakiś postęp, czy to wszystko ma jakiś sens? Czy sens ma tracenie ślepiów nad papierzyskami, klawiaturą i ekranem? Czy sens ma ten czas, latek straconych już niebagatelna ilość? Co właściwie chcemy osiągnąć, bo pytanie, czy czasami może, jakimś psim swędem cokolwiek się udało jest bez sensu. Nic się nie udało. W szafach skłębione druciska polutowane tranzystory, jakieś pudła z wystającymi drutami itd.

Zupełnie czym innym jest filozoficzny problem sensu bytu, zupełnie co innego to praktyczne zagadnienie, jak mianowicie dokonuje się postęp. Sensowność działania jednostki nie może podlegać, przynajmniej przy obecnym stanie wiedzy jakiejś racjonalnej ocenie. Sprawa bowiem opiera się na systemie wartości, jeden lubi pić i popołudnie bez picia uzna za stracone, inny włosy by z głowy sobie rwał, że stracił czas i pieniądze, bo jego zasadniczym celem jest prowadzenie interesów. Pewnie to jakoś tak wygląda. Można jeszcze dywagować, że ów co pije w pewnym momencie żałował będzie, że nic nie ma, ale i ten co interesy prowadzi, nawet gdy żyje w harmonii, poświęcał czas rodzinie, dzieci wychował i wykształcił, żon nie zmieniał, dnia któregoś może stwierdzić, że jednak całkiem nie o to chodziło.

Postęp jest rzeczą dobrze uchwytną, dobrze określoną. Nikt nie ma wątpliwości (poza filozofami), że dziś żyje się lepiej niż 60 lat temu. Jak znajdzie się malkontent, to proszę bardzo, można sobie zrobić powrót do natury. Nawet niektórzy sobie robią, ale zdecydowana większość nie. I tą metodą łatwo można stwierdzić do jakich warunków ludzie dążą, poprawiło się czy pogorszyło. Jest to obiektywny pomiar...

Myślę, że normalnemu człowiekowi od tych wywodów już się flaki przewracają. Czy można dyskutować, czy lepsze są okna szczelne, czy też dziurawe? Czy jest sens zastanawiać się, czy lepiej mieć w mieszkaniu wodociąg z ciepłą wodą, czy nosić wodę ze studni? Czy lepiej siedzieć wieczorem przy elektrycznej żarówce (albo energooszczędnej świetlówce) niż przy lampie naftowej?

No więc niestety pojawili się ludzie, którzy poważnie stawiają takie pytania. Sami raczej odpowiadają na nie zgodnie ze zdrowym rozsądkiem, to znaczy że lepsze jednak okna szczelne. Odpowiadają jednak nie za pomocą słów, ale kupując te szczelne okna w sklepie. Nie jest bynajmniej to dla mnie zagadnienie zasadnicze, ale chciałbym to podkreślić: z postępem trzeba uważać. Nie wszystko co nowe ułatwia życie. Bywają rzeczy które są efektem nieporozumienia, mody kampanii reklamowych, wreszcie takie, o których przysłowie mówi ,,zamienił siekierkę na kijek’’ (stryjek).

Postęp to także bomba atomowa... Był czas, gdy stawała się ona poważnym argumentem przeciw kontynuowaniu badań naukowych w ogóle. Otóż właśnie: co z takimi odkryciami, których lepiej, żeby nie było? Co wreszcie z postępem w dziedzinie astronomii, czy historii? Czy cokolwiek to poprawia w naszym życiu? Sprawa nie jest jednak taka prosta. Gro odkryć niczemu nie służy w powszechnym odczuciu. Diabli wiedzą po co grzebią się przeróżnej maści matematycy w jakiś przedziwnych konstrukcjach, które po bliższym przyjrzeniu się wyglądają na dziecięce układanki.

Czym zajmują się fizycy doświadczalnicy? Włos na głowie się jeży inżynierom. Tematem mojej pracy magisterskiej były tzw. cienkie warstwy wysepkowe. Co to za dziwo? Powstaje tak: bierzemy płytkę wykonaną ze szkła szafirowego (syntetyczny szafir, bo naturalny jest zbyt zanieczyszczony) umieszczamy w aparaturze próżniowej i naparowujemy na ów szafir co nieco srebra. Ile, to jest zagadnienie kluczowe. Bardzo mało, tak mało, że gdyby nam się to srebro grzecznie rozsmarowało równo po powierzchni szafiru, atomy nie zakryłyby nawet całej powierzchni.

A co oznacza zwrot ,,naparowywanie srebra’’? Umieszczamy trochę srebra w naczyńku uformowanym z molibdenowej folii. Molibden to metal o bardzo wysokiej temperaturze topnienia. Przez folię przepuszcza się prąd i tym sposobem ogrzewa się do temperatury wyższej od temperatury topnienie srebra. W takich warunkach, w próżni srebro paruje, atomy odrywają się od powierzchni i lecą we wszystkich kierunkach, na ogół po liniach prostych, jak promienie światła. Trafiają na naszą płytkę i przylepiają się do niej obrazowo mówiąc. Ale proces nie jest taki prosty, atomy srebra silnie same się przyciągają, w rezultacie powstają wysepki złożone z kilkuset tysięcy, kilku milionów atomów.

Gdy się tego srebra napuści nieco więcej w końcu zwyczajnie powstanie w miarę równa warstwa. Ja jednak zajmowałem się takimi jeszcze nie litymi. Co więcej, były to warstwy, napylane pomiędzy dwoma elektrodami. Chodziło o uzyskanie takiego stanu, że nie było jeszcze ciągłego przejścia po metalu pomiędzy tymi elektrodami. Pomimo tego, że istniały przerwy izolatora taka próbka przewodziła prąd jednak bardzo kiepsko, miała ogromny opór.

Zapewne sądzisz czytelniku, że owe eksperymenta miały za zadanie stworzenie jakiejś wyjątkowo wybitnej technologii dla przemysłu elektronicznego. Tak naprawdę tematem mojej pracy było stwierdzenie czegoś, czego się wszyscy spodziewali: kiepsko byłoby z fizyką, zwłaszcza z mechaniką kwantową, gdyby mi wyszło inaczej. Ale nie o tym rzecz.

Sytuacja bowiem, co warto zauważyć, była taka: oto stworzono pewien układ fizyczny, wielkim nakładem pracy, taki, którego w naturze nie ma. Stworzono dziwny układ, szczerze mówiąc zagmatwany. Nagminnie bowiem na owe warstwy jeszcze doparowywałem soli. Była zwykła kuchenna, ale to szczegół. Rzecz w tym, że do zastosowań technologicznych owego cuda, jak od nas do Ameryki, albo Australii.

Patrząc z boku, nawet z podwórka fizyka, wygląda to na szczere zabawy. Oczywiście na początku ludziom się marzyło zastosowanie owego cudaka jako sposobu na produkcję oporników o wyjątkowo wielkich wartościach. Ale owe ,,cienkie warstwy wysepkowe’’ są niestabilne, po kilku godzinach do naparowania potrafią tak zmienić swoje własności, że do niczego się nie nadają. Nie znaleziono sposobu na ich ustabilizowanie, natomiast znaleziono wiele lepszych sposobów na produkcję dobrych oporników. Więc po co?

Zawieśmy to pytanie na razie na haku. W świętym spokoju, bo odpowiedź na nie nie jest oczywista nawet dla mnie. Można odpowiedzieć bowiem banalnie: żeby wiedzieć, że się nie da i to już jest coś, wystarczająco wiele, by narobić się jak głupi po kilkanaście godzin dziennie przez cały rok. To warto także przypomnieć, że ludzkość ma całe składowiska z księgami w których opisano to, co się nie da. Wszyscy wiedzą o tym, budowa perpetuum mobile, maszyny wiecznego ruchu jest synonimem daremnej roboty, jednak znam co najmniej kilka osób które na takie roboty tracą nie tylko czas, ale i majątek. Dobrze wiedzieć, że to planuję nie ma sensu. Tym niemniej jednak w przypadku takich fizycznych ciężkich robót, bo trudno nazwać to eksperymentami, owa negatywna odpowiedź nie jest wypowiadana dostatecznie mocno. Odpowiedź na pytanie co badać i jak bardzo się w to zaangażować to cała sztuka.

Wynalazkiem, wokół którego kręci się nasza cala cywilizacja, jest koło. Zasada działania koła jest prosta: w zasadzie. Ludzi, którzy potrafią dokumentnie wyjaśnić dlaczego opłaca się stosować koło spotyka się rzadko. Nie jest bowiem prawdziwe wyjaśnienie, że tarcie toczne jest mniejsze od posuwistego: jest ale nie o to chodzi. To bowiem wyjaśnia dlaczego można było transportować kamienne bloki podkładając pod nie drewniane okrągłe drągi. Natomiast gdy założymy koło od wozu na oś to tarcie posuwiste z przenosi się właśnie na owe powierzchnie styku osi i koła. Ale droga, jaką wykonuje obracająca się piasta, jest wielokrotnie mniejsza od drogi koła. Z tej przyczyny im cieńsza oś, albo im większe koło, tym mniejsze opory ruchu, bo tym mniejsza droga zakreślona przez punkty na powierzchni piasty.

Zapewne facet, który po raz pierwszy konstruował ów skomplikowany aparat nie przeprowadzał tak finezyjnych rozumowań. Pewnie zrobił to na ,,czuja’’ i zadowolony, że działa rzecz sąsiadom pokazał, ale nie objaśnił, bo nic by nie zrozumieli. Tak, czy owak, wydarzenie miało zasadniczy wpływ na bieg zdarzeń na naszym świecie. Trzeba przypomnieć, świetna kultura, która zbudowała miasto--świątynię zwana Głowa Cukru, nie doświadczyła podobnego szczęścia. Indianie nie znali koła, albo nie umieli się nim posługiwać: budowali drogi, na których można było spotkać w bardziej stromych miejscach schody. Wózki jeżdżące na schodach spotyka się masowo w supermarketach w USA, ale one należą jednak do kręgu kultury śródziemnomorskiej, choć składowane nad Atlantykiem.

Historię tę opowiadam bo jest dla mnie autentyczną zagadką, dlaczego pewne rozwiązania techniczne gdzieś się pojawiają, inne kultury uparcie ich nie dostrzegają. Właśnie: to chyba dobre określenie: uparcie nie dostrzegają. Uczciwie mówiąc, trudno sobie wyobrazić, by wiercąc dziury świdrem, tocząc kamienie, podkładając owe okrągłe drewniane belki na pomysł koła nie wpaść. Być może rodząc się w kulturze stojącej na kole, będąc wożony w wózku, nie dostrzegam całej egzotyczności owego pomysłu gdy wziąć pod uwagę konstrukcje biologiczne, gdzie ani śladu koła.

Mam na ten temat swoją teorię: nie to jest istotne, by koło wynaleźć, ale to by wynalazek został przyjęty. Są różne etapy rozwoju kultury, są ślepe zaułki. Kultura, jak sama nazwa wskazuje to nie suma wiedzy, zwłaszcza technicznej. Coś powodowało, że ludzie nie interesowali się nowinkami.

Z naszej perspektywy postęp oceniamy jako dobro zasadnicze, raczej nikt nie poddaje w wątpliwość jego sensu. Jednak jeszcze Platon miał koncepcję państwa całkowicie statycznego, przynajmniej tak to relacjonuje Popper. Chyba nie do końca to było tak, bo ten w swoim czasie bardzo u nas ceniony myśliciel jakoś wyjątkowo nie lubił swego kolegi po fachu ze starożytności, ale coś w tej interpretacji jest. Zostawmy dywagacje, co kto chciał powiedzieć, zajmijmy się sprawami praktycznymi.

O ile np. z punktu widzenia człowieka współczesnego, zwłaszcza historyka powstanie koła garncarskiego miało zasadnicze znaczenie, to z punktu widzenie prehistorycznego garncarza, czy jego klienta sprawa była dosyć kontrowersyjna. Z dużym prawdopodobieństwem można założyć, że rzemieślnik zaspokajał cały ówczesny popyt na naczynia. Szans zdobywania nowych rynków z uwagi na stan autostrad w owym czasie, oraz stopień zaludnienia, raczej nie miał. Pewnie nie wpadło mu nawet do głowy, że można próbować szukać osad gdzieś za lasem. No im lepił po swojemu. Może nawet czasem lepił ręcznie, czasami na kole, jak kiedy miał humor. Ludziskom może w końcu bardziej się spodobały garnki z koła, ale podejrzewam, że po pierwszych zachwytach tracili pewność: krzywe i okrągłe jednakowo spełniały swe zadanie.

Dziś już to wiemy na pewno: istnieją tzw. obiecujące technologie. Nikt o tym nie wie już dziś, że radia tranzystorowe były długo gorsze od lampowych. Nie wiem czy do dziś dorównały im w kilku zasadniczych parametrach. Pierwsze tranzystory miały tylko jedną zaletę: mały pobór energii. Poza tym były z elektrycznego punktu widzenia po prostu tragicznie złe. Były bardzo nieodporne na uszkodzenia. Starzy radiowcy pamiętają wspaniałe lampy EF 80 pentody, powszechnie stosowane we wzmacniaczach wysokiej (pośredniej) częstotliwości, triody które można było przysmażyć, gdy przy majstrowaniu zwarła się siatka z anodą, lampa robiła się w środku czerwona, ale zazwyczaj wytrzymywała. Tranzystor padał przy pierwszym obsunięciu się łapy ze śrubokrętem. Miało to moce rzędu 0.1 wata, co owocowało kłopotami przy doborze warunków pracy.

Jednym z istotniejszych parametrów odbiornika tranzystorowego jest selektywność. Mówi nam ona o zdolności do wybrania z zatłoczonego eteru stacji, na której nam zależy. Ta selektywność to wynik kilku parametrów (min selektywności, czegoś co się mierzy). Jeden z nich ma karkołomną nazwę ,,odporność na modulację skrośną’’. Chodzi o to by można było słuchać słabej radiostacji obok której nadaje inna silna. W takich okolicznościach ów parametr decyduje. No więc urządzenia z tranzystorami przepadały w zawodach z lampowymi gdy chodzi o tę właściwość.

Przyczyna tkwiła w samej zasadzie konstrukcji: półprzewodniki bipolarne są z samego urodzenia nieliniowe, a to powoduje takie wymieszanie ze sobą sygnałów, że nie tylko najlepsze filtry, ale sam diabeł nie potrafi ich już rozseparować. Ta jedyna wada uniemożliwiała zastosowanie tranzystora w odbiornikach komunikacyjnych, stosowanych w wojsku, w  łączności morskiej lotniczej i innych tego typu służbach. A jednak wojowano z tym problemem technicznym. Radzono sobie na wiele sposobów, a jednym z najlepszych okazało się praktyczne zrealizowanie jeszcze przedwojennego patentu: tranzystora polowego. Przy okazji wymyślono technologię za której pomocą produkuje się dziś procesory komputerowe.  

Pierwsze tranzystory w  ogóle nie nadawały się do wzmacniania sygnałów radiowych: były za wolne. Sygnały radiowe generują w antenie prądy które zmieniają dla fal długich jakieś 150 tysięcy razy swój kierunek, dla zakresu UKF jest to dziś do 108 milionów razy. Pierwsze tranzystory były w stanie reagować na zmiany do 50 tysięcy razy na sekundę, tzw. tranzystory mocy ,,siadały’’ już przy częstościach rzędu tysięcy razy na sekundę. I jak by się patrząc na to mechaniczną wyobraźnią nie wydawały niesamowite możliwości, to potrzeba było więcej i to więcej lampy spokojnie osiągały.

W rezultacie przez niemal całą moja krótkofalarską karierę trwały poszukiwania tranzystorów o jak największej częstotliwości granicznej. Cały czas trwała wojna technologów o to by w tej dziedzinie osiągnąć przynajmniej tyle, by z karkołomnymi sztuczkami udało się zbudować np. odbiorniki na UKF.

Przyczyna kłopotów z niską częstotliwością graniczną wynikała z technologii. Po opanowaniu metody takiej, jaką obecnie wytwarza się układy scalone (nie dokładnie takiej, ale bardzo podobnej) zarówno parametry tranzystorów się gwałtownie polepszyły jak i spadły koszty produkcji. Pierwsze układy scalone powstały ok. roku 1958 za co w roku 2000 Killby dostał nagrodę Nobla z fizyki.

Pomimo tego jeszcze w latach siedemdziesiątych w naszym kochanym kraju dominowały konstrukcje typu TG 70 które można na zrozumiały język by przełożyć jako T34: doskonały i owszem, pod Kurskiem. Tak w praktyce wyglądało to co się elegancko zwie luką technologiczną.

Lampa patrząc na nią od strony projektanta była niemal idealnym urządzeniem niemal idealnie reagowała. Lampa jest regulatorem: niewielkie napięcia wejściowe sterują wyjściowym prądem. Jest bardzo wygodne, gdy nie ma wpływu zwrotnego: sygnału sterowanego na sterujący. Pożądany jest jak największy wpływ sterującego, zgodnie z nazwą na sterowany. W lampach, niemal z urodzenia wpływ zwrotny został wyeliminowany niemal do zera. W tranzystorach był (jest) on wyraźny.

Jednym słowem same kłopoty. Te i inne wady eliminowały dopiero skomplikowane konstrukcje realizowane w układach scalonych. Na nasze podwórko zawędrowały te rewelacyjne konstrukcje w okolicach połowy lat siedemdziesiątych, wówczas, gdy na Zachodzie przechodzono na technologię polową, nasi inżynierowie dzielnie opanowali bipolarną.

Piszę cały czas mając w pamięci historię wprowadzenia koła garncarskiego. Otóż za pomocą garnków nie sposób wojny wygrać, z tej przyczyny była to technologia niezbyt konieczna. Społeczność nie musiała jej wprowadzać pod groźbą zagłady. Inny wyścig technologiczny, który odbył się w okresie II wojny światowej i który także dotyczył zdobywania coraz wyższych częstotliwości, jak się dzisiaj dosyć powszechnie uważa, zaważył na jej losach świata. Rzecz tyczyła radaru. Dziś w to trudno uwierzyć, ale pierwsze konstrukcje, które miały chronić Anglii miały nieruchomą antenę dipolową, taką, jakiej jeszcze dziś używają krótkofalowcy.

Za odkrywców urządzenia uważa się dwu naukowców amerykańskich z Laboratorium Badawczego Sił Morskich. Byli to dr A.Taylor i L.C. Young. Podczas testów nadajnika radiowego zaobserwowali oni silne zmiany sygnału gdy w pobliżu odbiornika przepływała łódź. Co warto podkreślić, nadajnik i odbiornik znajdowały się na przeciwnych brzegach, a łódź przepływała między nimi, mimo to obserwowano oprócz osłabienia, także wzmacnianie sygnału. Lotnicze zastosowanie radaru zaobserwowano podczas pomiarów wysokości jonosfery. Nadajnik o odbiornik były położone po przeciwnych stronach pagórka, by możliwie najbardziej wyeliminować bezpośredni sygnał nadajnika: chodziło o odbieranie echa od przewodzących warstw jonosfery. Próby odbywały się na falach o długości 71,3 i 41,7 metrów.

Gdy w pobliżu przelatywał samolot, obserwowano wahania sygnału. Działo to się w latach dwudziestych. Za datę odkrycia zjawiska przyjmuje się rok 1922. Jest to o tyle ciekawe, że ówczesne samoloty były niewielkie i nie były tak bardzo ,,blaszane’’ jak współczesne. Długość fali ma tu wielkie znaczenie, bo fala elektromagnetyczna bardzo źle się odbija od przedmiotów nawet metalowych, które mają rozmiary mniejsze od samej fali. Dokładniej, gdy rozmiar obiektu jest mniejszy od ćwiartki długości fali wielkość echa ,,leci na pysk’’. Obaj eksperymentatorzy musieli być naprawdę znakomitymi doświadczalnikami, skoro potrafili w takich warunkach zauważyć i prawidłowo wyjaśnić przypadkowy efekt.

Pierwsze radary nie potrafiły precyzyjnie wskazać kierunku, nie miały tak charakterystycznego ekranu z zielonym, obiegającym go promieniem. A wszystko to na skutek ułomności lamp elektronowych, oraz także elementów biernych, które mogły pracować na częstotliwościach zaledwie kilkudziesięciu MHz.

Te pierwsze radary nie miały obrotowych charakterystycznych parabolicznych anten. Przyczyna w tym, że sam element promieniujący musi mieć rozmiar co najmniej ćwiartki długości fali, by odbiła się ona od jakiejś powierzchni w określonym kierunku, rozmiar tej powierzchni powinien być najmniej równy 10 długościom fali. A miały one wówczas dziesiątki metrów.

Gdy przyszło do konstruowania urządzeń które miały realnie spełnić swe zadanie, Technicy genialnie podrasowali to co dostawali z zakładów lamp. Wystarczyło podnieść napięcie anodowe. Jedną z zasadniczych przeszkód ograniczających częstotliwość pracy lampy, jest czas przelotu elektronów pomiędzy elektrodami. Im wyższe napięcie tym ten czas krótszy. Jednocześnie wyduszono z całkiem zwyczajnych konstrukcji moce, czasami kilkadziesiąt razy większe, niż te na jakie zaprojektowano, a to dzięki owemu napięciu i impulsowej przerywanej pracy. Te sztuczki pozwoliły skonstruować z początkiem wojny praktycznie działające radary morskie i lotnicze.

Posiadali je Niemcy, Amerykanie Anglicy i Francuzi. Ci ostatni mieli swój system zbudowany na czymś innym niż normalne lampy, bo podobno pracował na falach centymetrowych. Gdy zaczęła się wojna, Hitler nie był zbyt zainteresowany rozwojem radaru, zapewne wydawał mu się mało znaczącą sztuczką elektroników, poza tym stanowił raczej broń defensywną. Pomimo tego jednak, jest zaskakujące, że Niemcy, którzy przeprowadzili pierwszą na świecie transmisję telewizyjną, którzy byli w elektronice tak mocno zaawansowani, tak bardzo zostali z tyłu.

Uczeni alianccy bardzo szybko zrozumieli, że aby tę nową technikę doprowadzić do granic fizycznych możliwości, trzeba porzucić klasyczne rozwiązania. Pierwszy angielski system radarowy ,,Chain Home’’ działał na falach krótkich, miał zasięg 100 -- 150 km i nie wykrywał samolotów poniżej 150 metrów. Następny system pracował już na falach odpowiadających dzisiejszemu UKF o długości 1,5 metra, (Chain Home Low) miał podobne kłopoty z nisko lecącymi samolotami. Ostania konstrukcja z okresu wojny pracowała już na zakresie mikrofalowym ok 3 GHz, fale o długości zaledwie 10 cm (Chain Home Extra Low). Zaledwie w ciągu kilku lat udało się podnieść częstotliwość pracy 100 razy. Ostatni krok, od zakresu UKF do mikrofal był możliwy dzięki zmianie technologii.

 To nie jest prawdą, że magnetron został wynaleziony podczas wojny przez Anglików. Mam książkę gdzie jest opisana konstrukcja z 1928 roku. Była to taka ciekawostka, aparat do uzyskiwani drgań o bardzo wysokiej częstotliwości. Najprostsza lampa radiowa, dioda umieszczona w polu magnetycznym. Zasada działania: to rodzaj elektronicznego gwizdka. Prawdę powiedziawszy łatwiej wytłumaczyć jak działa magnetron, niż gwizdek, ale oba urządzenia funkcjonują bardzo podobnie: w jednym strumień powietrza w drugim elektronów wzbudzają drgania.

To co jest zasługą aliantów to zbudowanie magnetronu wnękowego. Tak naprawdę, jest to drobna zmiana w konstrukcji magnetronu z dzieloną anodą, ponoć tuż przed wojną opracowanego przez dwu Rosjan. Czy oni nie jest pewne, ale myślę, że ponieważ już znacznie wcześniej wiadomo było, że znacznie sprawniejszy jest magnetron z dwiema anodami, do wynalazku nie było daleko.

Magnetron był jednym z przyczyn wygrania wojny o konwoje na Atlantyku. Niemcy nie byli w stanie w pewnym okresie nawet odbierać sygnałów radarów Aliantów. Nie mieli urządzeń pracujących na tak wysokich częstotliwościach. A jak na tamte czasy było to naprawdę osiągnięcie magnetron wytwarzał drgania o częstotliwości 10 GHz, to częstotliwość na jakiej dziś pracują satelity telewizyjne np. popularna Astra. Przewaga technologiczna pozwalała pewnie wykrywać niemieckie łodzie podwodne, wystarczyło nawet wystawienie samego peryskopu. U-booty nie mogły się już wynurzać bezpiecznie nawet nocą.

Z tej perspektywy miliony marek utopione w budowę V1 i V2 były absurdem. Rakiety i owszem zadziałały, ale nie dawały najmniejszych szans na uzyskanie jakiś sukcesów militarnych. Jeszcze większym dziwactwem była próba budowy monstrualnych dział w skałach Calais, które miały ostrzeliwać Londyn. Z powodu zasad termodynamiki nie miały one nawet szans zadziałać...

Jedno, co można na pewno powiedzieć, to że komuś brakło wyobraźni. Radar, to urządzenie pomocnicze, nie można z niego wystrzelić, nie można za jego pomocą wybić dziury w burcie statku, zapalić samolotu. Zapewne wojskowym zdawało się, że niekoniecznie potrzebują najlepszego radaru, przecież, tak bardzo skuteczne okazywały się ciężkie czołgi i ciągle ich było za mało. Zapewne z wielką nadzieją patrzono na V2, znakomita broń, tylko celność trzeba poprawić. To prawda, ale odpowiedni system udało Amerykanom zbudować około roku 1972. I była to oczywiście całkiem inna epoka technologiczna.

Tranzystory z jakiegoś powodu zostały uznane na terenie RWPG za urządzenie kapitalistyczne i niewojskowe. Stawiano im wiele zarzutów, jednym z zasadniczych było to, że nie wytrzymywały promieniowania jonizującego. Tak czy owak, socjalistyczna elektronika wojenna jeszcze w okresie Reagana była czysto lampowa.

Rosjanom po II wojnie światowej, dzięki kilku konstruktorom udało się szybko i skutecznie rozwinąć technikę rakietową. Wykradzenie technologii broni jądrowej i termojądrowej gwarantowało zachowanie wystarczającej w stosunku do USA potęgi militarnej. Szybko też uzyskano dzięki eksperymentom kosmicznym wrażenie przewagi.

W stosunku do wysłania  w kosmos pierwszego sputnika, pierwszego lotu Gagarina, który faktycznie znalazł się na orbicie, a przypomnijmy astronauta amerykański tylko przeleciał po krzywej balistycznej (05.05.1961 A.Shepard), wyprodukowanie w 1958 w firmie Texas Instruments płytki krzemowej zawierającej kilka połączonych ze sobą tranzystorów nie wydawało się osiągnięciem.

Bardzo szybko, bo na samym początku lat 60-tych oba mocarstwa opanowały technologię satelitów szpiegowskich. Długo działała w niezmienionej formie. Satelita był po prostu wielkim aparatem fotograficznym. Latał na bardzo niskich orbitach, w górnych warstwach atmosfery. Zdjęcia wykonywał na ,,zwykłej’’ błonie fotograficznej o wysokiej rozdzielczości. Po zapełnieniu filmu, był on wyrzucany w kierunku Ziemi w specjalnym pojemniku. Amerykańskie były przechwytywane w atmosferze przez samoloty, gdy opadały na spadochronie, co się działo z radzieckimi nie bardzo wiadomo.

Technologia ta była raczej rodem z powieści Verna niż z drugiej połowy XX wieku. Nie potrzebna była wyrafinowana elektronika, raczej perfekcyjna optyka i mechanika. Satelity nie mogły zbyt długo latać na niskich orbitach, zresztą wyczerpywał się zapas filmów, dlatego też bardzo szybko opadały w gęste warstwy atmosfery. Ta tymczasowość także mieściła się w myśleniu wojskowych: potrzebne były wielkie nakłady, ale to normalne, że na obronność trzeba wydawać bardzo dużo, nawet podnosiło to znaczenie armii, bo o coś drogiego trzeba dbać.

Rosjanie prawdopodobnie nie widzieli żadnych innych zastosowań technologii kosmicznej poza badaniami (których znaczenie zapewne sprowadzano tylko do propagandowych sukcesów) i budową nowych broni. Amerykanie bardzo szybko zaczęli szukać zastosowań cywilnych.

Pokazuje to kalendarz kosmicznych zdarzeń. Pierwszy sputnik to ,,Sputnik 1’’ 04.10.1957, oczywiście radziecki. Niewiele później 01.02.1958 Amerykanie umieszczają Explorer 1 z radiem w kosmosie. Trudno mi powiedzieć, czym ta konstrukcja zasadniczo różniła się od ,,Sputnika 1’’ który, o ile mnie pamięć nie zawodzi także emitował sygnały radiowe, ale w  książce ,,Radiosterowanie i  łączność’’ jest to podkreślone: radio w kosmosie. Już 18. 12 1958 Amerykanie wystrzeliwują pierwszego satelitę telekomunikacyjnego. Kilka lat później 26.07 1963 wylatuje ich pierwszy satelita geostacjonarny (Syncom). W lipcu w 1964 powstaje konsorcjum ds łączności satelitarnej Intelsat, utworzone przez państwa zachodnie. W 1965 roku (06. 04. 1965) konsorcjum ma już swego satelitę. Z punktu widzenia polityków wschodnich takie postępowanie było chyba marnowaniem sił i środków. Ostatecznie można było budować stacje łączności satelitarnej z ruchomymi śledzącymi satelitę antenami. Tak działał system Mołnia 1.

Nie wiem, czy Rosjanie kiedykolwiek doprowadzili do porządku swój system cywilnej łączności satelitarnej. Prawdopodobnie niedługo po uruchomieniu przestał działać. Jedno, co było pewne, przy ówczesnym stanie techniki, nie miał on najmniejszych szans stać się masowym. Zapewne nie stanowiło to zmartwienia dla nikogo z politbiura, ZSRR czy innych krajów. Istotne były rakiety.

Zapewne jeszcze wtedy nikt nie przejmował się technologią produkcji układów scalonych przez coraz to nowe firmy zachodnie i nie wyobrażał sobie by komercyjna technologia stosowana głównie do przekazu głupich filmów i reklam miała o czymkolwiek decydować. W 1972 pod koniec wojny w Wietnamie stało się coś, o czym wyczytałem z książek wydanych jeszcze przez komunistyczne Ministerstwo Obrony .

Po raz pierwszy zastosowano kierowane bomby. Zrobili to oczywiście Amerykanie. Rezultatem było tylko obniżenie kosztów operacji. Ale jakie! Celem był most, który usiłowano zniszczyć bodaj od 1965 roku. Utracono kilkanaście samolotów, wykonano dziesiątki nalotów, zrzucono jakieś wielkie ilości ton bomb. I nic. Podczas próby zrzucono bodaj 4 nowe pociski. To coś było kierowane kamerą telewizyjną. Leciało z poza zasięgu artylerii przeciwlotniczej. Rezultat: most zniszczony, zero strat, zero strachu. A koszty? Ponoć normalna bomba to 2000 USD, telewizyjna 4000 USD. To wyczytałem w naszej monowskiej publikacji: na tym etapie Amerykanów stać było na zniszczenie całej struktury irygacyjnej Wietnamu Północnego. Jeśli tego nie uczynili, to zapewne z tego powodu, że politycy nie mieli pojęcia, co z ewentualnym sukcesem militarnym zrobić.

To chyba przypadek, że w pierwszych konstrukcjach sięgnięto po kamerę telewizyjną, ale jest coś w tym symbolicznego. Technologia całkowicie do szpiku kapitalistyczna, do szpiku komercyjna i niewojskowa stała się w pewnym momencie zasadniczym elementem uzbrojenia. Bynajmniej nie chodzi mi o wyrażenie swego zachwytu dla kapitalizmu.

Podobnie elektronika stała się równorzędnym w stosunku do techniki rakietowej składnikiem technologii kosmicznej. O ile w początku lat 60 – tych półprzewodniki kulawo naśladowały urządzenia lampowe, zwłaszcza w obszarze wysokich częstotliwości, o ile rodząca się technika cyfrowa była tylko ciekawostką, to w końcu lat siedemdziesiątych bez układów scalonych nie byłoby zasadniczych funkcji satelitów. Powolny postęp pozwolił zrealizować to co kiedyś wydawało się marzeniami fantastów.

Jednym z bardziej niesamowitych pomysłów jest technologia rozproszonego widma. To z pozoru bardzo prosty i bez większego znaczenia pomysł. Wpadli na niego podobno już polscy elektronicy z okresu II Rzeczpospolitej współpracujący z wywiadem: nadajnik i odbiornik synchronicznie przestrajane. Częstotliwość nadawania w trakcie audycji zmienia się w sposób pseudolosowy, gdy ktoś próbuje podsłuchać, ,,fala ucieka’’ mu. Konsekwencje są o wiele poważniejsze.

Współczesna wiedza pozwala konstruować takie programy, które symulują działanie maszyny losującej, albo inaczej generatora szumu losowego. Dowcip w tym, że są całkowicie zdeterminowane. Jeśli uruchomimy jednocześnie dwa takie same generatory, ich przebiegi ściśle się powtórzą. Tak właśnie można zrealizować przestrajanie: dla osoby postronnej będzie to całkowicie losowe odbiornik z nadajnikiem będą cały czas zsynchronizowane. Jeśli by komuś wpadło do głowy śledzenie sygnału: wystarczy audycję okresowo przerywać i przenosić na inne częstotliwości.

Jednak najbardziej niesamowitą własnością metody widma rozproszonego jest to, że gdy uczynimy emisję odpowiednio słabą, zginie ona np. w naturalnych szumach kosmicznych i nie będzie sposobu na jej wykrycie. Dzieje się tak, gdy próbujemy wykryć emisję odbierając sygnał z całego podejrzanego pasma. Wówczas odbieramy także szumy z całego pasma. Może ono być szersze np. milion razy od pasma przenoszenia odbiornika potrzebnego do odbioru uciekającego sygnału. Nic także nie pomoże zawężenie pasma i czekanie na wzrost sygnału, gdy nadajnik przypadkowo się z odbiornikiem zestroi. Jeśli wszystko jest dobrze zrobione, czas owego zestrojenia będzie krótki, niczego nie zdążymy odebrać, a czekając zobaczymy wiele takich fluktuacji sygnału i dalej nic nie będziemy wiedzieć

Generalnie, gdy system jest porządnie zrobiony bardzo długie obserwacje mogą nas przekonać, że w ogóle pasmo częstotliwości jest używane dla nadajników z rozproszonym widmem. ale nie będziemy wiedzieć, czy w danej godzinie czasu trwa aktualnie audycja. Tym sposobem podstawowa metoda wojny radioelektronicznej, jaką jest nasłuch stała się bezużyteczna.

Ta technologia to był tylko jeden z wielu gwoździ do trumny światowego socjalizmu. Jednym chyba z najmniej znanych były symulacje wybuchów jądrowych dokonywane za pomocą komputerów. Znowu: komputeryzacja w początku lat siedemdziesiątych wydawała się rodzajem mody. Wszak te same obliczenia można było wykonywać za pomocą maszyn analogowych: wielokrotnie potrafiły rozwiązywać to z czym normalne ,,liczydła’’ nie potrafiły sobie dać rady.

Tak naprawdę, w tym okresie problem tkwił w ludziach: nie umieli napisać programów. Jednak ci z przeciwnej strony dali sobie w końcu z tym radę. Komputer ,,cyfrowy’’ ma nad analogowym zdecydowaną przewagę: jest niezmiernie elastyczny. Programowanie komputera analogowego, to budowanie obwodów które odpowiadają fizycznej strukturze badanego układu. Konsekwencją tego jest praca cały czas na poziomie sprzętu. Język wysokiego poziomu dla komputera analogowego nigdy nie powstał: dopiero ostatnio  buduje się analogowe układy scalone z możliwością programowego zmieniania ich funkcji.

Niewiele wiadomo o cyfrowych modelach wybuchu jądrowego, ale wiadomo że powstały i dzięki nim udało się zmajstrować bardzo ekonomiczne, ,,kieszonkowe’’ ładunki. Cały problem bowiem w ,,inżynierii huku’’ tkwi w tym, by zdetonować możliwie najwięcej ładunku. Dotyczy to zarówno takich klasycznych substancji jak trotyl, a w przypadku bomb jądrowych jest zasadniczą sprawą. Reakcja łańcuchowa rozwija się w czasie około jednej mikrosekundy, czas działania zapalników chemicznych ok 0.01 milisekundy, najmniej 10 razy dłużej. To chyba mówi wszystko, najmniejsza niedokładność i materiał radioaktywny zamiast grzecznie wyprodukować kaskadę neutronów zostanie rozrzucony, nastąpi tzw. wybuch cieplny.

Gdy się potrafi zasymulować rozwój reakcji, zmiany temperatur, ciśnienia, ruch materiałów podczas wybuchu, można zoptymalizować kształt ładunków pod kątem jak największej masy biorącej udział w reakcji łańcuchowej. Jeśli się weźmie pod uwagę, że w pierwszych konstrukcjach reagował zaledwie niewielki jej ułamek, widać, jak wiele można zyskać na konstrukcji.

Koło garncarskie stosowano w starożytnej Grecji jakieś 1800 pne. Od tamtej pory nikt już nie lepi garnków ręcznie. Gdy ludzie wykonują je za pomocą maszyny, ich garnki są nieco równiejsze, a na dodatek można ich wykonać więcej. Nie ma sensu męczyć się, skoro istnieje prostszy sposób. Jest on tylko nieco lepszy, ale to nieco wystarcza, by historycy dzielili plemiona na znające wynalazek koła i takie, które stoją na niższym stopniu rozwoju.

Podobnie, jak tranzystor, koło garncarskie ma swoje wady: trzeba je zrobić, zajmuje miejsce, może się zepsuć, choć w najprostszym wydaniu jest to po prostu dwa koła na pionowej osi. Zapewne mając do dyspozycji prymitywne narzędzia trzeba było na konstrukcję poświęcić sporo czasu. Zapewne także trzeba było nauczyć się tym czymś posługiwać. Podejrzewam, że czas doprowadzenia do technicznej perfekcji tranzystora był znacznie krótszy, niż czas potrzebny na opanowanie nowej technologii lepienia garnków.

A jednak wyparła ona szybko i całkowicie stare metody. Podobnie, jak lampy prawie zniknęły z elektroniki. Nie jest jednak bynajmniej tak, że osiągnięcia tej dziedziny zniknęły. Tam gdzie są potrzebne, trzymają się znakomicie, i są coraz doskonalsze.

Podobnie rozwinęła się technologia lepienia z gliny. Gdyby ktoś wątpił, niech popatrzy na porcelanowe figurynki. Gospodarka z owej umiejętności ma już niewiele, ale, technice lepienia są poświęcone grube podręczniki, można zostać magistrem od lepienia...  

Zdążam do takiego wniosku. Trzy historie, przegrania wojny o częstotliwość, przegrania ZSRR wojny o tranzystory i całkowicie zapomnianą, powstania koła do lepienia garnków łączy coś bardzo podobnego. Te wynalazki w momencie wchodzenia w życie nie powodowały rewolucji. Chyba nie znajdziemy takiego wynalazku który byłby nie zastąpienia: wszystkie one tylko coś trochę poprawiały. Wszelkie nowe bronie i owszem działały na zasadzie zaskoczenia, ale gdy tylko to mijało, okazywało się, że przewaga, jaką dają, nie jest bynajmniej bezwzględna. Podobnie jak nowe garnki były tylko trochę lepsze, jak łuk dawał tylko pewne zwiększone prawdopodobieństwo wygrania bitwy, a tranzystor na początku zdawał się dziwactwem.

Niemcy przystępując do wojny mieli kilka udanych działających konstrukcji radarowych jak Freya pracująca na fali 2,4 metra, Seetakt fala 0.8 metra. I zapewne wydawało się im, że temat mają z głowy, do wykrycia okrętu wojennego o rozmiarach dziesiątek metrów całkowicie to wystarczało. Podobnie pewnie myśleli Rosjanie, gdy w odpowiedzi na amerykańskie układy scalone konstruowali  coraz potężniejsze głowice termojądrowe. Wszelako promień rażenia jest proporcjonalny do trzeciego pierwiastka z mocy ładunku: metoda była od pewnego momentu mocno nieekonomiczna.

Dziś wszyscy zgodnie uważają, że Wojny Gwiezdne, ogłoszone przez Reagana były genialnym oszustwem. Tymczasem pomiędzy ZSRR a USA była już ogromna luka technologiczna. Rosjanie zapewne zdawali sobie sprawę z tego, że za pomocą lasera, które były do zbudowania w okolicy roku 1980 nie da się przebić pancerza, czy zniszczyć głowicy nuklearnej. Nie mogli jednak mieć pewności, że za kilka lat nie stanie się to realne.

Postęp nie jest czymś do końca uchwytnym. Zapewne nikomu, kto widział garncarza który zamieniał tradycyjne lepienie, na niezwykle nowoczesną metodę, do głowy nie przychodziło, że zamyka się jedna epoka, a otwiera nowa. Nie wiedział pewnie o tym sam garncarz i pewnie nigdy się nie dowiedział. Jedynym skutkiem było pewnie to, że dzbany i misy relatywnie potaniały, może gospodynie obmacując je na ówczesnym jarmarku mniej wydziwiały .

Jak wpłynęła dokładnie nowa technologia na rozwój stosującej ją plemion, pewnie nigdy do końca się nie dowiemy, po iluś pokoleniach stały się bogatsze. Trudno powiedzieć, czy ładniejsze naczynia miały jakiś z tym związek. Można dywagować, o mniejszych stratach produktów spożywczych, o lepszej higienie. Tak na pewno nie wiemy, natomiast to co widać, to że ów nowy sposób produkcji zdobył cały świat.

Gdy zaczynała się technika tranzystorowa, byli już tym razem zawodowi wróżbici, którzy dostrzegli w niej szansę. Dziś się już o tym nie pamięta, ale w początkach trzeba było ogromnego wysiłku, by to coś pozbawić dziecięcych chorób. Tranzystor u swego zarania miał bardzo niewiele zalet. Jedną była potencjalna długowieczność, inną, mały pobór prądu, małe wymiary, mały ciężar. Kto pamięta ogromne radia z lat 60-tych, ten wie, że żadna nie była wówczas istotna. Zwłaszcza w przypadku sprzętu wojskowego, który jeszcze długo był budowany według zasady, że zawsze do noszenia można powołać jeszcze jednego rekruta, do zasilania zbudować jeszcze jeden agregat prądotwórczy, a czas życia ludzi i sprzętu na polu bitwy i tak liczono na minuty.

Potrzebne było prawdziwe wizjonerstwo by nie zrezygnować. O ile pochód koła garncarskiego był całkowicie nieprzewidywalny i nie sterowany przez nikogo, to ogromnie szybki postęp w technologii półprzewodnikowej jest jak najbardziej planowanym wynikiem ogromnych nakładów na badania.

Nowe technologie zmieniają oblicze świata. O ile oczywiste wydaje się to w przypadku choćby opracowania nowej techniki radarowej, to nowa technologia produkcji ceramiki może wywołać zdziwienie. Rzecz w tym że drobne z pozoru zmiany trwają latami, dziesiątkami, setkami lat. Zaczyna działać zasada procentu składanego. Gdy na zdobycie jakiegoś przedmiotu potrzebujemy o kilka procent mniej czasu, niż poprzednio, to być może nawet tego nie zauważymy. Jednak w rezultacie, w ciągu roku może się wykroić dzień, lub dwa, na zrobienie czegoś, na co do tej pory kompletnie nie było czasu. Jeśli to jest wypróbowanie czegoś, co nam do tej pory tylko po głowie chodziło, choćby sprawdzenie dokąd prowadzi nieznana ścieżka przez las, może się okazać, że za sprawą bardzo nieznaczącej zmiany, jesteśmy bogatsi o wiele bardziej, niż wynikałoby tylko z owej zmiany.

Postęp jednak to jeszcze coś: w pewnym momencie wszystko się do kupy zaczyna składać. Pozornie nie mające ze sobą żadnego związku fakty, odkrycia z zupełnie różnych dziedzin, wiążą się ze sobą w całość i wychodzi z tego coś całkiem nowego. Tak było z połączeniem technologii rakietowej z elektroniką: z tego zrodziła się łączność satelitarna. Gdy zabraknie choćby jednego elementu, cała, jak umową między czartem a Twardowskim: cała umowa na nic. Rosjanie mieli bardzo dobrego konstruktora rakiet-– Korolewa. Słynny von Braun, który pracował w NASA nie wpadł, a może zwyczajnie odrzucił, jako mało technologiczną koncepcję napędu wiązkowego. Tym sposobem Rosjanie wygrali wyścig na orbitę ziemską, ale nic z tego nie wynikło. Co prawda wykonano w sumie kilka systemów łączności satelitarnej Mołnia, ale prawdopodobnie żaden z nich nie okazał się praktycznym rozwiązaniem. Ich transpondery pracowały na względnie niskich częstotliwościach nigdy nie zdecydowano się, by zerwać z wojskowym charakterem instalacji, w rezultacie funkcjonowało coś dziwnego, ni pies ni wydra, na stacje naziemne potrzebne były ogromne pieniądze, a tak naprawdę, to chyba w ZSRR nie było potrzeby eksploatacji systemu satelitarnego przekazu informacji, bo nie było dosyć owych informacji do przekazywania.

Dzięki opanowaniu technologii, która jest powszechnie stosowana w domowych kamerach video, produkcji przetwornika obrazowego CCD Amerykanie mogli sobie pozwolić na budowę czegoś niesamowitego: satelitów szpiegowskich serii ,,dziurka od klucza’’. To coś to nieco mniejszy teleskop Hubbla, z ogromnym zwierciadłem w charakterze obiektywu. Ponieważ nie zabiera zapasu filmów, kosztem tylko nieco mniejszej rozdzielczości może sobie fruwać po orbicie dopóki nie rozpadną mu się baterie słoneczne. Przy długiem czasie eksploatacji opłaca się wyśrubować parametry techniczne, wywalić ogromne pieniądze na optykę rodem z obserwatoriów astronomicznych. A w zamian dostać satelitę gotowego w każdej chwili do akcji.

Jednym z najistotniejszych warunków, by coś szło do przodu jest wymiana informacji. Po ludzku mówiąc pisanie. Prace, książki artykuły, to musi powstawać, krążyć być dostępne, czytane krytykowane. Oczywiście powstanie zdecydowana większość gniotów, tzw. monografii, gdzie nie znajdziemy niczego nowego, a tylko zbiór wiadomości do tej pory osiągalnych tyle że w różnych źródłach.

Na tym obowiązku publikowania zwłaszcza doświadczalnicy psy wieszają. trudno zliczyć złośliwe dowcipy, trudno zliczyć poważne opracowania, które wykazują czarno na białym absurdalność systemu, który ocenia wartość dorobku naukowego liczbą papierzysk. No ale jeszcze jakość nikt nie wpadł na lepszy pomysł.

System oceny może być głupi. Za jego przyczyną powstają wyniki badań, które z całą pewnością do niczego się nie przydadzą. Jednym z lepiej opanowanych patentów na robienie prac jest zakup drogiej aparatury pomiarowej, a następnie obmierzanie za jej pomocą czegoś, do czego nie została zbudowana. Dostaje się dziwne wyniki, można dyskutować ich poprawność, postulować zmianę sposobu pomiaru itd.

Na początku III tysiąclecia postęp stał się bożkiem. W handlu komputerami jest to czynnik zasadniczy, firmy zostały zmuszone do ciągłego, systematycznego dokonywania wynalazków. Kilka razy w ciągu roku ukazują się nowe konstrukcje procesorów, czasopisma komputerowe żyją z opisu nowego oprogramowania, codziennie możemy dowiedzieć się o jakiś nowościach w informatyce.

W naukach ścisłych jest podobnie: aby nie tyle być na bieżąco, ale mieć archiwum wiadomości i wynalazków trzeba zapisać się na serwery internetowe, automatycznie rozsyłające newsy.

Gdy jednak zagłębić się w lekturę tego wszystkiego, trudno uniknąć wrażenia pozoranctwa, bałaganu, chęci taniej sensacji i dreptania w miejscu. Wielokrotnie już o tym pisałem, bo jest to chyba najbardziej zrozumiałe, i porównywalne, jak wygląda pozorny postęp w dziedzinie oprogramowania. Procesory stały się kilkakrotnie szybsze, a system ładuje się wolniej, wolniej pracują programy. Dyski są tak pojemne, że przez chwilę budziły ,,lęk wysokości’’: co wsadzić na 40 GB? No i robi się, systemy już zajmują po 1,3 GB oprogramowanie puchnie, a jak miejsca zostanie: zapisz sobie filmik. I już będziesz musiał za nowym dyskiem latać.

Gdy się nieco tylko przyjrzeć, to komputer, ten symbol nowoczesności i HI--techu jest skopanym, naprędce poskładanym urządzeniem, z kupą zasadniczych błędów konstrukcyjnych. Aż dziw bierze, że przez te już dziesiątki lat nikomu nie chciało się wziąć za jego poprawę. Z pośpiechy sięgnięto po gotowe zasilacze impulsowe. Te zasilacze z powodu braku uzgodnień między konstruktorami muszą być obudowane. A to spowodowało, że mamy od samego początku wentylatory w komputerze. Zamiast wyprowadzić radiatory na zewnątrz, na tylną ściankę, jak to się robi we wszystkich urządzeniach elektronicznych, coś co rzęzi, wyje i w końcu się zatrzymuje powodując ruinę całej maszynerii. Podobnie skopano chłodzenie procesora. Nawet piekielnie grzejące się Athlony dają się chłodzić za pomocą typowych radiatorów bez wentylatorów, niestety, budowa płyty głównej uniemożliwia ich bezpieczne przymocowanie.

Podobnie, zamiast wyprodukować perforowane blachy na osłony, wymyślono dodatkowe wentylatory, których skuteczność obniżania temperatury procesora wymierzyłem na trzy stopnie: można sobie darować.

Kiksów technicznych w komputerze jest jeszcze cała fura. To im zawdzięczamy co jakiś czas problemy z dyskami których nie widzi główna płyta, to ich powodu grasują stada wirusów. Pogoń za łatwym zyskiem, próby oszołomienia klienta powodują że system pomyślany jako otwarty i rozbudowywalny okazuje się nagle nie do ruszenia: cokolwiek zmienić, reszta przestaje działać.

A jednak coś idzie do przodu. To nie jest tak, jak by się chciało. Nawet pod słynnym z minimalnych wymagań Linuksem desktopy KDE i Gnome rozdmuchano tak, że na potężnym komputerze, z 64 MB RAM ledwie wszystko zipie, potrzeba bagatela 128 MB to wtedy jakoś żwawiej zacznie chodzić. Tym niemniej, jak się wkurzysz, możesz sobie odpalić desktop icewm. Oczywiście, dla masochistów, polecenia w oknie terminala ,,z palca’’ się wydaje, żadnych ozdóbek, ani pół wodotrysku. Ale gdy trzeba wykonać konkretną robotę jest niezastąpiony. Dla potrzebujących powstają jednak skuteczne narzędzia. A poza tym nie wymagajmy zbyt wiele: od odkrycia przez Faradaya zjawiska indukcji do zbudowania żarówki minęło więcej czasu niż trwa historia informatyki od Eniaca zaczynając.

Aby zbudować porządne komputery trzeba było uporać się z technologią półprzewodników. O ile w produkcji odbiorników radiowych miniaturyzacja i zmniejszenie poboru energii nie grało zasadniczej roli, o ile długowieczność tranzystora była nieistotna, to awaryjność lamp radiowych była zasadniczą przeszkodą w budowie komputerów. Ogromnym problemem była wielka moc potrzebna do zasilania tysięcy katod, wielokrotnie za wielkie napięcia anodowe, wreszcie rozmiary całej maszynerii. Dziś jest nie do pomyślenia, by budować urządzenia cyfrowe na czymkolwiek innym niż półprzewodniki, choć mamy opanowaną i dobrze działająca automatykę pneumatyczną.

Technologia półprzewodników, to tysiące zagadnień, to czysta mechanika, znajomość współczynników rozszerzalności materiałów, technologia produkcji nie tylko super-czystych, ale i pozbawionych defektów kryształów. Bez termodynamiki, abstrakcyjnego pojęcia entropii nie ruszono by z tym tematem zasadniczo do przodu. Bez doświadczeń z masami plastycznymi, nie byłoby obudów układów scalonych. Nazywa się to hermetyzacją układu, ale to nie takie proste, jak zamykanie słoików z konserwowymi ogórkami. Trzeba wymyślić takie sposoby, by nie pozrywały się wyprowadzenia. A mocowanie tych doprowadzeń, to całe zagadnienie, ultradźwiękowe zgrzewania, dobór stopów itd.

A kiedy wreszcie udało się zbudować porządny komputer, to okazało się, że trzeba zorganizować pracę na nim, bo inaczej, to prawie zawsze będziemy zajęci usuwaniem błędów w oprogramowaniu i piekielnie droga konstrukcja będzie bezczynnie stać, zamiast pracowicie liczyć.

Gdy popatrzeć na to wszystko z perspektywy czasu, widzimy jasną świetlistą drogę ludzkości w coraz to lepszą przyszłość. Gdy rozbijemy to na historię poszczególnych ludzi, wynalazków i konstrukcji, można się za głowę złapać. Ile technologii, ile konstrukcji okazało się ślepymi zaułkami. Ile roboty poszło na marne!

Cała wiedza związana z budowaniem analogowych maszyn liczących, układy scalone wyprodukowane specjalnie do nich, aplikacje tych układów, metody zwiększania dokładności...

Był czas, że symbolem techniki cyfrowej stała się dziurkowana taśma. Kto dziś pamięta, jak to działało. Sam papier na te tasiemki nie był taki zwykły: musiał być dostatecznie sztywny, dostatecznie dobrze się dziurawić, wytrzymywać wielokrotne przewijanie. Były czytniki optyczne, były mechaniczne. Te pierwsze zbudowane na fototranzystorach stanowiły nadzieję na przyszłość. Kiedyś taśma będzie śmigała 10 razy szybciej...

Kto dziś pamięta jeszcze fascynacje operacyjnymi pamięciami budowanymi na rdzeniach ferrytowych, technologię nizania milimetrowej średnicy koralików na cieniutkie druciki, która była opracowywana w IBM, kto wie, że do odczytu tych pamięci wyprodukowano całą serię układów scalonych, że technika odczytu i zapisu była opierała się na dosyć karkołomnych założeniach, wszystko wisiało na jednym drucie i jednym impulsie. A jednak działało! Z rozpędu próbowano budować pamięci cienkowarstwowe. Dziś nikt już tego nie pamięta, a technologia była bardzo naukowa.

Dziś cała ta wiedza ląduje w śmietniku. Psu na budę zdają się karkołomne sztuczki programistyczne, które pozwalały w ,,komputery’’ typu ,,Spectrumna’’ wsadzać spore programy obliczeniowe. W ciemnych kątach magazynów leżą jeszcze przedziwne pudła, interface pomiędzy owymi Spectrumnami a pierwszymi pecetami. Ledwie udało się opanować technikę budowy czegoś takiego, okazało się całkowicie niepotrzebne: pojawiły się karty pomiarowe i sterujące. Moce obliczeniowe 286 były tak wielkie, że nie było sensu podpierać ich czymkolwiek zagracać, pokoju drutami i pudłami.

Niewiele osób pamięta całą sztukę budowania automatyki na słynnych układach serii TTL. A było to naprawdę coś wyjątkowego: całe komputery były na nich budowane. Straszliwie prądożerne, jak na dzisiejsze wymagania, ale i niezawodne i skuteczne: trudno wymyślić coś co by się nie dało za ich pomocą nie dało zbudować. Jedynym ograniczeniem stawała się komplikacja i zasilanie. Kilkanaście układów i człowiek przestawał nad plątaniną połączeń panować. Urządzenia budowane w tej technice programowalne kalkulatory z 1 kilobitem (nie kilobajtem!) ważyły po kilkadziesiąt kilogramów, zawierały transformatory wielkości spawarki, a o awaryjnym zasilaniu nie można było nawet marzyć. Takie zresztą były i ograniczenia tej technologii: z powodu tego zasilania nie można w niej było praktycznie (kwestia ceny) zbudować ZX Spectrum, bo do pracy potrzebna byłaby osobna trójfazowa linia.

Swoją drogą, po raz pierwszy przyszło się inżynierom zmierzyć z trudnościami, które do tej pory rozpatrywano tylko teoretycznie: w obwodach zasilania i uziemienia rozchodziły się potężne zakłócenia, gdy jednocześnie przełączało się kilkaset bramek logicznych, i zmieniał się w ciągu dziesiątek nanosekund pobór prądu o potężne ampery. Była to prawdziwa sztuka: przyrównać ją można do uruchomienia linii technologicznej do precyzyjnej obróbki w hali fabrycznej gdzie podłoga podskakuje o kilkanaście centymetrów w górę na skutek pracy wielkich młotów.

Ludzie, którzy opanowali te umiejętności, którzy budowali takie urządzenia musieli zająć się czymś nowym. A ich dzieła, owoce nieraz bezsennych nocy, wylądowały na śmietnikach: jak w takiej sytuacji nie mieć poczucia czasu straconego?

Celem moim było pokazanie, że postęp i to ten jak najprawdziwszy, który zmienia historię, kulturę, który czyni łatwiejszym codzienne życie odbywa się bardzo dziwnymi drogami  i  sposobami. W dawnych czasach nikt z konieczności dokonywania wynalazków, na swoje szczęście nie zdawał sobie sprawy. Dziś wiemy, że inaczej się nie da. Dlatego niejeden w nocy się budzi, na skutek owych wyrzutów sumienia, poczucia zmarnowanego czasu i pracy.

Niedługo po moich pomiarach nader dziwnego obiektu zwanego cienką warstwą wysepkową wzbudził on na nowo zainteresowanie fizyków. Przyczyną było zainteresowanie chaosem. Trwa ono zresztą do dnia dzisiejszego i w jego ramach fizycy zajmują się przeróżnymi dziwnymi układami, które wcześniej omijali z racji ich paskudnych własności. Cienkie wysepkowe warstwy szumią jak wszyscy diabli. Aby to zobaczyć, wystarczy podłączyć do takiej warstwy prąd. Jego wartość będzie się zmieniała w sposób niemożliwy do przewidzenia. Rejestrując przebiegi otrzymamy charakterystyczne dla tych warstw widmo. Mechanizm powstawania szumu został już bardzo dobrze wyjaśniony: jednak nowe silne narzędzia matematyczne, także możliwość komputerowej obróbki danych dają nowe możliwości poszukiwań.

Nie mam pojęcia, co się z tego wszystkiego urodzi. Natomiast już wiemy rzeczy nieraz zaskakujące. Np. jeśli będziemy w sposób zupełnie przypadkowy umieszczać na powierzchni punkty, bez jakichkolwiek dodatkowych zjawisk, jak przyciąganie, jakie występuje między atomami, to i tak efektem procesu będą tzw. agregaty, grupy punktów o wyraźnie mniejszych odległościach między sobą. Takimi agregatami na niebie są gwiazdozbiory. Położenie gwiazd jest na pewno przypadkowe, bo to co widzimy jest ich rzutem na nieboskłon, niewielkie odległości kątowe między nimi nie wykluczają ogromnych odległości liniowych.

Aby przekonać się o prawdziwości takich nieraz bardzo prostych zjawisk potrzeba pokonać czasami nieproporcjonalnie wiele trudności, wykonać ogromne ilości z pozoru darmowej roboty. Trzeba się sakramencko narobić, by nie tylko cokolwiek odkryć, ale by cokolwiek w kwestii postępu ruszyć. Gdy zabierzemy się za te przypadkowe punkty, jest to znany problem w fizyce komputerowej (zajmującej się symulacją zjawisk za pomocą komputera) natychmiast będziemy musieli walczyć z problemem korelacji generatorów liczb pseudolosowych. Będziemy musieli wymyślić sposoby ominięcia ograniczeń technicznych wielkości pamięci RAM, szybkości obliczeń...

Wiele osób zadaje sobie pytania, co liczy się na gigantycznych komputerach, czym zajmują się programiści i cała reszta naukowego towarzystwa. Otóż wbrew temu co nieraz w gazetach wypisują, ci ludzie nie obliczają stanu atmosfery za 10 lat, czy temperatury Słońca za milion. Oni zajmują się badaniem modeli. Inaczej mówiąc, nie udajemy, że umiemy coś wyliczyć: modele, które powstały są już tak skomplikowane, że wymagają gruntownego przećwiczenia. Można przedstawić w sposób bardziej złośliwy: jedni zmajstrowali zabawki, które ewentualnie do czegoś mają służyć, a drudzy, zamiast czym prędzej dostosować je do konkretnych zadań, zabrali je do piaskownicy i bawią się nimi. Tak kiepsko to wygląda.

Ma to oczywiście swoje uzasadnienie: podświadomie przeprowadzamy w swej głowie utożsamienie matematyki z otaczającym nas światem. Arytmetyka liczb naturalnych jest w naszym pojęciu dokładnie tym samym co liczenie zapałek. I to się zgadza dopóki takiej zapałki ktoś na czworo nie podzieli.

Bardzo często podczas badań modelu uświadamiamy sobie nowe rzeczy czasami nigdy nie dochodzi do weryfikacji jego prawdziwości, czasami bardzo szybko okazuje się że jest do kitu. Niczego w naszej rzeczywistości nie odzwierciedla, a jednak męczy się go dalej ponieważ jest ciekawy.

Owo sypanie punktów na płaszczyznę to wstęp do badania prawdopodobieństwa tzw. perkolacji. Znowu mamy naszą cienką warstwę wysepkową i rzucamy na nią kolejne atomy. W pewnym momencie tworzy się ciągła droga po metalu, od krańca do krańca badanego obszaru. Fizycznie w trakcie eksperymentu odpowiada to zjawisku zwarcia próbki, powstania ciągłego połączenia pomiędzy elektrodami.

Ponieważ proces jest całkowicie przypadkowy, nigdy nie mamy pewności w którym momencie owo zwarcie nastąpi. W skrajnym wypadku może się utworzyć prosta jak drut ścieżka atomów od jednej do drugiej elektrody. Możemy wyliczyć tylko zależność prawdopodobieństwa zwarcia od liczby atomów rzuconych na powierzchnię. Proces jest na tyle skomplikowany, że nie da się go rozwiązać wprost metodami kombinatorycznymi, trzeba wykonać wiele komputerowych prób i podzielić liczbę eksperymentów zakończonych zwarciem przez liczbę wszystkich eksperymentów: otrzymamy przybliżony wynik. Tak to niezbyt mądrze wygląda.

Wielkość tego prawdopodobieństwa jest ważna dla technologii. Choć owe cienkie warstwy metaliczne nie znalazły jak dotąd ważnych zastosowań, to np. zwykłe oporniki powstają w bardzo podobny sposób. Dobrze jest wiedzieć, jak dobrać parametry procesu, by liczba wadliwych elementów była dostatecznie mała.

Nie wiem czy kiedykolwiek wyniki obliczeniowe zeszły się w tej materii z wynikami eksperymentu. Uwzględnienie realnie występujących zjawisk jest piekielnie trudne i wymaga wielu danych które można otrzymać tylko z pomiarów. Wiem natomiast, że symulacje komputerowe tego i innych problemów np. procesów dyfuzji doprowadziły do zakwestionowania przydatności wielu procedur generowania liczb pseudolosowych. Z jednego problemu wykluło się dziesięć innych.

Postęp oglądany nie z perspektywy archeologa wykopującego dzbany, ale tego co je robi wygląda na dreptanie w miejscu, przerywane odprawianiem magicznych gestów, bezsensownych robót, a ruchu do przodu w ogóle nie widać. Taka jest przyczyna tego, że ludzie z odrobinę mniejszą wyobraźnią widząc to wszystko rzucają w diabły magnetrony, przestają zawracać sobie głowę tranzystorami, skoro na lampach daje się zbudować prawie to samo. Dopiero z perspektywy wykopalisk widać, że definitywnie kończy się epoka brązu, że razem z jaj końcem znikają jakieś plemiona, a zaczyna okres żelaza.

 Dziś niemal wszyscy wiedzą o tym że loty w kosmos przyniosły nam coś czego zupełnie nie oczekiwały przynajmniej szerokie masy: dziesiątki nowych technologii. Jeśli jednak rozpisuję się tak, to po to by ukazać proporcje, pomiędzy daremnym wysiłkiem, a tym co się udaje.

Z tego właśnie jak mało i jak rzadko się cokolwiek udaje wynika coś co nazywa się kondycją psychiczną człowieka współczesnego. Tenże bardzo często już ma zakodowaną konieczność tworzenia, wie że codzienne czynności, jak mycie zębów i czytanie korespondencji służbowej nie posuwają świata do przodu. Bardzo często chciałby albo świat pchnąć do przodu, albo zwyczajnie rozwiązać kilka swoich problemów, by nie tracić czas na jakieś mechaniczne czynności.

Rezultatem jest dreptanie w  miejscu, magiczne obrządki, mruczenie zaklęć i oczywiście zero widocznych rezultatów. Po kilku latach taki człowiek zyskuje czasami miano dziwaka, czasami złotej rączki, albo dobrego fachowca, ale nie widać najmniejszego związku pomiędzy owym dreptaniem i wymawianiem zaklęć.

Nigdy nie czytałem nigdzie by ktokolwiek zastanawiał się dlaczego Indianie nie wynaleźli koła: ostatecznie dlaczego mieliby wynaleźć? Po prostu nikomu nie wpadło to do głowy i cześć. Mnie ta sprawa od czasu do czasu gnębi: zbyt to oczywiste rozwiązanie. Mam swoją teorię co się stało: i owszem wynaleźli, ale zignorowali, tak jak Niemcy zignorowali badania nad radarem, tak zresztą samo opóźniono na szczęście całego świata badania nad bombą atomową, bo naukowcy zażądali za mało pieniędzy i Speer uznał, że tani projekt nic pewnie nie jest wart. Wystarczyło, że przedkolumbijska administracja nie przebudowała owych kamiennych schodów na drogach, a sprawa zdechła sama z siebie. Ostatecznie, czym taki wózek zasadniczo jest lepszy od grzbietu niewolnika?

Żadnego postępu nie dokonałem. Na pewno niczego nie odkryłem. Czasami mnie ludzie pytają po co to robię, skoro widać, że bez sensu. Odpowiadam że na Czapajewa, głową w kaloryfer, Cebula, przypomnij sobie! Proszę się nie dziwić, że na pytanie dlaczego, dopowiadam jak.

 

 

W    N U M E R Z E
Valid HTML 4.01 Transitional Valid CSS!

< 16 >