Archiwum FiF
fahrenheit on-line - archiwum - archiwum szczegółowe - forum fahrenheita - napisz do nas
 
Publicystyka

<|<strona 25>|>

Zbyt szybki powrót z gwiazd

 

 

Przeglądając stare numery Młodego Technika trafiłem na tytuł: "Apollo 17 – czy po raz ostatni w XX wieku"? Dziś mogę powiedzieć: tak, to było po raz ostatni w tamtym stuleciu. Ale czy jeszcze się powtórzy?

Jeszcze niedawno wydawało się zupełnie oczywiste, że kosmos jest przeznaczeniem ludzkości. Jeszcze całkiem niedawno planowano na rok 2002 wyprawę na Marsa, budowę stacji orbitalnych. Dziś to wszystko wyhamowało. Jednak ogrom pracy i nadzieje, jakie włożono w podbój tego wyjątkowo nieprzyjaznego dla człowieka kawału przestrzeni powoduje zapewne, że ekspansja wydaje się jedynie odłożona w czasie. Ostatecznie udało się ludziom dotrzeć do Księżyca, mamy więc niezbędne środki techniczne. Dramatycznie wzrosły możliwości elektroniki, jednego z najważniejszych składników kosmicznej techniki, a budowa silników rakietowych, choć nie tak znacząco, również poszła do przodu. Nie uległa też jakiejkolwiek zmianie zasadnicza motywacja do nadstawiania karku w międzyplanetarnej przestrzeni: jest ona bardzo podobna do tego, co pchało na puste oceany zdobywców Ameryki. Skoro więc zdobyto Nowy świat, to dlaczego coś innego ma się stać z Księżycem choćby? Skoro ludzie żyją i pracują na biegunie północnym, który jeszcze kilkadziesiąt lat temu stanowił ogromne wyzwanie dla umiejętności i techniki, którego zdobycie pochłonęło tyle ofiar i na którym panują warunki znacznie gorsze, niż w najpodlejszych dziurach Europy, to dlaczego ludzie nie mieliby zasiedlić kosmosu?

Wydaje się to oczywiste zapewne z powodu tak zwanej masowej kultury. W tak zwanych filmach fantastyczno-naukowych (czort wie, czy ten gatunek jeszcze istnieje) kosmos bywa zupełnie naturalnym środowiskiem, które wymaga co prawda specjalnej techniki, ale przebywanie w nim człowieka jest rzeczą zupełnie naturalną i oczywistą. Ten stereotyp jest wgniatany w umysły widowni, z której dobre 90 procent żyje w warunkach miejskich, jeśli nie w miastach, to w domach i otoczeniu, które z jakimikolwiek trudami zdobywania czegokolwiek nie mają nic wspólnego. Zazwyczaj jest ujęcie wody, które nigdy nie wysycha, jest stały dopływ energii elektrycznej w dowolnej praktycznie ilości, jakieś zaopatrzenie, choćby w postaci sklepu w promieniu co najwyżej kilkuset metrów. Osobnik taki ma jeszcze zazwyczaj łatwy dostęp do komunikacji, najczęściej pod nosem asfaltową drogę i samochód do swojej dyspozycji. W każdej chwili może udać się do swej cioci, kumpli czy wyprawić się na większe zakupy. Ma pod ręką telefon na wypadek, gdyby na skutek nadmiernej konsumpcji zaczęło mu wysiadać serduszko i przypędzi ekipa, wyspecjalizowana w wydzieraniu Przeznaczeniu takich konsumentów.

Tak więc prawda jest taka, że ten wyjątkowo – jak na historię ludzkości – dopieszczany, pilnowany przez różnego rodzaju służby przedstawiciel naszej cywilizacji jednocześnie wierzy, mniej lub bardziej silnie, że w kosmos ludzie ruszą. Przy czym podstawa owej wiary jest chyba ściśle emocjonalna. Zapewne zasadniczym argumentem, jaki może on przytoczyć, jest naturalny ekspansjonizm naszego gatunku.

Zastanówmy się, czy istnieją jakieś racjonalne powody, by katapultować się w zimną i pozbawioną powietrza przestrzeń? Czy ludzie, oprócz zaspokajania swego zdobywczego instynktu, mają jeszcze inne powody, by się pchać, gdzie ich matka natura najwyraźniej nie przewidziała?

Bardzo ważnym i trudnym do zbicia argumentem są badania naukowe. Mają one taką specyfikę, że nigdy nie wiadomo, co z tej ogromnej ilości informacji może się przydać. Z tego powodu jakiekolwiek wyniki, byle wiarygodne, są cenne. Jednak nauka nie jest jednym wielki pospolitym ruszeniem. Podejmuje się tam działania planowe, nie jest istotne, by dowiedzieć się czegokolwiek, są badania ważniejsze i mniej ważne. Jak na razie ludzkość otrzymała najważniejsze informacje na temat budowy naszego układu planetarnego: Księżyc nie jest wykonany ani z zielonego sera, ani też nie jest srebrną tarczą. Oczywiście dokładne dane dotyczące składu skał, budowy wewnętrznej (np. istnienia gorącego jądra) mają znaczenie dla rozwoju teorii powstania naszego układu planetarnego. I owszem, warto to wszystko wiedzieć. Jednak... są i ciekawsze zagadnienia. Tak się dość paskudnie składa, że problemy o średnim znaczeniu dla nauki są jednocześnie, jak się to dziś mówi, medialne. Łatwo o nich pisać, opowiadać w telewizji. Zagadnienia, które mają ogromne znaczenie czy to dla dalszego rozwoju nauki, czy bezpośrednio dla technologii, dla przemysłu jawią się jako wielce zagmatwane błahe technologiczne ciekawostki. Wyjaśnienie, o co chodzi naprawdę, wymaga znajomości szeregu innych zagadnień, najczęściej równie skomplikowanych i równie nudnych.

Kosmos jest bardzo dobrym miejscem na budowę obserwatorium astronomicznego. To akurat jest łatwe i zrozumiałe. Ziemska atmosfera bardzo skutecznie komplikuje prowadzenie optycznych pomiarów. Mało już, kto wie, że nasze oczy odbierają dość wąski przedział promieniowania elektromagnetycznego o długości mniej więcej od 700 (głęboka czerwień) do 400 (głęboki fiolet) nanometrów i że ten zakres mieści się w jednym z kilku, jak się to nazywa, okien atmosferycznych. Są to zakresy długości fal, które przechodzą przez atmosferę bez strat albo są tłumione w niewielkim stopniu. Okno optyczne od strony podczerwieni jest ograniczone przez obecność w atmosferze tak zwanych gazów cieplarnianych, z których największą rolę odgrywa para wodna, a nie dwutlenek węgla, jak można by sądzić z awantur ekologicznych, od strony zaś krótkofalowej własnościami promieniowania ultrafioletowego, które w zakresie poniżej 200 nanometrów staje się tak wysokoenergetyczne, że oddziałuje z niemal wszystkimi gazami. To promieniowanie jest już wycinane na wysokości 200 km nad powierzchnią Ziemi.

Promieniowanie elektromagnetyczne to fale, których przedział zmienności, gdy chodzi o długość, jest chyba największy ze znanych w przyrodzie. Z jednej strony mamy fale radiowe. Ich długość praktycznie uzyskiwana może wynosić na przykład kilka tysięcy kilometrów. Są one stosowane w systemach łączności z łodziami podwodnymi. Wynika to z tego, że wolnozmienne pola (częstotliwość takich fal wynosi kilkadziesiąt herców) nie oddziałują z morską, silnie przewodzącą wodą. Fale elektromagnetyczne, jakie wysyła fotodioda zamontowana w pilocie, tak zwana bliska podczerwień, odpowiada mniej więcej częstotliwości stu tysięcy gigaherców, dziesięć do potęgi czternastej herca. Fale elektromagnetyczne o największych energiach i jednocześnie częstotliwościach to promieniowanie gamma. Nie ma ono ograniczonego zakresu w górę, gdy chodzi o częstotliwości, teoretycznie możemy uzyskać dowolnie krótkie fale, (długość fali jest odwrotnie proporcjonalna do jej częstotliwości). Pomiędzy praktycznie obserwowanymi promieniami gamma a falami radiowymi o długości kilku metrów (a więc znacznie krótszymi, niż stosowane do łączności podwodnej) leży zakres tego, co możemy rejestrować, jako sygnały przybiegające z głębi kosmosu.

Ludzie prowadzili do końca XIX wieku praktycznie obserwacje tylko w zakresie promieniowania odbieranego przez nasze oczy. Niewielkie poszerzenie możliwości przyniosło zastosowanie kliszy fotograficznej jako detektora. Reaguje ona na ultrafiolet oraz na bliską podczerwień. Jednak oczywiście nie ma najmniejszego powodu, by kosmos świecił tylko tym zakresie. Stosunkowo niedawne powstanie radioastronomii to między innymi wynik tego, że ludzie z jakiś powodów nie wierzyli w emisję radiową, która powstawałaby na naturalnej drodze. Pomógł przypadek. Akurat radioastronomia kiepsko w obecnym kształcie nadaje się do prowadzenia obserwacji w kosmosie. Obecnie może się wydawać, że na pierwszy ogień poszedł zakres optyczny, bo zbudowano i mieszczono na orbicie teleskop Hubble (25 kwietnia 1990).

Nie jest to do końca prawda, bo wcześniej wynoszono satelity do obserwacji np. promieniowania rentgenowskiego, w pierwszej połowie lat siedemdziesiątych XX wieku (na wszelki wypadek zaznaczam) wysłano satelitę UHURU, który sporządził mapę nieba w tym zakresie widma.

Teleskop Hubbla jest jednak chyba pierwszym prawdziwym i działającym w sposób ciągły obserwatorium astronomicznym na orbicie. Średnica jego głównego zwierciadła wynosi 2.4 metra, długość 13 metrów, zdolność rozdzielcza 0.1 sekundy łuku. W kosmicznych warunkach można za jego pomocą obserwować obiekty odległe o 12 miliardów lat świetlnych.

Atmosfera ziemska, oprócz wycinania pewnych części widma, powoduje jeszcze szereg innych, bardzo dokuczliwych zjawisk. jednym, powszechni chyba znanym jest "fotosmog" czyli świecenie światłem rozproszonym, pochodzącym od sztucznych oświetleń wielkich miast.

 Innym kłopotem są lokalne zmiany gęstości. Coś podobnego możemy zaobserwować w silnej lunecie, gdy patrzymy w upalny dzień na daleki krajobraz: widzimy pozorne falowanie przedmiotów w rozgrzanych strugach powietrza. Powodują one seeing, "bieganie" gwiazd w polu widzenia i scyntylacje, zmiany jasności gwiazdy.

Oczywistym, choć bardzo dokuczliwym problemem są kaprysy pogody, zwykłe zachmurzenie, które może całkowicie uniemożliwić obserwację krótkotrwałych zjawisk, jak wybuchy supernowych.

Przydałyby się astronomom obserwatoria kosmiczne. Jest jeszcze jeden powód: prawdopodobnie, gdyby nie sprawa wyniesienia ich na orbitę, byłyby łatwiejsze w konstrukcji. Teleskop jest bowiem tym lepszy, im większa jest średnica jego zwierciadła. Z jednej strony pozwala on zobaczyć coraz słabsze obiekty, z drogiej strony zwiększa się jego rozdzielczość kątowa. Powiększenie przyrządu optycznego możemy w zasadzie zwiększać dowolnie, jednak przy zadanej średnicy obiektywu, gdy dojedziemy z powiększeniem do pewnej wartości, zobaczymy, że obraz zaczyna się robić rozmyty. Aby ponownie stał się ostry, trzeba wykonać większy obiektyw, w przypadku teleskopu zwierciadlanego, jego lustro. Tak w praktyce wygląda problem rozdzielczości kątowej. Z jasnością jest tak, że im większe lustro, tym więcej gwiazd zobaczymy. Wielkim teleskopem możemy także oglądać szczegóły na przykład asteroidów, o których ostatnio głośno, bo co i raz jakiś ma się pojawić na drodze naszej planety.

Wielkość luster teleskopów lustrzanych osiągnęła właściwie kres możliwości technicznych około 6 metrów. Takie rozmiary ma zwierciadło w przyrządzie na Górze Pastuchowa (2070 m.n.p.m.). Amerykański teleskop na Górze Palomar ma średnicę 504 cm.

Budowa większych nie ma sensu z co najmniej kilku powodów: zwiększona jasność nie spowoduje rejestracji większej liczby obiektów, gdyż "przykryje" ją świecenie własne atmosfery. Zysk w rozdzielczości kątowej zostanie "zjedzony" przez atmosferyczne rozmycie obrazu (efekt krajobrazu w upalny dzień). Na dodatek tak wielkie lustra zaczynają się uginać pod własnym ciężarem i obraz się rozmazuje (masa szkła na zwierciadło teleskopu radzieckiego wyniosła 70 ton).

Z tą ostatnią wadą stosunkowo łatwo sobie poradzić za pomocą tak zwanych siłowników piezoelektrycznych, które sterowane komputerem wyginają lustro tak, by mu przywrócić pierwotny kształt.

W warunkach kosmicznych, na orbicie okołoziemskiej mielibyśmy większość problemów z głowy, łącznie z uginaniem się lustra. Dlaczego jednak w kosmos nie poleciał kolejny, jeszcze większy teleskop? Krótko mówiąc: ekonomia, a do tego jeszcze techniczne trudności. Zapewne dałoby się jakoś zapakować w prom kosmiczny lustro o średnicy kilku metrów, zapewnić, by doleciało w dobrym stanie na miejsce, ale na pewno nie da się wysłać lustra o średnicy metrów kilkunastu.

Tymczasem, choć na ziemi jeszcze się tak wielkich aparatów optycznych nie buduje, to zaczyna się rozwijać szereg technik, które dają wyniki takie, jakby się posługiwać właśnie tak wielkimi przyrządami. Jedną z najbardziej znanych, ale chyba z nazwy, jest synteza apertury. Metoda ta zastosowana była najpierw w radioastronomii. Nie jest ona łatwa do wyjaśnienia, bo zazwyczaj posługujemy się tak zwaną optyką geometryczną, w której światło traktuje się jako "coś" biegnące po liniach prostych. Tymczasem światło jest falą, a ściślej wykonując pomiar za pomocą teleskopu zwierciadlanego wymuszamy na nim ujawnienie swej falowej natury (pamiętając o dualiźmie korpuskularno-falowym).

Syntezę apertury można wyjaśnić na nieco abstrakcyjnym przykładzie. Wyobraźmy sobie, że bardzo odległa gwiazda wysyła pojedyncze impulsy świetlne. Umieszczamy dwu obserwatorów w równej odległości od gwiazdy. Oczywiście impulsy światła dochodzą do nich w tych samych chwilach czasu. Można to sprawdzić nawet mimo efektów relatywistycznych. Jeśli obok gwiazdy pojawi się jakieś inne źródło impulsów światła, to gdy odległość nowe źródło-gwiazda będzie dostatecznie duża, obserwatorzy stwierdzą, że impulsy przychodzą do nich w różnym czasie, oczywiście wyjąwszy fatalny wypadek, gdy to nowe coś znajduje się dokładnie naprzeciw gwiazdy. Różnice czasu będą tym większe, im dalej od siebie są obserwatorzy. Co więcej mierząc dokładnie momenty przyjścia impulsów, będą oni mogli wyznaczyć miejsce, gdzie znajduje się nowe źródło.

W metodzie syntezy apertury ów pomiar czasu dokonuje się niejako poprzez nałożenie na siebie sygnałów odebranych przez dwu obserwatorów, inaczej interferencję ich. Było to w miarę proste w przypadku zakresu radiowego, w przypadku zakresu optycznego jest techniczną ekwilibrystyką, ale udaje się. Ta metoda pozwala obecnie budować układy optyczne, których rozmiary sięgają 100 metrów.

Możemy więc zwiększyć ostrość widzenia w teleskopie, jeśli tylko uda nam się pozbyć wpływu atmosfery.

I na to jest sztuczka techniczna. Sięgnięto znowu po siłowniki piezoelektryczne. Obserwujemy kontrolną gwiazdę. Komputer steruje siłownikami tak, by jej obraz był cały czas punktem. W ten sposób lustro teleskopu faluje, kompensując falowanie atmosfery.

Obecnie dwa największe teleskopy to Cerro Paranal, umiejscowiony w Chile, którego efektywna średnica zwierciadła wynosi 16,0 metra. Jest on zestawiony z 4 zwierciadeł o średnicy 8 metrów, konstrukcyjnie to 4 niezależne teleskopy, z których obraz jest sumowany (interferowany) za pomocą dość złożonego układu optycznego. Podobnie jest zbudowany teleskop na Mt Graham, Arizona, USA. Jego efektywna średnica wynosi 11,8 metra. Jest zespołem 2 teleskopów.

W drugiej połowie lat siedemdziesiąty XX wieku stały się możliwe obserwacje w podczerwieni w zakresie 1-3 mikrometrów. Dostarczyły one wiele informacji o budowie planet w Układzie Słonecznym. Udało się to dzięki zbudowaniu odpowiednio czułych detektorów elektronicznych. Obserwacje, jako że atmosfera silnie pochłania ten zakres, wykonywano także z pokładów samolotów.

 

Generalnie to jak na razie sztuczki techniczne pozwalają na skuteczny dalszy rozwój astronomii obserwacyjnej na powierzchni naszej planety. Jak na razie mniej się opłaca ładować kasę w promy kosmiczne, jak w dosyć karkołomne, ale działające sztuczki techniczne. Można ocenić, że w dalszej perspektywie nic nie zastąpi obserwatoriów kosmicznych. Liczba problemów, jakie można załatwić za jednym zamachem, eksportując teleskop w przestrzeń kosmiczną jest tak duża, że niewątpliwie bardzo by się to nauce opłaciło.

Niestety astronomia jest ciągle widziana jako sztuka dla sztuki. Nikt nie spodziewa się jakiś zysków z odkryć w superdalekim kosmosie. Tymczasem nie jest to prawda: astronomia jest dziedziną ściśle powiązaną z fizyką. Obserwacje przebiegu eksperymentów, jakie przygotowała dla nas natura, choćby przemian gwiazd, może nam dać wymarzone źródło energii w postaci syntezy termojądrowej. Możemy zweryfikować poprawność hipotez, wymyślić nowe.

Jeden z powodów ekspansji w kosmos, jaki kiedyś wymieniano, eksploatacja naturalnych zasobów na innych planetach, chyba trzeba włożyć między bajki. Być może ma jakikolwiek sens zainteresowanie się pałętającymi się w okolicach Saturna planetoidami, w lwiej części składającymi się z ciężkich i szlachetnych metali. Jednak nawet, gdy zawartość platyny lub złota jest w nich dostateczna, to ewentualne przyholowanie i sensowne wykorzystanie takiego kamyczka, to raczej śpiewka dalekiej przyszłości. Na pierwszy rzut oka problem stanowią wielkie odległości. Ale naprawdę barierą jest energetyczny dołek, w jakim znajduje się powierzchnia Ziemi, na którą trzeba by w końcu spuścić urobek. Minimalna prędkość u końca zjeżdżalni to jakieś 11 z kawałkiem kilometrów na sekundę. Energia kinetyczna kilograma materii, rozpędzonej do takiej prędkości, odpowiada mniej więcej energii uzyskanej ze spalenia 5 kg węgla. Jakkolwiek operację spuszczania ładunku z orbity okołoziemskiej mamy już w zasadzie opanowaną, to jak na razie jest ona opłacalna jedynie dla wyrobów typu satelity, nie zaś dla towarów masowych choćby i rodzimego złota. Tak na marginesie: dostępne złoża także i złota ulegają ciągle potencjalnemu powiększeniu ze względu na opanowywanie coraz nowych technologii odzysku, np. ze szlamu po elektrolitycznej rafinacji miedzi. Bardziej łakomym pierwiastkiem jest platyna, złoto ma dość kiepskie własności technologiczne, platyna zaś jest doskonałym katalizatorem. Jednak i tu być może sztuczki techniczne załatwią problem niedostępności. Badane są procesy segregacji platyny ze stopów. Pomysł jest taki, że dodajemy jej śladowe ilości do innego metalu. Po przetopieniu mieszankę poddaje się obróbce (najczęściej wygrzewaniu), w wyniku której atomy platyny dyfundują w kierunku powierzchni. W rezultacie otrzymuje się platynowany drut, który spełnia doskonale zadanie katalizatora, a koszt jego wyprodukowania jest tak naprawdę kosztem procesu, bo platyny jest tak mało, że jej cenę można pominąć. Jak na razie sprawa jest w fazie badań, ale pewnie się uda w końcu znaleźć odpowiednie warunki i kolejny powód do latania po planetoidy przestanie być aktualny.

Zasadniczym powodem niewielkiego zainteresowania kosmicznym górnictwem jest to, że nie ma powodu, by skład Ziemi był dramatycznie różnie od kosmicznego gruzu. Jądro naszej planety jest najprawdopodobniej mieszaniną ciężkich pierwiastków, być może głównie składa się z żelaza, ale i pewnie z o wiele atrakcyjniejszych metali, jak choćby miedź, srebro, złoto czy platyna. Choć we wnętrzu Ziemi panują warunki o wiele bardziej nieprzyjazne niż w kosmosie, to znowu nie ma zasadniczego powodu, by na głębokości zaledwie kilkunastu kilometrów w wulkanicznej zupie nie znaleźć dosyć kruszcu dla ludzi na całej planecie. Nie jest zresztą wykluczone, że złoża znajdują się całkiem blisko w sensie dostępności.

Na wielkich głębokościach panują temperatury do kilku tysięcy stopni. Nawet w takich warunkach można sobie wyobrazić eksploatację: można schłodzić skałę wokół odwiertu. Można stosować specjalne ciężkie ciecze dla skompensowania ciśnienia skał. Techniki wierceń, choć skomplikowane, są opanowane. Być może jednak możemy szukać złóż na niewielkich głębokościach pod morskim dnem. Jest ono, w przypadku oceanów, zbudowane ze skał o większym ciężarze właściwym od skał tworzących kontynenty i szanse na znalezienie czegoś, czego nie ma na lądach, są znacznie większe. Dno morskie, choć także niedostępne, stawia eksploratorom nieporównanie mniejsze wymagania technologiczne od kosmosu, choćby z powodu energetycznego. Problemem jest właściwie tylko systematyczne przebadanie ogromnych obszarów o powierzchni kilkakrotnie większej od obszarów lądowych.

Skorupa ziemska ma ciekawą budowę, składa się z dwu rodzajów skał. Głębiej leżą te cięższe, umownie zwane bazaltami, płycej znajdują się tworzące platformy kontynentalne granity. Pod lądami głębokość, na jaką rozciąga się skorupa ziemska, wynosi do ok. 50 km, pod dnem oceanicznym zaledwie 10-12 km. Możemy się spodziewać w tych głębszych skałach złóż, gdyż powstają one z magmy, która wydobywa się z licznych pęknięć na tak zwanych ryftach oceanicznych. Magma w procesie stygnięcia przechodzi m.in. proces segregacji, wytrącania się z niej niektórych składników, które są rozpuszczone wcześniej w roztworze roztopionych skał. Prawdopodobnie szereg złóż, np. rud miedzi, powstało w ten sposób.

Nie popadajmy jednak w entuzjazm. Jeśli nawet tak jest, nie oznacza to, że z odkryciem owych podmorskich skarbów nastąpi w dziejach okres obfitości i szczęścia.

Szereg złóż, także tych łatwych, lądowych, już dziś jest znakomicie udokumentowanych, ma opracowaną technologię i eksploatacji górniczej i przeróbki, ale czeka na swój czas. Tak na przykład dotyczy to żelaza. Nawet w Polsce mamy całkiem pokaźne złoża rud darniowych. Nadają się one do eksploatacji "dymarkowej". Technologia bardzo podobna do tej sprzed epoki wielkich pieców, redukcji bez przetopu, ekologiczna, bo mniej energochłonna, opracowana jeszcze w latach siedemdziesiątych. Ale na świecie jest nadprodukcja stali. Są nadmiarowe zapasy złomu, nieczynne huty i bezrobotni hutnicy. Złoża w Krzywym Rogu (Rosja) szacuje się na 2 mld. ton rudy wysoko procentowej (ok. 70 procent żelaza) i ok. 7 mld. ton rudy o zawartości około 25 procent żelaza.

Nie słychać nic o rozwoju opracowanej w byłym NRD technologii wytopu aluminium z pewnych gatunków glin. Metale wypierają powoli, ale ciągle, tańsze i łatwiejsze w obróbce sztuczne tworzywa. Szereg technologii może się okazać śpiewem chwili. Wspomniane problemy z katalizatorami dotyczą silnika benzynowego. A jest dość prawdopodobne, że w całkiem niedalekiej przyszłości pojawią się samochody z czystym napędem elektrycznym albo z silnikiem wodorowym. Katalizatory i platyna do nich przestaną być potrzebne.

Znacznie bardziej obiecującą ekonomicznie od kosmicznego górnictwa jest produkcja specjalnych materiałów. Współczesna elektronika potrzebuje monokryształów krzemu, germanu, arsenku galu. Muszą one być nie tylko bardzo czyste pod względem chemicznym, ale jeszcze na dodatek mieć bardzo małą liczbę defektów, czyli atomów, które "wyskoczyły" z siatki krystalicznej. Dostępność stanu nieważkości, idealne odizolowanie od wszelkich wibracji zrodziły nadzieje na osiągnięcie w kosmicznych laboratoriach niezwykłych efektów. Niestety, jak do tej pory skończyło się raczej na nadziejach. Przyczyna jest chyba dosyć banalna: w skali atomowej wpływ siły grawitacji w porównaniu z elektrycznymi siłami, jakimi oddziałują ze sobą atomy, jest raczej do pominięcia. Ponadto elektronika wycofuje się z drogich materiałów. Co warto sobie uświadomić, krzem jest jednym z najbardziej rozpowszechnionych pierwiastków w skorupie ziemskiej, wyprzedza go tylko tlen. Jak łatwo sprawdzić, niemal wszystkie przyrządy półprzewodnikowe wykonuje się właśnie z krzemu. W pewnym okresie np. z germanu, stosunkowo technologicznie łatwego półprzewodnika, wykonywano tranzystory na wielkie częstotliwości.

W chwili obecnej te dawne bariery zostały dawno z tyłu (chodziło o częstotliwości rzędu 200 – 300 MHz). Tymczasem kosmiczne technologie głównie nadają się do tworzenia swego rodzaju kompozytów z rzadkich, a więc drogich pierwiastków. Wobec tendencji do wycofywania się z kosztownych materiałów, trudno oczekiwać, by w bliskiej przyszłości nastąpił w tej dziedzinie jakiś szybki rozwój.

Jednym z mniej znanych kosmicznych parametrów, ale bardzo łakomym dla fizyków zajmujących się powierzchnią, jest słynna kosmiczna próżnia. Chodzi o to, by w obszarze, w którym znajdują się próbki badanego materiału, znajdowało się jak najmniej atomów różnych pierwiastków. Przy badaniach powierzchni zazwyczaj "siadają" one na próbce, czasami całkowicie uniemożliwiając pomiar. Jakość próżni jest zazwyczaj podawana w przeliczeniu na zastępczą wysokość słupa rtęci, o jakie przesunęłoby ciśnienie gazów wskazanie manometru. Są to przeliczenia dosyć abstrakcyjne – chodzi o miliardowe części milimetra. W kosmosie można mieć próżnię i dziesięć tysięcy razy lepszą. Jednak na to, by przeprowadzać "zwykłe" eksperymenty fizyczne w kosmosie, nie ma pieniędzy. A ponadto, okazuję się że znowu różnymi sztuczkami technicznymi można sobie z problemem poradzić. Jakby tego było mało, ostatnio jakby słabło zainteresowanie osiąganiem wyśrubowanej czystości podczas pomiarów. Jedną z przyczyn jest to, że wyniki w takich specjalnych warunkach nie nadają się do powtórzenia w warunkach przemysłowych.

Zainteresowanie kosmosem słabnie też z powodu powszechnej dostępności innej zabawki ludzkości: Internetu. Powinno być inaczej, to satelity telekomunikacyjne w dużej mierze umożliwiają sprawną łączność.

Jednak chyba na dalszą metę w telekomunikacji zwyciężą łącza kablowe, w szczególności światłowodowe. Z prostego porównania częstotliwości nośnych – w łączach satelitarnych stosuje się mikrofale, a w światłowodach zakres optyczny fal elektromagnetycznych – wynika, że w tych drugich da się upchać jakieś 10 000 razy więcej informacji. I choć Internet jest dziś zapchany, choć szereg usług, jak ściąganie przez sieć oprogramowania, jest niedostępne, to nie wygląda na to, by ten stan rzeczy dał kopniaka do rozwoju techniki kosmicznej. Znowu oprócz trywialnego położenia kabla, jest szereg sztuczek technicznych, które pozwalają odsunąć wielkie inwestycje na daleki czas w przyszłość. Jedną z najprostszych jest stosowane od dawna "kieszonkowanie" treści stron, nie tylko bezpośrednio na komputerze internauty, ale także na serwerach pośredniczących. Z drugiej strony, na satelitach komunikacyjnych są na dzień dzisiejszy najwyraźniej spore luzy, o czym świadczy choćby próba upowszechnienia systemu Internetu z nieba. Pomysł technicznie znakomity, gdy po normalnej sieci idzie żądanie sprowadzenia jakiegoś pakietu, zwykle o rozmiarach pojedynczych kilobajtów, a przez satelitę mamy przesył treści, strony, plików itp. o rozmiarach dziesiątek MB. Ten znakomity pomysł prawdopodobnie nigdy nie doczekał się dostatecznej oprawy organizacyjnej. Jedna z przyczyn tkwi w tym, że pomiędzy serwerami, z których chcemy pobrać dane, a stacją wysyłającą sygnał w kosmos musi istnieć dostatecznie dobra komunikacja. Gdy wąskie gardło znajduje się w pobliżu tego serwera, na nic się zda super szybka kosmostrada. Potrzebne byłyby pewnie tysiące stacji transmitujących dane do satelity.

Niestety, z powodu niewielkiej szerokości pasma mikrofalowego, jest to obecnie niewykonalne. Częstotliwość nośna nadajników satelitów rozsiewczych typu Astra wynosi ok 10 GHz. Szerokość przenoszonego pasma wynosi ok. 2 GHz (obecnie może to wyglądać nieco inaczej). Takim kanałem łączności można przesłać dystrybucję Mandrake 8.2 liczącą ok 2 GB w około 10 sekund. Jeśli jednak do takiego satelity podłączy się 1000 użytkowników, to każdy otrzyma łącze o pojemności około 2 Mbodów, ale w jedną stronę. Ponieważ podczas łączności potrzebna jest łączność dwustronna, choćby dla korekcji błędów, moglibyśmy takich kanałów wykroić z 500. Jak na polskie warunki to i tak byłoby świetnie (jest tu pewne uproszczenie, bo pasmo nadawania do satelity nie pokrywa się z pasmem rozsiewczym). W każdym razie nie otrzymamy tu wielkości, które miałyby wpływ na funkcjonowanie sieci choćby w ramach jednego, normalnego kraju (nie mówię tu o raczkującej polskiej sieci). Tak czy owak, z punktu widzenia potrzeb Internetu interesujące są co najmniej 10 razy większe transfery danych przy sprawnie funkcjonującej sieci, w obrębie stacji nadającej do satelity. Jak widać, perspektywy techniczne są raczej kiepskie i zapewne to stanowi jedną z przyczyn słabego zainteresowania tą technologią.

Można sprawę podsumować tak: nawet w dziedzinie telekomunikacji, technologia kosmiczna wydaje się zacofana w stosunku do dzisiejszych potrzeb.

Gdy się przyjrzeć, jak wygląda na dzień dzisiejszy ta legendarna ekspansywność terytorialna człowieka, to zauważymy tendencję odwrotną. Ludzie wycofują się z już opanowanych terytoriów. Owszem, mają coraz większe techniczne możliwości, ale z nich nie korzystają. Coś się stało w kulturze. Pustoszeją wsie, widać to nawet w Polsce, na Dolnym Śląsku, w Kotlinie Kłodzkiej. Jakiekolwiek nie byłyby przyczyny, jest, jak widać – ludzie skupiają się w wielkich miastach. Być może osiągnęliśmy charakterystyczny dla naszego gatunku zasięg. Kultura w pewnym momencie skłoniła nas do jego przekroczenia, ale kultura zawsze przegrywa z biologią.

7 grudnia 1972 roku 33 minuty po północy wystartowała misja Apollo 17. Była to ostatnia misja załogowa na Księżyc w XX wieku. Być może ostatnia w ogóle.

 

 

W    N U M E R Z E
Valid HTML 4.01 Transitional Valid CSS!

< 25 >