Mapa Ukrainy
ISSN: 2658-2740

Adam Cebula „Pamięci świetnych wynalazków, czyli o fantastyce w futurologii”

Para-Nauka Adam Cebula - 14 grudnia 2015
wodospad
Foto: Adam Cebula

Niektóre wynalazki istnieją chyba tylko po to, żeby sobie o nich pogadać? Coś w tym jest… Dziś Adam Cebula o penetracji morskich głębin i nie tylko.

Co jakiś czas w tak zwanych mediach ukazują się entuzjastyczne albo katastroficzne artykuły na temat tego, co nas czeka. Na przykład takim dyżurnym tematem jest grafen. Materiał o cudownych właściwościach, ale także nadzieja polskiej technologii. I co? Czekamy sobie na niego mniej więcej tak, jak na gaz z polskich łupków. Przy czym w to drugie chyba jednak można bardziej wierzyć niż w to pierwsze.

Grafen ma wiele niezwykłych właściwości — na przykład wielką wytrzymałość na rozrywanie, wielokrotnie przewyższającą wytrzymałość stali, ale też coś, co pewnie o wiele mniej przemawia do wyobraźni: wielką przewodność ciepną. Co chwilę prorokuje mu się niezwykłe zastosowania, a to tranzystory z grafenu, a to ekrany i jeszcze jakieś cuda niewidy.

Jak na razie jest wiele hałasu i chyba dokładnie nic konkretnego. Tak, tranzystory czy coś pełniącego funkcję tranzystora powstało, ale w skali laboratoryjnej. Nie za bardzo są nawet opanowane metody wytwarzania grafenu, który — jak się zdaje — ma zastosowania głównie jako próbka do badań. Być może coś z tego będzie, ale niekoniecznie to, o czym się dzisiaj pisze, i niekoniecznie będzie to miało taki wpływ na nasze życie, jak wieszczą dziennikarze. Skąd taki sceptycyzm? Bo za mojego życia było wiele takich rewelacyjnych i wynalazków i całych planów technologicznych, które miały wywrócić właściwie całą naszą cywilizację do góry nogami. I nie wywróciły.

Gdzieś na przełomie lat pięćdziesiątych i sześćdziesiątych… cóż, może co do umiejscowienia kalendarzowego to kwestia mocno subiektywna, ale — grzebiąc w moich starych papierzyskach — taki wniosek się nasuwa, narodziło się wiele projektów, nazwijmy to, ekspansji terytorialnej. Przy czym chodziło o zasiedlanie środowisk, w których w zasadzie człowiek żyć nie może. Na przykład dna morskiego. Dlaczego tamte czasy? Podejrzewam, że niemały wpływ na to miała obserwacja niekontrolowanego przyrostu naturalnego. Panowało przekonanie, że dla nieprzebranych mas ludzkich braknie szybko miejsca na lądach i trzeba będzie zasiedlać coraz to bardzie nieprzyjazne środowiska. Nie wygasło jeszcze — mające źródła przynajmniej w pomysłach z XIX wieku, gdy kwitł kolonializm — przekonanie o dobroczynnym wpływie na stan narodów wszelkiej ekspansywności prostej typu zajmowania coraz większych obszarów. Nieważne po co, nie martw się tym, jak gdzieś powiesisz swoją narodową flagę, twoje państwo staje się silniejsze. . To właśnie skutkowało dwoma wojnami światowymi. W tamtych czasach podejmowano próby obejmowania działalnością gospodarczą terenów, które się do tego nie nadawały, na przykład poddawano uprawom rolniczym tereny zarówno w ówczesnym ZSRR, jak i USA, mające klimat zupełnie temu niesprzyjający. W Ameryce efektem był Dust Bowl, zaś w ZSRR zasiedlanie północnych terenów skończyło się totalną klapą, przy czym dotknęła ona nie tylko słynnych „budów socjalizmu”, ale cały proces skończył się śmiercią osadników, którzy zwyczajnie wyginęli od głodu i chłodu.

Jest dla mnie sprawą zupełnie zagadkową, dlaczego po tak kiepskich doświadczeniach zyskiwały popularność plany jeszcze bardziej karkołomne, łącznie z kolonizacją kosmosu. To ostatnie jest odrębnym tematem, jednak opanowanie środowiska wodnego wydawało się jak najbardziej w zasięgu ludzkich możliwości technologicznych.

Nie wiem, ile jest w tym mojej osobistej złośliwości, ale mam wrażenie, że jedną najmocniejszych podstaw entuzjazmu było odkrycie zachowania się szkła pod wysokim ciśnieniem. Okazało się, że jego mechaniczna wytrzymałość staje się porównywalna z wytrzymałością stali. Przy czym nie jest tu istotne, jakie szkło, jakie ciśnienia, ważna chyba była medialna wizja, konsekwencji tego odkrycia. Zbudujemy przeźroczyste kule, w których ludzie będą mogli przebywać na wielkich głębokościach, odporne i na udary (np. wywołane cumowaniem podwodnych pojazdów), i na korozję we wszelkich postaciach. Tanio i efektownie, a co najważniejsze, zrozumiałe dla dziennikarzy i niesłychanie widowiskowo prezentujące się na ilustracjach artykułów. Chyba najbardziej chodziło o te malunki.

Powody, dla jakich ludzkość miała się udać na dna mórz, były tłumaczone już pobieżniej. Owszem, są tam wielkie złoża surowców naturalnych. Bodaj największy hałas powstał wokół tzw. konkrecji manganowych, które w rzeczywistości oprócz manganu zawierają żelazo, nikiel, miedź oraz wiele innych pierwiastków. Zasoby surowców w nich zgromadzone są monstrualne w porównaniu ze złożami eksploatowanymi na lądzie stałym. Szacuje się (http://www.sprawynauki.edu.pl/index.php?option=com_content&view=article&id=1768&catid=289&Itemid=30), że manganu w konkrecjach jest jakieś 1800 razy więcej niż w konwencjonalnych pokładach, a np. niklu jakieś 82 razy.

W czasach, o których piszę, nie mówiło się hydratach (klatratach?) metanowych. Były one oczywiście znane, ale nikt się nimi nie interesował, być może dlatego, że nie udawało się w tamtych latach zagospodarować złóż gazu ziemnego. Potrzebna była sieć rurociągów, by zyskały one znaczenie gospodarcze. Dość powiedzieć, że z tego, co pamiętam, w Ząbkowicach Śląskich do co najmniej 1970 roku funkcjonowała miejska gazownia, która produkowała bardzo niebezpieczny gaz miejski składający się w 9/10 z tlenku węgla, w ok. połowie z wodoru, tworzącego w szerokim zakresie stężeń niezwykle wybuchową mieszaninę z powietrzem. Wypieranie starej technologii jak widać szło opornie, mimo bardzo pilnej potrzeby. Tlenkiem węgla można się było łatwo zatruć, a wybuch gazu miejskiego zawierającego wodór mógł mieć znacznie gorsze skutki niż w przypadku stosowanego obecnie metanu. Zapotrzebowanie na gaz zrodziło się już po wybudowaniu sieci.

Dopiero potem ruszyło zainteresowanie dziwnymi formami występowania surowca. Współcześnie klatraty metanu żyją głównie w mediach. Wyobraźnię rozpala to, że ich złoża mają być ogromne, szacuje się nawet, że zasoby węgla w nich zawarte są nawet dwa razy większe niż w innych surowcach energetycznych. Podaję tę informację za Wikipedią. Najprawdopodobniej chodzi tu o kopaliny mające znaczenie energetyczne, nie o wszystkie skały zawierające węgiel. Złoża są najwyraźniej bardzo kiepsko rozpoznane, inne szacunki mówią, że zawierają one od dwóch do dziesięciu razy więcej gazu, niż znane złoża konwencjonalne.

Jak można się zorientować z medialnych doniesień, dopiero około roku 2013 w pobliżu Japonii zaczęto przemysłową eksploatację tego surowca. Tak, to łakomy kąsek, ale w czasach, w których opowiadano o kolonizacji mórz, takim nie był. Owszem, kuszono ludzi podmorskimi złożami węgla kamiennego. Dziwnym trafem nie przypominam sobie o tym, by przewidywano eksploatację podmorskich złóż ropy naftowej. Tymczasem platformy wiertnicze są dziś, po pół wieku, chyba jedyną formą stałej ludzkiej obecności na na morzach. Jeśli szukać jakichś oznak kolonizacji tego nieprzyjaznego środowiska, innych niż tradycyjne statki, które są właściwie jedyną taką formą od dobrych kilku tysięcy lat.

Dziś właściwie można zadać pytanie: „Po jasny gwizdek mielibyśmy się tam pchać?”. Z perspektywy początku XXI wieku, gdy powodów moglibyśmy sobie znaleźć więcej — jednak nie wiadomo. W czasach, gdy z entuzjazmem pisano o mieszkaniu w szklanych kulach pod powierzchnią oceanów, jednym z największych problemów był brak żywności dla stale zwiększającej się populacji. Zapomnieliśmy o tym, ale na ulicach indyjskich miast ludzie marli z głodu. Współczesne klęski humanitarne związane są z bijatykami między mieszkańcami dotykanych nimi regionów — wówczas po prostu rolnicza produkcja była za mała, żeby wszystkich wyżywić.

Głębiny morskie, owszem, oferują olbrzymie zasoby, lecz tylko surowców. Po łatwe do uzyskania źródła żywności sięgaliśmy już od dawna i jest nim po prostu rybołówstwo. Dość dawno było wiadomo, że im głębiej, tym mniej jakichkolwiek organizmów żywych, więc w schodzeniu na oceaniczne dna nie powinno być nadziei na żadne rewolucje, przynajmniej jeśli chodzi o dobra rolnicze, a nie przemysłowe.

Podejrzewam, że dziennikarzom coś się pomieszało: wizja bogatych w życie wód szelfowych (w domyśle pełnych łatwego do zdobycia jedzonka) z eksploatacją głębin (w istocie pewnego rodzaju pustyń, w których na dodatek panują fizyczne warunki wyjątkowo niesprzyjające dla człowieka i jego urządzeń, o wiele gorsze niż w kosmosie). Kosmos w tym czasie, jak się zdawało, ludzkość zdobywała przebojem. Dlaczego nie miałoby się powieść ze środowiskiem o wiele (chyba) mniej wymagającym dla techniki? Przeciętny inżynier powiedziałby pismakom, że na głębokościach 4000—6000 metrów panuje ciśnienie 400—600 atmosfer, i że w porównaniu z nim kłopot z kosmiczną próżnią to mały pikuś. Bo w próżni mamy tylko problem z utrzymaniem gazu pod niewielkim ciśnieniem wewnątrz pojazdów kosmicznych. Ciśnieniem niewielkim, bo mniej niż jednej atmosfery (w kapsułach, w których astronauci oddychali czystym tlenem, ciśnienie wynosiło około pół atmosfery). W morskich głębinach ludzkie konstrukcje — w tym hipotetyczne moduły mieszkalne — mogą być narażone na olbrzymie siły. Po pierwsze, problemem jest to ciśnienie, po drugie, możliwe efekty oddziaływania prądów oceanicznych. W kosmosie, w warunkach próżni i nieważkości, tych sił prawie w ogóle nie ma.

Można odpowiedzieć, dlaczego do eksploracji i kolonizacji morskich głębin nie doszło: nie było ku temu powodów, nie było technologii, nie było żadnych poważnych ani prób, ani pomysłów. Były jedynie doniesienia prasowe. Bardzo prawdopodobne, że cała sprawa opierała się na fantazjach rysowników zainspirowanych efektownymi konstrukcjami ze szkła. Co warto dodać, sprawy pozyskiwania zasobów oceanów owszem, posuwają się do przodu, mamy na dużą skalę podmorskie górnictwo naftowe, mamy urządzenia, dzięki którym rozpoznaje się zasoby na dużych głębokościach, ale bezzałogowe. Owszem, dokonujemy ekspansji w morskie głębiny, ale ma ona mocno utylitarny charakter. Wiercenia podmorskie — tak, ale pod warunkiem że da się na tym zarobić. Obserwacja głębin i prowadzenie robót — tak, ale bez narażania życia, za pomocą telewizyjnych kamer i zdalnie sterowanych pojazdów. Nade wszystko skala głębinowych wyczynów ludzkości jest mocno ograniczona do rzeczywistych — i to bieżących — potrzeb.

O żadnym „zdobywaniu” czy „kolonizacji” na wzór czegoś, co działo się np. na Dzikim Zachodzie, czy tego, czym było budowanie kołchozów na Syberii, mowy nie ma. Wszystkie działania sprowadzają się do tego, by możliwie dużo i tanio wyrwać, po czym jak najprędzej zwiewać z nieprzyjaznego środowiska.

Gdy jesteśmy przy oceanach, to trzeba wspomnieć o ciągle podejmowanym temacie pozyskiwania energii z różnych zjawisk, jakich potęga zazwyczaj budzi grozę, ale też z tego powodu wydają się dla człowieka łakomym kąskiem. Moc fal mórz jest oceniana na 3 terawaty. Terawat to tysiąc gigawatów. Moc systemu energetycznego Polski to jakieś 30 gigawatów. Co oznacza, że samo falowanie mórz jest w stanie zaspokoić potrzeby pi razy drzwi stu takich krajów jak Polska. Źródłem tej energii jest Słońce, więc z obecnego punktu widzenia zasoby są niewyczerpalne i wieczne.

Energia prądów morskich to 7 terawatów, energię pływów szacuje się na „tylko” 200 gigawatów.

Jeśli pogrzebać w sieci, wygląda na to, że ciągle jakieś konstrukcje powstają. Ale… No właśnie. Chodzi o obfitość „darmowej energii”. Tego nie ma. I chyba nigdy nie będzie. Sęk tym, że pułapką jest słówko „darmowa”. Jak się zastanowić, to jakiekolwiek źródło energii jest „darmowe” w takim samym stopniu, jak na przykład energia słoneczna. Dlaczego? Weźmy elektrownię zasilaną węglem brunatnym. Surowiec leży sobie w ziemi i do niczego innego się nie nadaje, tylko do spalania w wielkich kotłach. Wydobywają go z ziemi maszyny zasilane prądem, który został z niego wyprodukowany. Wkład ludzkiej pracy jest tu minimalny. No dobrze, powiesz, drogi czytelniku: ale w tej elektrowni stale muszą pracować ludzie. To nie jest za darmo! Niestety, elektrownie wiatrowe także wymagają obsługi. Co więcej, wiatraki kosztują. Stosunek ceny wyprodukowanej energii w czasie eksploatacji urządzenia do ceny wiatraka jest bardzo kiepski w porównaniu do elektrowni węglowej. Wobec tego, że obecnie podaje się dane raczej propagandowe, to obawiam się, że cokolwiek prawdy mówią stare szacunki: pi razy drzwi wiatrowa kilowatogodzina jest droższa trzy razy od kilowatogodziny z konwencjonalnej elektrowni.

Niestety przypadku każdego urządzenia zasilającego mamy ten sam problem: maszynerię najpierw trzeba zbudować, a potem pracuje ona przez jakiś czas czas, i albo trzeba ją remontować, albo zbudować nową. To dotyczy zwłaszcza wiatraków, które poddawane są ogromnym siłom, i po pewnym zasie muszą zostać zdemontowane, (bo na skutek zmęczenia materiału stanowią zagrożenie, mogą się zwalić komuś na głowę), ale także i paneli ogniw słonecznych. Co więcej, czasy eksploatacji tych „darmowych” instalacji są relatywnie krótkie i wynoszą średnio kilkanaście lat. A turbiny w elektrowniach zawodowych zwykle pracują nawet czterdzieści.

W przypadku źródeł tak zwanych odnawialnych mamy zawsze jeden i ten sam problem: diabelnie wielkie rozproszenie owej darmowej energii. Elektrownia jest tania wówczas, gdy osiąga się możliwie wielkie moce — czy to z metra kwadratowego powierzchni kotła, czy to z jednostki objętości. Nie jest to samochodowa „moc z litra”, ale to już jest blisko. Można powiedzieć trochę na przełaj, że „moc z litra” objętości kotła elektrowni jest większa niż niż „z litra” silników turboodrzutowych. To jest przyczyna sukcesów energetyki zawodowej i kłopotów z osiągnięciem podobnych rezultatów w ekologicznych budowach.

Z tego powodu, gdy chodzi o gigantyczne energie zjawisk oceanicznych, słychać jedynie o wykorzystaniu energii pływów. Można bowiem ich moc skoncentrować w niewielkim obszarze. Przegradza się jakąś zatoczkę (ujście rzeki) zaporą i w jednym miejscu instaluje turbiny, przez które przepływa woda w tę i nazad. Jak pisze Wikipedia, tak działa elektrownia w Saint-Malo (moc ok. 550 MW) nad kanałem La Manche. Podobno mamy działające konstrukcje w Rosji i Anglii, ale… nie za bardzo działające.

Jest jeszcze jeden problem z takimi źródłami energii. To praktycznie zerowa dyspozycyjność. Chodzi o to, żeby prąd płynął, gdy wciśniemy przełącznik na ścianie. Światło musi się zapalać wówczas, gdy tego potrzebujemy, a nie, gdy coś się zdarzyło w w przyrodzie. Elektrownie pływowe nie są dyspozycyjne, to znaczy nie dostarczają prądu na żądanie, ale są przewidywalne. Elektrownie, które byłyby zasilane energią falowania, nie tylko wymagają wielkich instalacji ze względu na rozproszenie mocy po powierzchni wody, ale do tego mogą działać w przypadkowych momentach. To bez sensu: prądnica ma się kręcić w momencie gdy włączyłem światło, a nie kiedykolwiek. Gdy kręci się, gdy odbiorniki są wyłączone, na darmo wycierają się łożyska, zużywają łopaty wirników.

Warto chyba wspomnieć o jeszcze jednym typie elektrowni, które miały nam zapewnić energetyczne eldorado: maretermicznych. W morzach mamy stałe — dość znaczne — różnice temperatur między wodami powierzchniowymi i głębinowymi. Zwykle na dużych głębokościach mamy kilka stopni Celsjusza, a na powierzchni kilkanaście. To już by wystarczyło, by ruszyły jakieś turbiny. Sprawność (termodynamiczna) takiego procesu jest na poziomie 3%, ale też potężne zasoby ciepła sprawiają, że możemy mimo to wydobyć z oceanów wielkie moce. Być może ten typ siłowni dysponowałby największymi zasobami energii, bo czerpie on z tego samego źródła które napędza np. cyklony i prądy morskie, ale… Jak do tej pory istnieje jedynie na papierze.

Dlaczego? W tym ostatnim wypadku mielibyśmy nawet możliwość w pewnym zakresie dysponowania mocą, z pewnością jest to rozwiązanie przewidywalne, przynajmniej w okresie kilku dni, bo zmiany temperatury wód przebiegają wolno. Lecz niestety konieczne są ogromne inwestycje. To jest dokładnie ta sama sytuacja, jaką mamy w przypadku „darmowych” wiatraków. Maszyneria jest bardzo kosztowana i popracuje tylko pewien czas. Z racji narażenia na bardzo wielkie obciążenia (np. sztormy, korozja wywołana morską wodą), ciężko zaprojektować coś, co da się eksploatować dłużej od kotła elektrowni węglowej.

Czy pamiętamy nadzieje, jakie budziły sieci neuronowe? Może nie wszyscy zdążyli zauważyć entuzjazm, jaki wybuchł w pewnym momencie, ale przypomnę, że pojawiały się programy komputerowe oparte o symulowanie sieci neuronowej, które miały na przykład przewidywać zmiany kursów akcji na giełdach, przewidywać pogodę, albo programować pralkę automatyczną. Temat obecnie występuje pod bardziej chwytliwą nazwą „sztuczna inteligencja”. Zapewne takie terminy jak „logika rozmyta” czy „algorytmy genetyczne” są już o wiele mniej popularne, ale to wszystko w pewnym momencie (może umownie powiemy o pierwszej dekadzie lat dziewięćdziesiątych) miało być uniwersalną metodą na prawie wszystkie nieszczęścia trapiące ludzkość, a także metodą na zbudowanie sztucznego umysłu działającego o wiele sprawniej od umysłu człowieka. Były nadzieje, że sztuczna inteligencja wynajdzie nam nowe leki, będzie za nas projektować maszyny.

Współcześnie uczeni ostrzegają przed sztuczną inteligencją, twierdzą, że jak powstanie, to nas zje. Może złośliwie to relacjonuję, ale jestem blisko tego, co opowiada Steven Hawking. Wszelako sednem zagadnienia jest raczej to, że niczego, co by mogło się równać z działaniem ludzkiego mózgu, na razie nie wymyślono. Dobrym dowodem jest istnienie prostych algorytmów rozróżniających człowieka od bota przy rejestrowaniu się na wszelkiej maści forach dyskusyjnych. Jest albowiem klasa zadań bardzo prostych dla człowieka, a dla maszyn praktycznie nieruszalnych.

Warto dodać, że to, co w tej chwili nazywane jest „sztuczną inteligencją” w istocie okazuje się klasą programów, które próbują (z mniejszym czy większym trudem) pewne z tych dotychczas niemożliwych zadań rozwiązać. Na przykład potrafią odczytać tablicę rejestracyjną pojazdu albo rozpoznać na zdjęciu twarz człowieka. Nawet mogą rozpoznawać ludzi po wyglądzie, lecz — jak łatwo się przekonać — program się walnie, gdy w polu widzenia kamery pojawi się osobnik namierzony wcześniej, ale za to w okularach. A jeśli już napiszemy łatę radzącą sobie z okularami, to np. podklejenie uszu czy okulary z noskiem załatwią algorytm ponownie. Jeśli ktoś ma pojęcie, jakimi punktami antropometrycznymi się posługuje, oszuka program bez trudu.

Nawet jeśli w jakiejś dziedzinie sztuczna inteligencja odnosi sukcesy, to niestety nie ma to wiele wspólnego z sieciami neuronowymi. Niestety, ponieważ owe sieci dawały początkowo nadzieję na łatwe seryjne rozwiązywanie problemów. Miały one bowiem własność uczenia się. Tak zwane uczenie się pod nadzorem polega na tym, że podajemy sieci przykłady, a ona próbuje podać rozwiązania. Na zakończenie dostaje informację, czy zrobiła dobrze, czy źle. Po jakimś czasie sieć zaczyna podawać trafne odpowiedzi. Cudowne? Otóż nie bardzo. Nim jednak przyszło do tej konkluzji, spekulowano, że na tej zasadzie sieć może podawać rozwiązania problemów, których sami nie potrafimy ruszyć. Na przykład obserwuje wspomniane zmiany kursów akcji na giełdach i oczywiście dowiaduje się, czy postawiona prognoza była prawidłowa, czy nie. Więc skoro potrafi ruszyć w ten sposób inne zagadnienia, na przykład nauczyć się tabliczki mnożenia, to w końcu zacznie zgadywać, czy kurs wzrośnie, czy zmaleje… a wówczas właściciel programu zarobi fortunę.

Były bardziej spektakularne nadzieje, np. przewidywanie klęsk żywiołowych, huraganów, trzęsień ziemi czy niepokojów społecznych. No i? Owszem, sieci znalazły zastosowania w dziwnych urządzeniach, na przykład w wyłącznikach sieci energetycznych, które rozpoznają na podstawie kształtu wykresu przebiegu elektrycznego, czy nastąpiło zwarcie na linii, czy tylko krótkotrwałe wyładowanie. Tak, taki wyłącznik jest bardzo ważny, potrafi z jednej strony zapobiec zniszczeniu drogich urządzeń, a z drugiej niepotrzebnym przerwom w zasilaniu.

Niestety pomimo ciągłego powstawania coraz to nowych urządzeń, coraz to doskonalszych, które mają coś ze sztucznej inteligencji, o zastępowaniu człowieka jak na razie mowy nie ma. Powiedzmy sobie szczerze: choć to i owo za pomocą sieci się załatwiło, nawet są produkowane tak zwane sprzętowe okłady sieci, to jednak nadzieje, że okażą się one panaceum, jak widać okazały się całkiem płonne.

Jak doszło do rozbudzenia niezbyt uzasadnionego entuzjazmu? Chyba na zasadzie dość prostej interpretacji tego, co się udawało. Ponieważ dla tak zwanej publiczności działanie sieci zdawało się raczej tajemnicą, nie widać było powodu, by przy większym wysiłku nie mogło się udać znacznie więcej. Nie dostrzegano ograniczeń. Zresztą problem tkwi w tym także, że sieci z definicji są probabilistyczne, więc nie do końca można było przewidzieć, jak się zachowają. Jednak mam wrażenie, że każda osoba, która z nimi ciut poeksperymentowała, powinna się była zorientować, że kres faktycznych możliwości znajduje się dość blisko. Tyle że w atmosferze medialnego szumu nikomu nie chciało się studzić nadziei.

Współcześnie raczej chyba wszyscy są zgodni, że za pomocą sztuczek programistycznych możemy jeszcze bardzo wiele, ale niestety, na dzień dzisiejszy nie widać jakiejś metody-wytrycha, która nam będzie z automatu załatwiać po kolei wszystkie problemy. Owszem: komputery, tak zwane metody sztucznej inteligencji, będą nam coraz więcej pomagały, rozwiążą wiele problemów, lecz niestety nie obejdzie się bez ciężkiej pracy informatyków, bez żmudnego kodowania, testowania programów w koło macieju.

Kilka razy już pisałem o dla wielu może niszowej sprawie węglika krzemu, poniekąd zaprzepaszczonej sprawie rewolucji w półprzewodnikach. Warto wspomnieć o tym raz jeszcze, albowiem jest to historia mocno modelowa, w której na dodatek wszystko chyba jest widoczne jak na dłoni. Otóż węglik krzemu w przeciwieństwie do grafenu dobrze się nadaje do produkcji i tranzystorów i tyrystorów oraz układów scalonych metodami przemysłowymi. Istnieje technologia, która dobrze działa. Co jest szczególnego w tym materiale? A choćby temperatura pracy wyprodukowanych z niego urządzeń. Tranzystory krzemowe potrafią działać w temperaturze do 175 stopni, a te z SiC-u (Si — krzem, C — to węgiel, więc SiC to węglik krzemu) do 500 stopni Celsjusza. Mają też „z urodzenia” napięcia pracy ok. 1200 woltów. Są to więc idealne urządzenia dla energoelektroniki; tranzystor SiC przełączy moce na oko 10 razy większe niż jego odpowiednik z czystego krzemu. Wysoka temperatura pracy pozwala umieszczać te elementy w miejscach wyjątkowo nieprzyjaznych, np w silnikach turboodrzutowych.

Projektant wzmacniacza akustycznego podskakiwałby z radości, gdyby dostał taki element do zbudowania tzw. końcówki mocy. Bo może wtedy zapomnieć o kłopotach, jakie normalnie mamy z chłodzeniem. Aby temperatura krzemowych tranzystorów nie przekroczyła jakichś 125 stopni (tyle trzeba przyjąć ze względów bezpieczeństwa), temperatura radiatorów, które służą do ich chłodzenia, nie może być większa niż 70 stopni Celsjusza, bo musimy założyć, że temperatura otoczenia może wzrosnąć — jak w tym roku — do plus 40 stopni Celsjusza. Projektant musi się martwić pogodą na zewnątrz. Awaria jest prawdopodobna, więc uważać musi i eksploatujący. Jeśli wzmacniacz postawimy przy oświetlonym słońcem oknie, może dojść do jego uszkodzenia, a wszystko przez to, że operujemy z niewielkimi marginesami bezpieczeństwa temperatur. A jeśli temperatura tranzystorów mogłaby wzrosnąć do plus 500 stopni Celsjusza? Cóż, możemy sobie założyć, że radiator nagrzeje się do jakichś, lekką rączką, 300 stopni Celsjusza. Jedyny problem, jak go osłonić, by nie można go było przypadkiem dotknąć. Problemu chłodzenia nie będzie.

Otóż… Chyba jednak jeszcze sobie poczekamy na taki komfort projektowania. Tranzystory, tyrystory pracujące w takich temperaturach, są do kupienia. Tyle że ich ceny są na poziomie, powiedzmy, 600 złociszy i więcej, podczas gdy coś podobnego z krzemu kosztuje około 5 złotych. Skąd ponad stukrotna różnica w cenie? Z powodu obudowy. Można rzec, jak się dowiemy — ręce opadają.

Niestety, o ile się zdążyłem zapoznać z problemem, chyba tu jest pies pogrzebion. Niezwykłe tranzystory były opracowane m.in. przez NASA, a technologia, którą zastosowano, została powielona przez firmy zajmujące się produkcją. No i mamy taką sytuację, że wydaje się pokonano to, co było diabelnie trudne, czyli wyprodukowanie odpowiednio czystych, pozbawionych defektów kryształów, opracowano technologie produkcji elementów półprzewodnikowych .Postęp zatrzymał się na obudowach. Albowiem technologie, które były gotowe dla krzemu, zupełnie nie pozwalają na przetrwanie takich temperatur, w jakich mogłyby pracować elementy z SiC.

Zwykle tę historię przytaczałem dla ilustracji, że naiwnością jest oczekiwać opracowania przez współczesne firmy w działach badawczych opracują czegokolwiek naprawdę nowego. Do wypuszczenia się na takie ryzyko potrzeba jest niestety państwowa kasa wyciągnięta z kieszeni podatnika. Firmy nie ruszą do przodu bodaj o kroczek, nawet jeśli za kasę zebraną przez okrutnych poborców na całym świecie wykonano proporcjonalnie tysiąc kroków. Będą się kręcić w kółko i próbować ukręcić z tego, co już mają, coś, co spróbuje udawać postęp. A na przykład, owszem, tranzystor z SiC, lecz w obudowie wytrzymującej do 200 stopni Celsjusza, bo taką umiemy zrobić. To jedna para kaloszy. O drugiej trzeba napisać trochę więcej.

Dlaczego z wieloma świetnymi wynalazkami poszło tyle razy kompletnie w krzaki? Ano… bo się tym, co wypisywali cuda niewidy, jak to w tej przyszłości będzie, zdawało, że nauka i postęp naukowy to rodzaj prostej maszynki. Wrzucamy w nią problem, wrzucamy fundusze, i za niedługi czas wyskakuje rozwiązanie. Niestety. Jest, powiedzmy sobie szczerze, na odwrót. Wyskakują rozwiązania bynajmniej nie tych problemów, które się dziennikarzom chciało rozwiązać, ale tych, które się udało rozwiązać. Tak, to jest właśnie na odwrót.

Do tego jeszcze jedno: technologia. Co zrobił Gutenberg? Wynalazł druk? Nie, opracował łańcuszek operacji, których rezultatem było znaczne skrócenie czasu poświęconego na powielanie książek metodą druku. Opracował technologię.

Musi zadziałać cały przepis na sukces. Nie wystarczy stwierdzenie jednego obiecującego faktu, np. że mamy wielką energię pływów. Aby zadziałało, musi być pomysł na skoncentrowanie tej energii, na to, by można ją było wykorzystywać w odpowiednim momencie, a całość musi się okazać mniej pracochłonna niż produkcja prądu z węgla brunatnego. Zaszwankuje jedno ogniwo, a cała robota na nic. Entuzjaści nie zdają sobie sprawy, że cały postęp polega na ciągłym testowaniu takich procedur. Tylko nieliczne z nich okazują się cennym wynalazkiem, dobrym sposobem, a większość — pewnie zdecydowana — ślepą uliczką. Nigdy nie ma pewności, które rozwiązanie okaże się takim kompletnym, dobrym patentem. Oto jak wygląda owa druga para kaloszy.

Dużo mniej ciekawym powodem rozczarowań jest zwyczajna ignorancja piszących. Oni zwyczajnie szukają sensacji. Mało ludzi zdaje sobie sprawę, że dziennikarz nie patrzy na problem pod kątem zrozumienia, o co tu chodzi, tylko jak z tego ukręcić „niusa”. Futurologia jest bardzo chwytliwa, no i niestety o krok od niej do fantastyki. Nie do science fiction, ale do luźnych fantazji, którym bliżej do fantasy.

Musimy sobie dopowiedzieć, że przecież wszelka futurologia miała początek w takich produkcjach, jakie uprawiał Juliusz Verne. Rzecz jednak w tym, że jego czytelnicy przynajmniej powinni sobie doskonale zdawać sprawę, że to fantazje i zmyślenia, i z rzeczywistością nie mają wiele wspólnego. Tymczasem bajania produkujących się w różnych czasopismach wróżbitów, które za bazę mają tę samą metodę, którą stosowali pisarze SF, dla podbicia nastroju zostały przybrane w strój niemalże naukowej prawdy. Zauważmy, że metoda jest naprawdę ta sama.

Jaka? Ano tak samo, tylko bardziej. Jest jakaś sieć neuronowa, zaczyna działać… wymyślmy, co będzie, jakby działała lepiej. Nie zajmujemy się tym, czy okaże się to możliwe, zakładamy prostą ekstrapolację: dziś robi to, jutro będzie robić rzeczy o wiele trudniejsze. Bo na tym polega postęp — wedle naszych wyobrażeń. Wiatrak dziś działa trochę? Jutro zrobią taki, co zakręci się bardziej. Nurek pracował dziś na dwudziestu metrach głębokości? No to za jakiś czas zejdzie na sześć tysięcy. Tego, że coś może albo pójść nie tak, albo że zostanie dokonany niespodziewany wynalazek, nie możemy przewidzieć, bo przecież sami byśmy go dokonali. Fantastyka naukowa jest i była pisana na bardzo podobnej zasadzie, ale jako fantastyka. A publicystyczna futurologia została awansowana do rangi poważnej wiedzy, zaś podlana odpowiednim sosem lingwistycznym jest trudna do zignorowania.

Taka jest moja konkluzja: kochani, jeśli nie chcemy się rozczarowywać, albo nie chcemy ponosić konsekwencji wpuszczania nas w maliny przez wróżących nam technologiczną przyszłość, nauczmy się rzeczonych wróżbitów-futurologów traktować jak pisarzy SF. Czytajmy ich wynurzenia jak fantastykę ze świadomością, że wszystko, co wypisują, powstało na prawie dokładnie tej samej zasadzie co dywagacje pana Verne’a, i ma bardzo podobną wartość. W futurologii jest mnóstwo fantastyki i mała odrobina solidnej wiedzy. Dobrze jest marzyć, bo do tego fantastyka służy, a będzie… co będzie.

Adam Cebula




Pobierz tekst:

Mogą Cię zainteresować

Adam Cebula „Kobieta bardzo fatalna”
Opowiadania Adam Cebula - 5 kwietnia 2019

Co ta miłość robi z człowiekiem… wystarczy chmurka wysoko wydajnych feromonów, a…

Adam Cebula „Wernyhorzenia ciąg dalszy”
Felietony Adam Cebula - 1 września 2014

Tak sobie pomyślałem, że gdybym miał napisać na cito jakiś tekst w konwencji fantastyki naukowej, i na dodatek tak,…

Adam Cebula „Heretycka żerdź”
Felietony Adam Cebula - 12 września 2019

Zapewne jesteśmy przekonani (po opisach w różnych książkach przyrodniczych), że zadaniem piorunochronu…

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *

Fahrenheit