strona główna     -     okładka numeru     -     spis treści     -     archiwum fahrenheita     -     napisz do nas
 
Adam Cebula Para - nauka i obok
<<<strona 27>>>

 

przyszłość ideologii czy ideologia przyszłości

 

 

O Linuksie pisałem już wiele razy. Powód, dla którego podchodzę do tego tematu, jest taki, że na przykład pojawiła się informacja o tym, że miasto Barcelona zamierza przejść na Wolne Oprogramowanie, czyli w domyśle na Linuksa. Gdzieś na przełomie stuleci (a to już kilka lat temu!) Linux był tematem bardzo popularnym w tak zwanej popularnej prasie. Obecnie pisze się o nim w o wiele spokojniejszym tonie. Niestety, większość tekstów przypomina mocno przedwojenny kawał o biedzie Ukraińców ."Dobra bułka z masłem! A skąd wiesz? Bo brat widział, jak Żyd jadł". To znaczy autor widział gdzieś informacje o tym, o czym pisze. Oczywiście, nie informacje techniczne, tylko przeczytał inny popularny artykuł. Tymczasem jest technologia, która staje się częścią naszego świata i pewnie będzie trwałym naszym towarzyszem. Co więcej, Wolne Oprogramowanie, do którego należy to coś, to zjawisko nie tylko socjologiczne, ale w wielkim stopniu technologiczne. Jest to inny sposób realizacji ( słówko "produkcja" nie bardzo tu pasuje). Tak przy okazji, to co raz mocniej się przekonuję, że na owym Linuksie sam się nie znam. To znak czasów, że znają się młodzi. Wapniaki coraz bardziej wypadają z tematu, ot, taki drobiazg, że literacki stereotyp mędrca z białą brodą zamienia się w stereotyp przemądrzałego sklerotyka. Filmowy haker jest genialnym dwudziestolatkiem. Jeśli więc raz kolejny zabieram się za ten temat, to tylko ze względu na to, że tych młodych, co się znają, jest wyraźnie za mało, żeby w gazetach nie wypisywano bzdur.

Dział para-nauki (nazwę, przyznacie, bardzo literacką, wymyślił Eugeniusz Dębski) miał zajmować się z założenia popularyzacją, więc podawaniem informacji na poziomie nieco wyższym niż publicystyczny. Jak do tej pory, z różnych powodów unikałem w tym dziale opowieści o informatyce. Tymczasem komputer, elektronika, (czy ktoś jeszcze zauważa, że istnieje "elektronika", a nie "telefonia komórkowa", "komputery", "multimedia"?) stały się zupełnie niezbędnym elementem naszego otoczenia. Tak szczerze mówiąc, to ja nawet nie wiem, po cholerę ludziom tyle tych telefonów komórkowych, po ki diabli karty na chipy, nie rozumiem sensu jakichś 3/4 tych wszystkich elektronicznych dziwadeł. I wcale nie mówię tego w tym sensie, że to zabawki. Nie, to służy, jest formą działalności, tyle że stary wapniak jest już w zasadzie nadający się do sanitarnego uboju, bo zawartość rozumu nie chce za cholerę się modyfikować. Nie rozumiem tego świata, ot i tyle, a tymczasem próbuję innym dostarczyć porcję informacji, która ma im właśnie do tego posłużyć. Powtórzę raz jeszcze, co wielokrotnie pisałem: współczesny świat tworzy technologia, bez rozumienia technologii i czasami jej z pozoru zupełnie nieistotnych zakamarków, nie zrozumiemy historii tego świata. Jeśli chcemy wiedzieć, dlaczego upadł Rzym, warto przewertować księgi handlowe, jeśli chcemy się dowiedzieć, ku czemu nasz świat podąża, bez technicznych szczegółów co chwilę będziemy czymś zaskakiwani. Dokładnie tak, jak pojawienie się Linuksa zaskoczyło prawie cały techniczny i biznesowy światek.

Tak więc znowu piszę o Linuksie, ale bynajmniej nie mam zamiaru uczciwego opisania systemu. Pingwiniarze zechcą wybaczyć, chodzi mi o pokazanie na przykładzie tego cuda, co się wyrabia i jak w naszym świecie w związku technologiami. Osoby zainteresowane zainstalowaniem zerkną na www.linux.org, albo wystukają sobie na przykład www.debian.pl, pobiorą z sieci 5 GB oprogramowania (ponad 8 tysięcy aplikacji) i zajmą się sobą na dłuższy czas.

Zaczynając tę opowieść, mamy to szczęście, że uczciwie możemy uniknąć "już starożytni". Nie, byłoby poważnym przegięciem przypisywać starożytnym tworzenie systemów operacyjnych. Posługiwali się oni do liczenia urządzeniem zwanym abacusem, ale z baraku zera w systemie liczb, trudno opowiadać, że naprawdę liczyli. Na stronach IBM można sobie obejrzeć IBM 550 (lata trzydzieste XX w), pierwszą komercjalną maszynkę na karty perforowane. Historycy doszukują się prapoczątków technologii informatycznej w konstrukcjach budowanych jakieś 400 lat temu, i idąc tym tropem rzeczywiście moglibyśmy powiedzieć, że już starożytni, bo w 1910 roku niedaleko wysepki Antikythera poławiacze gąbek wyłowili z wraku pochodzącego z I wieku, coś, co pewnie jest mechanicznym kalkulatorem nawigacyjnym (o zmajstrowanie jego posądza się kosmitów, ocalały fragment zawiera 40 kół zębatych ), także w średniowieczu konstruowano przeróżne zadziwiające mechanizmy, więc już bardzo, bardzo dawno temu, ale... No właśnie, to były automaty, które nie miały zasadniczej cechy komputera: zdolności do wykonywania zupełnie różnych zadań, jak dziś mówimy, programów. Początki systemów operacyjnych, to epoka łupanego kamienia w informatyce, gdzieś okolice lat pięćdziesiątych.

Nam dziś się wydaje, że przed rokiem 70, młodszym to pewnie, że przed 80, była informatyczna czarna dziura. Tymczasem już w 1956 roku IBM wyprodukował pierwszy twardy dysk RAMAC 305 o pojemności 5MB, MIT zbudował TX-0, Transistorized Experimental computer. Jack Kilby w 1958 buduje pierwszy układ scalony (Texas Instruments). W roku 1959 w firmie Fairchild Semiconductor, Robert Noyce i Jack Kilby konstruują układ scalony z użyciem krzemu i metalizacji aluminiowej.

Tu pozwolę sobie na skok w tył czasu, pierwsze pomysły tranzystorów pochodzą jeszcze sprzed II wojny światowej, jest między innymi w tej materii polski patent, lecz zrealizowanie pomysłów okazało się możliwe dopiero po opanowaniu czegoś, co w fizyce nazywamy stanami powierzchniowymi, dzięki modelom Tamma i Shockley’a. Prace, które to umożliwiły, były pisane w pierwszej połowie lat 40-tych. Polskim wkładem w technologię światową, jest metoda Czochralskiego produkcji bardzo czystych kryształów powstała także znacznie wcześniej (1916), niż rozwinęła się technologia półprzewodników.

Na marginesie, Czochralski Jan (1885-1953), jedna z najważniejszych postaci w polskiej nauce w 1945 roku po wyzwoleniu został aresztowany przez Urząd Bezpieczeństwa. Zwolniono go po kilku miesiącach śledztwa, ale senat politechniki odsunął go od życia naukowego i nigdy nie został "rehabilitowany". Do dnia dzisiejszego jest on "be" ze względu na komercyjny stosunek do nauki, nie dość patriotyczną postawę podczas okupacji, nie klepał bowiem biedy, jak wypadało. Zmarł 22 kwietnia 1953 w Poznaniu, jako "prywaciarz" – właściciel niewielkiej firmy drogeryjnej.

Nie byłoby takiej elektroniki, jak widać, gdyby nie wielokrotnie wspominana technologia wysokiej próżni. Nie ma hodowli kryształów, nie ma naparowywania, nie ma implantacji jonami, w ogóle nie ma elektroniki bez wysokiej próżni. Tak to w praktyce wygląda technologia, która jest "inteligentną sumą" bardzo różnych, bardzo odległych i z pozoru niepotrzebnych dziedzin wiedzy.

Jeśli wrócimy jednak na grunt informatyki, to szybko okazało się, że nieuchronne jest rozdzielenie sprzętu od programu. Taka idea właściwie już powstaje w 1937 gdy w Anglii Alan Turing wymyśla teoretyczny komputer zwany maszyną Turinga. Jednak chyba jej realizacja to dopiero rok 1949, powstanie pierwszego asemblera, do komputera EDSAC skonstruowanego w tym samym roku, także jest to Anglia, nie Ameryka choć tam od 1924 roku działa już IBM.

Jednak prymat USA zaznacza się już w latach pięćdziesiątych: w 1952 J. W. Mauchly, J. P. Eckert opracowują wraz z zespołem komputer EDVAC określany jako "uniwersalny" (słynny ENIAC to lata czterdzieste!), w 1956 r. John Backus wraz z zespołem z IBM wprowadzają do użycia FORTRAN, pierwszy język programowania wysokiego poziomu w tymże samym roku John McCarthy tworzy LISP język "sztucznej inteligencji". Ta bardzo niepokoi pisarzy SF. Dziś już o tym zapomnieliśmy, ale swego czasu zdawało się, że cała informatyka ma na celu budowę sztucznej inteligencji, tymczasem dziś to osobne zagadnienie. Aż do lat osiemdziesiątych, do czasu opracowania tak zwanego algorytmu propagacji wstecznej (Werbose 1974 i ponownie w 1985 Rosenblatt, Hinton i Wiliams) w tejże dziedzinie niewiele się ruszy, a "perceptron" (w międzyczasie jego twórca, jak twierdzi jeden autor, Rosenblatt utopi się w tajemniczych okolicznościach na swej motorówce) pozostanie ciekawostką. W pierwszych latach XXI wieku ludziska nawet nie będą się domyślać, że za algorytmami OCR stoją tak groźne kiedyś sieci neuronowe. Jako ciekawostkę można dodać, że powstałe w 1958 i 1959 roku Algol i Cobol, języki programowania, mimo, że późniejsze do poprzednich dwu "spadły z planu" i dziś już są praktycznie nie używane.

Lata sześćdziesiąte to faktycznie wydobywanie się "z morza niebytu" informatyki. Gdzieś około roku 1961 powstaje pierwszy system operacyjny, jak dziś mówimy wielozadaniowy, pojawia się tranzystor MOSFET (1962 S. Hofstein i R Heiman), w 1965 roku powstaje język Basic. Dziesięciolecie kończy się wydarzeniem bardzo znaczącym: w 1969 lub 1970 roku Kenneth Thompson i Dennis Ritchie z laboratoriów AT&T Bella tworzą system operacyjny UNIX. Data 1 stycznia 1970 jest obecna do dnia dzisiejszego we wszelkich systemach "uniksopodobnych", oficjalna, czy "techniczna" data powstania tego systemu.

(Wiele danych historycznych na stronie tutaj)

Bardzo interesującą sprawą jest, po cholerę występuje coś takiego, jak system operacyjny. W istocie, można się bez niego obejść. Tak było na samym początku informatyki: program obsługiwał wszystkie funkcje komputera. Takie rozwiązanie wydaje się naturalne, bo wówczas wszystkie zasoby maszyny służą realizacji zadania. Do pamięci operacyjnej nie pakują się niepotrzebne procedury obsługi urządzeń, które nie będą używane. Trudno jednak nie zauważyć, że pomysł w sumie także był głupi, bo programista (jak sobie u nas ludzie żartowali, pracując za pomocą młotka i gwoździa, którym dziurkował karty) musiał za każdym razem wpalcowywać szereg takich samych procedur: wprowadzanie do rejestru A procesora, wprowadzanie do rejestru B, zapis na taśmę, odczyt z taśmy. Pomysł, by pewna część oprogramowania była wsadzona do pamięci komputera na stałe, stał się palącą koniecznością w momencie, gdy zaczęto budować wielkie centra obliczeniowe. W "owych czasach" (to już są lata siedemdziesiąte), o których możemy m.in. poczytać w biografii Roberta Stallmana, monstra, zwane maszynami cyfrowymi, które zajmowały całe piętra budynków i były piekielnie drogie. Był to także czas, gdy już z całą ostrością okazała się podstawowa cecha komputera: piekielna moc obliczeniowa, zupełnie nieadekwatna do potrzeb zwłaszcza do urządzenia wejścia-wyjścia, zwanego programistą. Aby zmaksymalizować zysk z drogiej budowy, urządzenia te miały wiele terminali, przy których siedzieli ludzie i pukali w klawiaturę, by zajmować czymś centralną jednostkę. Mówimy tu oczywiście o sensownej pracy, bo zajęcie komputera robotą bezsensowną jest zadaniem "na pięć minut". W takim centrum musiał na stałe działać program godzący między sobą zadania, jakie zadawali komputerowi poszczególni programiści, pilnujący, by żaden z nich nie wysypał roboty kilkudziesięciu pozostałym.

Dlaczego systemy operacyjne MUSIAŁY powstać? Ponieważ celem działania komputera jest skrócenie czasu opracowania wyników. W przypadku zadań piekielnie pracochłonnych, takich na rozwiązanie których ludzkość czekała całe stulecia, jak wyliczenie liczby pi z dokładnością do pół miliona liczb po przecinku, było dość obojętne, jak wiele czasu poświęci zespół uruchamiający komputer na tę operację. I tak minęły całe stulecia. Jednak, by był zysk w przypadku pisania dokumentów, czy choćby pisania krótkich programów, środowisko musiało być wstępnie przygotowane. Komputer może pracować bez systemu operacyjnego, ale nie będzie z niego nijakiego pożytku. Po to, by skracał czas opracowywania wyników, musi mieć wstępnie zorganizowaną obsługę użytkownika.

Mniej więcej w takich okolicznościach powstał Unix. Można śmiało powiedzieć, że to matka wszystkich systemów operacyjnych. Powstanie DOS-a (pierwsze komputery z tym systemem – rok 1980) jest pośrednio z nim związane. Jednak związki są "walące po ślepiach". Na przykład system plików, słynny "backslash". Wziął się ze slasha w Uniksie, czyli zwykłego ukośnika. Diabli wiedzą dlaczego odwrócono kreskę, ale odwrócono, i jest inaczej. Odwrócili, co już kiedyś pisałem, twórcy DOS-a. Przyznacie, że "zwykła" krecha, którą zazwyczaj oznaczamy "łamane", czy "dzielone" wygląda naturalniej, kreski "w tył ciach" w normalnym piśmie się raczej nie używa. skutek jednak jest taki, że dziś, gdy dochodzi do "powrotu do korzeni" czyli przesiadki jakiegoś delikwenta z systemu DOS-owego, przykładowo, na Linuksa, na ten "zwykły ciach" sypią się gromy. Podobieństw jest znacznie więcej, ale siedzą one zagrzebane w kodzie systemu. Generalnie DOS powstały na bazie systemu CPM jest uproszczeniem "prawdziwego systemu operacyjnego". Tak twierdzą "hardcorowi" informatycy.

Otóż to coś powstało w epoce tak zwanych komputerów osobistych. Tak naprawdę były to przerabiane dla potrzeb tak zwanego szerokiego odbiorcy sterowniki przemysłowe.

Jak już pisałem, nic nie powstaje w kosmicznej próżni. Konkretny system operacyjny był przygotowany na konkretny sprzęt dla konkretnego odbiorcy, który na dodatek miał spełniać konkretne zadanie. Epoka komputerów osobistych typu Amstrad CPC 64 to epoka elektronicznych zabawek. Nie mogły ona służyć do czegokolwiek innego, przynajmniej w skutecznym stopniu, ze względu na to, że miały kiepskie techniczne parametry, a przede wszystkim przez to, że ich operatorzy nie mieli pojęcia, do czego komputer wykorzystać. Owszem, znam takich, co programami pisanymi na "Spektrumnę" zadziwiali międzynarodowe gremia, ale to są prawdziwe wyjątki. Na przykład Marek Wolf , który za pomocą plastykowej zabawki badał automaty komórkowe, pracownik Instytutu Fizyki Teoretycznej we Wrocławiu. Pozostałe towarzystwo nie miało pojęcia, co z komputerem zrobić. Najszczytniejszym zajęciem była nauka programowania. Komputery były z urodzenia jedno-użytkownikowe i jedno-zadaniowe. Tymczasem Unix dokładnie na odwrót: wieloużytkownikowy, wielozadaniowy.

Skąd się wziął Linux? Mam na ten temat swoją teorię. Najważniejsze jest dobrze wiadome: napisał go pewien student fiński. Linus Benedict Torvalds urodził się 28 grudnia 1969 roku w Helsinkach. W 1991 roku na bazie systemu MINIX dydaktycznego "unixa", którego autorem jest z kolei prof. Andy Tanenbaum, zaczął pisać praktyczny wielozadaniowy system. Trzeba tu jednak zaznaczyć, że chyba bardziej z technicznej konieczności niż poszanowania praw autorskich, Torvalds musiał napisać wszystko od początku. 5 października zostaje wypuszczona pierwsza rozpowszechniana wersja o numerze 0.0.2 . Jest to coś, pracujące wyłącznie w trybie tekstowym, na czym można uruchomić niewiele programów. W 1994 roku powstaje wersja oficjalna 1.0 i w niewiele późniejszym terminie pojawiają się pierwsze firmy, które zaczynają zarabiać na tym "amatorskim" systemie. Linux swój sukces zawdzięcza Internetowi: dzięki współpracy wielu programistów na całym świecie. Internet pozwala na to, by fizycznie rozproszeni, jak wszyscy diabli osobnicy, po pierwsze "spotkali się", a po drugie mogli podzielić się robotą przy realizacji trudnego zadania. Ot, znowu technologia tak zwanej "rozproszonej bazy danych".

Ale dlaczego robota, nieznanego wówczas nikomu fińskiego młodzika, tak dobrze się przyjęła? Dlaczego jego dość prymitywny i trudny w użyciu projekt znalazł grono tak wielu zwolenników gotowych dla niego poświęcić wiele czasu?

W 1985 roku Intel wypuścił procesor 386. Od 286 różnił się zasadniczo możliwością pracy w trybie chronionym. Inaczej mówiąc, 386 może pracować tak, jak wielkie systemy komputerowe z wieloma terminalami podłączonymi do jednej maszyny. W tym czasie istniały "jakieś" systemy obsługujące wielodostęp i wielowątkowość, ale najpopularniejszym systemem był DOS. Z punktu widzenia konsumenta była techniczna możliwość, ale nie było systemu, który by ją obsługiwał, po prostu rynkowa luka. I w nią właśnie wskoczył produkt darmowy. Dopiero Win 95 znacznie później zaczął coś z tymi możliwościami robić, ale, gdy chodzi o produkty konsumenckie przeznaczone dla komputera biurkowego, to systemem z serii Windowsów, który te możliwości wykorzystał jest dopiero Windows XP. Wiele lat później. Tak więc Linux jest produktem nieruchawości wielkich programistycznych firm, które przegrały bezpośrednio z konsumentem. Jest jeszcze jeden powód: kumulowanie się programistycznego "parku maszynowego". Przed napisaniem Linuksa powstał na przykład dzięki ciężkiej robocie Roberta Stallmana emacs i kompilator gcc . Programy mają to do siebie, że się nie zużywają, a warunkiem jest dostępność źródeł. Owszem, dzięki ciężkiemu wysiłkowi firm programistycznych udaje się wiele aplikacji wycofać z użytku, ale nie ma to nic wspólnego ze zużyciem się. Wielkie firmy programistyczne na wiele sposobów przekonują użytkowników, żeby zakupiły ich nowe produkty, że stare nie są kompatybilne, że zachodzą jakieś tajemnicze procesy w świecie, które erodują ich funkcjonalność. Tymczasem edytor vi (zaręczam, postrach studentów informatyki i zarządzania, na głowie stają, żeby tego nie używać!) służy do dnia dzisiejszego, z takim samym powodzeniem, jak trzydzieści lat wcześniej. W informatyce prawie nic nie ginie, jeśli okazuje się potrzebne, można przepisać z Bardzo Starego Zeszytu, ba, nie ma zazwyczaj żadnego problemu, żeby przełożyć z jakichś starych i egzotycznych języków programowania, istotą jest bowiem algorytm. A ten, jak tabliczka mnożenia, pozostanie aktualny zawsze, gdy założymy osiągnięcie z takich samych danych takiego samego rezultatu. Innym zjawiskiem jest rozpowszechnienie się znajomości informatyki, sztuczek, kruczków, standardowych algorytmów. Wszystko to sprawia, że pisanie oprogramowania diabelnie się upraszcza. W chwili obecnej dzięki tak zwanym środowiskom RAD jak Kylix ("Delphi dla Linuksa") staje się podobne do układania klocków. 95 % roboty za programistę wykonuje się automatycznie. Generalnie jednak, moim zdaniem na skutek już to "przekombinowania" czy nieudacznictwa zwyczajnie na rynku zabrakło pewnego produktu. Ponieważ nikt go nie chciał wytwarzać, konsumenci zrobili go sami.

Czym Linux się tak bardzo różni od Windows? W chwili obecnej, przynajmniej na pierwszy rzut oka, różni się... nie bardzo. Gdy mówimy o XP zauważymy podobne funkcje i budowę. Wielowątkowość oznacza tak naprawdę, że procesor przełącza się pomiędzy zadaniami. Jeśli nic się nie zmieniło (niedawno dyskutowano ten standard) robi to 100 razy na sekundę, więc "user" widzi, gdy uruchomi kilka programów zwolnienie szybkości ich wykonywania. "Udziwnieniem" jest tak zwana partycja wymiany. Jest to całkiem osobna partycja z osobnym systemem plików o wielkości zazwyczaj podwojonej pojemności pamięci RAM. To proteza dla pamięci operacyjnej. W Windows mamy pliki wymiany, które działają "w zasadzie" tak samo, jednak rozwiązanie z osobną partycją jest skuteczniejsze i szybsze. Nie jest to jakiś specjalny cymes ( w mojej maszynie aktualnie jest 1 GB RAM i partycja wymiany "leży odłogiem"), lecz o szczególe warto pamiętać. Inną tym razem istotną różnicą dla użytkownika jest to, że w Uniksie i Linuksie wszystko jest plikiem. Nie widać tak naprawdę dysków twardych i ich osobnych partycji, widać po prostu katalogi. Pozwala to na bardzo elastyczne gospodarowanie zasobami. Jeśli na komputerze kilka osób ma konta i powiedzmy, że jedna z nich zakupiła twardy dysk, to można tak go skonfigurować, że tylko ona będzie miała do niego dostęp i to ze swojego domowego katalogu.

Co to jest katalog domowy? Każdy użytkownik, który ma pracować na maszynie, dostaje konto, to jest zespół uprawnień z hasłem dostępu. aby było mu wygodnie, ma swój własny katalog, w którym może "robić, co mu się żywnie podoba". Zazwyczaj ma też ograniczony dostęp do innych katalogów np. systemowych, które może odczytywać, żeby choćby dowiedzieć się, jakie są dostępne programy, i żeby móc je uruchamiać. System jednak zablokuje możliwość zapisu. W ten sposób "user" nie jest w stanie popsuć maszyny.

Gdzieś w tych okolicach zaczynają się poważne różnice pomiędzy Windowsem i Linuksem. Linux ma budowę modularną "klockowatą". To wiele programów, z których zazwyczaj składa się DYSTRYBUCJĘ. To coś, co trafi w postaci płyty CD, lub ostatnio już DVD, do końcowego użytkownika. Osobliwością Linuksa jest to, że podczas instalacji ładujemy na twardziela nie tylko system, ale duży zestaw oprogramowania. To powoduje, że "zerżnięcie" systemu nie jest tak groźne, jak pod systemami komercyjnymi. Tu wszystko jest w kupie i można sobie pozwolić nawet na wymianę systemu dla zabawy. Umożliwia to zaś system plików. Ponieważ fizyczne dyski i partycje można montować, gdzie się podoba (montowanie, zabieg, dzięki któremu urządzenie jest widoczne w określonym miejscu systemu plików), to chętnie stosuje się takie sztuki, że katalog home, który zawiera osobiste katalogi użytkowników, leży na osobnej partycji. Można sformatować całą część systemową, a dokumenty pozostaną nietknięte. Po instalacji dodajemy użytkownika o identycznej jak poprzednio nazwie i zachowane nawet zostaną ustawienia środowiska. Celem informatyki jest skrócenie czasu opracowania wyników. W ten czas trzeba wliczyć także poszukiwanie i instalowanie oprogramowania. Ażeby wszystkie programy znalazły się bez przeszkody na jednej płytce i żeby wydawca tej płytki zebrał je w rozsądnym czasie i żeby nie kosztowało to milionów dolarów i dziesiątków procesów sądowych, to oprogramowanie musiało mieć określony status prawny: Wolnego Oprogramowania. Nawet tak piekielnie bogata firma jak ta z Redmont nie ma funduszy na to, by wrzucić na swą firmową płytkę prócz systemu operacyjnego niemal wszystkie potrzebne aplikacje, z doskonałym edytorem grafiki, kolekcją narzędzi programistycznych, specjalistycznych do projektowania drukowanych płytek, do edycji dokumentów przeznaczonych do druku, czy wreszcie narzędzi do ustawiania sieci i kontroli ruchu w niej.

Niefirmowe i niekomercyjne pochodzenie powoduje, że "producent" może sobie pozwolić na zachowywanie standardów, które bardzo ułatwiają życie zaawansowanemu użytkownikowi. Poszczególne części składowe systemu są od siebie mocno niezależne. Można je dobrać po swojemu i dopasować do potrzeb. Bodaj jedną z największych zalet (a jednocześnie i wad) jest to, że Linux uruchamia się także bez środowiska graficznego. W przypadku, gdy mamy ochotę postawić komputer który służy za serwer, podnosi to znakomicie stopień bezpieczeństwa. Przyczyna tkwi w tym, że programy graficzne uruchamiają się z dostępem do całych zasobów komputera. Trudno tego uniknąć ze względu na architekturę PC-ta. Włamywacze wykorzystują dziury i niedoróbki w nich, które także, ciągle są obecne (choć powiedzmy sobie dla tak zwanego przeciętnego użytkownika nie jest to istotne). Także uruchomienie trybu graficznego to zwyczajnie ileś więcej programów w ruchu i co za tym idzie, znacznie trudniejsza kontrola tego, co się dzieje. Sesja graficzna jest z punktu widzenia systemu kolejnym zwykłym programem. To powoduje, że niestety, nie "śmiga" ona tak szybko jak w Windows. Za to gdy nam się zdaje że "zawiesiliśmy Linuksa", to najpewniej udało się nam powiesić któryś z programów odpowiedzialnych za grafikę. Może to spowodować niemotę nawet klawiatury. Daje to wrażenie, że "wisi" system, lecz gdy mamy możliwość zalogowania się na komputer przez sieć, może się okazać, że jest to możliwe i nie trzeba używać twardego resetu, by wszystko wróciło do normy. Co prawda, przyciśnięcie go jest łatwiejsze i w przypadku pojedynczej maszyny o wiele mniej fatygujące niż logowanie się i dochodzenie, co naprawdę się stało, jest też mało niebezpieczne, gdyż Linux używa dobrego systemu plików (Jest ich do wyboru kilka np. ext3), który dość łatwo się naprawia (u mnie bywało, że po twardym zresetowaniu komputera "skanowanie dysków" trwało mniej niż sekundę), ale warto wiedzieć, że dzięki tej sztuczce może się dowiedzieć, co naprawdę w naszej maszynie zaszwankowało, i na przyszłość uniknąć problemów.

Linux nie jest przewidziany do bezawaryjnej pracy. Niejako z samego urodzenia jest to system, który ma być odporny na różnego rodzaju programistyczne wypadki. Jest on przeznaczony dla osób, które piszą programy, w związku tym przewidziano w nim szereg awaryjnych rozwiązań. Są to między innymi narzędzia administrowania programami. Polecenie to wyświetla listę procesów (uruchomionych programów) i na przykład pozwala "zabijać je" (polecenie kill), albo na przykład zmieniać im priorytet. Oprogramowanie także bywa bardzo różnej jakości: wersje testowe bywają wywrotne jak wszyscy diabli, wersje stabilne zazwyczaj są "niezatapialne", ale jak bardzo – zależy od programisty. Niezawodność Linuksa polega bynajmniej nie na tym, że nic tu się nie wykrzacza, ale na tym, że awarie nie powodują niczego szczególnego. Najczęściej kończy się na krótkim komunikacie, że program się wywalił i prośbie o wysłanie opisu awarii do programisty. Nie ma potrzeby restartowania systemu, ratowania danych. Dzięki temu, uruchamianie oprogramowania "niepewnego" na przykład wersji eksperymentalnych (ciekawe, dlaczego program który jest nam bardzo potrzebny, zawsze znajduje się w wersji eksperymentalnej?) nie jest niebezpieczne. Zdarzają się czasem narzekania lub ciężkie klątwy rozczarowanych przesiadkowiczów z Windows na awaryjność linuksowego oprogramowania. Zazwyczaj przyczyną są jakieś poważne błędy popełnione podczas instalacji, ale też bardzo często właśnie to, że zainstalowali sobie tak zwaną wersję "alfa" czyli program który został właściwie opublikowany z prośbą do innych programistów o pomoc w "odpluskwianiu".

Technicznym szczegółem, o którym producenci komercyjnego oprogramowania dla biurkowych komputerów starali milczeć, było ich nieprzystosowanie do pracy w sieci. To czubek lodowej góry, generalnie świat aplikacji, zwłaszcza komercyjnych nie nadąża za światem sprzętu. Gdy już mamy procesory 64 bitowe (już mamy Debiana, Red Hata i Mandrake na ten procesor) to Windows jest eksperymentalny. Takie samo opóźnienie zdarzyło się z przejściem z 16 na 32 bity. Sieć najwyraźniej stanowi daleko boleśniejsze przeżycie dla firm informatycznych. Przypomnijmy sobie różne przedziwne łaty na system, "sieciowe Win 3.11" które miały biurkowy komputer dopasować do technicznej rzeczywistości. Sieć jeszcze niedawno była czymś egzotycznym, dziś stała się tak powszechna, jak kran z wodą. Sieć mnie diabelnie ułatwia życie, pozwala zarabiać pieniądze, oszczędzać pieniądze, zdobywać informacje. W zapyziałym kraju, na jego prowincji, nie można dziś sobie bez sieci wyobrazić życia. Według moich prywatnych ocen, dopiero Win 2000 był próbą dostosowania się do sieci. Wcześniejsze systemy, w tym także NT sieciowe nie były. Linux jest, jak Unix, od samego początku sieciowy. Łatwo się przekonać, choćby że można na przykład wielokrotnie otworzyć ten sam dokument, taki techniczny szczegół, bo co się stanie, gdy jeden dokument zacznie zmieniać kilku użytkowników? Ano, nie będzie katastrofy. Jednak o wiele bardziej zabawną i znaczącą możliwością jest konsolowa konstrukcja, także przezroczystość Xwindows dla sieci. Można się zalogować na odległym komputerze i pracować na nim jak na swoim. Nie przez wirtualny desktop, który jest protezą, ale po prostu, bez kombinacji uruchamiamy telnet, czy dziś ssh, logujemy się, odpalamy program i robimy co trzeba. Osobiście sądziłem, że jest to relikt z czasów, gdy była ta jedna mocarna maszyna i multum terminali, ale przekonałem się, że w dobie sieci, ma to coraz większe znaczenie. W lokalnej sieci prawie nie widać zwolnienia wynikającego z transferu pakietów pomiędzy komputerami. Jeśli udało mi się zainstalować na moim komputerze jakiś rzadki program, co oznacza czasami kilka godzin szamotania się bibliotekami, z konfiguracją, to ktoś, kto go potrzebuje, nie musi wcale go u siebie sadzać takim samym wysiłkiem. Udostępniam mu konto i robi na mojej maszynie, co potrzeba. Dzięki realnie pracującemu wielodostępowi, w tym samym czasie mogę siedzieć przy swoim komputerze i normalnie pracować. Dla ciekawskich mogę dodać, że udawało mi się uruchamiać pod kontrolą Wine – emolatora windows dla Linuksa, Worda 97 poprzez sieć i że przy prędkości ok. 28 kB/sek dawało się prawie normalnie na nim pracować. Mam nadzieję, że nie połamałem licencji, gdyż na komputerze byłem tylko sam zalogowany, (nie pisałem, a eksperymentowałem, czy da się pisać...), ale to kolejny kwiatek do bukietu nieprzystawalności świata komercyjnego oprogramowania do technicznej rzeczywistości. O ile bowiem w licencji można próbować zastrzegać, że nie wolno tego, czy tamtego, to w sytuacji, gdy nie ma sposobu na sprawdzenie, co naprawdę jest robione, a nie ma za bardzo, bo np. transmisja pakietów odbywa się poprzez ssh i nawet ich przejęcie nie zda się na nic, bo trzeba złamać szyfr, a to jest diabelnie kłopotliwe, wszyscy stają się podejrzani i nawet przestaje mieć znaczenie, czy łamią licencje, czy nie. Tak technologia staje się sprzeczna z pewną koncepcją organizacji społeczeństwa. Tu przejdziemy do najbardziej chyba sprzedajnej w środkach masowego przekazu kwestii związanej z Linuksem czyli polityki i ideologii.

 

Strona ideologiczna, czyli zieloni antyglobaliści i inni marksiści.

 

Gdzieś u samego dna ruchu Open Source jest nie ideologia, a całkiem konkretny problem robienia w jajo. Na imię mu patenty, albo znacznie wznioślej "ochrona własności intelektualnej". Geneza patentów jest dawna, nadawali jeszcze władcy, były popularne w XIX wieku. Idea była szczytna i powiedzmy szczerze, choć od samego początku kiepsko to działało, to w "dawnych czasach" nie bardzo przeszkadzało. Ludziska patentowali rzeczy, które nawet odpornego człowieka potrafią przyprawić o zwis szczęki, jak na przykład pewien polski arystokrata wymyślił kolej linową podczepianą na balonach i ciąganą za pomocą konia. Były także organy, gdzie dźwięki miały wydawać pociągane za ogony przez uruchamianymi klawiszami, cęgami, żywe koty. Można powiedzieć, że od samego początku urzędy patentowe zaczęły "lecieć sobie w gumę". Niestety, skutki tej tradycji zaczęły wychodzić na wierzch dopiero pod koniec XX wieku, gdy w USA internetowa księgarnia Amazon opatentowała sprzedaż jednym kliknięciem myszy "1-click-shopping". Ten ostatni wypadek, choć nie miał większych konsekwencji jest chyba kwintesencją tego, co zowie się "absurdem patentowym". Pewien Australijczyk opatentował koło (za artykułem Łukasza Jachowicza), i choć jeszcze nie wystąpił o tantiemy do wszystkich producentów już to samochodów, już to wagonów kolejowych, lub dziecięcych wózków, to precedensy w postaci procesów o linki internetowe, czy format JPEG już są. O patentach już pisałem, czytelnik może zerknąć do archiwum. Pod adresem znajdziemy całe archiwum niusów na ten temat.

Niestety, patenty się wyrodziły jako prawna regulacja. Założenia były takie, że ochronę prawną przydziela się komuś, kto włożył wiele wysiłku, kto musiał na odkrycie poświęcić wiele pracy, albo komuś, kto jednym genialnym pomysłem przełamał jakieś bariery. Tak naprawdę to jeszcze niewiele lat temu istniał powszechny opór przeciw jakiemukolwiek postępowi. Dziś już mało kto pamięta, że "ludowe" metody leczenia takie jak stosowanie wywaru z rumianku bywały niemal gwałtem wymuszane na sielskiej ludności przez dworskich lekarzy. Wojna z ciemnotą, przepraszam, z tradycyjną mądrością ludu w dawnych czasach przybierała o wiele bardziej ostre formy, co wynikało z o wiele większej szkodliwości rozwiązań podpowiadanych przez ową tradycyjną rozumność. Dziś wiemy na przykład, że ukończenie przez matkę szkoły podstawowej w dowolnym regionie świata skutkuje spadkiem śmiertelności jej dzieci w stosunku do matek, które szkoły nie widziały. Przyczyny są banalne, jak właśnie wiedza, że lepiej oczy przemywać wywarem z rumianku, a nie moczem, że szmatkę do naczyń trzeba wygotować, bo jest rozsadnikiem bakterii. Można zadać pytanie, czy takich nawyków nie da się przekazywać bez bardzo pracowitej nauki czytania i pisania? Ano, delikwent czy delikwentka najwyraźniej musi przejść proces prania mózgu zwany edukacją, podczas którego przekonuje się, że tak zwana oficjalna wiedza jest skuteczna. Diabli wiedzą dlaczego, ale tak to działa, że aby mieć nawyk prania brudów, trzeba się nauczyć pisać.

W takich okolicznościach powstawała idea otaczania wszelkiego naukowego postępu atencją i opieką przeróżnych instytucji. Niestety, czasy się zmieniły i dziś w krajach Europy i Ameryki Północnej nie ma chyba ludzi, którzy mieliby znaczniejsze wpływy i kwestionowali zyski płynące z nauki. Owszem, uściślijmy, oni są, ale głośne i stanowcze wypowiadanie takiego poglądu nie jest "trendy" (ponoć słówko "trendy" akurat przestało być trendy). Owszem istnieje już dziś powszechna akceptacja dla systemu szkolnictwa, dla kształcenia własnych dzieci, ale nie ma akceptacji dla badań podstawowych. Otóż system patentowy jest poniekąd wyrazem tego. Opatentowuje się bowiem nie jakieś odkrycie, bo tego opatentować nie można, ale urządzenie bądź technologię, która prowadzi do gospodarczej korzyści. W ten sposób można było promować naukę sto lat temu, kiedy trzeba było ludziom przed oczy łożyć zyski płynące z łamania głowy, niemal tłuc nimi po głowie. Dziś dla każdego jest oczywiste, że odkrycia tak w ogóle są bardzo ważne, a wprowadzając nową technologię, można zarobić górę szmalu. Po tę kasę każdy rękę wyciąga.

Sęk w tym, że nie ma nikogo, kto by wyłożył wcześniej pieniądze na to, co tworzy podwaliny pod zyskowne wynalazki. Nasza wiedza zaczyna stanowić coraz to bardziej niepodzielną całość. Diabelnie silnie widać to w naukach technicznych. Żadna z nich nie byłaby w stanie rozwijać się bez matematyki, bez fizyki, bez chemii. Związki bywają tak dalekosiężne, że aż zaskakujące. Co ma wspólnego technika próżniowa z cynkowaniem ogniowym blachy stalowej? Co, tym bardziej, mogą mieć z tym wszystkim wspólnego badania tak zwanych gazów resztkowych w aparaturze próżniowej? A mają, bo współcześnie prowadzi się badanie oddziaływanie atomów różnych pierwiastków z powierzchniami metali. To są badania, które rokują nadzieje dla tworzenia lepszych powłok antykorozyjnych. Trzeba wiedzieć zarówno, jak przebiegają procesy utleniania, jak i osadzania się na powierzchniach atomów powłok ochronnych. Te obserwacje wymagają umieszczenia próbki w bardzo dobrej próżni. Generalnie, to najpierw, w latach 60 – 70 i początku lat osiemdziesiątych udoskonalono technologię wysokiej próżni do tego stopnia, że dziś nadaje się ona między innymi do takich badań. Magiczne stwierdzenie "między innymi..." – oznacza ono, że technologia ta stosowana jest do bardzo szerokiej gamy badań. A to implikuje, że wsteczny związek, tego co się dzieje w technologii pokryć antykorozyjnych, z badaniami gazów resztkowych, jest niewielki. W drugą stronę nie ma ani przepływu informacji, ani, tym bardziej jakichś pieniędzy. Rezultat jest taki, że osoba patentująca kolejną, lepszą o 0,5% metodę cynkowania, zgarnie kasę, która się "między innymi" należy ludziom, którzy biedzili się nad coraz to lepszymi pompami próżniowymi, wyganianiem gazów zaadsorbowanych na ściankach i mierzyli spektrometrem masowym, co naprawdę w baniakach pozostało.

Zainteresowanie przemysłu badaniami jest kolejnym mitem, bardzo pasującym politykom, ale kompletnie nieprawdziwym. Przemysł owszem, chętnie "wskakuje" w badania, ale już na etapie wdrożenia. Inaczej mówiąc, zazwyczaj mamy do czynienia z sytuacją, gdy tak zwany zysk poznawczy jest żaden, a trzeba ustalić proporcje, żeby zysk dolarowy był największy. W najlepszym razie mamy doprowadzanie czegoś do technicznej sprawności. Można natomiast podać przykład technologii, które opracowane i dające niewątpliwe zyski leżą odłogiem i to od wielu lat. W gazetach komputerowych co raz można przeczytać o kłopotach związanych z uzyskiwaniem coraz cieńszych ścieżek w procesorach. I co raz słychać jęki, że trzeba będzie zmienić technologię. Na przykład na fotolitografię elektronową. Owszem, o opracowaniu odnośnych urządzeń w latach siedemdziesiątych meldował Młody Technik. Inną, obiecywaną przez lata nowinką, która dopiero się na rynku pojawiła jest wreszcie już wspomniany procesor 64 bitowy dla mas w wykonaniu AMD. Można zapytać, dlaczego dopiero teraz, skoro wiele lat wcześniej takie jednostki były dostępne dla serwerów? Odpowiedź jest banalna: bo trzeba było zaprojektować... Trzeba było włożyć w to robotę, która nie koniecznie przyniesie kokosy, choć wykopie całą dziedzinę techniki z ciepłego dołka. Otóż: zasada kapitalizmu jest prosta: zarabiać. Firma zajmuje się TYLKO tym. Niczym innym. Jeśli robi cokolwiek, to z myślą o przyszłym zysku. Jeśli łoży na cele charytatywne, to z myślą o poprawieniu sobie parametru zwanego "świadomością marki". To ostatnie zresztą jest przyczyną, że nie sposób zdobyć przemysłowego sponsora dla badań naukowych. Takie są doświadczenia, że da się znaleźć firmę, która wyłoży 150 000 zł na festyn ludowy, ale nie ma frajera, który kupiłby powiedzmy za 7000 zł komputer do obliczeń dla teoretyka. Nikt nie wyłoży nawet złotówki na badania w zamian za umieszczanie informacji o sponsoringu. Takie są, niestety nie tylko polskie doświadczenia. Przy średniej czytelnictwa pracy w fizyce 0.4 osoby (te dane kiedyś wygrzebał prof. Andrzej Drzewiński) koszt dotarcia do jednego reklamobiorcy wyląduje gdzieś na poziomie złotówki, a to już jest niedopuszczalnie wiele, bo reklamodawcę interesuje poziom pojedyncze grosze/twarz.

Tak więc prawda jest banalna, że nawet gdy ktoś rejestruje całkiem "uczciwy" patent, to na jego sukces składa się robota nie tylko jego, ale przede wszystkim (poza rzadkimi wyjątkami) robota innych naukowców, wykonana za pieniądze podatnika, czasami szalonego sponsora, ale obecnie jest to wynik bardzo długiego procesu poznawczego, w którym WSZYSTKO zgarnia najczęściej, nie, nie jedna osoba, ale jakaś firma. Zysk trafia nie do kieszeni nawet tego, kto wytworzył ów wynalazek, ale najczęściej zupełnie nie związanych z całym procesem akcjonariuszy albo pracowników zarządu.

Niestety, prawo patentowe oprócz wspaniałych absurdów patentowych tworzy znakomite pole do popisu dla manipulacji i czegoś, co w minionej epoce zyskałoby miano sabotażu, a jego wykonawca zostałby nagrodzony kulą z nagana w potylicę. Szereg firm uprawia politykę patentowania wynalazków "potencjalnych". Czyli czegoś, co nikomu się jeszcze nie przydało, a co, ewentualnie, mogłoby się przydać. Tak działa m.in. forma z Redmont i to za prawie oficjalnym oświadczeniem Billa G. z 1994 roku, o ile dobrze pamiętam. Bynajmniej nie chodzi tu patentowanie własnych badań. Jak się można zorientować z relacji naukowców, którzy brali udział w pracach tak zwanych przemysłowych instytutów, bardzo często wygląda to tak, że wynajmuje się specjalistę z jakiejś dziedziny, by czytał pracę i wybierał coś, co ewentualnie dałoby się opatentować. Naukowcy rzadziej patentują wyniki badań, a jeśli nawet, nie szkodzi. Najwyżej dojdzie do procesu sądowego, biedny uniwerek z bogatą firmą przegra jak amen w pacierzu. Naukowiec ma za zadanie produkować "bublikacje", prace, w których chwali się przed całym światem wynikami swych badań. Najczęściej nie może umieścić w pracy technicznej specyfikacji swego odkrycia (typu jak zbudować konkretne urządzenie), ponieważ nie przepuści tego recenzent. Przedstawiciel firmy może opatentować urządzenie "hipotetyczne", wykoncypowane na podstawie opisu zamieszczonego w pracy. Nasz naukowiec nie bardzo sobie może na to pozwolić, bo w środowisku panują wysokie wymagania. W rezultacie, zanim opracuje wdrożenie, musi przeprowadzić szereg badań, minie sporo czasu, nim uda się po upragnione świadectwo patentowe. Tymczasem zostało ono już przyznane komu innemu. Patenty zaczynają więc grać rolę sideł zastawionych przez nieuczciwych kombinatorów na prawdziwych wynalazców.

Kto wie, czy nie najbardziej dokuczliwą dla konsumenta sferą patentowej zabawy są rozwiązania, których autorstwa nikt nie kwestionuje, ale których odkrywczość jest, nazwijmy to, bardzo umowna. Typowym przykładem są wszelkiego rodzaju biurowe suity. Tu, przedmiotem lamentu autorów bywa, że konkurencja przejmuje ich "rewolucyjne" rozwiązania w postaci np. układu menu. (Pasek menu został opatentowany!) Oczywiście można butem, można szczura posmarować maścią po brzuszku i poczekać trzy dni aż zdechnie. Czasami owe "rewolucyjne" rozwiązania są właśnie typu maścią, a nie butem. Ale, że się do nich wszyscy przyzwyczailiśmy, konkurencja, żeby przesiadka z produktu na produkt była najmniej bolesna, stosuje także maść.

Tu dochodzimy chyba do sedna sprawy: patentowanie stało się instrumentem do walki z konkurencją. Nie z konkurencyjnymi firmami, ale ze zjawiskiem konkurencji w ogóle. Co warto sobie uświadomić, że o ile firma jako całość ma zarabiać pieniądze, to jej dyrektorzy nie martwią się o dywidendy, jako akcjonariusze, ale o wiele bardziej o własne stanowiska. Jeśli nawet ścigają ich klątwy użytkowników produktów, które wytwarza firma, to dopiero pojawienie się konkurencji może pozbawić ich stanowisk. Tak więc, z punktu widzenia interesu ogólnie, pracownika firmy, nie jest zdobycie sobie zaufania nabywcy, nie najwyższa jakość towaru, ale niedopuszczenie do walki konkurencyjnej z kimkolwiek. Najlepiej na prawnej drodze, najlepiej rękami państwa.

A więc ideologia. Jeśli zacząłem od tego tematu, to ugrupowania "polityczne", które walczą z patentami, są kojarzone z lewicą. Tymczasem z takiej właśnie perspektywy, jest chyba na odwrót: starają się one nie dopuści do powstania totalitarnej, centralnie sterowanej gospodarki. Jest dość obojętne dla nabywcy, czy monopolistą jest państwo, czy jedna firma, skutki są niemal identyczne. Lewicowość czy to "zielonych", czy "pingwiniarzy", "nawiedzonych akolitów", jak to określił ich jeden z dziennikarzy, polega na tym, że kwestionują oni w pojęciu "liberałów" prawo własności. Tymczasem kwestionują oni rozszerzenie owego prawa na sfery, które, ni cholery do owego prawa nie pasują, starają się zablokować nadużywanie tego prawa w celu upieprzenia kapitalizmu.

Jest wreszcie jedna sprawa: chodzi o to, że patenty nie sprawdzają się PRAKTYCZNIE. Nie chodzi o ideologię, ale o doświadczenie, o praktykę. Sprawiają one, że technologia wikła się w jałowe spory prawne, że następuje prymat teoretycznej organizacji społeczeństwa nad obowiązującą technologią.

Widać to wyraźnie choćby na przykładzie odwrotu wielkich firm informatycznych, wśród których znalazła się chyba największa IBM, od "zamkniętego" oprogramowania. Po prostu umowa, zamiast zamykać się przed sobą, że dzielimy się, okazuje się dla wszystkich korzystna. Wbrew pozorom, łatwo wyjaśnić dlaczego. Współczesna aplikacja bowiem zazwyczaj zawiera sobie bardzo dużo pracy "nietwórczej", a więc tego, co jest zawarte w tak zwanych standardowych bibliotekach, i niewiele "autorskiego" kodu. Opłaca się programiście "spuścić na drzewo" wielkie firmy, które go zatrudnią i zabiorą większość wynagrodzenia w zamian za udostępnienie narzędzi czyli owych bibliotek stałych procedur. W wielkiej skali, stała konieczność zawierania transakcji pomiędzy właścicielami poszczególnych narzędzi doprowadza do diabelnego wzrostu kosztów, wielokrotnie więcej roboty potrzeba włożyć w handlowanie informacją, niż w jej wytworzenie. Łatwo pokazać, że przy pewnym stopniu komplikacji, komplikacje prawne uniemożliwią napisanie czegokolwiek. Tak naprawdę już ten etap został osiągnięty, co gracko zostało pokazane (patrz linki niżej) przez złośliwych "pingwiniarzy". Interesująca jest także formuła, która zdejmuje z dystrybutora odpowiedzialność reklamacyjną. Przyczyna znowu czysto praktyczna. Wyszukiwanie błędów w programie jest jednym z najuciążliwszych etapów produkcji oprogramowania. Szczerze mówiąc, gdy sam cokolwiek piszę, to 95 % czasu poświęcam na usuwanie błędów, bardzo niewiele na pisanie kodu, zazwyczaj prawie nic na jego wymyślanie. Pisanie programów jest faktycznie znajdowaniem i usuwaniem błędów. Dlatego upublicznienie kodu równa się przewaleniu na "usera" sporej części roboty. Jeśli nawet jego rola sprowadzi się do znalezienia i opisania jakiejś usterki, to to już bardzo wiele, ale gdy zajrzy on w źródła i wskaże coś paluchem to zrobi "prawie wszystko". Taki jest bowiem charakter technologii informatycznej, że gdy wiemy, że w linii 1237 jest byk i polega na tym, że potencjalnie możemy pisać za zakresem tablicy, to jego naprawienie jest kwestią chwili.

W uproszczeniu ten sam mechanizm powinien działać w przypadku "firmowych" aplikacji: tester zgłasza błąd, firma go naprawia. Jednak nie ma tu możliwości konfrontacji z innym programistą. Najwyraźniej z braku "konkurencji" nie działa to tak dobrze, jak w przypadku Open Source. Oprogramowanie firmowe musi poczekać na FIRMOWEGO programistę, to z otwartym kodem może zostać naprawione przez każdego. Twórca musi się spieszyć, jeśli nie chce utracić władzy nad swoim dziełem.

Tak naprawdę, to prawie wszystkie zmiany w pisaniu oprogramowania skupiają się na dwu aspektach: umożliwianiu wielokrotnego wykorzystania tych samych fragmentów kodu i zapanowaniu nad błędami. Najstarsza metoda pisania, naukowo zwana liniową, polega na zapisywaniu "ciurkiem" jedna po drugiej instrukcji. Taka metoda właściwa była dla najprymitywniejszych języków niskopoziomowych, które niewiele się różnią od elementarnego zestawu instrukcji procesora. Zazwyczaj mówi się o asemblerze jako o takim najprymitywniejszym języku, jednak nawet asembler zawiera zestawy instrukcji maszynowych. Ponieważ asemblery na różne procesory bywają różne, to aby umożliwić wykorzystanie tego samego programu na różne maszyny, mamy języki wyższego poziomu, jak C czy C++. W tym ostatnim niemal obowiązujące są OBIEKTY. Jak napisałem program w C++ i nie zastosowałem ani jednego obiektu, to dostałem po głowie: programista, czytając coś napisane w C++, spodziewa się tychże. Takie zwyczaje. Jednak oprócz swoistej mody w obiektach coś jest. Istnieje wiele programistycznych konstrukcji o podobnej zasadzie działania, bardzo popularne w TurboPascalu funkcje. Zasada jest taka, by tworzyć fragment programu, który możemy przetestować sam w sobie. Jeśli uzyskamy pewność, że działa bezbłędnie możemy wklejać go do innych programów. Jest założenie, że samodzielny fragment programu powinien mieć rozmiar jednego ekranu. Czy nie wygląda to na ideologię?

Różnica pomiędzy jakością wynajdywania błędów metodą Open Source i według tradycyjnego firmowego oprogramowania jest mniej więcej taka, jak pomiędzy systemami filozoficznymi tworzonymi przez mistrzów filozofii i współczesną wiedzą ścisłą, która powstaje w wielu laboratoriach i której założeniem jest przetestowanie jej wielu laboratoriach. Wielkie systemy filozoficzne urzekają pięknem swych założeń, lecz niestety, nie bardzo się dają do czegoś użyć. Współczesna wiedza jest mało atrakcyjna pod względem estetycznym, lecz za to zawsze daje bardzo dobre wyniki, gdy chce się coś z jej pomocą zrobić, np. bombę atomową. Spróbujcie taki grzybek uzyskać, czytając pisma wielkich filozofów. Przyczyna tkwi tym także, że jest tam kupa błędów. Kant, dokonując krytyki czystego rozumu, myślał, że przestrzeń fizyczna jest przestrzenią euklidesową, tymczasem najpewniej, co już nie raz pisałem, jest krzywą przestrzenią Mińkowskiego. Strach pomyśleć, co by było, gdyby filozofowie wymyślili skuteczny sposób wyszukiwania błędów. Błędy są, tak naprawdę podstawowym problemem nie tylko informatyki, ale praktycznie wszystkich dziedzin wiedzy. Dlatego sztuka pisania programów jest przede wszystkim sztuką unikania potencjalnych źródeł błędów.

Ideologiczne założenie upubliczniania kodu wymusza jeszcze jeden aspekt: jego jasność i czytelność. W przypadku pisania w zespole mamy jeszcze możliwość zapytania o co koledze mianowicie chodziło, w przypadku kodu dla linuksiarzy wszystko musi się znaleźć w źródłach. Jeśli programista marzy o tym, by zdobyć za ich pomocą sławę, musi włożyć duszę w to, aby inni zrozumieli, co spłodził. Musi dodać rozsądne komentarze. Inaczej mówiąc: w Open Source porządek i ład musi panować w samej kuchni. Oceniany jest nie tylko skompilowany program, ale także jego kod. Jest to więc nieco inna technologia, może nawet całkiem inna, niż w przypadku "firmowego" oprogramowania.

Stosunkowo najbardziej chyba denerwujące u "linuksiarzy" jest obsesyjne unikanie "windzianego" oprogramowania. Wydaje się to czysto propagandowym, czy wręcz pozerskim postępowaniem. Czy jest tak naprawdę? Można powiedzieć, że trudno w tym znaleźć cokolwiek mądrego, a jednak postawa ma całkiem prozaiczne i praktyczne uzasadnienie. Po prostu, pracując w jakimś systemie, nabywa się biegłości w jego obsłudze. Producenci nie bez powodu "rozdają" tak zwane "darmowe wersje" z CD zamieszczanymi w czasopismach komputerowych. Zazwyczaj bardzo młodzi ludzie, ale i czasami całkiem przerośli uczą się za ich pomocą obsługi jakiegoś programu. Po pewnym czasie potrafią za jego pomocą wykonać jakąś użyteczną pracę. Wtedy zazwyczaj powraca maleńka część licencji, która zezwala na NIEKOMERCYJNY użytek. No i nasz dzielny komputerzysta budzi się z ręką w nocniku: zazwyczaj decyduje się "piracić" ale z przykrą świadomością, że do domu może ktoś zapukać, zwłaszcza policjant, co zresztą ostatnimi czasy stało się jak najbardziej realne...

Wielokrotnie czytałem, że np. GIMP jest programem dla amatorów – wypowiadali się "profesjonalni" graficy komputerowi. Przyznam, że pojęcia nie mam, gdzie w Polsce można się wykształcić na "profesjonalnego" grafika komputerowego, bo gdy czytałem na przykład tak zwanych profesorów zwyczajnych z różnych akademii sztuk, to wyglądali oni jak najbardziej nieprofesjonalnie. Zazwyczaj kłopot zaczyna się gdzieś na poziomie modelu kolorów RGB czy CMYK, słyszymy bełkot na temat światła przechodzącego i odbitego. Niestety, głupoty na ten temat są popisane nawet w podręcznikach fizyki. Nie, ja się nie znam na grafice komputerowej, ale mam zielone pojecie o technologii obrazowania za pomocą komputera i technologii komputerowego przetwarzania obrazów. Wykonywany zawód zmusił mnie do zapoznania się z optyką i na przykład wiem, że kolor jest zawsze mieszaniną różnych długości fal o pewnej charakterystyce widmowej. I że koniec-kropka, nic o odbijaniu i przechodzeniu, bo to osobne zagadnienie. Przekonałem się na własnej skórze, że z ogromnej ilości narzędzi, jakie oferują programy graficzne, na przykład do korygowania fotografii, tak naprawdę potrzebujemy kilku. Tak zwane krzywe, do poprawienia kolorystyki, do usuwania rys i uszkodzeń filtr Odplamkowanie i Stempel, ewentualnie Zaznaczenia i Rozmycie Selektywne Gausa. Tyle wystarcza, by na ten przykład świadczyć okolicznej ludności usługi przywracania do świetności starych fotografii czy druków. Wątpliwe, że uda się z czegoś takiego wyżyć, ale na pewno da się zaskarbić wdzięczność rodziny lub sąsiadów. Na pewno da się obrobić za pomocą GIMP-a ilustracje do sieci. Stwierdziłem, że "łyka" bez kłopotu obrazy o ekranowej objętości rzędu 200 MB i nie ma problemu z zatkaniem się maszyny. No i masz człeku, propozycję działalności gospodarczej, sposobu na dorobienie sobie, masz do tego gotowe narzędzia za darmo, potrzebne jest tylko nabycie pewnej umiejętności. Chcesz? Świat Wolnego Oprogramowania podsuwa ci to na tacy. A tak na marginesie na Linuxnews wyczytałem, że "do produkcji drugiej części przygód zielonego stwora, studio DreamWorks użyło Linuksa. Pracował on na 330 maszynach grafików (Red Hat 7.2) oraz napędzał 1000-procesorową farmę do renderingu." No cóż, już kiedyś pisałem: amatorskie narzędzie do zarabiania milionów dolarów.

Nie uważam osobiście, by należało się afiszować z niechęcią do komercyjnego oprogramowania, natomiast wielokrotnie się przekonałem, że wysiłek, czas, jaki poświęciłem na jego poznawanie "poszedł w piach". Nawet nie z powodu braku licencji, bo mam legalne kopie przeróżnych programów, ale także z powodu ich bezużyteczności. Nieodporność Windows na zawirusowanie i włamania powodują, że na komputerze podłączonym do sieci ze światowym numerem IP musi być jakiś sieciowy system. Doświadczenia pokazują, że nawet XP z oprogramowaniem antywirusowym i "ścianami ogniowymi" nie stanowi większego problemu dla studentów z Polibudy, którzy ćwiczą się na wszystkich komputerach w akademickim ringu. Kolejnym powodem jest przedziwne zjawisko kumulowania się błędów, które powoduje, że po pewnym okresie użytkowania "windy" nie pomaga już nawet "format C: \" ale trzeba sięgnąć po fdisk-a. Komputer pod Linuksem, jeśli tylko nie eksperymentować na nim, zwyczajnie "znika z oczu" obsługi. Pracuje bezawaryjnie, co oznacza, że ilość programów i działających i nie działających nie zmienia się. "Użyszkodnik" przyzwyczaja się i jest święty spokój, najwyżej czasami pytania, "a jak to zrobić". Innym bardzo dokuczliwym problemem, wynikającym bezpośrednio z idei komercyjnego oprogramowania, jest wspomniane już "szuflowanie płytami". Aby w Windows przygotować komputer do pracy, a nie tylko zainstalować system, potrzeba wielu CD. Jak to w życiu jest, tylko część spośród nich posiadamy, reszta zaginęła. W rezultacie z reguły pad systemu oznacza praktycznie nieodwracalną ruinę poprzedniej konfiguracji. Na przykład nie udaje się odnaleźć ulubionej przeglądarki plików graficznych, programu pocztowego dla nie lubiących Outlooka itd. Jeśli nie daj Panie Boże podjąłeś się "podnieść" komuś kompa, te wszystkie plagi spadają na ciebie. To TY jesteś winien, że CD z roku 1995 ze wspaniałą odmianą Notatnika nie czyta się i za diabła nigdzie się nie daje jej odnaleźć w Sieci. I w piątej godzinie grzebania po Internecie, gdy siedząca obok pani Zdzisia, Krysia, czy inna Mania ciągle ci marudzi za uszami, że niepotrzebnie jej wycinałeś te wszystkie pliki z Saserem, czy Cichem, zaczynasz mantrę "tylko Linuks proszę pani..." Otóż upierdliwość pingwiniarzy ma swe źródło właśnie w tych zjawiskach. Jak jesteś pinwiniarzem, to mają cię za komputerowego "localguru" (określenie z manuala Linuksa). Sęk w tym, że ty znasz lekarstwo, którego ci nie pozwalają zastosować. I tu zaczyna się konflikt ze światem lekarza, który tłumaczy wszystkim, że aby uniknąć sraczki, trzeba myć ręce. Jak twierdzono na polskiej wsi w początku XX wieku, szczyt absurdu, bo dupa z drugiej strony...

Odporność na zawirusowanie dla człowieka, który ma pod opieką choćby kilka komputerów, jest naprawdę zasadniczą sprawą. Niestety, nie wiem, czy to nasza kultura informatyczne jest taka, lecz podejrzewam, że w innych częściach świata jest gorzej, co wynika z szybkości rozprzestrzeniania się epidemii. Jest to zadziwiające zjawisko, albowiem lwia większość obecnie panujących wirusów nie zadziała bez pomocy człowieka. Grasujące obecnie pocztowe robale na "dzień dobry" wyglądają jak robale i trzeba kompletnego idioty, żeby się dać nabrać, i co ważniejsze, wystarczy tylko odrobina rozumu, zwłaszcza w Polsce, by się przed wirusami uchronić. Nikt przy zdrowych zmysłach chyba się bowiem nie spodziewa, by dostawał po angielsku listy od swego administratora, jak najbardziej rodaka znad Wisły i Odry. Tymczasem działają takie prymitywne chwyty. Jest to, moim zdaniem miernikiem, do jakiego stopnia komputer ogłupia, że siedzącemu przed ekranem wyłącza się prawie cały mózg i przechodzi w standby. Na co? Na Gwiazdkę z nieba. Na taki stopień zdurnienia niewiele już się da poradzić. Po ostatniej inwazji, gdy na linuksiarzy padły podejrzenia, że są autorami wirusów, na wielu listach dyskusyjnych m.in. LinuxNews wybuchła gwałtowna dyskusja na temat odporności Linuksa na zawirusowanie. Konkluzja jest taka, że co prawda łatwiej jest tak skonfigurować system, żeby do rozsyłania robali nie doszło, ale, niestety, przy założeniu że "użyszkodnik" zrobi każdą możliwą głupotę, niebezpieczeństwo jest realne. Trzeba chyba przyznać, że w sztuce pisania wirusów mamy etap tylko ciut wyższy od tak zwanego wirusa Albańskiego, czyli ręcznego (a w piątek prosimy sformatować partycję "C").

Jednak wirusów dla Linuksa NIE MA. Znanych jest kilkanaście sztuk, lecz znane są "teoretycznie", nikomu jakoś nie zdarzyło się nigdy niczego złapać. Co więcej, robale nie są specjalnie szkodliwe. Przyczyną jest realna ochrona zadań, dobrze działający system praw dostępu. Program uruchomiony przez użytkownika ma dostęp tylko do zasobów jego konta. Potencjalne odwirusowanie, podobnie jak naprawa konta, może się sprowadzić do wydania dwu komend "userdel" i "useradd". Coś takiego kończy się oczywiście utratą danych, ale w przypadku pracowni komputerowej dla studentów czy internetowych kafejek, nie ma problemu. Nie bez znaczenia jest też fakt, że rozbudowane narzędzia administracyjne pozwalają wykryć i zablokować działanie dowolnego programu.

"Windziarze" twierdzą, że zasadniczym powodem jest mała popularność systemu. To jest argument, ale gdy weźmiemy pod uwagę, że pod Linuksem pracuje w Polsce większość serwerów, to dla potencjalnego komputerowego chuligana napisanie robala na ten system powinno stanowić nie lada gratkę. Jego uruchomienie spowodowałby ogromne kłopoty w sieci, nieporównywalne z tym, co mogą narobić wirusy na komputery biurkowe.

Dlaczego nie ma wirusów na Linuksa? Odpowiedź jest chyba dość banalna: napisanie skutecznego programu jest za trudne. Autor musiałby on odnaleźć dziurę w jakimś systemowym programie uruchamianym z prawami roota. Musiałaby być to dziura nieznana dla hakerów Linuksa. Tymczasem jest odwrotnie, zazwyczaj najpierw ludzie piszący oprogramowanie odkrywają takie błędy, ogłaszają ich istnienie i działanie i zazwyczaj w krótkim czasie, czasami kilku kilkunastu godzin pojawia się łata. To za mało, żeby znaleźć informację, napisać odpowiedni program, wpuścić go do sieci i doprowadzić do rozprzestrzenienia.

Tak, czy owak, stan na dzień dzisiejszy jest taki, że wirusów dla Linuksa NIE MA i nic nie wskazuje, że stan ten ma się zmienić w jakikolwiek sposób w ciągu nawet najbliższych lat. Oprogramowanie antywirusowe dla Linuksa na dzień dzisiejszy służy do poszukiwania robali dla Windows. Ten stan rzeczy jest źródłem zmartwienia dla właścicieli firm piszących antywirusy, ale dla użytkownika wróży raczej bardzo dobrze, nie ma potrzeby dziś i prawdopodobnie w przyszłości potrzeby wydawania pieniędzy na programy łatające dziury w systemie pozostawione przez jego producenta.

Takie są mniej więcej fakty, lecz nie raz słyszę, że fakty są ideologią.

Konsekwencją ideologii jest zazwyczaj jakaś wojna. I rzeczywiście w chwili obecnej trwa krucjata przeciw Wolnemu Oprogramowaniu. Jest rzeczą naturalną, że firmy informatyczne, które zarabiają krocie, znalazły się po "tamtej stronie frontu". Kto jeszcze? Patentów bronią pracownicy różnych instytucji związanych z Urzędami Patentowymi. Stosunkowo największe zdziwienie i zamieszanie budzą wystąpienia "neoliberałów", którzy w Wolnym Oprogramowaniu widzą ideologicznego wroga. WO jawi się jako coś komunistycznego, bo kwestionuje zasadę własności w jakiejś części. Cóż, mogę powiedzieć tylko tyle, jako człowiek, który jak zbawienia oczekiwał upadku PRL-u, że nieszczęściem socjalizmu było ideologiczne oderwanie od rzeczywistości. Każde oderwanie od rzeczywistości prowadzi do różnych nieszczęść, obojętnie pod jakimi sztandarami. Ideologiczny liberalizm jest o wiele bardziej komunistyczny, od kwestionującego własność intelektualną "linuksizmu", które to kwestionowanie bierze się z doświadczenia. Warto zauważyć, że wojna z Wolnym Oprogramowaniem bynajmniej nie toczy się prawie w sferze ideologii. Argumenty są bowiem miałkie i oparte na sloganach. Przykładem może być choćby artykuł Lecha Burego w najnowszym wydaniu ComputerWorld (sierpień). Autor wypowiada szereg życzeń, choćby, że patenty dobrze służą tym uczciwym, a przeszkadzają nieuczciwym. U mnie na seminarium zaraz pytają: a jak pan to zmierzył, panie kolego? Całość jest tym mniej wiarygodna, że autor opisywanego artykułu pracuje jako dyrektor generalny w Przedsiębiorstwie Rzeczników Patentowych PATPOL w Warszawie. Argumenty drugiej strony, czyli ideologicznych nawiedzeńców są diabelnie szczegółowo umotywowane. Na przykład masz piękną techniczną analizę (tak, to swego rodzaju POMIAR!) pod tym adresem.

Niestety, motorem ruchu przeciw WO jest zysk pojedynczych osób. Jest to bardzo skuteczna broń. Z chęci zysku ludzie zaczną się zachowywać zupełnie absurdalnie. Z chęci zysku zrobią z siebie durniów, zrobią każdą głupotę, w rezultacie stracą znacznie więcej, ale wszystkim narobią kłopotów. Diabli wiedzą, co innego może stać, za opisywanym przeze mnie wielokrotnie procesowaniem się SCO nie tylko z IBM, lecz wręcz z całym światem. Pierwszy proces przeciw firmie DaimlerChrysler się już odbył. Jak podał serwis Linuxnews: Rozprawa trwała całe 20 minut, w trakcie których sąd oddalił prawie wszystkie zarzuty. Sędzina Rae Lee Chabot nie doszukała mocnych argumentów popartych rzetelnymi dowodami wskazujących na kradzież własności intelektualnej oraz niedotrzymania warunków licencji Systemu V. Jedyny podtrzymany zarzut dotyczy nieudzielenia przez firmę DaimlerChrysler odpowiedzi na żądanie SCO o udowodnienie przestrzegania licencji w trakcie wymaganych 30 dni (zajęło im to aż 110 dni). Jak widać, stało się jak pisałem dokładnie Alleluja i do przodu, czyli crash test.

Linux jest postrzegany jako ideologia. Jedna z przyczyn to pytanie "dlaczego tak musimy robić, dlaczego musimy, zwłaszcza my, programiści pracować za darmo, rozdając swoje oprogramowanie, skoro przecież można inaczej". Można, "teoretycznie". Można "teoretycznie" uruchamiać na komputerach programu bez systemu operacyjnego, można teoretycznie pisać programy w asemblerze. Praktycznie nikt tak nie robi. Praktycznie trzeba dzielić programy na funkcjonalne kawałki po jednym ekranie, praktycznie można najwyżej raz użyć w jednej funkcji instrukcji goto, bo jak są dwie takie pętle, to nie sposób się połapać, co program robi. Można na upartego forsować komercyjny model oprogramowania w powszechnym użyciu, ale wygląda na to, że stopień wynikających z tego komplikacji prawnych zniszczy zyski z pracy na komputerze, tak jak komplikacja przygotowania do pracy komputera bez systemu operacyjnego. Mam nadzieję, że taka będzie geneza ideologii przyszłości, od doświadczenia do zasady. Linux prawdopodobnie w ciągu kilku, kilkunastu lat, stanie się dominującym systemem. Prawdopodobnie pożegnamy się z komercjalnym modelem oprogramowania. Dziś właśnie otrzymałem paczuszkę z USA z firmy Novel z płytami DVD zawierającymi dystrybucję Linuksa SUSE. Załapałem się na wielką światową promocję Pingwina. Zainteresowanie nią było tak wielkie, że w ciągu kilku godzin wyczerpał się zapas płyt. Firma ROZDAWAŁA oprogramowanie, które polski urząd podatkowy chętnie by wycenił na jakieś 20.000 zł. Niestety, wartość handlowa jego jest równa dokładnie zero, okrągłe zero zerowe. Tak to informatyka boleśnie przypomniała, że wartość HANDLOWA może się mieć i w świecie technologii od dawna ma, nijak do wartości UŻYTKOWEJ. W szczególności radość z uzyskania sukcesów gospodarki wyrażonej znakiem waluty może być mniej więcej tyleż samo cenna, co radość z 10. miejsca PRL w świecie w produkcji stali na głowę mieszkańca. Esencja bytu zwana wymianą handlową w świecie oplatanym światłowodami się zwyczajnie kończy. Wygląda na to, że technologia wymusza stosunki międzyludzkie: w przyszłości dzielenie się nie będzie aktem dobrej woli, ale przestrzeganiem pewnej praktycznej zasady, dzięki której dokonuje się postęp. Zapewne, jak prorokują analitycy, firmy komputerowe wykręcą jeszcze niejedną niespodziankę, mówi się między innymi i dogadaniu się Sun Microsystem z Microsoftem, o przejęciu przez tego pierwszego Novela. Różne rzeczy się mogą zdarzyć, ale jak widać z tego, co się dotychczas dzieje, proces jest nieodwracalny. Miasto Monachium od roku prowadzi akcję przeniesienia administracji na Linuksa (wbrew informacji GW, mimo zamieszania wokół praw patentowych), przeszła na ten system dyplomacja niemiecka, przygotowuje się Paryż. W Polsce na Linuksie stoi około połowa serwerów. Mało prawdopodobne, by nawet złe rozwiązania prawne zahamowały rozwój tego oprogramowania i tego ruchu, bo właśnie w USA, gdzie prawo patentowe jest modelowo kiepskie, są tworzone dwie największe dystrybucje: Debian i Red Hat. Linux trafił nawet na hasła niektórych partii politycznych. To jest chyba dla niego jedyne i największe realne zagrożenie: że stanie się w przyszłości jeszcze jedną ideologią.

 




 
Spis treści
451 Fahrenheita
Literatura
Bookiet
Recenzje
Spam(ientnika)
Wywiad
Permanentny PMS
Ludzie listy piszą
Galeria
M. Kałużyńska
Piotr K. Schmidtke
Andrzej Zimniak
Andrzej Pilipiuk
Idaho
W. Świdziniewski
Łukasz Małecki
Joanna Kułakowska
J.W. Świętochowski
J.W. Świętochowski
Adam Cebula
Adam Cebula
M. Koczańska
Adam Cebula
Natalia Garczyńska
K.A. Pilipiukowie
M. Kałużyńska
Eryk Ragus
Grzegorz Czerniak
Jeresabel
Christopher Paolini
Paul Kearney
Robin Hobb
Witold Jabłoński
Andrzej Ziemiański
 
< 27 >