Copyright © by Adam Cebula

Adam Cebula

Pan pogryzł psa czyli... czarne to białe.

(Albo krakanie na manowcach sztucznej inteligencji.)

W komputerach mamy permanentny sukces. Zdążyliśmy się już przyzwyczaić, że mniej więcej raz na miesiąc warto by wymienić płytę główną, napęd CD ROM, monitor raz na pół roku a pomniejsze elementy, może z wyjątkiem stacji dyskietek 3,5 cala, które jakoś się trzymają mimo napędów ZIP, to co dwa tygodnie. Zawrotu głowy można dostać, gdy człowiek sobie przypomni, ile się zmieniło za jego krótkiego życia.. Jeden z pierwszych (bo nie pierwszy) mikroprocesorów, Z80 który się pojawił w latach 70 - tych zawierał kilka tysięcy tranzystorów. Pierwsze mikrokomputery przeznaczone "dla ludzi" miały pamięć RAM o pojemności 16 kB. Były czasy, że "Spektrumy" służyły do sterowania pomiarami w naszych instytutach, że fizycy teoretycy przeprowadzali za ich pomocą poważne obliczenia. Mało kto pamięta okres niemowlęcy informatyki, gdy komputery o objętości domku jednorodzinnego dysponowały tysiącem komórek pamięci operacyjnej, bo było to w latach 60-tych. Na takich komputerach wyliczono wartość pi z dokładnością do kilku tysięcy miejsc po przecinku, pierwiastki z 2 i 3 i wiele jeszcze innych rzeczy. Podczas porządków po ostatniej powodzi mogłem sobie pooglądać (od noszenia niecnie się wymigałem) twardy dysk o wymiarach sporej komody. Pamiątka z czasów, gdy nasz przemysł próbował desperacko wziąć udział w postępie technicznym. Resztki majątku "Elwro", same dyski (to co się obracało), służą dziś wielu Wrocławianom jako anteny telewizyjne: trzeba przeciąć, zamocować na solidnym drągu i odbiór ponoć znakomity! Nie ulega najmniejszej wątpliwości, że postęp dokonał się niesamowity. Słowami poety rzecz ujmując, nikt wtedy nie wierzył, że komputer może trafić pod strzechy. Nawet gdyby jakimś cudem maszyny z tamtych czasów były tak tanie, jak dzisiejsze, to i tak mało kto mógłby sobie pozwolić na rachunki za prąd. Gdzieś około początków lat 80-tych pojawiły się u nas w kraju pierwsze PC-ty. Były to już XT-ki czyli prawdziwie 16- bitowe komputery, z procesorem 8086. Tych na 8088, "prawdziwych" PC, nigdy nie widziałem. "AT" w tamtym okresie stał w osobnym pokoju, do którego sprzątaczka nie miała wstępu, drzwi były obite blachą, a okna okratowane. A dzisiaj rozsądny złodziej komputera nie kradnie, bo nim znajdzie w miarę uczciwego pasera, to cena sprzętu tak spadnie, że nie starczy na nową łapkę ciesielską (owa łapka to urządzenia zwykle nazywane łomem). Technika cyfrowa tak się rozpowszechniła, że, jak piszą dziennikarze, łatwiej jest wymienić to czego komputer nie robi, niż na odwrót.

O co chodzi?

Mój pomysł na ten tekst jest z gatunku "pan pogryzł psa". Gdyby na odwrót, to jak wiadomo nie ma tzw. niusa (od news). Mnie się tak widzi, że postęp i owszem w zasadzie jest. Ogólnie to jest postęp. Ogólnie sukces jest opisany w książce M. Wojtyszki "Bromba i inni". Gluś filmowiec nakręcił film, i urządził pokaz. Po nim dopadł go Dziennikarz, który chciał napisać pozytywny reportaż. Wynikł problem, bo Gluś nie zdjął kapturka z obiektywu kamery i musiał zgromadzonym film opowiedzieć. Jednak po sugestiach dziennikarza przyznał

Ale ogólnie sukces...-.

Prawie na pewno nie jest aż tak źle, jednak da się przypiąć kilka sporych łat. Zamierzam skorzystać z tej przyjemności, choć wiem na co się narażam. To co chcę powiedzieć byłoby świetne dla wywołania swojskiej draki na zakończenie balu internautów i im podobnych, zwłaszcza, że całkiem niedawno komputer dołożył w szachy Kasparowowi. Jak się wydaje padł ostatni bastion zarezerwowany wyłącznie dla ludzkiego umysłu. Są już tacy, co przepowiadają rychły początek panowania komputerów nad wszystkim, kres zawodów pisarza nie mówiąc o tłumaczach, czy prawnikach, którzy już są wypierani przez bezduszne maszyny (nie wiadomo, jak z szewcami). Nadchodzi czas powszechnego bezrobocia, bo komputer już niedługo będzie mógł za człowieka podejmować decyzje, generować filmy bez aktorów i dekoracji, komponować muzykę i wszystko co kto sobie zamarzy. Dla podgrzania paniki warto dodać że także niedawno stworzono program który znajduje dowody twierdzeń matematycznych i ów program do tej wyjątkowo abstrakcyjnej dziedziny już wniósł swoje co nieco, z którym ludzie nie potrafili się uporać. Informacja ta, raczej bardziej sensacyjna od wpadki arcymistrza (bo ten w gruncie rzeczy padł w boju przeciw zespołowi szachistów i programistów), przeszła jakoś bez echa. Czy naprawdę niedługo trzeba będzie oddać się pod władanie maszyn?

Łata pierwsza.

Prawdziwym poligonem, na którym sprawdza się możliwości komputerów jest projektowanie. Tzw. przeciętny śmiertelnik, dopóki nie stanie przed koniecznością zaprojektowania od podstaw np. taboretu nie zdaje sobie sprawy, ile pułapek czeka na niego. Począwszy od zupełnie idiotycznych błędów jak np. nierównej długości nogi, po skomplikowane problemy typu pokrycia antykorozyjnego śrub, którymi ów taboret zechcemy skręcić.

Jak mi się wydaje, na przykładzie projektowania płytek drukowanych do montażu układów elektronicznych można znakomicie "coś pokazać".

Paradoksalnie, bo elektronika jest legendarnie trudną dziedziną, i jeśli coś chcemy uczynić tak trudnym, by było nie do pojęcia, to wystarczy domieszać tam odrobinę elektroniki.

Trzeba od razu powiedzieć, że bez automatycznego projektowania nie dałoby się zbudować większości wspaniałych urządzeń jakie znajdują się we wnętrzu naszych PC. Temu samemu niską cenę i doskonałość zawdzięczają telewizory. Programy projektujące zostały doprowadzone do perfekcji , zdaje się, że więcej wymagać już nie można. Program sprawdza automatycznie, czy nie popełniono grubych błędów, czy np. nie brakuje jakiś połączeń, (układy scalone muszą np. mieć podłączone zasilanie, by w ogóle działały). Można także dokonać bardzo finezyjnej kontroli. Jeśli np. ktoś postanowi posterować mikroprocesor 386 zegarem 100 MHz, w nadziei, że ten jednak będzie choćby nieco działał, to proszę bardzo (i nie jest wykluczone, że jakieś, niekoniecznie sensowne, operacje będą wykonywane).

Nie potrzeba dotykać lutownicy. Można, nie ruszając się zza biurka sprawdzić działanie super-wzmacniacza, dla fanów niesłychanie czystego dźwięku zbudowanego na elementach, które wyprodukowała jakaś firma za oceanem. Można się przekonać, czy wzmacniacz do CB da oczekiwaną moc wyjściową i rozwiązać wiele innych temu podobnych, niezrozumiałych i wielce specjalistycznych zagadnień. I oto niebagatelnym problemem okazuje się zaprojektowanie sieci połączeń na płytkach drukowanych. Jest to nieco zaskakujące, bo w porównaniu z poprzednimi pracami, za które można się brać dopiero po przebrnięciu kilkudziesięciu kilogramów podręczników, ten może rozwiązać nawet dziecko. Zadanie jest chyba całkowicie zrozumiałe: trzeba poprowadzić wszystkie połączenia mając do dyspozycji np. dwie płaszczyzny miedzi, w której zostaną one wytrawione. Zwykle można za pomocą tzw. przelotek zmieniać płaszczyznę, by "górą" ominąć inną ścieżkę, która zagrodziła drogę. Połączenia muszą mieć pewną minimalną szerokość i nie wolno ich prowadzić bliżej niż wynika to z tzw. warunków izolacji. To wszystko. Trudność polega na tym, że jak do tej pory nie ma algorytmu, który by to wykonał. Rozwiązywanie tego problemu ma w sobie coś z partii szachów. Często trzeba myśleć kilka , albo i więcej ruchów naprzód. Chytre pomysły są tu na wagę złota. Jak jednak wiadomo, komputer pokonał człowieka w szachach. Dlaczego nie miał by sobie także i z tym problemem lepiej poradzić?

Istnieją programy które automatycznie projektują płytki, wystarczy tylko schemat elektryczny. Działają one całkiem nieźle choć... O tym za chwilę. Chciałem przedstawić pewien przykład, by pokazać, jak mają się do siebie oprogramowanie i moc maszyny do rozwiązywania takich zadań.

Wyobraźmy sobie że jakimś sposobem posiedliśmy program który łączy ze sobą punkty rozdzielone przeszkodami. Na połączenie nakładamy warunek by było najkrótsze. Warto też prowadzić ścieżki jak najbliżej krawędzi płytki, by zostawiać miejsce na inne połączenia.

Wybrałem taki przykład, bo jest bardzo wiele zagadnień sprawiających wrażenie, że dadzą się rozwiązać metodą "sprawdzić wszystko". Podobnie można próbować projektować przebieg dróg, rozkład zajęć w szkole, czy choćby ustawienie mebli w pokoju. Jeśli nie ma programów, które by to robiły, to dlatego między innymi, że nie wiadomo jak wytłumaczyć maszynie jak wygląda najwygodniejszy układ komunikacyjny, czy pasujące do wnętrza ustawienie szaf. Generalnie są to tzw. problemy optymalizacji kombinatorycznej. Z doświadczenia wiadomo, że czas rozwiązania tego typu zadań rośnie wykładniczo z liczbą elementów (połączeń na płytce drukowanej, liczbie dróg do poprowadzenia, czy liczbie szaf do ustawienia). Oznacza to że jeśli nawet zbudowalibyśmy maszynę która byłaby w stanie przejrzeć rozsądną liczbę 500 połączeń to dodanie jednej ścieżki wydłużyłoby czas oczekiwania na rozwiązania 500 razy. Ten ostatni przykład pozwala mi na takie podejrzenie: postęp w informatyce mierzony tylko samymi możliwościami sprzętu jest najwyżej proporcjonalny do logarytmu ze wzrostu pojemności pamięci czy prędkości komputera. Po ludzku mówiąc oznacza to że w stosunku do starych XT nowe P5 są w stanie obrobić projekty zawierające najwyżej kilka razy więcej elementów. (Warto tu przypomnieć, że Pentium ma w stosunku do modelowego Z80 około 1000 razy więcej elementów). Istnieje wielka liczba zadań w których moc komputera liczy się ogromnie. Pracujący z programami graficznymi walczą o polepszenie prędkości o kilkanaście procent. W podobnej skali liczy się czas przetwarzania w programach obrabiających dźwięk. Jednak te zagadnienia są dalekie od zadania zastąpienia człowieka przy podejmowaniu (często bardzo uciążliwych) decyzji. Nad znalezieniem odpowiednich metod dla problemów optymalizacji ciągle biedzą się matematycy prawdopodobnie najczęściej z pomocą ołówka i kartki. Na razie nie ma strachu, na bruk ze swoimi ułomnymi mózgami nie pójdziemy. Człowiek radzi sobie z optymalizacją, choć nie ma pojęcia jakim sposobem . Skutek tego optymizmu jest taki, że mimo coraz szybszych komputerów, mimo tego, że programy przestają się mieścić na CD, nie ma litości i projektowanie wiąże się z wielogodzinnymi sesjami z "durną maszyną", która wydaje się tak samo głupia, bez względu jakie i ile procesorów w środku siedzi.

Łata druga jest trochę poważniejsza. O ile trudno mieć pretensje, że ludzie nie co dzień dokonują wynalazków, to o to że nie wykonali jakiejś pracy nawet należy.

Jest tak, że postęp jest ogromny w sprzęcie, a oprogramowanie udaje, że nadąża. Sytuacja taka trwa od lat. Np. staruszek 80286 miał od razu założoną możliwość pracy w tzw. trybie wirtualnym, z wielodostępem i ochroną zadań. Oznacza to, że może on zarządzać pamięcią operacyjną o pojemności 1 GB, może dzielić swój czas pomiędzy różne zadania, i dopilnować, by na obszar pamięci w którym przechowuje dane jeden program, nie nałożyły się dane innego, wykonywanego w tym samym czasie. Już na etapie projektowania płyty głównej komputera "AT" zrezygnowano z części możliwości mikroprocesora (posiada on 24 bitową szynę adresową, wykorzystano w praktyce tylko 20 bitów). Z 65 tysięcy adresów urządzeń zewnętrznych ostało się 32. DOS napisany podobno w "basic' u" przez Billa Gates'a sprawy dopełnił. DOS np. obsługuje tylko 640 KB pamięci RAM "normalnie", reszta jest adresowana w skomplikowany sposób, co znakomicie utrudnia pracę programów. W tym systemie operacyjnym program może bez trudu wejść na obszary danych dla niego nie przeznaczonych, czemu zawdzięczamy prawdopodobnie bujny rozwój wirusów. Jest to wynikiem pracy mikroprocesora w prostszym trybie rzeczywistym. W czasie, gdy powstawał DOS prawdopodobnie nikomu jeszcze nie śniło się, że będą jakieś kłopoty z wirusami komputerowymi. Powstał system minimalny, taki tylko by komputer ruszył a produkt dał się sprzedać. Jeśli moja wiedza jest kompletna, to system z wielodostępem powstał dopiero na procesory 32 bitowe.

Warto zwrócić uwagę na taki fakt: w całej historii Intel'a zdarzyła się jedna poważna "wsypa" z dzieleniem . Firma składała przeprosiny przed całym światem, gazety rozpisywały się, wymieniano wadliwe procesory. Błąd ten nie powodował w normalnym działaniu żadnych skutków, został wykryty przez naukowców, którzy postanowili zastosować komputer biurowy do tzw. profesjonalnych celów. Powstało jednak zamieszanie wokół całej sprawy które trwało ładne kilka miesięcy. Tymczasem błędy Win 95, OS 2, Unix'a są codziennością. Hakerzy co raz odkrywają dziury w zabezpieczeniach, nieszczęśnicy, zmuszeni do pisywania programów, szamoczą się godzinami z maszynami, które niby nie "wiszą", ale np. zdecydowanie odmawiają zapisania czegokolwiek na czymkolwiek. Jest to skutek tego, że oprogramowanie jest o wiele trudniejszym produktem.

Jak ciężko wbrew pozorom w życie wkracza nowe wskazuje to, że wiele pomysłów od bardzo dawna znanych ciągle pozostaje w teczkach projektantów. Sieci neuronowe mają tyle lat, co komputer. Najbardziej znany jest tu perceptron zbudowany ok. 1958 roku przez Franka Rosenblatta, lecz odsyłacze w literaturze sięgają 1938 r. Temat jest fascynujący, bo chodzi o budowanie działającego modelu mózgu. Rezultat jest zupełnie zaskakujący skutecznością. Sieć neuronowa potrafi np. ze sterty danych, które dla człowieka są kompletnym chaosem wydobyć rzeczywiście istniejące zależności. Możliwości te stosuje się do analizy sytuacji na giełdzie. Program może wykryć np. zbliżający się krach, albo działanie "podstawionych" inwestorów. Warunkiem jest to, by został wcześniej wytrenowany. Ostatniego słówka używam bez cudzysłowia, bo tak jest już w podręcznikach. Sieci neuronowe mogą np. odczytywać ręczne pismo, przy czym programowanie polega na dostarczeniu odpowiedniej liczby próbek. Sieć neuronowa w komputerze jest właściwie jej symulacją. Fizyczna sieć ma jeszcze jedną fascynującą cechę: jest odporna na uszkodzenia. W przeciwieństwie do komputera, gdzie najmniejszy błąd powoduje z reguły zatrzymanie całego systemu, tu zniszczenie nawet sporej części (ile, to zależy od początkowej wielkości i zadania do wykonania) może spowodować tylko niewielkie pogorszenie dokładności działania. Jak na razie w sprzedaży sztucznego mózgu nie ma. Bywają programy które zakładają wirtualne sieci w komputerach. Jak do tej pory wytropiłem 1 (słownie JEDEN) w wersji użytkowej i to POLSKI! Zapewne źle szukałem, bo aż się wierzyć nie chce, by tak mocna metoda była tak rzadko stosowana.

Nie ma na to rady, że ludziom brakuje dobrych pomysłów. Nie ma tu miejsca na lament malkontenta. Jednak warto pamiętać, że wraz z kolejnymi gigabajtami i megahercami otrzymujemy możliwości, które aż się prosi określić modnym słówkiem "wirtualne".

Kolejna, trzecia łata jest jeszcze poważniejsza. Po prostu niedoróbki.

Chętnie nabywam wszelką wiedzę, więc już zdążyłem się naciąć na tzw. multimedialne wydawnictwa. Np. słowniki. Miło by było, by były hipertekstowe jak pewien słowniczek terminów komputerowych (free), ale nie tylko nie są hipertekstowe, lecz wręcz zeskanowane z wersji drukowanej. Słownik angielsko-polski, gadający, ale niestety adresowany raczej do licealisty. Po prostu zbyt ubogi. Tzw. interaktywność pozostała "między ustami a brzegiem pucharu". Sprowadza się ona najczęściej do możliwości maszerowania w miarę samodzielnie wybraną drogą. Jeśli dobrze rozumiem różnicę między "hipertekstowy", a "interaktywny", to interaktywny jest szerszym pojęciem. Interaktywność rozumiem jako możliwość stwarzania sytuacji, których nie zapisał programista i rozwiązywania ich. W tym sensie interaktywny jest np. Dos, który pozwala na pisanie w "configu" przeróżnych dziwactw, a na końcu częstuje obfitą listą komunikatów o błędach. Interaktywny jest popularny Autocad, który jako "wyjątkowo surowe środowisko" cierpliwie tłumaczy co należy zrobić, a jeśli nie rozumiesz człowieku to sięgnij do podręcznika, strona ta i ta. Interaktywność programów uczących sprowadza się do gromadzenia aktywnych pól, po kliknięciu których coś ryczy gada, lub wali się. Muszę jednak przyznać, że komputerowe metody uczenia zwłaszcza języków obcych są naprawdę skuteczne... Niespełnionym marzeniem jest obfitość informacji. Encyklopedie z miauczącymi i ryczącymi zwierzakami, to rodzaj przedmiotów określanych w katalogach "toys", by potencjalny nabywca (hurtownik) trzymając "to" w garści i nie mogąc dojść czemu służy, nie rzucił od razu w kąt. Encyklopedie sztuki są raczej katalogami przygotowanymi przez ludzi, którzy na komputerach się rozumieją, ze sztuką jest gorzej. By wykonać kopię obrazu nie wystarczy po prostu umieścić kamery z odpowiednim obiektywem w osi optycznej. Obraz to nie rysunek kołnierza pompy. Nie wystarczy techniczna dokładność: trzeba próbować przenieść "duszę". Na tym ostatnim paru fotografów zrobiło niezłą karierę. Dlatego wolę wertować ciężkie i niewygodne albumy. By pisać komentarze, trzeba nie tylko wiedzy rzeczowej, lecz także posiadać jakieś zdanie. Niestety, okazuje się, że do wydania książki nie wystarczy tłocznia CD ROM. Czasami potrzebny bywa facet zwany autorem... Swoją drogą, to ubożyzna słowa w sensie najprostszym jest zaskakująca, jeśli chodzi o srebrne krążki. Warto sobie uświadomić, że na 1 stronę tekstu w komputerach IBM potrzeba ok. 2kB. 1 MB to poważne tomisko o 500 stronach. Jest trochę gorzej, bo na drukarską stronę wchodzi kilka stron znormalizowanego maszynopisu. Jednak prosta kompresja daje np. 5 bitów na znak, co daje trzy ćwierci kilobajta na stronę, tak że bez rysunków zmieścimy się w 1 MB przy 500 stronach. Na 650 MB na krążku powinna wejść bez trudu działalność niejednego wydawnictwa w całości. Miałem głupią nadzieję, że do wersji komputerowych wydawnictw np. PWN wejdzie to, co nie zmieściło się w drukach. Jest dokładnie odwrotnie, mniej na krążku. (O czym lojalnie wydawca informuje). To ostatnie jest dla mnie najpoważniejszym ostrzeżeniem, że jesteśmy cały czas w okresie niemowlęctwa. Coś jak początki fantastyki (tzw. fantastyka bohaterska, "Niezwyciężony" itd.). Okres fascynacji techniką. Niestety jak na razie otrzymujemy działające modele, które i owszem potrafią pokazać jak to by być mogło gdyby...

Dla równowagi i sprawiedliwości, by nie wpaść w chór wspominający przedwojenne komputery i śniegi , to trochę inaczej: jest piekielna różnica między światem "normalnym", a komputerowym. Przy wszystkich lamentach nad programami to nawet najgłupsze, tzw. bierne Demo, czyli reklamówka jakiegoś programu, UCZY! Jeśli nawet latorośl spędza całe dnie na mordowaniu potworów w wirtualnych lochach (ku utrapieniu i zgrozie rodziny) to siłą rzeczy uczy się w najgorszym wypadku obsługi komputera. Na krążkach dołączanych do czasopism (które czasami bierze ochota przyrównać do Bravo, lub Popcorn) są działające reklamowe wersje programów do nauki języków obcych na tyle dobre, że z zasobem zawartych tam słówek można bez strachu przekraczać granicę. Doprawdy prochy Sokratesa i J. Verne'a (obaj to utopiści) powinny fikać koziołki z radości, że oto nadeszły czasy, gdy ludzie dla przyjemności grzebią w górach informacji, choćby to była taka sterta śmieci, jaką jest Internet.

Łata numer cztery dotyczy tego, że trzeba się sprzedać za wszelką cenę. Producenci oprogramowania już dawno odkryli, za producentami Coca-Coli, że nie ma to jak masowy odbiorca. Masowy odbiorca komputera się boi, albo się bał, nie ma ochoty do wkładania pracy, na dodatek masowemu odbiorcy ani komputer, ani programy nie są do niczego potrzebne. Nawet jeśli ktoś prowadzi firmę i kupuje pakiet "Office" to wcale nie dla tego, że musi ich używać. Pisma wykonane na laserówce są reklamą firmy. A praca włożona w reklamę co najmniej w połowie idzie na marne (to stwierdził chyba Henry Ford). Ciężko zdecydować się na wydanie pieniędzy, które z dużym prawdopodobieństwem się nie zwrócą. O tzw. prywatnych odbiorcach nie ma co wspominać. Taki przede wszystkim postara się "zdobyć" oprogramowanie. Może chcieć pograć na komputerze, ale może pójść do sąsiada na imieniny. Oznacza to tyle, że byle głupstwo , a więc np. konieczność poznania funkcji programu, jest w stanie odwieść od decyzji zakupu potencjalnego klienta. Rezultatem tego rozumowania jest tzw. interface użytkownika.

Komputer obecnie na wszelkie sposoby "ugraficznia" się i udźwiękowia. Musi on być kolorową szafą grającą, która na dodatek sprawia wrażenie łatwej w obsłudze. Rzecz w tym, że wcale tak być nie musi, wystarczy wyłącznie wrażenie. Klienta trzeba oszołomić bogactwem możliwości programu, więc nie może być prosty, jednocześnie powinien on wyglądać na przyjazny, więc wiele rzeczy musi się robić samo, obsługa za pomocą myszy i przycisków itd. Czasem się to udaje, ale generalnie przypomina próby skonstruowania samochodu dla kobiet z automatyczną skrzynią biegów (kobiety proszę o wybaczenie, tak rzecz opisał przed laty Młody Technik. ) Łatwiej jeździć samochodem z ręczną zmianą biegów, trzeba tylko opanować tę sztukę. Podobnie jest z oprogramowaniem, zwłaszcza przy wspomaganiu projektowania. Programy podzielone na czytelne moduły, udostępniające pośrednie wersje, dzięki którym można sprawdzić "co się porobiło" są po pokonaniu etapu nauki o wiele bardziej funkcjonalne od czarnych skrzynek ukrytych za kolorowymi ikonami. Efekt ten przetrenowałem na programach wykonujących te same zadania.

Łata piąta to próba przerobienia komputera na scyzoryk.

Dziś już chyba mało kto pamięta, że komputery zbudowano do wykonywania bardzo żmudnych obliczeń. Istnieje szereg sytuacji w nauce i technice, gdy trzeba się ratować tzw. rozwiązaniami numerycznymi. Nie da się np. podać w postaci wzoru trajektorii sondy podążającej na Marsa. Trzeba ją po kawałeczku wyliczać na podstawie prędkości i położenia w poprzednim odcinku. Ręcznie takiej pracy nie da się wykonać. Nie pomoże armia rachmistrzów, bo i tak każdy musi czekać na wynik poprzedniego obliczenia. Jeśli sonda jest już w kosmosie, uratować może ją tylko maszyna. I to się znakomicie udaje. Komputer podobnie bardzo sprawnie wyłowi z książki telefonicznej zawierającej milion abonentów tego jednego, akurat potrzebnego. Ale nie jest uniwersalny absolutnie. Wyjątkowo łatwo potrafi obsłużyć wyświetlacz segmentowy, lecz dla podawania wyników na ekran potrzebna jest cała maszyneria znana jako karta graficzna. Z punktu widzenia technologa już na tym etapie zaczyna się produkcja topornej hybrydy. Jednak z poziomu użytkownika jest to zupełnie niezbędne, monitor znakomicie pasuje do pomysłów na pracę z komputerem.

Tymczasem do komputera dodaje się tuner telewizyjny, tuner radiowy, faks, telefon, głośniki, które chcą udawać sprzęt HI FI, czy wreszcie karty dźwiękowe, które chcą zastąpić magnetofon. Mogło by mnie to nic nie obchodzić, niech sobie montują, ale niestety "oni" mają pomysły, by np. w katalogach półprzewodników tłumaczyć coś na gębę, bo napisać chyba nie potrafili. Nie rozumiem nie tylko u siebie, gdzie nie ma karty muzycznej, ale i u sąsiada, gdzie jest, i to nie dla tego, że po angielsku, tylko, jak nie umieli napisać tak też i powiedzieć. Ot co: czy czasem sama koncepcja "multimedialności" nie jest rodzajem scyzoryka, który jak wiadomo jest wielofunkcyjny, ale do temperowania ołówków potrzebna temperówka, śrubokręt do wkręcania śrub, a otwieracz do konserw, no chyba, że chcemy się pokaleczyć.... Myślę, że jeśli inżynier nie potrafi narysować tego co wymyślił, a literat napisać i do "wyrażenia się" potrzebują jeszcze czegoś, to pewnie nic nie wymyślili i lepiej niech milczą.

Moc obliczeniowa współczesnego Pentium wystarczy do obsłużenia flotylli statków podążającej do Plutona lub Neptuna i jeszcze zostanie. Niestety, już dawno pi policzono do kilku milionów liczb po przecinku, podobnie z pierwiastkami i ciężko wymyślić, co by tu jeszcze policzyć. Przed producentami pojawia się dramatyczne pytanie, co zrobić z tym całym bogactwem. Rezultatem jest rokokowy przepych, przeróżne złote przyciski, złote ramki i inne wodotryski. Bil Gates planuje Windows 2005. Siłą rzeczy przychodzi na myśl porównanie z bujnym rozwojem szaf grających. Były to przemyślne konstrukcje dmące w trąbki, bębniące, dzwoniące, brzdąkające na mandolinach itd. By zdobyć klienta, dodawano coraz to nowe instrumenty, miniaturyzowano mechanizm, wydłużano czas możliwej do odtworzenia melodii. Szczytem doskonałości wydawała się pianola, która odtwarzała niuanse wykonawcy: siłę uderzenia i czas naciśnięcia klawisza.

Jeśli dobrze pamiętam, maszynerię wprowadzono do sprzedaży mniej więcej wtedy, gdy Edison skonstruował swój gramofon...

Koniec.