Fahrenheit nr 54 - sierpień-wrzesień 2oo6
fahrenheit on-line - archiwum - archiwum szczegółowe - forum fahrenheita - napisz do nas
 
Para-nauka i obok

<|<strona 19>|>

Jak być krótkofalowcem, zwykłym fotoamatorem lub czymś podobnym i nie zwariować

 

 

Kapitalizm miał wyplenić z naszego życia wszelkiego rodzaju „złote rączki”. Bo w mniemaniu naszych domorosłych ekonomistów i specjalistów od rozwoju gospodarki, działalność nie wiążąca się z obrotem pieniędzy i odprowadzaniem podatków, w konsekwencji nie rejestrowana jako wzrost PKB, jest... be. To chyba co mają jej najważniejszego do zarzucenia. Poza tym może być niefachowa, może być niebezpieczna dla życia i zdrowia oraz prowadzić do przestojów w produkcji, za które nikt nie udzieli wypłaty ubezpieczenia.

W istocie prawdą z tego wszystkiego jest tylko, że produktów wyprodukowanych wedle nowej technologii nie można traktować tak samo jak tych zmajstrowanych po staremu. Butów z plastykowymi podeszwami faktycznie nie da się podzelować, zaś radio, skonstruowane za pomocą montażu powierzchniowego, nie bardzo da się naprawić, zwłaszcza że kosztuje dziesięć złotych i wszelkie grzebanie w nim za uzasadnienie może mieć tylko ciekawość. Poza tym, niestety, jest dokładnie na odwrót, poziom technicznej komplikacji naszego otoczenia stale rośnie.

Wbrew pozorom, na przykład „radiota” albo, z przeproszeniem, inny krótkofalowiec, zaliczany przez menago od gospodarki do pogardzanego kręgu złotych rączek, jest osobą coraz bardziej pożądaną. Tylko on może w powodzi produktów dokonać tego, co powinien zrobić fachowy sprzedawca w sklepie, a czego nie zrobi, bo reprezentuje interes sklepu, a nie nabywcy: na przykład doradzić, żeby nie kupować.

Co tym razem chcę napisać, pomijając nawet pytanie o czym? To próba przedstawienia pewnej filozofii lub problemu na wielu przykładach. Niekompletnych, dosyć chaotycznych z punktu widzenia użytkowego, lecz zebranych raczej pod kątem ukazania pewnego zagadnienia – bardziej socjologicznego, a nie technicznego. Przykładów prowadzących do pewnej konkluzji, która być może jest jakąś pointą.

Znajdujemy się po rosnącą presją reklamy, która w gruncie rzeczy najczęściej jest dezinformacją. Dezinformują nas także czasopisma z nazwy konsumenckie – z bardzo prostej przyczyny: gdyby zaczęły nam podawać informacje prawdziwe, stałyby się kompletnie niestrawne, niekolorowe, niesensacyjne, zwyczajne i, co najważniejsze, zniknęłyby z rynku. Bankructwo murowane, w sytuacji gdy się na jednej stronie umieszcza reklamę produktu, a na drugiej jedzie się po nim. Niestety, także czasopism konsumenckich nie stać na porządnych testerów, na fachowców w dziedzinach, którymi starają się zajmować. Wreszcie, istnieją dziedziny, gdzie czytelnik oczekuje dezinformacji i chce być skutecznie zdezinformowany.

Wbrew pozorom nie jest też tak, że sprzęt, który do nas dociera, jest zupełnie bezpieczny. On spełnia przepisy, a to co innego. Szereg rozwiązań technicznych budzi poważne wątpliwości. Niestety, bogatej firmie, która zaoszczędzi na pstryczku-elektryczku złotówkę, udało się przepchnąć rozwiązanie przez testy. Zapłaci za to klient. Że przypadki będą pojedyncze i zgodne z obowiązującymi przepisami, to w sumie się opłaci.

Otóż radiota, gdy ludzie dowiedzą się o nim, że radiota, jest zmuszany do radzenia, wydawania opinii, bardzo często podłączania, konfigurowania i temu podobnych zabaw.

Na początek na tapetę weźmiemy sprawę, która z zagadnień prądowych budzi najwięcej emocji: ochrona przed zgubnym wpływem pola elektrycznego. Do wykazania tego zgubnego wpływu urządzeń elektrycznych na nasze życie i zdrowie możemy posłużyć się prostym instrumentem złożonym z cewki o wielkiej liczbie zwojów – najmniej kilka tysięcy – wzmacniacza o wzmocnieniu rzędu 1000 V/V i oporności wejściowej kilkaset kiloomów, oraz woltomierza prądu zmiennego. Woltomierz podłączamy na wyjście wzmacniacza – najlepiej wskazówkowy, wówczas zaprezentujemy przerażonemu właścicielowi mieszkania, instalacji czy łóżka szalone skoki wskazówki.

Nie zada pytania, co latająca wskazówka ma wspólnego z rzeczywistym zagrożeniem.

Taka jest mniej więcej geneza strachów związanych z polem elektrycznym i magnetycznym wywoływanym przez domowe urządzenia: łatwość pomiaru. W tym wypadku mierzymy głównie składową magnetyczną, lecz gdy stosujemy nieekranowane cewki, w wynik wchodzi także pole elektryczne.

Jak to wygląda naprawdę? Niestety, sprawa nie jest całkiem prosta. Generalnie w naszym życiu spotykamy niewielkie pola „naprawdę” statyczne. Te właściwie są całkowicie niegroźne. Pochodzą od ładowania się elektrostatycznego przedmiotów, mają natężenia w porównaniu z polami zmiennymi całkiem spore, lecz o całe rzędy wielkości za małe, żeby zagrozić człowiekowi. Pola przemienne, i zmienne, bo to trochę co innego – pierwsze zmieniają kierunek, drugie tylko wartość – wywołują w ciele człowiek przepływ ładunku przestrzennego. W przypadku wielkich natężeń, jakie występują pod liniami wysokiego napięcia, indukowane prądy są nie do pominięcia. Pod liniami wysokiego napięcia nie powinno się przebywać. Nie szkodzi gdy przechodzimy czy tym bardziej przejeżdżamy, ale na pewno nie należy rozbijać tam namiotów, także długotrwałe przebywanie związane na przykład z plewieniem działki może być wyraźnie szkodliwe.

Istotnym czynnikiem jest częstotliwość pola. Linie wysokiego napięcia generują pole o podstawowej składowej 50 herców (Hz). W przewodach płyną jeszcze harmoniczne, jednak ich wielkość nie przekracza kilku procent składowej podstawowej i nie mają wpływu na zdrowie człowieka, mogą natomiast dość skutecznie zakłócić odbiór na falach długich i średnich.

We Wrocku była kiedyś „haja” związana z budową kolejnego supersilnego elektromagnesu w Instytucie Niskich Temperatur. Okoliczni mieszkańcy protestowali, szukając poparcia między innymi u fizyków. Jak niesie wieść gminna, profesor Przystawa, choć teoretyk, szybko oszacował wielkość pola poza murami laboratorium i wyszło, że jego wartość jest wielokrotnie (o kilka rzędów) niższa od wielkości pola ziemskiego. Generalnie, pola magnetyczne wytwarzane przez wszelkie urządzenia elektryczne bardzo szybko maleją z odległością. W przybliżeniu obowiązuje tu, w najgorszym przypadku, zależność dipolowa, jak „jeden przez r do trzeciej”. Co oznacza, że dwukrotne zwiększenie odległości daje jedną ósmą początkowego natężenia, trzykrotne – jedną dwudziestą siódmą. Najczęściej, ze względu na wielobiegunową konfigurację pola, różnice są jeszcze większe. Niestety, w praktyce bywają sytuacje, gdy na przykład w budynkach mieszkalnych znajdują się w piwnicach stacje transformatorowe i to „nie jest zdrowe”. Co prawda wykazanie bezpośredniego wpływu jest trudne, na pewno większe znaczenie ma, czy delikwent, który tam mieszka, pali, lecz gdy można, lepiej uniknąć takiej lokalizacji.

A co, jeśli już ktoś mieszka w takim domu? Uczciwie mówiąc, można zrobić niewiele. Po pierwsze, trzeba wynieść miejsca do spania w najodleglejszy od transformatora kąt. To naprawdę pomaga. Skuteczne ekranowanie pola magnetycznego jest trudne. Tak naprawdę potrzebujemy puszki z blachy, najlepiej z tak zwanego mu-metalu, blachy transformatorowej i to dość grubej, kilka milimetrów. Można poradzić psychologiczne działania, które najczęściej są krokiem w dobrym kierunku, takie jak spanie na metalowym łóżku lub przynajmniej z metalową ramą pod materacem zespawaną w czworokąt z kątownika albo położenie pod łóżkiem czy dywanem arkusza blachy. Z tym zastrzeżeniem, że wynik operacji trzeba sprawdzić, bo może być gorzej. Wzbudzane w metalowych przedmiotach prądy wirowe najczęściej dają sumaryczną konfigurację pola o mniejszym natężeniu niż była bez tych dodatków. Natomiast kompletnie nic nie zmieniają rozprowadzane przez radiestetów „odpromienniki”. Mają taką zaletę, że nie wpływają na pole magnetyczne, natomiast realne ekrany mogą tworzyć strefy wzmocnionego pola. Możemy się posłużyć wspomnianym urządzeniem z cewkami do pomiaru pola, by sprawdzić wynik dokonanych zmian. Generalnie jednak wszystko to są działania dość pozorne, bo tak naprawdę to dopiero osiągnięcie poziomu ekranowania rzędu czterdziestu decybeli (dB), a więc w jednostkach liniowych w przybliżeniu tysiąc razy, coś istotnie zmienia. Ponadto trzeba pamiętać, że negatywny wpływ pól, poza naprawdę dużymi natężeniami (takimi, jakie mielibyśmy bezpośrednio w celi transformatora) ma mniejsze znaczenie na zdrowie niż nawyki żywieniowe.

Nie mają żadnego wpływu na człowieka pola elektryczne produkowane przez domowe urządzenia typu monitory komputerowe, telewizory, zasilacze komputerów, same komputery. Nie ma znaczenia, czy to są wielkie serwery, czy też biurkowe pecety. Natężenia pól, które produkują mogą najwyżej zakłócić pracę innego urządzenia, ale dla człowieka nie mają znaczenia.

Można sobie też darować nadajniki z zakresu 100 kHz do 300 MHz, przy czym do 100 MHz jesteśmy bardzo ładnie chronieni od wpływu pola przez efekt naskórkowy. Zastrzegam tu, że dla każdego zakresu mamy natężenia, które mogą zrobić kuku, lecz dla częstotliwości radiowych mogą być one nawet większe niż dla pól 50 Hz, przy czym konkretne wartości zależą od tego, kto badał i jak badał. Praktyczne jest co innego. W przypadku nadajników zazwyczaj mamy określaną strefę bezpieczeństwa wokół urządzeń – przede wszystkim anteny. Na temat niezbadanego wpływu nadajników krążą legendy. Rzecz można podsumować tak, że prądy wielkich częstotliwości (wcz) nie wnikają w ciało człowieka. Gdy przebywamy poza ową strefą bezpieczeństwa, wpływ nadajnika na ciało jest niemierzalny.

Niestety, powyżej 300 MHz zaczynają się problemy. To zakres, w którym ciało zaczyna absorbować energię pola wcz. Zjawisko to stanowi podstawę działania kuchni mikrofalowych. Pola wytwarzane przez telefony komórkowe wnikają w ciało i dla natężeń, jakie produkują, skrócone do niemożliwości anteny wywołują mierzalne, rzędu dziesiątych części stopnia podgrzanie ciała. Dlatego, jeśli ktoś panikuje z powodu pola wytwarzanego przez jego komputer, przede wszystkim należy pozbyć się telefonu, albo przynajmniej zaopatrzyć się w zestaw ze słuchawką, żeby anteny nie przytykać do głowy.

Z tej przyczyny zalecałbym radioamatorom wielką ostrożność w udziałach i wypowiadaniu się, gdy idzie o zbiorowy protest ekologiczny przeciw budowaniu nowych masztów nadajników. Zdarza się to ostatnio często. Ludzie, o których w lud poszła legenda, że się znają, bywają nagabywani, by się sprawą zająć. Brutalnie powiem, że o ile idzie o naszą skórę, trzeba sprawdzić, co to jest i z jaką mocą pracuje. Przekroczenia norm dla zakresów powyżej 300 MHz są prawdopodobne, bo mamy tu dopuszczalne moce bodaj (podaję z głowy) 0,25 miliwata (mW) na metr kwadratowy. Przy parabolicznych antenach i nadajnikach o mocy rzędu dziesięciu watów, może się okazać, że jeszcze w odległości kilku kilometrów mamy przekroczenie mocy dopuszczalnej. Bywa jednak, że w systemach telefonii komórkowej nadajniki mają moce kilkudziesięciu miliwatów i wszelkie awanturowanie się nie ma żadnego sensu. Promieniowanie mikrofalowe skutecznie ekranują siatki, cienkie blachy, a nawet zwykła folia aluminiowa. Tym niemniej trzeba sprawdzić skuteczność ekranowania, bo źle ustawiony ekran działa jak lustro i może odbijać promieniowanie, zwiększając dodatkowo jego natężenie w strefie, którą chcemy chronić. Potrzebny jest miernik natężenia pola lub przynajmniej wskaźnik natężenia pola. Ponieważ na niskie natężenia takie mierniki są trudno dostępne, można próbować znaleźć po prostu odbiornik na dany zakres ze wskaźnikiem wysterowania. Ale zapewne też się nie uda, chyba że wymusimy groźnymi pismami urzędowe badania. Praktycznie tylko pomiar jest w takich sytuacjach rozstrzygający, bowiem też bywa, że inwestor poda w dokumentacji co innego, a potem, gdy sprawa ucichnie, podłączy sobie coś więcej. A najczęściej awantura rozgrywa się wokół czegoś widocznego, co się w oczy rzuca, podczas gdy przekroczenia pochodzą najczęściej od urządzeń, których istnienia często mieszkańcy okolicy w ogóle nie podejrzewają.

Jeśli potrzebujesz wydać opinię „dla siebie”, zacznij od sprawdzenia w lokalnym urzędzie wojewódzkim. Powinno się tam znajdować coś na kształt ośrodka badań i kontroli środowiska. Tamże może być komórka zajmująca się promieniowaniem radiowym. Wobec ciągłych reorganizacji to się może inaczej nazywać, ale w tych okolicach powinna znajdować się dokumentacja. Tę trzeba obejrzeć, porównać z normami i mieć nadzieję, że znajdują się w niej prawdziwe dane. Generalnie bez paniki, skoro nie widać wpływu komórek na ludzi, to wygląda, że jako populacja jesteśmy na fale radiowe odporni.

Radioamator bardzo często pełni rolę czegoś, co zwie pogotowiem komputerowym. Nie wiem, czy ma to cokolwiek wspólnego z elektroniką, poza tym, że faktycznie, komputer jest urządzeniem elektronicznym, ale jak widzę w moim otoczeniu, elektronik przed robotami komputerowymi uciec nie za bardzo może.

Powiem szczerze, że to zabawne, że tak łatwo człowiek wpada w pułapkę niesienia pomocy i wiedzy. W końcu staje się to czymś niezwykle uciążliwym. Najgorzej z ludźmi, którym komputer jest niepotrzebny. To prawdziwe nieszczęście, bo osobnik tego rodzaju bardzo często spędza całe dni przed ekranem, nie wykonując tak naprawdę żadnej pracy. Bardzo często coś robi, przy czym to „coś” jest szeregiem chaotycznych posunięć, które, gdy im się dobrze przyjrzeć, mają tylko jedną wspólną cechę – prowadzą do załamania systemu. Co gorsze, ludzie tacy nagminnie ulegają firmowej propagandzie i usiłują zrobić rzeczy, których nie należało robić. Przykład? Widziałem reklamę prasową bodaj Win 98 gdzie stało między innymi: „możesz wreszcie zainstalować tyle czcionek, ile tylko chcesz”. Nie możesz. „Możesz swój komputer dowolnie skonfigurować”. No... w zasadzie. „Możesz wreszcie bezpiecznie pracować w sieci”. Owszem pod Linuksem, Free BSD, Open BSD i takimi tam.

W kwestie „pogotowia komputerowego” to mam dwa zalecenia. Zainstaluj przede wszystkim sobie Linuksa. Po drugie, naucz się „rżnąć głupa”. Problem bowiem z komputerowymi (uży)szkodnikami taki, że chętnie nie dadzą żyć. Jest to przede wszystkim problem socjologiczny. Nie namawiam do nieżyczliwości wobec ludzi, lecz każdy z nas chyba doskonale wyczuwa moment, gdy przestaje chodzić o rzeczywiste potrzeby, a zaczynają się kaprysy. No więc, gdy nie chodzi gra, gdy nie działa jakaś wtyczka w Internet Explorerze, coś z Winampem, ty nie wiesz, nie masz tego u siebie. Java nie chodzi, coś się nie wyświetla, o proszę zobaczyć, nie znasz się na tym, pojęcia nie masz, co trzeba ściągnąć, ty masz prymitywny system Linux. Filmy się nie wyświetlają, flash nie chodzi i w ogóle – tu wykonujesz gest totalnej bezradności.

Ruch trzeci. To się nie zawsze udaje. Zainstaluj użytkownikowi Linuksa wspólnie z Windowsem. Nie ma sieci? Ojej... A na Linuksie jest? Jest! No to proszę pracować na Linuksie... Windows się zawirusował... Doprawdy, co za ludzie, jak oni mogą rozsyłać takie paskudztwa... No, ale z jakiego programu pocztowego pan(i) korzystał(a)? Outlook... No tak... No, niestety. A mówiłem używać pine... No to teraz trzeba będzie poszukać jakiegoś dobrego programu antywirusowego, a na razie wyłączyć Windows i używać tylko Linuksa...

Jeśli chodzi o rozwiązywanie prawdziwych problemów, to zaczynamy od tego, by do nich nie dopuścić. Trzeba kupić komputer – radzimy zmałpować jakąś znaną działającą konfigurację, z dokładnie tym systemem operacyjnym i tymi peryferiami, jakie chcemy używać. Oczywiście coś tam, drukarka, skaner będą inne. Zastrzegamy przy zakupie, że możemy oddać sprzęt. Po drugie, jeśli komputer ma służyć do poważnej pracy, nie kupujemy wszystkiego hurtem, komputera, drukarki skanera, czytnika kart pamięci, nagrywarki DVD itd. Choć to kłopotliwe, choć sprzedawca będzie nam oferował zniżki, choć nie ma czasu, staramy się zacząć od komputera z jednym twardym dyskiem, klawiatury i monitora. Działa? Kupujemy zestaw głośników. Działa? No to dokładamy nagrywarkę DVD. W ten sposób możemy łatwo wyłapać moment, w którym coś zaszwankuje, i wiemy co. Można oczywiście kupić „wszystko” i składać po kolei, ale z doświadczenia wiem, że efekt nie będzie taki sam. Zawsze przychodzi moment entuzjazmu i podłączania „reszty”. A potem odkrycie, że coś tu, kurna...

Jeśli przygotowujemy stanowisko pracy, warto poświęcić na to kilka dni. Jaki system operacyjny? Jestem pingwiniarzem. Ale bez fanatyzmu. Część sprzętu nie działa w Linuksie, część działa źle. Windows będzie znakomity, jeśli nie dopuścimy go do sieci i nie będziemy bez pamięci doinstalowywać do niego oprogramowania. Musimy się liczyć z zawirusowaniem. Z moich doświadczeń wynika, że nieodporne na wirusy są również „entki”, i Win 2000 Professional.

Zmorą komputerowych awarii jest utrata danych. Metod zabezpieczenia jest wiele, ale najlepszą jest regularna archiwizacja. Kopie bezpieczeństwa wykonujemy na oddzielnym sprzęcie. Nie jest kopią bezpieczeństwa coś na tym samym dysku, drugim dysku, ale w tym samym komputerze. Nie bardzo jako kopie bezpieczeństwa działają, przykro mi, że to mówię, płyty CD i DVD nagrywalne, mimo że są powszechnie używane i do tego celu wyprodukowane. Przynajmniej w polskich warunkach. Przyczyna tkwi w tym, że sporo z nich, to produkcyjne odpady, które są „zagospodarowywane” i sprzedawane jako firmowe. Płyty te potrafią stać się nieczytelne po kilku miesiącach. Pewnym zabezpieczeniem jest kupowanie ich w sklepach, które utrzymują się długi czas na rynku. Można mieć nadzieję, że dbają one o swój wizerunek i unikają kiepskich towarów. Niestety, zdarzyło mi się nabyć w dużym markecie akumulatory, które padły po kilku ładowaniach. Rzeczywiście, nie dla idiotów. Jak się zdaje, jeśli chodzi o artykuły elektroniczne, większym zaufaniem można darzyć niewielkie pół-hurtownie wyspecjalizowane w tej branży i celujące na wyspecjalizowanego klienta, który zauważy nie tylko zarysowania na obudowie, ale i wady produkcyjne.

Z tej przyczyny kopie ważnych dokumentów trzeba wykonać na dwóch, a nawet trzech firmowych płytach, różnych firm. Zalecenie wydaje się przesadne, ale też miałem okazję wypróbować (bez)skuteczność programów do odzyskiwania danych z uszkodzonych płyt. Nagrywanie przeprowadzamy z opcją weryfikacji nagrania. A potem nagrane płyty sprawdzamy na innym komputerze. Płyta przynajmniej powinna się zgłosić, warto sprawdzić czy odczytywalne są wybrane pliki.

Co warto zaznaczyć, każda kopia bezpieczeństwa jest lepsza niż żadna. Z moich doświadczeń wynika, że na dwadzieścia, trzydzieści przypadków utraty danych tylko jeden jest spowodowany czymś innym niż pomyłką użytkownika. Najczęściej do nieszczęścia dochodzi przez nadpisanie pliku, albo przy okazji porządków na dysku. Przy kasowaniu łapka się „omska” i w cholerę idzie robota z kilku miesięcy. W takiej okoliczności oczywiście kopia pliku, choćby nawet w tym samym katalogu ma szansę się ostać. Tym niemniej uważam, że skoro jest bardzo łatwo zrobić porządną kopię, to lepiej zrobić ją kosztem niewiele większej roboty dobrze, a więc na jakimś osobnym nośniku, na koncie ftp, na osobnej maszynie, można założyć darmowe konto pocztowe i wysłać list do siebie z załącznikiem. W programie pocztowym „odklikujemy” automatyczne usuwanie poczty z tego konta i mamy skuteczny backup. Moim zdaniem także bardzo dobre są karty pamięci do aparatów cyfrowych, łatwe w użyciu, znakomicie „trzymają” dane.

Trzeba jeszcze pamiętać, że im większy plik, tym większe prawdopodobieństwo jego uszkodzenia na danym nośniku. Rośnie ono eksponencjalnie (wykładniczo). Oznacza to tyle, że nawet na bardzo bezpiecznym nośniku, jakim jest twardy dysk, „rżną się” pliki o rozmiarach 200-300 MB. Tymczasem prawdopodobieństwo uszkodzenia plików wielkości pojedynczych megabajtów jest praktycznie zerowe.

Niestety, bardzo często występują uszkodzenia „organizacyjne”. Ktoś coś pisał w Wordzie, rysunek wykonał w Corelu 3.0 i osadził w dokumencie. Potem w cholerę poszedł system z Corelem i rysunek trzeba wyedytować. Bardzo zabawne, zwłaszcza gdy w dokumencie są jeszcze jakieś uszkodzenia. Podobne efekty uzyskamy, gdy ktoś tworzył, używając „rysowaczki” Worda w dawnych wersjach i teraz trzeba rysunki poprawiać. Bardzo często źle sformatowane dokumenty (banalne wystawanie „ramek” i rysunków poza marginesy) nagle nie chcą się drukować. Bywają takie kwiatki, że ktoś „usunął” coś z rysunku wektorowego, ustawiając szerokość tego czegoś na zero itd. Najwięcej nieszczęść powodują domorośli eksperymentatorzy, którzy mają doskonałą zabawę z poznawaniem zwłaszcza Worda i którzy, nie znając zasad i nie mając najmniejszej chęci zajrzenia do podręczników, potrafią tak „napacać” myszką, że odkręcenie wyników eksperymentów graniczy z cudem.

Co zrobić, gdy zwracają się do „złotej rączki”, by coś zrobił z tym „wszystkim”? Moim zdaniem zacząć trzeba od... wyrobienia poczucia winy. To znaczy, jeśli grozi nam, że będziemy zmuszeni do „wydłubywania” rysunków zrobionych w Corelu 3.0 (a jest zresztą cała kolekcja innych programów wektorowych, których już nie ma w obiegu) nie mając oczywiście płyt instalacyjnych programu i tak dalej, zaczynamy możliwie wcześnie marudzić o zasadach. Że przynajmniej jeśli są ważne dokumenty, to zachowujemy je w osobnych katalogach z osobno zapisanymi rysunkami. Jeśli komuś „odbiło” i produkuje dokumenty typu audycja telewizyjna z animowanymi czcionkami, z efektami dźwiękowymi, to niech w tym katalogu znajdzie się plik z czystym tekstem.

Generalnie radzę unikać wszelkich komplikacji informatycznych, a nawet wręcz je tępić. Możliwie najmniej ozdobników, możliwie najmniej narzędzi. Jeśli dokument ma do czegoś służyć, to tekst nie powinien zawierać żadnych „wynalazków” w stylu notatki wyświetlające się na żółtych polach, rejestracji zmian dokumentu, wersji i innych, które tak znakomicie „ułatwiają” edycję. Dokument jest „naprawdę” bezpieczny, jeśli da się go zapisać jako czysty txt.

Otóż współcześni informatycy starają się nam „ułatwić” wszystko, rzeczy najprostsze, nawet wiązanie sznurowadeł by skomputeryzowali. Sęk w tym, że gdy coś, nad czym się biedzimy, ma jakąś wartość, może ją zachować przez kilka, kilkanaście lat, a wówczas okaże się, że wersja wiązaczki do sznurowadeł całkowicie się zmieniła i przyjdzie nam człapać w rozwiązanych butach. Dlatego lepiej zachować umiejętność wiązania butów własnymi rękami.

Moim zdaniem przykładem zachowania równowagi pomiędzy komplikacją a wygodą jest LaTeX. Dla wielu osób posługiwanie się tym systemem sprzed trzydziestu lat jest przykładem tego, jak niektórzy ludzie są uparci i jak z upodobaniem robią wszystkim na przekór. Sęk w tym, że LaTeX jest standardem na wielu uczelniach, z reguły tych stojących wyżej w różnych rankingach. Chyba jednak „coś w tym jest”. Dokumenty pisane w LaTeX-u są zwykłymi plikami tekstowymi. Nie występuje tam nic poza znakami z zakresu użytego kodowania dla nas ISO-8859-2 lub też CP-1250. Zamiast formatowania mamy opis formatowania. Można oczywiście zapytać, skąd piszący ma wiedzieć, jak dokument będzie wyglądał, skoro nie widzi. Okazuje się, że przy zachowaniu standardów i pisaniu standardowych dokumentów jest niewiele miejsc, gdzie trzeba interweniować, praktycznie „się daje”. LaTeX ma też własność bardzo starannego składania, dobierania odstępów pomiędzy literami i wyrazami. Jeśli chcesz, Czytelniku, złożyć elegancki dokument, użyj LaTeX-a.

Lecz nie o zaletach chciałem, ale o pewnym schemacie postępowania. Dowcip w tym, że pisząc w LaTeX-u musimy mieć świadomość, co robimy, i robimy to z całą świadomością. Najpierw tworzymy PLIK ŹRÓDŁOWY. To nie jest dokument do czytania, ale jest to coś, co się znakomicie daje edytować. Potem dopiero tworzymy, wykonując tak zwaną kompilację, wersję NIEEDYTOWALNĄ. Ta jest do czytania. Oczywiście użytkownik może sobie skasować plik źródłowy, może także walnąć się młotkiem w głowę albo zrobić inną krzywdę, lecz z pełną wiedzą, że robi sobie krzywdę, że odbiera możliwość edytowania dokumentu.

Jednocześnie wersja gotowa powstaje w formacie postscript lub pdf, która znakomicie zabezpiecza przed nieoczekiwanym wyglądem dokumentu.

Pisząc w LaTeX-u, trzeba się namęczyć, by stworzyć ogromny plik dokumentu wynikowego, w którym jest „wszystko” i dzięki któremu wreszcie mamy na dysku „porządek”. Jednocześnie jest to plik, którego prawdopodobieństwo uszkodzenia jest kilkadziesiąt razy większe niż plików wchodzących w jego skład. Naturalnym wynikiem roboty jest katalog zawierający elementy składowe, zdjęcia, rysunki, czasami oddzielne pliki, zawierające fragmenty tekstu, oraz główny dokument w formie pliku źródłowego i w formie nieedytowalnej, która może zostać na przykład wydrukowana, wysłana do naświetlania, i tak dalej. Sytuacja, że nie możemy nic zrobić, bo zmieniła się wersja Worda, ktoś odinstalował czcionki czy skasował jakiś program, jest właściwie nie do pomyślenia.

W pliku źródłowym możemy umieszczać komentarze, które nie będą widoczne w wynikowym pliku. Opis formatowania prawie nigdy nie pozostawia wątpliwości, co chciał autor, czy na przykład przesunąć początek zdania o kilka centymetrów, czy wycentrować tekst, czy chodzi o czcionkę pochyłą, czy o to, żeby wyraz wyróżniał się w tekście. LaTeX umożliwia to, co kochają wszyscy programiści – tworzenie bloków mieszczących się w ramach jednego ekranu, które dostarczają nam zorganizowanej porcji informacji na temat tekstu. Jeśli na przykład kompilator „napyskował” nam, możemy podejrzewać, że brakuje jakiegoś pakietu produkującego czy znaki narodowe, czy specjalne, możemy bez kłopotu pobrać go z sieci (bez kłopotu w tym sensie, że nikt nie każe płacić) i doinstalować go. A jakiego, zazwyczaj łatwo dowiemy się z tak zwanej preambuły i z komunikatów.

Aby nie było niedomówień, LaTeX nie nadaje się do szybkiego napisania podania o urlop, wniosku o zakup, przegrywa z Wordem w konkurencji dokumentów kilkunastozdaniowych, biurowych i jednocześnie jednorazowych, chyba że ktoś napisze szablon, który niestety będzie pasował tylko do podania o urlop i tylko w jednej firmie. Do pism biurowych nadają się edytory biurowe. W przypadku innych dokumentów trzeba użyć oprogramowania przeznaczonego do tworzenia tego typu dokumentów. Inaczej mówiąc, nie używaj scyzoryka do odkręcania śrub, nawet gdy producent zaopatrzył go w stosowną końcówkę i zapewnia, że jest doskonała. Użyj śrubokręta.

W kwestii oprogramowania to rzecz trzeba zakończyć nieco zmodyfikowanym zaleceniem z książki „Sztuka elektroniki” P. Horowitza i W. Hilla. Po pierwsze, trzeba znaleźć program, który faktycznie nadaje się do wykonywania tego, co chcemy zrobić. Po drugie, trzeba się nauczyć go obsługiwać. Po trzecie... nie przekonywać innych, że jest najlepszy. Warto sobie uzmysłowić, że większość oprogramowania do typowych robót komputerowych zostało doprowadzone praktycznie do perfekcji już wiele lat temu i w tej chwili mamy już tylko rozpaczliwe ruchy firm komputerowych, które usiłują nas przekonać, że potrafiły jeszcze coś udoskonalić. W rzeczywistości mamy do czynienia z często perfidną polityką marketingową. Na przykład polega ona na tym, że wycofuje się ze sprzedaży wcześniejszą wersję pakietu, nowi klienci nabywają już tylko nowe i po pewnym czasie człowiek, który nie miał ani potrzeby, ani chęci kupować nowego oprogramowania, staje się „niekompatybilny”. Zazwyczaj nie ma prawdziwego problemu, ale dyskomfort psychiczny wystarcza, by wydać kolejną sumę.

Do trzech zaleceń wymienionych poprzednio, trzeba dodać jeszcze dwa. Czwarte to: nie rób za pomocą programu czegoś, do czego się kiepsko nadaje, a więc „użyj śrubokręta”. Gdy piszesz pracę naukową, skomplikowaną książkę, użyj LaTeX-a, rysunki wykonuj w programie rysunkowym, a nie w „rysowaczkach” ze suit biurowych, podania pisz w programach biurowych. Dalej: miej świadomość, że producent oprogramowania chce cię zdezinformować, wmawia, że za pomocą pakietu da się zrobić wszystko, a więc namawia cię do używania scyzoryka. Wmawia, też, że będzie trzymał się standardów. Pamiętaj, jego jedynym zadaniem jest zarobienie jak największej ilości pieniędzy. Dlatego zalecenie numer pięć to: staraj się zachować niezależność. Moim zdaniem najlepszym sposobem jest trzymanie się darmowego oprogramowania, gdzie to możliwe, ale to nie jeden sposób. Często wystarcza zachowanie prostoty, podziału pracy na narzędzia przeznaczone specjalnie już do edycji tekstów, grafiki rastrowej, czy grafiki wektorowej i banalne zachowywanie plików źródłowych i składowych dokumentu.

Temat kolejny to pytania do fachowca, jaki sobie kupić aparat fotograficzny. Miej świadomość, Drogi Czytelniku, że nie jest to sprawa obojętna i staje się polityczna, gdy masz poradzić: „cyfra” czy analog.

Ot, czytam sobie kiedyś w Gazecie (Wyborczej) o radosnym rozwoju fotografii cyfrowej. Czytam, a to model taki, matryca taka i cena inna, niższa. Czytam w końcu, że z analogami definitywny koniec. No... w zasadzie. W końcu czytam, że analogów używają tylko młodzi ludzie, artyści i wychodzi na to, tacy tam dziwacy. Ano tak, na ten przykład w fotografii lotniczej używa się filmów 120 mm szerokości, o ile mnie pamięć nie myli. W fotografii reklamowej, ale i dokumentacyjnej używamy tak zwanych aparatów wielkoformatowych. Klisza mniej więcej wielkości 95x120 mm do kartki formatu mniej więcej A4. Dlaczego? Technologia. Jeśli chcemy wykonać coś dziesięć razy mniejszego, to można się spodziewać, że wszelkie luzy i niedokładności muszą zmaleć w tej samej proporcji. Odwrotnie, gdy zrobimy coś większego, nie musimy spartolić, możemy zrobić tak dokładne jak małe. Przypominam, że tak zwana rozdzielczość obiektywów do aparatów małoobrazkowych wynosi dziś około osiemdziesięciu linii na milimetr, zaś kiepskiego obiektywu Wega 12 B do starego Kijewa: pięćdziesiąt linii na milimetr. Ponieważ Kijew ma kadr 55x55 mm, robi zdjęcia jak żyleta, lepsze niż zrobione znakomitymi „szkłami” na małym obrazku, bo przy okazji „gubi” błędy filmu, wszelkie skazy i ziarno, wielkie negatywy możemy bezpiecznie skanować na kiepskich płaskich skanerach.

Gdyby autor tej notatki był choćby średnio zaawansowanym amatorem fotografii, wiedziałby pewnie, że klatka 35x24 to równoważnik mniej więcej dwudziestu megapikseli, że pewna Mamiya cyfrowa, która ma 22 megapiksele, kosztuje około czterdziestu dziewięciu tysięcy złociszów i że przy stawkach w rodzaju pięciu złotych za zdjęcie otwierające artykuł, mogą być schody ze zamortyzowaniem się zakupu.

Mógłbym jeszcze coś poopowiadać, na przykład, o tym, że „krótkie” obiektywy do cyfry to 7000 zł, a coś podobnego do analoga da się trafić za dwa patole. No cóż, tak zwany fotograf zazwyczaj posługuje się kilkoma aparatami, w zależności od tego, co potrzebuje zrobić, używa różnych technik, cyfrowych, analogowych, czy filmu czarno-białego. Kliniczny przypadek, gdy niewiedza wypuszcza w pole inne uczucie, które powoduje, że dziennikarz liberalnej (liberalny jest dobry i dlatego tu czuć jakiś paradoks) gazety nie daruje sobie humanistycznej wstawki, która podzieli ludzi choćby na normalsów i tych (he, he!) młodych i artystów. Gdyby żurnalista wiedział, że pisze do ludzi, którzy z kolei wiedzą o tych wszystkich liniach na milimetr, megapikselach i kilozłotych, to pomyślałby sobie, że trzeba napisać, że zakres zastosowań fotografii cyfrowej systematycznie się powiększa i za ileś tam lat itd. Z przykrością stwierdziłby, że temat to całkowicie społecznie obojętny, że wywoła minimalne emocje. Ale skoro sam zapewne o liniach na milimetr nie wiedział, słusznie założył, że banalną informację o tym, że matryce są coraz większe da się „podjarać”.

Bez emocji podsumujmy. Gdy ktoś, kto nie ma pojęcia o robieniu zdjęć, jedzie na wycieczkę do Grecji, niech se kupi cyfrową „małpę” za półtora tysiąca złotych z dwoma kartami po 1 GB. Strzeli tysiąc zdjęć, potem obejrzy raz na komputerze, nagra na kiepski CD i po kilku miesiącach wszystko się skasuje. Poburczy trochę, ale będzie spokój. Dziecku do zabawy najlepiej też kupić najtańszą cyfrę.

Gdy ktoś chce robić odbitki, radziłabym się zastanowić nad analogiem. Ponieważ, zależnie od okoliczności, koszt wykonania odbitek to od pięćdziesiąt do osiemdziesięciu procent całego kosztu fotografowania. Jak się będzie robić na analogu, to długość taśmy stanowi dość skuteczny hamulec przed wyprodukowaniem dwóch setek znakomitych zdjęć, które będzie trzeba koniecznie powielić i rozdać znajomym.

Generalnie jednak to w sytuacji gdy mamy do czynienia z „pstrykaczem”, poważny kłopot polega na tym, że właściwie wystarcza mu „cokolwiek”. Większość współcześnie produkowanych aparatów ma zakres nastaw (uwaga na przesadzony zakres zoomów, w skrajnych położeniach zooma, w tańszych modelach, obraz traci ostrość), w których można zrobić nimi całkiem dobre zdjęcia. Tymczasem pstrykacz zaczyna zadawać setki pytań i jak to się u mnie mówiło „szukać kwadratowych jajek”. Jeśli jest człowiekiem rozsądnym, to można mu spróbować wytłumaczyć, że w większości wypadków wystarczy mu właśnie „cokolwiek”. Problem nie tyle w tym, jaki aparat, ale żeby dobrze nauczył się go obsługiwać. Z drugiej strony, trzeba powiedzieć od razu, że aparaty „popularne” wyraźnie odpadają jakościowo od przeznaczonych dla szeroko pojętego fotoamatora.

Najczęściej nie mamy problemów z prawdziwymi zawodowcami. Tacy na ogół dobrze wiedzą, czego chcą, i zazwyczaj potrzebują tylko konkretnych informacji technicznych. Jak mi się zdaje, podobnie zachowuje się kategoria zwana prawie oficjalnie „sprzętowymi onanistami”. Tym tylko nie należy pokazywać własnych zdjęć. Schody są z takimi co wiedzą, że dzwoni, ale mają problem, w którym kościele. Na przykład zadaje nam człowiek pytanie, czy lepsza cyfra, czy analog. Albo jaki kupić „dobry” aparat.

Czasami chcemy z różnych powodów naprawdę pomóc. Więc na przykład w kwestii dobrych (czyli „cudownych”, które „same” robią zdjęcia) aparatów, to znowu obowiązuje zalecenie, żeby nie używać scyzoryka zamiast śrubokręta. Wbrew pozorom nie ma aparatów do wszystkiego. Typ „profesjonalny” amatorskiej lustrzanki cyfrowej (zamierzona sprzeczność), takie jak Canon 20 D, 30 Nikon D70, to najczęściej tak zwany aparat reporterski. Taki, co dość sporo kosztuje, ma wymienną optykę, robi niezłe zdjęcia. Ma szereg usprawnień do pracy w terenie. Część aparatów „studyjnych” („jedynki” Canona) jest przeznaczona do szybkiej produkcji zdjęć do legitymacji czy do reklam. Generalnie sprzęt cyfrowy ma jakość umownie zwaną profesjonalną, gdy kosztuje jak wymieniona wyżej Mamiya. Jeśli chodzi o analogi, to schody są ze skanowaniem, zwłaszcza z negatywów kolorowych. Jednak w chwili obecnej amatorski skaner Nikon LS 50 ma lepsze parametry niż jeszcze niedawno miały skanery bębnowe. Po zeskanowaniu dobrze naświetlonego slajdu lub negatywu lepszej jakości (broń Boże, nie typu Kodak Gold) otrzymujemy zdjęcia czystości cyfrowej, o rozmiarze 22 megapikseli, mniej więcej tyle, ile z tej Mamiyi za około 50 tysięcy. Nawet jeśli za film zapłacimy jakieś 40 złotych za rolkę, to przy obecnym poziomie cen mamy marne szanse na to, by sprzęt cyfrowy zwrócił się, o ile nie jesteśmy zawodowcami. Dowcip w tym, że do „małego obrazka” potrzebujemy, na przykład, trzech obiektywów: „standard”, jakiś teleobiektyw i krótki. Ten krótki właśnie wspomniane siedem tysięcy złotych będzie kosztował.

Co prawda, to jest cena za większość „zawodowych” obiektywów. Niestety, „szkła” dedykowane do aparatów cyfrowych nie znalazły się jeszcze na wtórnym rynku. Dotyczy to większości osprzętu, filtrów, lamp błyskowych, radiowych wyzwalaczy, a nawet po części nawet toreb. Za wszystko co do cyfry trzeba zapłacić drożej.

Niestety, czas amortyzacji jest dość krótki. Jeśli dziś matryce mają 8,5 megapiksela, za dwa, trzy lata osiągną dwa razy więcej, pewnie (optymistycznie), za trzy lub cztery pojawią matryce 20-30 M-pikseli o pełnym wymiarze 24x35 mm. I to będzie czas na zakończenie przygody z fotografią analogową. Ktoś, kto kupił dziś aparat 8,5 Mpiksela za ~ 5 tysięcy zł czy Nikona D200 z matrycą około 10,2 Mpiksela za jakieś 6,3 tysiąca zł, będzie mógł sprzedać go za 1/2 – 1/3 ceny. Będzie musiał to zrobić, jeśli będzie chciał imponować zdjęciami o topowej jakości. A żeby dokonać wyboru, warto zrobić kosztorys, lecz da się to tylko wówczas, gdy będziemy wiedzieli, do czego aparat ma służyć. A więc, gdy ktoś robi typowe zdjęcia wycieczkowe, czy imprezowe i chce mieć dobry jakościowo sprzęt, to jest to typ pracy reporterskiej.

Czymś odmiennym i całkowicie nieprzydatnym w zabawach w fotografa, a tym bardziej do dokumentowania wesela czy wycieczki do Ciechocinka, jest aparat studyjny. Mamiya wersja analogowa i za ludzkie pieniądze waży 2,6 kg, ma centralną migawkę z najkrótszym czasem 1/400 i żeby zrobić zdjęcie, trzeba się tyle ponastawiać, że największym twardzielom odejdzie ochota.

Aparat od około 6,5 M-piksela wystarczy do wydrukowania (naświetlenia) dużych odbitek, do powieszenia w Internecie skadrowanych zdjęć, do zamieszczania w lokalnej gazecie, nawet dla kolorowych magazynów w formacie A4, jeśli zdjęcie jest ciekawe. W takim zastosowaniu zapewne nikt nie będzie grymasił i za umowne trzy lata, gdy zmieni się technologia, otrzymując zdjęcia 6,5 M-piksela. Nie potrzeba sprzedawać aparatu. Natomiast ktoś, kto, na przykład, myśli o urządzeniu wystawy albo sprzedawaniu własnych zdjęć, komu zależy na utrzymaniu wysokiej jakości (wygraniu konkurencji) na zakupie cyfry w chwili obecnej prawdopodobnie straci. Już chyba kilka razy o tym pisałem, że między bajki należy włożyć przekonanie, że jeśli się zrobi pięćdziesiąt zdjęć to wybierze się jedno, a jak się zrobi pięćset to dziesięć. Najprawdopodobniej też jedno. Owszem, są dziedziny, gdzie wiele zależy od przypadku. Gdy fotografujemy wróble albo dzieci na boisku, to zrobienie ciekawego zdjęcia jest kwestią szczęścia. Lecz w większości wypadków trzeba myśleć, a potem dopiero pstrykać.

Ponieważ piszę do czasopisma zajmującego się także fantastyką i siłą rzeczy futurologią, pozwolę sobie na przewidywanie, że pokonanie granicy 20-30 M-pikseli potrwa trochę. Rzecz bowiem w tym, że 30 M-pikseli odpowiada mniej więcej stu liniom na milimetr. Za granicę rozdzielczości aparatów małoobrazkowych długo, co najmniej kilkanaście lat, przyjmuje się około 90 linii/milimetr. „Nie bardzo” potrafiły ją przesunąć choćby obiektywy z soczewką asferyczną. Dodajmy, że najwyższe rozdzielczości i tak osiągają obiektywy stałoogniskowe. Dobre zoomy mają około 80 linii/mm. Jest to też granica „praktyczna”. Wynika ona z tego, że robiąc zdjęcia, zakładamy istnienie jakiejś głębi ostrości. W rzeczywistości jest ona wynikiem założenia pewnego „akceptowalnego” rozmycia. Geometrycznie, obraz przedmiotów leżących tylko na jednej płaszczyźnie jest rejestrowany jako ostry. Uzyskanie maksymalnej ostrości wymaga wstrzelenia się w odległość do niej. Oczywiście w realnych warunkach tylko część planu leży z niewielką tolerancją w odległości „ostrzenia”. Efekt jest do zaobserwowania przy obiektywach rzędu 100 mm. Okazuje się, że gdy ustawimy ostrość na obiekty odległe o kilkaset metrów (300-500) rozmycie obserwujemy przy dużym powiększeniu na obiektach leżących w odległości około stu, mimo że dla zadanej przesłony (~8) powinny się one znaleźć w zakresie głębi ostrości.

Przyjmuje się, że akceptowalne rozmycie mamy jeszcze wówczas, gdy dla filmu 35 mm wielkość krążka rozmycia (w przybliżeniu rozmiar obrazu świecącego punktu) ma 0,03 mm. Oznacza to, że rozdzielczość 33 linii/milimetr uznajemy jeszcze za akceptowalną. Jednak na dużych powiększeniach, do których potrzebne są tak doskonałe zdjęcia, to rozmycie może być zauważalne. Oznacza to tyle, że z wykorzystaniem już osiągniętej jakości obiektywów i filmów zaczynają się problemy. Niestety, nie zadziała dobrze prosty pomysł na maksymalne skręcenie przysłony. Była w historii taka grupa fotografów – Grupa f64. Założyli ją w 1932 Ansel Adams, Edward Weston, Willard Van Dyke oraz Imogen Cunningham. Grupa, która uważała, że dopiero tak duża przysłona (f=64) daje wystarczającą głębię, lecz tyczyło to aparatu wielkoformatowego. Niestety, obiektywy osiągają maksymalną rozdzielczość dla pewnej charakterystycznego dla danej konstrukcji otworu, zazwyczaj w okolicy 5,6 – 8,0 Powyżej i poniżej rozdzielczość obiektywu maleje.

Oznacza to tyle, że gdy za kilkanaście lat pojawią się właściciele aparatów ze stumegapikselowymi matrycami, to będą mieli problem z praktycznym wykazaniem wyższości swego sprzętu. Chyba że sfotografują dużą ścianę, ustawiając aparat tak, by płaszczyzna matrycy była idealnie równoległa do ściany.

Ostatnim zagadnieniem, jaki chciałem omówić dla przykładu z fotograficznego cyklu, to lamenty, że jakoś nie wyszło. To niestety dość częsta sytuacja, że osobnik nabywa bardzo znakomity sprzęt, wszystko się zdaje zapięte na ostatni guzik i niestety kicha. Foty są „jakieś nie takie” i najgorsze trudno powiedzieć, o co chodzi. Naświetlane na automacie, ostrość na autofokusie, zgodnie z instrukcją osobnik wycelował i nacisnął spust migawki. Niczego nie zmieniał, nie próbował ustawiać, żeby nie popsuć, wierzył, że kosztowna zabawka sama zrobi znakomite zdjęcie. I wyszło... coś. Takie ni pies, ni wydra.

Popsułem wiele filmów (chyba wszystkie) i miałem okazję się zastanowić, co się dzieje. Otóż zaskakująco częstym przypadkiem jest to, że za pomocą kiepskiego sprzętu ludzie próbują robić zdjęcia, które są technicznie trudne lub nawet arcytrudne. To nie są zdjęcia bynajmniej w ciemnych pomieszczeniach, jakieś super-szybkie, makro, teleobiektywami, o których wszyscy wiedzą, że „nie wychodzą”. To zdjęcia, o których już pisałem, na przykład cudowny widok z wysokiej wieży. Obserwowałem kiedyś szczyt wieży Kościoła Garnizonowego już po zachodzie słońca. Ma ona około osiemdziesięciu metrów. Co chwilę na szczycie błyskał flesz. To skrajny przypadek, zdjęcie panoramy Wrocławia z lampą błyskową o liczbie przewodniej 13 jest mniej więcej takie samo dowcipne, jak zdjęcie księżyca w nowiu wykonane z lampą błyskową. Otóż bardziej świadomy fotoamator poradzi sobie z tym problemem. Jednak spotkamy się z lamentami, że cudowne słoneczne krajobrazy wykonane tym aparatem jakieś smętne i w związku z tym pewnie trzeba jakieś coś super: klisza, obiektyw, jakieś hokus-pokus, czy ja wiem? Tymczasem zdjęcia krajobrazów zwłaszcza dalekich są testem na zdolność rozdzielczą aparatu. To raz. Zdjęcie w małym formacie zmienia morze domów w kolorową kaszkę, nic się nie daje odróżnić. Po drugie, bardzo często potrzebny jest szary filtr połówkowy. Osłabia on kontrast pomiędzy dalekimi bardzo jasnymi partiami obrazu i wyraźnie ciemniejszymi, bliskimi. Dalekie widoki są dodatkowo doświetlone poprzez rozproszenie słonecznego światła na mgle i kurzu. Różnica jasności jest tak duża, że przekracza zakres przetwarzania czy matrycy, czy filmu. Można się o tym przekonać mając możliwość pomiaru punktowego (spot). Zazwyczaj mamy do dyspozycji zakres przetwarzania ośmiu przysłon. Gdy różnica pomiędzy partią bliską i daleką przekracza sześć przysłon już zaczyna być niebezpiecznie, bo drobnym szczegółom zostają dwie przysłony na zmieszczenie się w zakresie przetwarzania. Zazwyczaj w cyfrach niebieski kolor wyskakuje poza zakres przetwarzania („przepala się”), niebo robi się zielone, na filmach obraz się „zmydla”, nie daje się odtworzyć kolorów. Otóż stary fotografista wie, że naświetlać trzeba raczej na te dalekie partie i wie, że generalnie nie tylko dalekie krajobrazy kiepsko wychodzą, ale zacznie kręcić i kombinować przy dowolnym temacie, w którym główny motyw zajmuje mniej niż jedną czwartą kadru.

Pointa jest ogólniejsza, jeśli chcesz pomóc takiemu zmartwionemu fotografiście, to musisz mu wytłumaczyć, że albo nauczy się bardzo wielu rzeczy o fotografii, zrozumie dlaczego „hassele” mają centralną migawkę z najkrótszym czasem 1/400 i po kij filtr polaryzacyjny, połówkowy, lub pogodzi się z tym, że po ustawieniu „na małpę”, będzie psuł od czasu do czasu zdjęcia i to zapewne te, na których mu będzie najbardziej zależało.

Czas na jakieś podsumowanie.

Co światu ma do powiedzenia osobnik o technicznym zacięciu lub nawet radioamator, fotoamator, czy ktoś równie dziwny? Ano o smogu eletromagnetycznym, że w każdym wypadku trzeba zajrzeć do dokumentacji technicznej, a najlepiej głowy sobie nie kręcić póki się komórę nosi.

Entuzjasta techniki jak pies do jeża podejdzie do nowego oprogramowania, nie będzie podzielał standardu „user friendly”, raczej poleci komiks o tymże tytule.

Zamiast rzucić się na cudowne błyszczące, błyskające cuda techniki informatycznej poleci coś antycznego, topornego, skrzypiącego i trzeszczącego, na kształt wozu drabiniastego, jak LaTeX, bo tak mu wychodzi z potrzeby zachowania kompatybilności pomiędzy różnymi systemami, analizy awaryjności, oraz godnej dziadków nieufności wobec producentów oprogramowania.

W „politycznej” kwestii radosnego rozwoju fotografii cyfrowej, doradzi kupno skanera do filmów, a to po to, żeby nie wywalać na darmo kasy i zachować jakość.

We wszystkich kwestiach rozdzieli włos na cztery, obsypie mnóstwem terminów technicznych, skomplikuje rzecz do stopnia wręcz niemożliwego. W żadnej z wymienionych spraw ani nie opowie się zdecydowanie za postępem, ani za tradycją. Po prostu ma chłop przechlapane, żadna partia go nie poprze.

 


< 19 >