Zawsze podziwiałem ludzi, którzy rozumieli. Co rozumieli, to dalsza sprawa, ale imponowało mi, gdy ktoś rozbierał zagadnienie na czynniki pierwsze i potrafił na przykład podjąć decyzję, co jak trzeba zmajstrować, jak grubej śruby użyć, ba, nawet gwoździa. Albo ile soli dosypać do potrawy.
Z solą to jest pewien bardzo charakterystyczny problem. Który ludzie rozumieją akurat wówczas, gdy idzie o sól. Gdy chodzi o cukier, już to rozumienie się rozmywa. Co do soli, pieprzu czy chrzanu, a tym bardziej jeśli ktoś się zapoznał z papryczką chili, obowiązuje zasada, że mamy dość wąski przedział ilości przyprawy, która „robi dobrze”. Gdy mówimy, że ktoś „przesolił”, a nie chodzi o solenie, to wiadomo, że z czymś przesadził, wyszedł z optymalnego zakresu.
„Przecukrzyć” nie występuje w popularnej mowie. Słówko „przesłodzić” nie jest synonimem tak ogólnym jak „przesolić”. Odnosi się raczej do dość wąskiego kręgu działań towarzyskich czy międzyludzkich. Być może to rozważania dość jałowe, lecz z cukrem jest naprawdę inaczej niż z solą. Cukier można jeść łyżką, sól tolerujemy tylko w w znacznym rozcieńczeniu.
A jednak widzę w tym coś ważnego i ogólnego. To, że ludziom ciężko pogodzić się z pewnymi powszechnie występującymi w świecie zależnościami. Na przykład z tym, że coś, na przykład przyjemność związana ze smakiem potrawy, ma ekhem… niemonotoniczny przebieg w zależności na przykład od ilości owej przyprawy. Głupiejemy bardzo skutecznie, gdy tylko odchodzimy od oczywistych, wielokrotnie sprawdzonych przykładów.
Gdy chodzi o sytuacje, które nie są tak oczywiste jak przesolenie, gdy przechodzimy od soli do cukru, świadomość tego, co się dzieje, słabnie. Przekonanie kogoś, że działanie w jakimś kierunku, dalsze dosypywanie soli (tym bardziej cukru) przynosi skutek odwrotny, bywa bardzo trudne.
Mogłem obserwować to wiele razy dzięki istnieniu ćwiczenia „rezonans mechaniczny”, które jest poświęcone temu bardzo dobrze znanemu zjawisku. Otóż maszyneria do prezentacji powyższego nie jest chyba do końca zrozumiała dla eksperymentatorów. Jest jakaś czerwona gałka, wyświetlacz cyfrowy, a pokazuje on coś, co na czytelne parametry, w tym wypadku częstość, przekłada się dopiero po wyliczeniu. No i trzeba kilku podejść, żeby delikwent rozumiał, a pewnie nie zawsze to zrozumienie przychodzi, że nie jest tak, że kręcenie ową gałką w prawo zawsze zwiększa amplitudę drgań. Że jest jak w elementarnej teorii, jest pewne pośrednie położenie gałki pomiędzy minimum i tym maksymalnie w prawo, w którym to położeniu amplituda jest największa. I odpowiada ono – a jakże by inaczej – owemu rezonansowi siły wymuszającej, której częstość tą intrygującą gałką zmieniamy.
Oraz że dalsze kręcenie w prawo przynosi rezultat odwrotny do tego, co było na początku. Amplituda wahań maleje, choć wcześniej rosła. Niby oczywiste, skoro jest to „pośrednie położenie”, ale… Sprawa nie jest taka łatwa do wychwycenia, ponieważ miedzy innymi efekt zmiany amplitudy nie występuje natychmiast. Trzeba przekręcić, chwilę popatrzeć, co się dzieje, i dopiero próbować wyciągać wnioski. A to z takiego powodu, że wielkość wychyleń zmienia się dopiero po chwili. No i nawet gdy się oczekuje, że będzie jakieś maksimum, wydaje się, że ciągle znajdujemy przed nim. Intuicja podpowiada: „trzeba jeszcze pokręcić”, podczas gdy już mocno „przedobrzyliśmy”. Obserwując zdziwienie studentów, zrozumiałem, jak trudno jest ludziom uwierzyć w bardziej zawiłych okolicznościach, że „kręcenie w prawo” da odwrotny rezultat. Ot choćby tradycyjne parcie na zwiększanie surowości kodeksu karnego, które ma przynieść błogosławiony spokój społeczny, podczas gdy po przekroczeniu pewnej granicy zazwyczaj mamy rozwój przestępczości zorganizowanej i dużo większe kłopoty niż z chuliganami niszczącymi przystanki tramwajowe. Podobnie nie można dopuścić, by dzieci w szkole weszły nauczycielowi na głowę. Jest chyba gdzieś bardzo wyraźne maksimum efektów wychowawczych pomiędzy surową dyscypliną a bezstresowym wychowaniem. Wszelako w tej materii także mamy radosny obyczaj miotania się pomiędzy skrajnościami.
Przykładów przedobrzania w jedną czy drugą stronę można wymieniać na pęczki: od kulinariów poprzez technikę, gdzie zdawałoby się rzeczą podstawową jest wyliczenie owych najbardziej optymalnych wielkości, po wszelkie dziedziny życia społecznego, gdzie zwykle prócz tego, że przedobrzono i przyniosło to straty, mamy jeszcze chór głośno wołający, żeby przedobrzyć jeszcze bardziej.
Istnieje pewien typ zależności – powinien być powszechnie znany – który powoduje jeszcze większe problemy. Na pierwszy rzut oka każdy powinien sam wymyślić, że sprawy muszą się zwykle toczyć wedle tego scenariusza. Niestety. Połapanie się, że jest tak właśnie, bywa nad wyraz trudne.
Na przykład – chyba dość kosztowny – jak zwraca się we wzroście jakości zdjęć inwestycja w sprzęt fotograficzny? Kilka razy to pisałem, pewne ogólne zależności ilustrują bardzo dobrze przykłady czasami mocno niszowe. Współcześnie fotografia uprawiana za pomocą aparatu fotograficznego staje się coraz bardziej egzotyczna, ponieważ prawie wszystkie potrzeby załatwia sprzęt montowany w smartfonach. Jednak, gdy ktoś ma ochotę zainwestować w coś bardziej kosztownego, to kupując „prawdziwy” autonomiczny aparat fotograficzny dostanie… trochę, ciut, nieco więcej.
Jak się ma sprawa z owymi najczęściej wałkowanymi przez testerów i bywalców fotograficznych forów „megapikselami”?
Czy na przykład jest powód do radości, gdy ma się w komórce 40 megapikseli? Jedyny parametr, jaki może zapewnić to upakowanie, czyli mnóstwo megapikseli, to trochę legendarna szczegółowość zdjęcia. Technicznie ten parametr odpowiada rozdzielczości liczonej w rozróżnialnych liniach na milimetr. Można by powiedzieć, że im więcej szczegółów zarejestruje aparat, tym lepiej. Ale wzrok człowieka też ma swoje ograniczenia. Rzadko widzimy z rozdzielczością kątową lepszą niż 2 minuty. Z tego dość prostym rachunkiem da się wywieść, że przy około 5 megapikselach osiągamy wszystko, co człowiek na zdjęciu zobaczy.
Może warto tu dodać, że w swoim czasie wielokrotnie przytaczano wzory na to, by wyliczyć, ile megapikseli musi mieć aparat, żeby wydrukować odbitkę zdjęcia o zadanych rozmiarach. Z reguł tych wynika, że liczba senseli (elementarnych czujników rejestrujących światło) na matrycy powinna być proporcjonalna do wielkości odbitki. Czyli im więcej megapikseli, tym większa możliwa odbitka. Ma to prowadzić do wniosku, że zawsze te megapiksele przynoszą jakiś zysk. To naiwne rozumowanie.
Odczucie „szczegółowości” zdjęcia zmienia się wedle powszechnie znanej „krzywej s”. Gdy liczba pikseli jest mała, to rząd kilkudziesięciu tysięcy i rozróżniamy je, to zmiana np o dwa razy ich liczby daje kolejny zamazany obraz.
Jedno kiepskie ma kolejne liche. Jest źle aż gdzieś do okolic pół miliona pikseli. Wówczas przestajemy widzieć tzw. „pikselozę” i pojawia się coś na kształt czystego obrazu. Subiektywna jakość obrazu szybko rośnie i gdzieś w okolicach 2 milionów pikseli zaczyna być bardzo dobrze. W tej okolicy spora część ludzi już nie zobaczy wiele więcej, mimo że rozdzielczość powiększymy do powiedzmy 4-5 milionów punktów barwnych. Tę poprawę dostrzeże tylko część oglądających, ale do 5 megapikseli poprawa jest ciągle widoczna. Po przekroczeniu tej granicy, wyznaczanej przez wspomnianą rozdzielczość ludzkiego wzroku, aby przekonać się, że obraz ma większą rozdzielczość, jest wyraźniejszy czy bardziej szczegółowy, trzeba oglądać z bliska jego fragment.
Pobierz tekst:

Fotorelacja ze spotkania autorskiego Jacka Inglota
9 lipca 2018 w Mediatece O czym mówił Jacek Inglot na spotkaniu w Mediatece? Głównie…

Adam Cebula „A jednak wojna”
Gdyby napisać political-fiction opisujące to, co się właśnie dzieje, nikt by tego…

Adam Cebula „R20”
Czy ktoś pamięta baterie R20? A owszem, tym czymś jeszcze się handluje. Lecz to jedynie wywołanie…