To wskazuje, chciałem napisać, doradza nam, by AI zaliczyć bardziej do zjawisk publicystycznych, a nie technicznych. Chyba, że w międzyczasie coś się poważnie zmieniło.
Dopiero w 1986 praca “Learning representations by back-propagating errors” (Rumelhart, Hinton, Williams) spowodowała ponowne zainteresowanie, a wręcz drugą rewolucję sztucznych sieci neuronowych.
Zdanie zacytowałem z poważnego artykułu, choć warto dodać tu pewną poprawkę: chodzi prawie wyłącznie o symulacje sieci za pomocą komputerów. Ale o tym później.
Więc zmieniło się: powstał algorytm propagacji wstecznej i warstwowe sieci neuronowe stały się użyteczne. Tyle, że stało się to jednak dawno temu, wówczas mało kto rzecz zauważył, a żadna rewolucja się nie zdarzyła. Czemu temat cyklicznie powraca? Powód jest, powiedzmy, wyjęty z literatury sensacyjnej, albo tańszego Sci-Fi. Dwaj panowie, Warren Sturgis McCulloch i Walter Pitts w roku 1943, jak twierdzili, stworzyli model neuronu. Tej komórki, która służy(?) w naszym rozumie do myślenia. Drobne uściślenie: ludziom w onych czasach zdawało się, że to dobry model, dziś ta pewność nam uleciała. Lecz ów powód do fascynacji, rodem z komiksów Sci-Fi, pozostał. Neuron – to znaczy tworzymy myślącą maszynę. Przez to, że cokolwiek, przynajmniej na papierze, zadziałało, rzecz się zdała realna. Tak w komiksach pojawiły się roboty, metalowe podróbki człowieka. Niestety, był problem jak ustawiać tzw. wagi połączeń. Skutek? Roboty myślały tylko w powieściach Lema.
Jak napisałem, dzięki wspomnianemu algorytmowi propagacji wstecznej coś zaczęło działać.
W linkowanej wyżej pracy mamy trochę o historii kolejnych fal entuzjazmu i rozczarowań. Kilka razy już perceptrony, sieci neuronowe i inne AI miały opanować świat.
Taki niuans, że właśnie chodzi zazwyczaj o symulacje sieci. Nie fizycznie zmajstrowane urządzenie, ale jego udawanie. Czyli piszemy program na normalny komputer, który udaje sieć neuronową. A czemu tak? Nudny niuans: zbudowanie fizycznej sieci jest cholernie trudne, z powodu konieczności wykonania pewnie milionów elektrycznych połączeń. Technologia biologiczna robi to bez problemu, w projektowaniu układów elektronicznych to bariera. Czy ktoś jeszcze pamięta, że tzw. płyta główna w komputerze składa się z 32-64 sklejonych ze sobą płytek, na których wytrawiono ścieżki połączeń między elementami elektronicznymi? Niestety, taka technologia to ciągle o wiele, wiele za mało.
Jest pewna cecha sieci neuronowej, która na głowę bije „zwykły komputer”. Obliczenia są wykonywane „natychmiast”. Komputer jest taktowany zegarem, pobiera dane, wykonuje na nich poszczególne operacje z szybkością zadaną zegarem. Porcje danych są przetwarzane szeregowo, operacja za operacją, czekamy na wynik długo w skali elektronicznej. Sieć neuronowa nie potrzebuje zegara, może pobrać na wejście dane i z szybkością światła (nie w próżni, ale w sieci neuronowej) na wyjściu wystawić wynik.
Do pomyślenia jest coś takiego, że „prawdziwa” sieć neuronowa działająca z szybkością ludzkiego rozumu, szacuje się, kilka operacji na sekundę, da odpowiedź szybciej, niż jakiś wielki super-komputer. Dlatego fizyczne sieci neuronowe pracują między innymi jako rodzaj sterowania zabezpieczeniem przeciwzwarciowym w energetyce. Potrafią zadecydować na podstawie kształtu impulsu zwarciowego o lokalizacji miejsca zwarcia. Nie wiem czy się udało, ale od dawna krąży pomysł, by na podstawie czoła impulsu zwarciowego decydować w czasie mikrosekund o awaryjnym odcinaniu zasilania. Bo sieć neuronowa może być cholernie szybka.
No i właśnie. O tej ewentualnej przewadze sieci ani słowa w publicystyce. Pofantazjujmy chwilę. Gdyby skleić płytkę montażową z miliona warstw i poskładać taką fizyczną sieć to była by twarda techniczna przyczyna jej przewagi i nad komputerami i, być może, nad człowiekiem. Póki co jednak…
Póki jednak co, połączenia są ciągle jednym z najpoważniejszych problemów elektroniki.
Niestety, niejako z definicji sieci neuronowe w stylu naszego rozumu, w szczególności tzw. sieć Hopfielda, w której połączony jest każdy neuron z każdym, wymagałaby montażu 3D. W praktycznej elektronice mamy „płytki” montażowe, płaskie, które nawet, gdy są posklejane z bardzo wielu warstw, to nadal jest 2D. To geometrycznie nadal nie jest nasz rozum, w którym komórki znajdują się w objętości i mogą być łączone „każda z każdą”. To może być taki banalny z pozoru problem do pokonania. Drugim jest to, by w tych miliardach połączeń „prawie” wszystko działało. Wykonujemy 1000 połączeń, dołożenie kolejnego przewodu oczywiście podnosi prawdopodobieństwo awarii. Ile? Drobne 1000 razy. To zbyt banalne, by się nadawało na klikalnego niusa, ale tu może tkwić dramatyczna przewaga biologii nad technologią. Prócz tego, że biologia potrafi dokonywać „montażu 3D” w wersji „prawdziwej”, potrafi jeszcze odtwarzać uszkodzone połączenia nie wyłączając głowy na czas remontu. Dlatego rozum po zalaniu etanolem ulega tylko chwilowej delirce i zwykle wraca do użytku.
Z teorii sieci neuronowych wynika, że ta ilość połączeń jest warunkiem zapamiętania wielkiej ilości wzorców. I jeszcze, że trenowanie symulowanej w kompie sieci, wymaga wielkich mocy obliczeniowych. Nie fizycznych. Jak się wydaje, ciągle na poziomie rzec można montażowym, natura ma chyba dramatyczną przewagę.
Wiele razy zachodziłem w głowę: co się właściwie takiego stało, że właśnie teraz technologia komercyjnie zwana AI zaczęła się sprzedawać? Jak mi się zdaje, po algorytmie propagacji wstecznej jakimś znaczącym postępem było (tylko?) opanowanie uczenia tzw sieci głębokich. To chyba okolice roku 2008. To był też czas, gdy modne było Big Data.
W Internecie mamy tony danych. No i jest wielka pokusa, by albo faktycznie coś z tej łatwo dostępnej sieczki wycisnąć, albo przynajmniej udawać, że można. To właśnie modne Big Data.
Pożywka dla ekstremalnego Sci-Fi. Zdawało się, że potrafimy zrobić znaczący postęp na przykład w przewidywaniu, gdzie zostanie popełnione następne przestępstwo. Z różnych przyczyn uczeni i technolodzy walczyli ciężko z technologią rozpoznawania twarzy. To był ów czas, gdy pismacy straszyli nas powszechnym cyfrowym śledzeniem, a inwestorzy ładowali ogromną kasę w owo śledzenie i rozpoznawanie.
Jaki był bilans, widać. Ale wtopy, owszem, zdarzyły się spektakularne. Najwięcej wiemy o tych z terenu USA. Raz aresztowano czarnego mężczyznę, który nie miał nic wspólnego z poszukiwanym, nie był nawet do niego podobny, ale został wskazany przez program. Okazało się, że z jakichś nie do końca zrozumiałych powodów programowe rozpoznanie twarzy działa wystarczająco dobrze dla białych i fatalnie dla czarnych. [właściwie to powody są znane i zrozumiane, patrz tu – przyp. red.]
Innym razem przymknięto prokuratora, który kontaktował się służbowo z podejrzanym. To efekt kolejnego pupilka pismaków, teorii sieci społecznych. Koncepcja jest taka mniej więcej, że jak się kontaktujesz z przestępcą, to prawdopodobieństwo, że sam coś wykręcisz, albo staniesz się ofiarą, jest wielokrotnie większe. Graf owych kontaktów decyduje o zapuszkowaniu.
Temat na osobną pracę: co jakiś czas usiłuje się stosować zupełnie niepasujące do konkretnego zagadnienia, bardzo często humanistycznego, zaawansowane metody opracowania wyników. W przypadku prostszych, na przykład liczenia średniej, zapewne za wielu czytelników prac widzi od razu, że to nie ma sensu. A jak na przykład rzucimy „teoria sieci”, groźniej „teoria grafów”, to nim ktoś się połapie, że o kant du… rozbić, to prokurator siedzi i posiedzi.
AI jest jeszcze groźniejsza, bo obowiązująca teoria jest taka, że nie wiemy (w gruncie rzeczy zwykle chodzi o to, by nie musieć wiedzieć) jak to działa. Jak każe zamknąć, to nie dyskutujemy z założenia.
Wydaje się – to dobra droga, by AI faktycznie rządziła światem. Na razie za często nie wychodzi. Tak, można jechać samochodem na autopilocie, ale trzeba mieć otwarte oczy wpatrzone w drogę, a nie w ekran smartfona i ręce raczej na kierownicy, a nie na wirtualnej klawiaturze.
Tak: jak ogłoszono, w problemie zwijania białek algorytmy AI osiągnęły spektakularny sukces. Ale… Ale ze szczepionką na grypę są dalej problemy. Chyba niewiele z tego zwijania wynika. Tak, AI wspomaga fotografów. Czasami. Czasami przeszkadza.
W czym widzi tzw. przeciętny człowiek efekty działania AI? podejrzewam, że głównie w grafice. Najbardziej spektakularne są filmiki dla dorosłych z podmianką twarzy aktorów. Albo polityków :-)
Technologie zapewne w końcu zaczną dobrze działać, ale… Ale trzeba się napracować. Ta robota ciągle przed nami.
Jak mi się zdaje z lektur innych, mądrzejszych ludzi, zawsze jest ten sam problem. Jeśli chcemy rozwiązać w jakikolwiek sposób trudne zadanie, to trzeba się narobić. To drugo/trzeciorzędne pytanie: czy to będzie pisanie klasycznego oprogramowania, tworzenie hardware’owej automatyki, czy trenowanie sieci neuronowych. Zawsze trzeba zrozumieć, równie trudno dobrze opisać w sensie modelu matematycznego. Czy dobrze kombinuję, że AI to po pierwsze nadzieja, że da się tej roboty uniknąć?
Raz jeszcze: co takiego się zdarzyło, że AI zdobyło naraz taką sławę? Chyba nic, poza tym, że postanowiono to sprzedawać. To tzw „uczenie głębokie” dało naprawdę możliwość użycia internetu jako bazy danych do trenowania. Ale chyba spektakularnych sukcesów nie było. Nie szkodzi, przyszedł handlowiec i obiecał sprzedać to ludziom, jako gadżet. Owszem, opowiemy, że to niesłychanie użyteczne, jak inteligentny zegarek. Nim ludność się połapie, dużo sprzedamy. Napisano interfejs użytkownika, który pozwala tzw „lejkowi” coś z tym zrobić. Bynajmniej nie dobry interfejs, ale taki, że dość ludzi spróbuje. Będzie zabawa, zamieszanie, a my liczymy kasę. Tak to widzę.
No i jeszcze jedna obserwacja: tzw. AI – to cholera wie co jest. Nie mam pewności, że główny ciężar stanowią czy sieci neuronowe, czy może algorytmy genetyczne, czy większe, niekoniecznie wielkie bazy danych z mechanizmami ich przeszukiwania. Generalnie oprogramowanie, które robi to, co do tej pory robił człowiek i my userzy, nie rozumiemy, jak ono to robi.
Bo przecież już banalny mechanizm podpowiedzi słów, nazw plików, jest czymś takim. Tyle tylko, że jeszcze chwilę temu programujący ów interfejs użytkownika starał się oszczędnie stosować te sztuczki. Współcześnie np. w przeglądarkach internetowych, choćby dość prosty mechanizm statystyczny podpowiadający najczęściej wyszukiwane czy sekwencje słów, czy powiązane z nimi informacje, o ile rozmiar umownie mówiąc używanego słownika jest dość duży, zaczyna pełnić w stosunku do nieszczęsnego internauty rolę bardzo uczonego mentora. Choć to może być „zwykły” algorytm, zaczyna wyglądać na rozumną maszynę.
Tu się zaczyna to, czym straszą w związku z AI: dominacja maszyny nad człowiekiem. Oczywiście, że tzw. dziennikarz, tworzący na kilogramy niusy do portalu o tym, że pan pogryzł psa, jest przestraszony. Tak, da się zmajstrować program który będzie produkował sam tego autoramentu teksty i jest dość prawdopodobne, że zrobi to lepiej niż współczesny mistrz pióra. Niestety, chyba to nie jest tak, że maszyna wyprze ludzi, ale, że konkretnym twórcom wykaże na przykład nieznajomość związków frazeologicznych, tego, że nie mają w głowie słownika pozwalającego myśli ubierać w słowa. O tym traktuje nasz dział „Red-Akcje”. Chyba że to nie tak, że AI jest takie dobre, tylko piszący skiepścieli. To sprawa zupełnie osobna: mnogość portali, przeróżnych blogów, stron internetowych, łatwość publikacji sprawia, że siłą statystyki tworzą coraz głupsi twórcy, bo mądrzy… robią coś innego. Pisanie, zwłaszcza porządne pisanie, dawno przestało się opłacać. Jak się ma trochę oleju w głowie, to nie sposób nie zauważyć, że nie da się z rozumnym przekazem dotrzeć do kogokolwiek. Jeśli pisać, to dla siebie, dla uporządkowania swojego widzenia świata. A za to nikt nie płaci. A tym bardziej takiego pisania nie załatwi AI. Albowiem ta z definicji jest wytrenowana, na tym, co już napisano. Musi być wtórna.
Pobierz tekst:

Adam Cebula „Lepiej wyć do Księżyca”
Proszę państwa, oto Księżyc. Jasny, świetlisty i daleki jak stąd do tamtąd. O ile nie przesłaniają…

Adam Cebula „Jeszcze starsze ludy”
Jestem sceptykiem, niedowiarkiem. Mój światopogląd, jeśli takowy da mi się przypisać, jest…

Adam Cebula „Mnóstwo”
Obaj wielcy władcy, których imiona przetrwały lekko licząc trzy tysiąclecia, zrozumieli. Mnóstwo.…
















Jelenia Góra
19.12.2025 - 19.01.2026

Czytając to przypomniał mi się stary kabaret:
https://www.youtube.com/watch?v=ZpZ1zzmcEEk (to o co chodzi zaczyna się około 11:30).
Na chwilę obecną wygląda, że akurat w tym „meczu” „Zachód” oberwał i leży na deskach… „Chiny” chyba trafiły raczej przez przypadek gdyż inaczej ograniczyły by się tylko do tego „ciosu”.
Teoretycznie, można na „Zachodzie” zacząć rafinować pierwiastki ziem rzadkich albo nauczyć się bez nich obywać; ale… na to potrzeba woli i czasu.
Czy jest wola?
A co do czasu? Jest limitowany dostępnością rakiet „Arrow”… a tu już podobno jest kłopot tzn. wystarczy ich na parę dni a tego co mają strącać na parę tygodni (przy aktualnym zużyciu).
A potem pryska parę mitów i budzimy się w zupełnie innym świecie.
Ciekawy artykuł, ale myli się Pan w stwierdzeniu:
„Procesor 8086 powstał w roku 1978. „Wszystkie” pracujące do dziś procesory są oparte na tej konstrukcji. Na systemie Unix, poprzez system Linux, stoi Android obsługujący większość komórczaków i tabletów.”
Wszystkie „komórczaki”, tablety, smart-zegarki, komputery Apple (od roku 2020) pracują na procesorach z architekturą ARM, a nie x86.
Nawet Windowsowe laptopy można już kupić z procesorami Qualcomm Snapdragon X Elite na architekturze ARM.
System Android od początku był pisany pod architekturę ARM (a nie x86).
ARM to architektura dużo nowsza, komercjalizowana pod koniec lat 90-tych i dominuje obecnie we wszystkich komputerowch urządzeniach konsumenckich.
Być może trzeba było by to zaznaczyć, ale nie chciałem pisać tekstu o historii informatyki i pewne sprawy musiałem potraktować skrótowo. Sam fakt, że idea RISC to okolice roku 1983 świadczy o tym, że twórcy korzystali z wcześniejszych doświadczeń. To także stwierdzenie trochę na przełaj, ale najpierw była potrzeba przyspieszenia pracy procesora który tracił czas na wiele rozbudowanych procedur w systemie rozkazów 8086. Koncepcja RISC to koniec lat 70-tych. To był taki pomysł, że utrudniamy pracę programiście, który jednak ma szansę używając rozkazów, które są bardzo szybko wykonywane napisać szybki program. Koncepcja procesora ARM jest późniejsza. To jest kwestia bardziej opinii czy dowolnego uznania co jest na czym oparte i w jakim sensie. Czy turbina parowa „jest oparta” na maszynie parowej? Konstrukcje są zupełnie inne, ale w budowie turbiny wykorzystano doświadczenia z pracy maszyn parowych tłokowych,począwszy od cyklu Carnota, a skończywszy na wiedzy o zachowaniu się silnie przegrzanej pary. Systemy operacyjne skompilowane do kody wykonywalnego wyglądają zupełnie inaczej, ale to wynik działania kompilatora na poziomie kodu maszynowego. Oglądane z poziomu źródeł mogą wyglądać identycznie. Lwia część pomysłów jak organizować działanie komputera jest taka sama dla wszystkich niemal systemów. W Androidzie też są pliki i foldery, choć z poziomu usera telefonu tego prawie nie widać. Z konieczności mamy tak samo zapisywane jotpegi i pliki tekstowe. Z konieczności „takie same” są elementy składowe procesora jak bramki czy rejestry, elektryczne schematy niewiele da się zmienić. A nawet jeśli coś było robione „na odwrót” jak turbina w stosunku do maszyny parowej, to na skutek doświadczeń z tym co było. Ale takich różnic, jak pomiędzy turbiną i maszyną parową w technice cyfrowej nie znajdziemy. Sens krytykowanego tekstu jest taki, że podstawy techniki cyfrowej to tamte lata czyli 70-te i od tamtej pory nie zrobiono żadnej „turbiny cyfrowej”, żadnej rewolucji, a co zrobiono, to są przeróbki i rozbudowywanie tego, co już było. ARM nie są całkiem inne niż elementy 8086, co więcej muszą być na tyle podobne, by dało się na nie skompilować np przeglądarkę Chrome. Rewolucyjny postęp jest w technologii produkcji układów cyfrowych, gdzie zeszliśmy w rozmiarze ścieżek do kilkunastu atomów, ale to zupełnie inna bajka.