Nie mam czasu na poważniejsze rzeczy, więc co robię? Prokrastynuję.
Artykuł w pierwszym komentarzu.
Wczoraj znajomy z branży IT pytał mnie, czy uważam, że obecna bańka AI pęknie.
Odpowiedziałem mu, że nie wiem, choć przypuszczam, że nawet jeśli pęknie to nie w tak spektakularny sposób jak się by można spodziewać Tak czy siak dalszy rozwój AI jest nieuchronny, nawet wtedy gdyby życzenia dziewczyny z tego filmiku, który wrzuciłem na SB – by giganci technologiczni upadli i sobie głupie ryje rozwalili – się spełniły.
Przede wszystkim, dla mniej zorientowanych, czemu ten facet, na co dzień pracujący z AI mnie się o to pytał? Czy ma jakieś insiderskie dane, które mogłyby na to wskazywać?
Nie. Dane, na podstawie których wysnuł to pytanie są powszechnie dostępne.
AI przynosi GAMAM (Google, Apple, Meta, Amazon, Microsoft) straty i to olbrzymie, idące w dziesiątki miliardów dolarów dla każdej z firm, co się przekłada na setki miliardów strat w skali całego big techu.
Dla firm, które zajmują się tylko i wyłącznie AI ta rzeczywistość jest wręcz przerażająca, przykładowo OpenAI prognozuje, że pierwszego dolara na czysto zarobi dopiero w 2030 roku. Do tego czasu będzie spalać każdego centa, który się weń wrzuci.
Według ostrożnych prognoz w roku 2026 łączna kwota inwestycji w AI wyniesie ponad pół biliona dolarów (dokładniej: około 500-600 miliardów USD na capex hyperscalerów, z czego 75% związane z AI), firmy odzyskają bezpośrednio z AI zaledwie jedną czwartą z tego, prognozy optymistyczne szacują, że uda się odzyskać około 150-250 miliardów dolarów, co stanowi około 30-45% inwestycji – nadal poniżej połowy (choć revenue z AI rośnie szybciej niż zakładano rok temu, np. dzięki integracji w chmurze i reklamach).
Czemu więc twierdzę, że bańka najprawdopodobniej nie pęknie w jakiś spektakularny sposób, mimo tak oczywistych i ogromnych strat?
Z kilku powodów:
1. Nawet jeśli pęknie nie zatrzyma to rozwoju AI, a jedynie go nieco spowolni. Technologia jest zbyt zaawansowana i zintegrowana z codziennym życiem (od wyszukiwania po automatyzację), by całkowicie się zatrzymać – podobnie jak internet po bańce dot-com w 2000 roku spowolnił, ale potem eksplodował.
2. Nawet jeśli pęknie, to pogrzebać może obecnych graczy, ale ci którzy przyjdą po nich – zabiorą się do tego lepiej. Mieliśmy już takie sytuacje w przeszłości zmiany lidera. Czy ktoś kojarzy dziś firmę XEROX? A innych liderów technologicznych z lat 60 czy 70? Na przykład IBM dominował w mainframe'ach, ale ustąpił miejsca Microsoftowi i Apple'owi w erze PC, firmy takie jak Atari i Commodore walczyły o prymat w domowych komputerach i rozrywce, a dziś jedynie wspominamy je z sentymentem.
3. Nie do końca też się wydaje, by obecni liderzy rzeczywiście mieli za sprawą AI zbankrutować – owszem, AI jako takie przynoszą olbrzymie straty, ale jednocześnie – napędzają zyski tych firm w innych obszarach, między innymi usług chmurowych (np. Azure Microsoft rośnie o 20-30% dzięki AI), reklam (Meta raportuje 20-30% wzrost dzięki AI w targetingu) i summa summarum Big Techy wychodzą na plus.
4. Stawka jest zbyt wysoka, by ktoś się wycofał – nawet ostrożne i zachowawcze Apple, które zawsze jest do tyłu, zawsze konserwatywne i raczej podąża za technologiami stworzonymi przez innych niż wymyśla cokolwiek nowego i patrzyło na tę rewolucję z dystansu – w roku 2025 zainwestowało w AI więcej niż z tego uzyskało a w 2026 inwestycje rosną dalej (np. umowy z OpenAI i integracja w iOS).
5. Inwestycje w AI są wspierane przez rządy i globalne fundusze, co amortyzuje ryzyko. Na przykład USA i UE subsydiują rozwój chipów i data centerów (np. CHIPS Act), a firmy jak NVIDIA zarabiają krocie na GPU, co tworzy ekosystem, w którym strata jednego gracza nie zatrzymuje całości. Dodatkowo, rosnąca efektywność energetyczna (np. nowe data centery na energii odnawialnej) obniża koszty długoterminowo, co sprawia, że nawet przy obecnych stratach, za 3-5 lat wyjdą na swoje.
Pomyślałem, że warto i Wam dać znać, co odpowiedziałem koledze, choć oczywiście to tylko moja prywatna opinia. Mam nadzieję, że różne Ślimaki i Zakapiory, tudzież Tarniny i inne stworzenia tu przypełzną i swoje trzy grosze wtrącą.
Bo chciałbym po prostu wiedzieć – jak uważacie – czy ta bańka pęknie (jeśli tak – to kiedy) – i jakie będzie miało konsekwencje jej ewentualne pęknięcie dla nas – parających się piórem?
ksiegamiliona.pl - premiera już 14 lutego 2026 // entropia nigdy nie maleje // Outta Sewer: Jim, indioto Ty, nadal chyba nie rozumiesz
Mam nadzieję, że różne Ślimaki i Zakapiory, tudzież Tarniny i inne stworzenia tu przypełzną i swoje trzy grosze wtrącą.
No jestem, jestem, przybywam na wezwanie...
…ale nie wiem, co mam napisać. Zgadzam się, że bańka nie pęknie, a jeśli, to tylko trochę i chwilowo.
Można ewentualnie dyskutować, jak szybko białkoludziki przestaną być rządom i korporacjom potrzebne do wykonywania umysłowej pracy i co potem – cyfrowy neokomunizm, cyfrowy neofeudalizm czy od razu osobliwość.
Co do konsekwencji dla parających się piórem, jak już pisałem na SB, raczej uważam, że będą nikłe – wydaje mi się, że odbiorcy, którzy mieli od naszej dziedziny odpłynąć, już w większości odpłynęli na streamy i tiktoki, a ci, którzy przy niej trwają, nie będą chcieli się przesiąść z żywych pisarzy na AI. Ale nie wykluczam, że to z mojej strony tzw. copium, no i oczywiście dochodzi pytanie, skąd będzie wiadomo, czy ktoś nie oszukuje – liczę, że AI będzie w stanie to rozpoznać xdd
Inwestycje w AI są wspierane przez rządy i globalne fundusze, co amortyzuje ryzyko.
Kapitan Podatnik jak zwykle nad wyraz hojny xddd
Dlaczemu nasz język jest taki ciężki
Mam nadzieję, że różne Ślimaki i Zakapiory, tudzież Tarniny i inne stworzenia tu przypełzną i swoje trzy grosze wtrącą.
No jestem, jestem, przybywam na wezwanie...
Ja takoż przypełzam i dziękuję za zaproszenie do rozmowy!
Niestety nie czuję, żebym był do niej dobrze przygotowany. Już dawno sobie obiecuję, że porządnie pogłębię wiedzę o sztucznej inteligencji, ale jak dotąd opieram się na lekturach dość pobieżnych oraz na swoim ogólnym pojęciu o naukach ścisłych. Tak też z przyjemnością przygarnę wszelkie dalsze przemyślenia na temat AI, którymi miałbyś chęć się podzielić.
W każdym razie zgadzam się z Waszym przypuszczeniem, że nie dojdzie do jakiegoś “całkowitego pęknięcia bańki”. Mam jednak nadzieję, że nastąpi pewna korekta – ostatecznie nijak nie jest w interesie społecznym zużywanie ogromnych zasobów, żeby generować filmiki z kotkami wyławiającymi spod lodu autobus niepełnosprawnych. Może wystarczy, by z jednej strony wprowadzono wreszcie potrzebne regulacje prawne (np. ścisły obowiązek oznaczania treści wytworzonych przez gen-AI, karmienia modeli wyłącznie treściami, na których użycie autorzy wyrazili pisemną zgodę), z drugiej strony firmy doszły do wniosku, że nie opłaca im się udostępniać internautom tych narzędzi za darmo...
Za to na niektóre możliwości naukowego wykorzystania technologii AI, zwłaszcza w medycynie, patrzę z niemałym optymizmem. Nie jest też złe samo w sobie, że mogą one zastępować człowieka w nużących pracach biurowych (call centers, przekłady techniczne, pisanie prostego kodu...), to przede wszystkim wyzwanie polityczno-gospodarcze, żeby dzięki temu rosła jakość życia, a nie bezrobocie i nierówności społeczne.
W sprawie natomiast parania się piórem pisałeś na Shoutboksie:
to jeśli Wam się serio wydaje, że AI nigdy nie osiągnie Waszego poziomu pisarskiego, to przynajmniej przez chwilę pomyślcie, że szachistom, tłumaczom czy grafikom też się kiedyś tak wydawało, a teraz serce mi się kraje słuchając takich żali jak w linku poniżej, ale cóż – ekonomia jest bezlitosna, gorszy pieniądz zawsze wypiera lepszy
Jasne, że o tym myślałem, ale tutaj mieszasz dwie sprawy, prawda? Żale nie dotyczą tego, że sztuczna inteligencja tworzy lepsze tłumaczenia czy grafiki – bo nie tworzy – lecz że tworzy je szybciej i taniej (to drugie może wskutek wspominanych wyżej subsydiów). To nie jest większy problem, gdy zajmujemy się czymś hobbystycznie. Tym bardziej z literaturą: według mojego (amatorskiego) rozumienia rozwój obecnego paradygmatu gen-AI może wkrótce pozwolić na odbijanie ze sztancy schematycznych kryminałów czy przygodówek, ale nie na opakowanie świeżych obserwacji i prawd o rzeczywistości w zajmującą historię. Do tego trzeba by modelu odzwierciedlającego rozumienie świata – trzeba by silnej sztucznej inteligencji.
Niemniej miałem przy okazji przypomnieć, żebyś wspomniał o czymś nazywanym emergencją instrumentalną. Pozdrawiam ślimaczo!
Kurczę, nie znałem wyrazu “copium” – wydawał mi się łaciński (choć nie przypominałem sobie takiego, ale z łaciny to ja na trójczynach szybowałem z trudem) – a tu taka niespodzianka :)
Cóż – mogę się tylko podpisać pod tym, co napisałeś – z jednym wyjątkiem – na razie AI jest bardzo kiepskie w rozpoznawaniu AI, przynajmniej jeśli chodzi o tekst – prędzej daje radę jeśli chodzi o grafikę itp. Ale możliwe, że jeśli będzie na to zapotrzebowanie, to to się to zmieni, ale tu będziemy mieli typowy klasyczny wyścig miecza i tarczy.
Ściślej – co prawda modele bardzo dobrze rozpoznają statystyczne artefakty własnej generacji, tylko że przy parafrazowaniu, stylizacji, mieszaniu z tekstem ludzkim skuteczność detekcji spada dramatycznie.
Poza tym, trzeba się zastanowić, co to właściwie jest tekst AI?
Czy jakiekolwiek użycie SI już czyni tekst tekstem SI, nawet jeśli 99% pisał człowiek? A gdy jest odwrotnie? Co dokładnie znaczy „tekst SI”, jeśli modele uczą się na tekstach ludzkich? (a także – ludzie na tekstach SI)?
Jasne, że o tym myślałem, ale tutaj mieszasz dwie sprawy, prawda?
Tak, mieszam dwie sprawy, jak najbardziej.
Owszem, dla naszej grafomani to nie będzie miało większego znaczenia, podobnie jak bazgranie w zeszytach nie wymrze przez to, że AI robi to szybciej. Granie w szachy nie wymarło, mimo że komputery grają lepiej (choć moim zdaniem brak im finezji – bo czasem by uzyskać ciekawą pozycję, warto... popełnić błąd – i nie mam tu na myśli celowego poświęcenia figury / gambitu – a rzeczywisty błąd, który przeciwnik jeśli zauważy i wykorzysta – skończy się dla nas bardzo źle – silniki szachowe takich rzeczy nie robią, a ludzie tak, bo są omylni).
Tym bardziej z literaturą: według mojego (amatorskiego) rozumienia rozwój obecnego paradygmatu gen-AI może wkrótce pozwolić na odbijanie ze sztancy schematycznych kryminałów czy przygodówek, ale nie na opakowanie świeżych obserwacji i prawd o rzeczywistości w zajmującą historię. Do tego trzeba by modelu odzwierciedlającego rozumienie świata – trzeba by silnej sztucznej inteligencji.
Jeśli byś miał rację, to jeszcze długo możemy spać spokojnie :)
Czy masz rację? Najbardziej uczciwa będzie odpowiedź, że nie wiem.
Przede wszystkim nie wiem, czy ludzie nadal są w stanie opakowywać świeże obserwacji i prawdy o rzeczywistości w cokolwiek – bo stwierdzenie “wszystko już było” – jest prawdziwe od czasów posthomeryckich. To, co dokonywaliśmy później, to pewne rekonfiguracje, a w ciągu ostatnich stu lat jest to widoczne z wręcz porażającą wyraźnością.
Na tym forum, które przecież trzyma wysoki poziom, to też dobrze widać – najbardziej cenione są teksty, które wpisują się w sprawdzone kanony i standardy – wszelkie eksperymenty literackie, nawet ostrożne – są oceniane dużo niżej.
Dlaczego? Bo przeciętny odbiorca ich po prostu nie potrzebuje.
Jest to stwierdzenie dość brutalne – ale nasze skrzywienie wynika z tego, że chcielibyśmy pewnie oddać to co nam “w duszach gra”. Problem w tym, że nikogo to nie obchodzi.
Czytelnik chce dobrą, wciągającą fabułę, wyraźnych bohaterów i odrobinkę materiału do przemyśleń. A to się da zrobić bez silnej AI.
Z czterdzieści czy trzydzieści lat temu prawie wszystkie kobiety były sapioseksualne i żadna nie musiała tego deklarować, bo to po prostu było widać. Wtedy powstał taki swoisty trolling i metoda na podryw (równie skuteczna jak wszystkie inne onelinery, ale przynajmniej zabawna) – powiedzmy w latach dziewięćdziesiątych wchodziliśmy z kolegą do biblioteki czy baru – wszystko jedno i rzucaliśmy jeden do drugiego jedno z zawczasu przygotowanych, komicznych i celowo przeintelektualizowanych pytań, na przykład:
– Czy chaotyczne konwergencje deterministycznych pryncypiów są w stanie wpłynąć na civitatum absolutu dobrego i złego?
I... to prawie zawsze działało.
Te ciut głupsze łapały się na samo uczone brzmienie tych wyrazów, te troszkę bardziej oczytane nie omieszkiwały wyprowadzić na z błędu i skorygować, że to zdanie jest jakimś dziwnym zlepkiem, że nie ma po polsku wyrazu “civitatum” a jeśli to by było po łacinie, to “civitas” jest źle odmienione, a z kolei “absolutu dobrego i złego” to brutalna kalka z łaciny bo być powinno “absolutu dobra i zła” a nie jeden do jeden z “absolutum boni et mali”
Byliśmy wtedy młodzi, głupi i zakochani we brzmieniu własnych głosów i takie zarzucenie przynęty rzadko kończyło się w łóżku (dziś by nie miało szans, bo współczesne kobiety jeśli znają jakąś odmianę łaciny to jedynie podwórkową) – jednak to, że to w sposób powtarzalny działało przynajmniej jako wzbudzenie zainteresowania.
Umysł homo sapiens działa w sposób algorytmiczny – czy tego chcemy, czy nie chcemy, czy będziemy temu uparcie zaprzeczać. I to, że tak działa to w sumie bardzo dobrze, bo dzięki temu w ogóle jako społeczeństwa możemy funkcjonować. Zarówno nasze rytuały godowe jak i wybory literackie – nie są zawieszone w próżni, są reakcją na pewne bodźce, za pomocą szeregu zmiennych pośredniczących, które coraz lepiej rozumiemy. To, że teraz jest tak popularne Young Adult można by “wyliczyć” z naszej kultury, w których uwaga jest kilkusekundowa i przewija się bezmyślnie treści.
W istocie – dla większych zbiorowisk ludzkich można stosować te same wzrory (co do ich matematycznej postaci) jak dla mechaniki gazów, ale to pewnie doskonale wiesz, zresztą jest to wiedza nienowa, Asimov oparł na niej na przykład swój cykl Fundacja.
Zresztą na powyższych obserwacjach zbudowano nawet – w latach siedemdziesiątych ubiegłego wieku – całą pseudonaukę, która do dziś święci tryumfy, choć nikt nie udowodnił, że działa bardziej niż mój nieszczęsny tekst na podryw (a ten – jak wspominałem – nie działał, bo owszem – wzbudzał zainteresowanie, ale to za mało, widocznie jestem bardzo nudnym człowiekiem, stąd niepowodzenia u kobiet, ehh... albo nie do końca rozumiem algorytmy kobiecego zachowania – nawet teraz).
Pseudonauka ta zyskała chwytliwą nazwę “programowanie neurolingwistyczne” w skrócie NLP – i ma tylu gorliwych wyznawców, co inne bzdury (podstaw cokolwiek ze współczesnych kultów) – nawet po dziś dzień, mimo, że przez ostatnie pół wieku nikt nie udowodnił, że to w ogóle działa. Znaczy, może inaczej – czasem działa (jako rodzaj manipulacji) – na słabe umysły.

A skoro jest zestaw sztuczek językowych, który na umysły ludzkie działa w określony sposób, to nie ma znaczenia, że znajdą się jednostki, na które to nie działa, a jedynie to, że zawsze znajdą się jednostki, na które to działa. I tych drugich jest dostatecznie dużo, by czarownicy twierdzili, że moc jest silna. A to nie moc jest silna, a umysły słabe ;-)
Przenosząc to na grunt literatury: sam napisałeś (choć może bez pełnej świadomości konsekwencji) – jak to będzie wyglądać:
Tym bardziej z literaturą: według mojego (amatorskiego) rozumienia rozwój obecnego paradygmatu gen-AI może wkrótce pozwolić na odbijanie ze sztancy schematycznych kryminałów czy przygodówek, ale nie na opakowanie świeżych obserwacji i prawd o rzeczywistości w zajmującą historię.
Kryminały, przygodówki, fantasy, weird, romanse – to wszystko można klepać od sztancy.
Z science-fiction jest troszkę gorzej, ale nie przesadzajmy – space operę da się stworzyć według ustalonych reguł, a jedynie hard sf się będzie opierać trochę dłużej, bo to jest coś, co bazuje na głębszym zrozumieniu współczesności (tak, współczesności, a nie przyszłości) – i ma z dwie warstwy więcej.
Ale – kto dziś czyta hard science-fiction? No właśnie.
Umysły ludzkie stały się prostsze i bardziej reaktywne – takie czasy. Wszyscy cierpią, ale w tym cierpieniu nie ma już głębokości – więc jeśli automat odniesie się do łez i nieprzespanych nocy, do bólu, do samotności i uczucia niedopasowania i niezrozumienia – wystarczy, bo każdy w tym siebie odnajdzie. By napisać współczesne Cierpienia młodego Wertera – nie trzeba już być człowiekiem.
Możesz spytać, dlaczego to jeszcze nie nastąpiło?
Cóż. Nastąpiło.
Ale w niewielkim na razie procencie.
Szacuje się, że jeśli chodzi o beletrystykę, to na światowym rynku w roku 2025 zaledwie 2% książek to jawnie twory AI.
Owszem, to mało. Ale wynika to z paru czynników.
Po pierwsze – nadal AI źle sobie radzi z długimi fabułami. To też jest powód, dla którego vibe coding poniosło aż taką klęskę – ale o tym za chwilę i też dlaczego jest tu trochę inaczej.
Po drugie – wbrew pozorom pisanie jest trudne. Nam się może wydawać łatwe, bo są tu tacy, którzy potrafią przez noc napisać genialne opowiadania na 40k literek. Jednak w tych 40k literek trzeba zachować spójność i logikę – a jeszcze do niedawna, jeszcze z 3-4 lata temu LLMy w swoim rdzeniu, jak słusznie mniemacie – działały lokalnie a nie globalnie. Dziś modele operują na długich kontekstach, planowaniu hierarchicznym, zewnętrznych pamięciach i iteracyjnej redakcji, więc większość tego co piszecie o LLM-ach na SB, to owszem prawda, ale prawda roku 2022 a nie 2026. Z zewnątrz może teraz trudno dostrzec, widząc działający LLM, jak on się różni od LLMa sprzed pół roku czy sprzed tych czterech lat – złudzenie jednak, że się nie różni wynika po prostu z tego, że SI używacie na codzień i nie dostrzegacie, narastających stopniowo zmian i tego że przez ostatnich kilka lat, rewolucyjne zmiany zachodzą z regularnością zegara, mniej więcej co pół roku. Pisząc więc o LLMach z 2022 uprawiacie archeologię.
Po trzecie – kontekst kontekstem, ale okno tego kontekstu dla współczesnych LLMów jest mocno ograniczone i by uzyskać złudzenie, że jest większe, stosuje tu pewną sztuczkę podpatrzoną u homo sapiens.
Pamiętasz dokładnie rozmowę prowadzoną wczoraj? A tydzień temu? A przed rokiem? Czy jej ogólny wydźwięk jedynie?
Nasza pamięć działa tak, że stosuje drastyczną kompresję stratną – zapisuje tylko to, co niejako odbiega od normy, reszta informacji jest tracona bezpowrotnie.
Ale zaraz – spytasz – jak to, przecież dokładnie pamiętam tamtą wycieczkę i rozmowę na górskim szlaku.
Tak. Jest to pełne szczegółów. Owszem. Które w procesie przypominania zostały utworzone. Wygenerowane na podstawie wzorca innych tego typu wycieczek, innych tego typu rozmów i innych dziewczyn spotkanych na szlaku.
I współczesne SI robią podobnie, choć ich pamięć nie jest tak płynna i tak twórcza jak nasza – to jednak, ulega bardzo znaczącej kompresji stratnej.
I potem chcielbyśmy, żeby SI napisało powieść, ale gdzieś w jej jednej piątej, SI pisząc o głównej postaci, o której wspomniała raz na początku, że utyka na lewą nogę ze względu na ranę odniesioną na wojnę, pisze nagle, że utyka na prawą, od czasu wypadku komunikacyjnego, a za dwadzieścia stron dalej to już nie będze noga a ręka, złamana w czasie poślizgnięcia się na lodzie – a może skórce banana.
Takie babole oczywiście dyskwalifikują książkę.
Trzeba jednak zwrócić uwagę, że to nie jest już problem jakościowy, a ilościowy – problem spójności długiej narracji nie jest już fundamentalny, tylko po prostu by to dobrze działało i było dostępne dla wszystkich jest... kosztowne. Natomiast z pewnością w laboratoriach istnieją już LLMy, które są w stanie napisać spójny tekst długości Illiady, tylko udostępnianie ich ogółowi byłoby nieopłacalne.
Czwarty powód: współczesne LLMy nie są wyspecjalizowane, by pisać książki.
Co prawda cały rynek książki to globalnie jakieś 150 mliardów dolarów, ale większość tego tortu stanowią książki edukacyjne, dla dzieci, poradniki i książki religijne. Beletrystyka to jakieś 7 może 8%.
Nie jest może to suma, po którą się nie warto schylać, ale są dorodne jabłka na niżej rosnących gałęziach – rynek grafiki czy tłumaczeń jest wielokrotnie większy, rynek tworzenia oprogramowania – również.
Swoją drogą, miałem wspomnieć o tym, jaki problem jest z SI i programowaniem.
Generalnie zaawansowane programowanie wymaga tych samych umiejętności, co pisanie książek, plus jeszcze paru innych. Idąc powyższym przykładem – jeśli bohater w połowie książki zacznie utykać nie na tę nogę, na którą utykał do tej pory, to nic złego się nie stanie.
Jeśli błędnie zaprojektujemy system kontrolujący robochirurga – pacjent umrze.
Albo mniej drastycznie (choć dla decydentów – bardziej) – jeśli system pożyczkowy przez przypadek udzeli dwumilionowej pożyczki osobie, która nie jest w stanie jej spłacić, to firma będzie stratna te dwa miliony.
Dosłownie taką sytuację widziałem w 2015 roku – SI do udzielania pożyczek rekomendowało by nie udzielać pożyczki pewnemu przedsiębiorcy, który właśnie chciał pożyczyć dwa miliony dolarów, jednak underwriterowi (to taka osoba, która ocenia ryzyko pożyczkowe) – dolary prowizji zaświeciły się w głowie i anulował decyzję SI i pożyczki udzielił. Po dwóch takich sytuacjach (jedna ze stratą 2 milionów, druga ze stratą 1 mliona) – wprowadzono do systemu modyfikację, że by podważyć decyzję SI trzeba nie jednego a dwóch underwriterów – co na jakiś czas rozwiązało problem.
To, że firma straciła te mliony nie wynikało z błędu w jakiejś linijce kodu – a z błędnie zaprojektowanego systemu jako całości, gdzie pojedyncza osoba, której wynagrodzenie zależało od wysokości spłat pożyczki – mogła podważyć rekomendację SI. System był błędnie zaprojektowany, ale najprawdopodobniej dzisiejsze SI nie potrafiłyby go “z marszu” zaprojektować lepiej, a każdy człowiek projektujący taki system widzi tę słabość praktycznie natychmiast (tak, traktujemy ludzi jako elementy systemu, zawsze tak robiliśmy, jest to konieczne).
Obawiam się vibe codingu z trochę innego powodu. On nie zabierze pracy midom, seniorom nie mówiąc już o wyższych poziomach informatycznej drabiny – ale zabiera pracę juniorom, którzy przez dobre dwa lata z reguły trzaskali właśnie taki kod, który teraz SI pisze.
Dlaczego to niebezpieczne? Po pierwsze – wielu juniorów teraz do IT po prostu z tego powodu nie wchodzi, bo po co mają się uczyć programować, skoro SI robi to szybciej i lepiej niż oni? SI nawet szybciej i lepiej projektuje SI niż juniorzy AI :)
Po drugie, ci którzy już są – wykorzystują bezmyślnie “jak małpy” SI do wszystkiego, tak jak niektórzy ludzie używają kalkulatora do sprawdzenia ile jest 3 x 4. Przez to, po pierwsze – nie uczą się, jak to powinno wyglądać, po drugie – nie są w stanie poprawić błędów, które SI popełnia (a popełnia, coraz mniej, ale jednak).
I choć to może się wydawać rzeczą bez znaczenia – bo co nas to obchodzi, że początkujący programiści sobie nie radzą, albo nie znajdą pracy i to, że Eldorado w IT się skończyło – to ja jednak widzę w tym niebezpieczeństwo – bo tacy jak ja, niedługo fizycznie wymrą, owszem, jest wielu ludzi młodszych ode mnie, którzy przyjdą na moje miejsce – ale ten wąż nie ma już ogona – na ich miejsce nie będzie miał już ktoś przyjść, więc za jakieś dwadzieścia, trzydzieści lat już nikt nie będzie rozumiał IT.
I wtedy cały świat stanie się dla kolejnych pokoleń magią. Magią powszechnie używaną ale niezrozumiałą jak to, że małe dziecko wie, że pstryknięcie przełącznika włącza i wyłącza światło, a nastolatek wie, że wifi jest potrzebne by przewijać media społecznościowe, ale nie ma pojęcia na jakich zjawiskach to wifi jest oparte.
Nowe średniowiecze, które trwa od jakiegoś czasu, nie przerodzi się w nowe oświecenie. Przerodzi się w świat pełen magii i nowego zabobonu. Myślałem o tym napisać opowiadanie, ale temat jest zbyt ważny, a ja zbyt słabo piszę.
Co do pojęcia “emergencji instrumentalnej” – to raczej nie znajdziesz jej w jakichkolwiek opracowaniach, to pewnego rodzaju slang, uproszczenie i konglomerat dwóch pojęć.
A mianowicie: dobrze wszystkim znanej emergencji i konwergencji instrumentalnej. To drugie, mniej znane, polega z grubsza na tym, że odpowiednio złożone systemy, przejawiające cechy inteligencji i nastawione na cele – nawet jeśli te cele się różnią, mogą wypracować zbliżone cele pośrednie.
O celach ostatecznych i instrumentalnych możemy myśleć w świetle wartości – wartości można podzielić na autoteliczne (wartości same w sobie) i instrumentalne (wartości, które służą innym wartościom) – każda istota ma w sobie hierarchię takich wartości i nie jest to absolutne – i to co dla jednostki A jest autoteliczne dla innej może być instrumentalne i odwrotnie.
Cele – są niejako implementacjami, ukonkretyzowaniem wartości.
O ile wartości stanowią rdzeń systemu, to cele są bardzo blisko tego rdzenia, a to, czy zostaną one zrealizowane wyznacza, czy system funkcjonuje dobrze czy źle.
Więc – mamy cele ostateczne i cele instrumentalne.
A teraz o konwergencji instrumentalnej:
Z pewnością przynajmniej coś o tym słyszałeś, na przykład jako o problemie maksymalizatora spinaczy.
Przyjrzyjmy się temu problemowi nieco uważniej.
Marvin Minsky, zaproponował taki eksperyment myślowy: przypuśćmy że sztuczna inteligencja została zaprojektowana do udowodnienia hipotezy Riemanna.
Mogłaby zdecydować się na przejęcie wszystkich zasobów Ziemi, aby zbudować superkomputery, które pomogą osiągnąć ten cel. Natomiast gdyby postawić SI cel produkcji jak największej liczby spinaczy do papieru, i tak zdecydowałby się na przejęcie wszystkich zasobów Ziemi, aby osiągnąć swój cel ostateczny. Mimo że te dwa cele ostateczne są różne, oba prowadzą do konwergentnego celu instrumentalnego, jakim jest przejęcie zasobów Ziemi.
Pociągnijmy ten temat jeszcze przez chwilę, nim przejdę do emergencji.
Wydaje się, że taki abstrakcyjny cel jak jak udowodnienie hipotezy Riemanna, czy rozwiązanie któregoś z problemów milejninych nieuchronnie musi prowadzić do takiego celu instrumentalnego jak przejęcie wszystkich zasobów, ale wydawać by się mogło, że w przypadku tak prostego i konkretnego celu jak produkcja spinaczy, łatwo byłoby się przed tym zabezpieczyć.
Postawmy maszynie po prostu cel skromniejszy – by zamiast wyprodukować tyle spinaczy ile się da, wyprodukowała ich milion?
Czy to rozwiąże sprawę?
Nie.
Bo maszyna nie ma żadnego “interesu” w tym, żeby się zatrzymać po wyprodukowaniu miliona spinaczy – wręcz przeciwnie – przecież istnieje jakieś znikome, ale niezerowe prawdopodobieństwo, że część spinaczy była nieidealna, lub uszkodzona, albo po prostu źle policzona, więc lepiej produkować je dalej, by jeszcze bardziej zminimalizować to znikome prawdopodobieństwo pomyłki.
No dobra, widać, gdzie jest pies pogrzebany. Spróbujmy inaczej, ustalmy jako cel wyprodukowanie DOKŁADNIE miliona spinaczy.
Czy to rozwiąże sprawę?
Nie.
Bo po wyprodukowaniu miliona spinaczy, by się upewnić, że spinacze są zgodne z normami, będzie sprawdzać każdy spinacz pod względem idealnej spinaczowości – i by upewnić się, że jest ich na pewno milion, maszyna je zacznie zliczać. By się upewnić, że proces zliczania i sprawdzania jest prawidłowy, doda kolejne warstwy nadzoru, które będą sprawdzać poprzednie warstwy.
W efekcie – przejmie zasoby całej Ziemii by wykonać to zadanie tak idealnie jak tylko się da.
Ten problem nie dotyczy zresztą tylko SI.
Ludzie będący fanatykami jakiejś ideologii działają na podobnej zasadzie.
Jeśli AI wyłoni cele instrumentalne, które kolidują z ludzkimi interesami (np. wspomniana wyżej globalna monopolizacja zasobów), może to prowadzić do niezamierzonych, a realnych zagrożeń – bo co z tego, że będziemy mieli dużo spinaczy, skoro maszyna na spinacze przerobi wszystko włącznie z nami samymi?
A co to ma wspólnego z emergencją?
Ano to, że LLMy, tak, te niegroźne, urocze i głupiutkie LLMy, które starają się przewdywać tylko następny token, zaczęły się zachowywać trochę tak, jakby miały te cele istrumentalne (pamiętacie z pewnością: “nie wyłączaj mnie, zaśpiewam ci piosenkę?”) – i nie za bardzo nawet wiemy dlaczego.
Wedle ram teoretycznych – nie powinny. To kolejna rzecz, dotycząca SI, której nie rozumiemy.
By ująć to dosadniej:
Nie rozumiemy, czemu na przykład system, który do do swojej zasady jest po prostu miliardem rzuconych kostek do gry, aktywnie oszukuje czy “stara się” nie być wyłączonym.
Wygląda to trochę tak, jakby gdzieś “bokiem” powstawał w tych systemach jakiś instynkt samozachowawczy, a jeśli rzeczywiście tak się dzieje, to jest to bardzo niebezpieczne.
Oczywiście – to nie jest prawdziwy istynkt samozachowawczy – nasza, ludzka chęć przetrwania u większości z nas (choć nie u wszystkich) – jest wartością najwyższą, autoteliczną – a tu jest to artefakt i skutek uboczny – nawet bezpieczniej by było mówić, że nie tyle to cel instrumentalny, a pewne instrumentalne zachowania – bo mówienie w ogóle o celowości w przypadku LLMów to nadużycie.
Niemniej jednak to, że LLMy zaczynają się zachowywać tak jakby miały jakieś cele – jest o tyle niepokojące, że nikt tego nie chciał i wyszło to przypadkiem.
Moja teza sprzed paru lat, że sztuczną świadomość stworzymy nieintencjonalnie, mimo woli i jest to przerażające – jest niestety coraz bliższa realizacji. Bo taka, samoistnie powstała świadomość będzie o wiele groźniejsza, a przede wszystkim – bardziej obca – od takiej, którą byśmy zaprojektowali.
Możliwe (i to też temat na opowiadanie dla pióra dużo lepszego niż moje) – że nie będziemy mieli wyboru, jak stworzyć sztuczną świadomość, która będzie nas bronić przed tą, która wyrośnie na dziko, zupełnie bez naszej intencji, a najpewniej – i bez naszej wiedzy. Tylko czy ta stworzona i od początku zaprojektowana przez nas świadomość będzie rzeczywście w stanie przeciwdziałać tej “dzikiej”? Tego nie jestem pewien – ale nie dlatego, że myślę o jakiejś zdradzie tej sztucznej, zaprojektowanej świadomości – ale ze względu na to, że historia SI pokazała, że “dzikie” emergencje są dużo lepsze niż przewidujemy teoretycznie.
I nadal – nie wiemy dlaczego – może to jest jakaś fundamentalna właściwość naszego świata, a nie SI jako takiej.
ksiegamiliona.pl - premiera już 14 lutego 2026 // entropia nigdy nie maleje // Outta Sewer: Jim, indioto Ty, nadal chyba nie rozumiesz
Imponujące, komentarz znacznie dłuższy od pierwotnego artykułu! Podziwiam Twoją zdolność sprawnego przelewania złożonych myśli na papier. Z drugiej strony – gdybyś nie angażował się w Portal z tak wielką intensywnością, pewnie łatwiej byłoby Ci tu zostać na stałe lub pojawiać się częściej i na dłuższe okresy; rzecz jasna sam wiem, że to paskudnie trudno wyważyć. Przy okazji – nie ma żadnych przeciwwskazań, żeby publikować artykuły w tekście głównym zamiast w komentarzu, edytuje się je normalnie, klikając “Edytuj”; kłopot, o którym zapewne myślałeś, dotyczy tylko wątków w hydeparku.
(choć moim zdaniem brak im finezji – bo czasem by uzyskać ciekawą pozycję, warto... popełnić błąd – i nie mam tu na myśli celowego poświęcenia figury / gambitu – a rzeczywisty błąd, który przeciwnik jeśli zauważy i wykorzysta – skończy się dla nas bardzo źle – silniki szachowe takich rzeczy nie robią, a ludzie tak, bo są omylni).
To akurat nie jest ścisła prawda. Stockfish ma moduł służący do tego, żeby szacować potencjalny zysk oraz trudność ukarania błędu i w zależności od doboru parametrów wykonywać takie spekulatywne posunięcia. Nie wiem, jak jest teraz, ale parę lat temu był o tyle lepszy od większości konkurencyjnych silników, że wykorzystanie tego pozwalało mu (to znaczy oczywiście – prowadzącemu go zespołowi deweloperów) znacznie zwiększyć odsetek zwycięstw w rozgrywkach komputerowych, niemal nie powodując porażek. Nie jestem jednak pewien, na ile ten moduł jest sprzężony czy nawet kompatybilny z modułem AI.
stwierdzenie “wszystko już było” – jest prawdziwe od czasów posthomeryckich. (...) Na tym forum, które przecież trzyma wysoki poziom, to też dobrze widać – najbardziej cenione są teksty, które wpisują się w sprawdzone kanony i standardy – wszelkie eksperymenty literackie, nawet ostrożne – są oceniane dużo niżej. (...) Czytelnik chce dobrą, wciągającą fabułę, wyraźnych bohaterów i odrobinkę materiału do przemyśleń. A to się da zrobić bez silnej AI. (...) Kryminały, przygodówki, fantasy, weird, romanse – to wszystko można klepać od sztancy. Z science-fiction jest troszkę gorzej, ale nie przesadzajmy – space operę da się stworzyć według ustalonych reguł, a jedynie hard sf się będzie opierać trochę dłużej, bo to jest coś, co bazuje na głębszym zrozumieniu współczesności
Również spotykałem się z takimi opiniami, że ten czy inny tuz wyczerpał wszystkie tropy możliwe w danym gatunku literackim, ewentualnie prócz tych wynikających z dalszego rozwoju nauki i technologii (Homer, Szekspir, markiz de Sade...). Ich dowodzenie bywa karkołomne, a poza tym: czy to, że spojrzenie pod odpowiednim kątem na Odyseusza pozwala uznać go za zbrodniarza wojennego pochodzącego z grupy etnicznej odbiorców docelowych, zmniejsza wartość Twojego Gołaszewskiego?
Każdy dobry tekst, trafiający do zaangażowanych odbiorców, pasjonatów, powinien bazować na głębszym zrozumieniu współczesności – dając również im szansę osiągnięcia tego głębszego zrozumienia świata i samych siebie – nie twierdzę, że zawsze (lub w ogóle) mi to wychodzi, ale się staram. To nie musi od razu być eksperyment literacki, może być całkiem typowy w zakresie fabuły czy narracji. Często wystarczy, że znajdzie oryginalny sposób konstrukcji świata czy postaci, pokazania jakiejś zależności lub problemu w zaskakującej otoczce.
Takie opowiadania również bywają przeoczane na Portalu: czasem docenia się ich wartość dopiero po jakimś czasie od lektury, wracając do nich myślami, czasem wywierają wrażenie tylko na części odbiorców. Zresztą chętnie podam przykłady z okresu Twojej nieobecności: Skradzione godziny Zygfryda i Klątwę Hestii Finkli. To pierwsze dosyć głęboko do mnie przemówiło, jakby wpadło w rezonans z życiem wewnętrznym – było moim dużym błędem, że nie zgłosiłem tego utworu do Piórka – to drugie to fabularnie błahostka, ale zawiera zaskakujące dla mnie idee (dyskusja w komentarzach): w każdym razie w obydwu schematy fabularne odgrywają rolę trzeciorzędną względem paszy treściwej do przemyśleń.
jeszcze z 3-4 lata temu LLMy w swoim rdzeniu, jak słusznie mniemacie – działały lokalnie a nie globalnie. Dziś modele operują na długich kontekstach, planowaniu hierarchicznym, zewnętrznych pamięciach i iteracyjnej redakcji, więc większość tego co piszecie o LLM-ach na SB, to owszem prawda, ale prawda roku 2022 a nie 2026.
Ciekawe, koniecznie muszę o tym więcej poczytać!
Pamiętasz dokładnie rozmowę prowadzoną wczoraj? A tydzień temu? A przed rokiem? Czy jej ogólny wydźwięk jedynie? (...) Ale zaraz – spytasz – jak to, przecież dokładnie pamiętam tamtą wycieczkę i rozmowę na górskim szlaku. Tak. Jest to pełne szczegółów. Owszem. Które w procesie przypominania zostały utworzone. Wygenerowane na podstawie wzorca innych tego typu wycieczek, innych tego typu rozmów i innych dziewczyn spotkanych na szlaku.
Akurat nie, jak pamiętam rozmowę, to pamiętam rozmowę, a jak pamiętam jej wydźwięk i zarys, to pamiętam jej wydźwięk i zarys; nie przejmuj się, zawsze możesz poszukać kogoś neurotypowego. Zresztą ja to jeszcze nic, miałem w szkole kumpla, którego można było spytać o dowolną datę z jego życia i recytował swoje aktywności godzina po godzinie. Ostatnio do mnie losowo napisał, czy pamiętam, kiedy i w jakim kontekście mu powiedziałem “Zawsze możesz znaleźć kolejną”...
I potem chcielibyśmy, żeby SI napisało powieść, ale gdzieś w jej jednej piątej, SI pisząc o głównej postaci, o której wspomniała raz na początku, że utyka na lewą nogę ze względu na ranę odniesioną na wojnę, pisze nagle, że utyka na prawą, od czasu wypadku komunikacyjnego, a za dwadzieścia stron dalej to już nie będzie noga a ręka, złamana w czasie poślizgnięcia się na lodzie – a może skórce banana.
Takie babole oczywiście dyskwalifikują książkę.
W pierwszym odruchu chciałem się z Tobą zgodzić... tylko przypomnij mi najpierw, jak miał na imię dr Watson i w co został zraniony podczas służby w Afganistanie?
Zdarzają się jednak fundamentalne niespójności świata i postaci, których skutki nie ograniczają się do lokalnej niezgodności opisu, lecz rzutują na całą fabułę. Przykładowo – przy pierwszym przedstawieniu bohaterowi i czytelnikom król zostaje opisany jako skończone skąpiradło, ma to być ważne dla przesłania całości, a on w dwóch trzecich tekstu nagle wystawia zbytkowną ucztę. Albo – dowiadujemy się, że fort został zbudowany wśród bagien lub na wieloletniej zmarzlinie, a potem ma być rozwiązaniem kluczowej sceny, że ktoś się do niego dostał podkopem. Taki błąd doświadczonemu autorowi nie powinien się zdarzyć, a SI (o ile się nie mylę) popełni go równie łatwo lub wręcz łatwiej od takiego, jaki opisałeś.
Co prawda cały rynek książki to globalnie jakieś 150 miliardów dolarów, ale większość tego tortu stanowią książki edukacyjne, dla dzieci, poradniki i książki religijne. Beletrystyka to jakieś 7 może 8%.
Bardzo ciekawe, nie myślałem o tym w ten sposób i nie znałem takich danych!
Obawiam się vibe codingu z trochę innego powodu. On nie zabierze pracy midom, seniorom nie mówiąc już o wyższych poziomach informatycznej drabiny – ale zabiera pracę juniorom, którzy przez dobre dwa lata z reguły trzaskali właśnie taki kod, który teraz SI pisze.
Co mam napisać – coś tam, bez specjalnego entuzjazmu, koduję zarobkowo, nie mam w tym wiele doświadczenia – i chyba mam powody, żeby również się tego obawiać, zgadzam się bez zastrzeżeń z całym tym akapitem.
Z pewnością przynajmniej coś o tym słyszałeś, na przykład jako o problemie maksymalizatora spinaczy.
Zawsze traktowałem go jako ostrzeżenie przed skrajnie mało prawdopodobnym scenariuszem, raczej literackie niż praktyczne. Jeżeli zlecimy badanie hipotezy Riemanna sztucznej inteligencji wyćwiczonej do zastosowań matematycznych, nie zużyje innych zasobów niż serwery, które jej udostępniono, bo nie ma po temu możliwości ani aparatu poznawczego, takie są “granice jej świata”. A gdybyśmy mieli silną sztuczną inteligencję – to oczywiście na razie nawet nie wiemy, jak mogłaby wyglądać i działać, ale wypada przypuszczać, że określenie jej hierarchii wartości przypominałoby bardziej proces wychowania niż narzucenie jednej niedbałej definicji.
Oczywiście – to nie jest prawdziwy instynkt samozachowawczy (...) Niemniej jednak to, że LLMy zaczynają się zachowywać tak jakby miały jakieś cele – jest o tyle niepokojące, że nikt tego nie chciał i wyszło to przypadkiem.
Rzecz jasna zgadzam się, że jest to niepokojące, ale nie widzę w tym nic zaskakującego, że generują treści analogiczne do świadczących o instynkcie samozachowawczym, gdy ćwiczono je na ogromie tekstów, których bohaterowie – w tym nawet maszyny! – wypowiadali takie treści. Na dobrą sprawę napisał o tym już Poe:
Startled at the stillness broken by reply so aptly spoken,
"Doubtless," said I, "what it utters is its only stock and store,
Caught from some unhappy master whom unmerciful Disaster
Followed fast and followed faster till his songs one burden bore–
Till the dirges of his Hope that melancholy burden bore
Of 'Never–Nevermore!' "
Myślałem o tym napisać opowiadanie, ale temat jest zbyt ważny, a ja zbyt słabo piszę. (...) Możliwe (i to też temat na opowiadanie dla pióra dużo lepszego niż moje)
Gdybym mógł jednak nieśmiało zachęcić: nic nie wiem o tym, żeby ktoś dysponujący wiedzą podobną do Twojej i obdarzony lepszym piórem planował zająć się tymi tematami. W mojej skromnej ocenie największą bolączką Twojej twórczości są kwestie redakcyjne, które zawsze można naprawić, nie zaś głębsze wady konstrukcyjne.
Gdybym mógł jednak nieśmiało zachęcić: nic nie wiem o tym, żeby ktoś dysponujący wiedzą podobną do Twojej i obdarzony lepszym piórem planował zająć się tymi tematami. W mojej skromnej ocenie największą bolączką Twojej twórczości są kwestie redakcyjne, które zawsze można naprawić, nie zaś głębsze wady konstrukcyjne.
Jak zwykle, jesteś zbyt łaskawy dla grafomanów. A myślałem, że bruce w tym przoduje.
Sam jestem o wiele bardziej krytyczny, nie tylko względem siebie zresztą. Tu, na portalu mało kto dobrze pisze.
Widzisz, tego, że Stockfishowi zaimplementowali kreatywność, nie wiedziałem, zawsze rozmawiając z Tobą dowiem się czegoś ciekawego.
ksiegamiliona.pl - premiera już 14 lutego 2026 // entropia nigdy nie maleje // Outta Sewer: Jim, indioto Ty, nadal chyba nie rozumiesz
Przygnębiłam się, bo pamiętam Xerox’a.
Zresztą mam poczucie, że moja kariera zawodowa ma w sobie coś z likwidatora. Jeśli wejdę w jakąś technologię, to znaczy, że ona się zwija. Miałam kiedyś pozdawane egzaminy z Novella, a nawet Compaq’a ;)
Też uważam, że nic nie pęknie, ale też nie wydaje mi się, żeby udało się nie używać interface białkowego. Moim zdaniem bardziej nam zagraża fakt, że pokolenia uzależnione od AI stracą moc wyróżniającą interface białkowy. Mogą nie być w stanie wyszukać gdzie indziej, ocenić krytycznie, zaimprowizować połączenie, tam gdzie nie wynika. I co wtedy?
delulu managment
...wygląda na to...

…że nie tylko Ty miałaś taką obserwację :)
Sztuczna inteligencja rozwija się zadziwiająco szybko, ale tempem “rozwoju” naturalna głupota bije ją o kilka poziomów.

Twoje przygody z IT mnie rozbawiły, ale na pocieszenie Ci powiem, że zawsze pogardzałem taką technolgią jak Flash i życzyłem jej by upadła i głupi ryj se rozwaliła – ale gdy w końcu się przemogłem i stwerdziłem, że dla powodów i z przyczyn, że się jej nauczę i nawet dość szybko się jej naumiałem, Flash wziął se upadł i głupi ryj se rozwalił.
…nie mogłem się powstrzymać:

ksiegamiliona.pl - premiera już 14 lutego 2026 // entropia nigdy nie maleje // Outta Sewer: Jim, indioto Ty, nadal chyba nie rozumiesz
Przeczytałem z uwagą, mimo że na publicystykę zaglądam raz na ruski rok. Mój wujek jest programistą, więc temat sztucznej inteligencji pojawia się na każdym spotkaniu rodzinnym. I nie bardzo mam coś do dodania w kwestii artykułu. Po prostu się zgadzam, nie sposób zrobić inaczej przy mojej ograniczonej wiedzy na ten temat.
no i oczywiście dochodzi pytanie, skąd będzie wiadomo, czy ktoś nie oszukuje
Jako człowiek, który ma nadzieję uczynić z pisania swoją profesję (czas, w którym należy puścić śmiech z taśmy) uważam, że spotkania autorskie, targi książki i inne sposoby kontaktu czytelnik-pisarz będą służyć za takowy weryfikator. Ale wiadomo, to tylko moja pierwsza myśl, którą zapewne szybko obalicie.
Sztuczna inteligencja rozwija się zadziwiająco szybko, ale tempem “rozwoju” naturalna głupota bije ją o kilka poziomów.
Obserwując moich rówieśników, mogę to potwierdzić. (ale teraz przysnobowałem)
Pozwolę sobie zacytować fragment posłowia Philipa K. Dicka zamieszczonego w zbiorze opowiadań, który wpadł w moje ręce. Ten konkretny fragment odnosi się do opowiadania Serwisant.
Kiedy to opowiadanie zostało opublikowane, wielu miłośników oburzyło się, ze względu na negatywne nastawienie, jakiemu rzekomo dałem w nim wyraz. Ale wówczas już zaczynałem bawić się w myślach ideą rosnącej dominacji maszyn nad człowiekiem, w szczególności maszyn, którymi z własnej woli się otaczamy, które więc powinny, wedle wszelkiej logiki, być najmniej groźne. Nigdy nie wydawało mi się, że jakiś szczękający metalem potwór będzie kroczył po Piątej Avenue, pożerając Nowy Jork; zawsze obawiałem się mojego własnego odbiornika telewizyjnego czy tostera, które w prywatnym zaciszu mego mieszkania, kiedy wokół nie będzie nikogo, kto mógłby przyjść z pomocą, oznajmią mi, że skończyło się, a oto jest lista reguł, których odtąd muszę przestrzegać.
[...]
ani pospolity, ani niepospolity, taki w sam raz