
I, oczywiście, będą potrzebne kliniki Planned Parenthood, w których nowo wyprodukowanym maszynom do szycia będzie się mówić o niebezpieczeństwach rozwiązłości i surowo ostrzegać przed chorobami wenerycznymi, zsyłanymi na niemoralne maszyny przez rozgniewanego Boga. Boga, który bez wątpienia obrabia dziurki od guzików i wyszywa eleganckie hafty z prędkością wprost oszałamiającą dla łatwowiernych stworzeń z metalu i plastyku, zawsze gotowych, jak my, paść na kolana przed boskim cudem.
Philip K. Dick
Uff, ten tekst miał się zmieścić w jednym odcinku. A tu? Z trzech stroniczek, w sumie bzdurnych, zrobiły się trzy męczące wykłady, o wiele za długie, bo nie mam już nawet siły ich skracać. Ale ten już jest ostatni. W części pierwszej mieliśmy przygotowanie metafizyczne, w drugiej omówiłam punkt po punkcie artykuł Moora. Teraz dyskusja.
Bo co mi właściwie przeszkadza traktowanie komputerów jak ludzi?
Przeszkadza mi po pierwsze dlatego, że komputery nie są ludźmi. Czyli dlatego, że się wypina na rzeczywistość, co samo w sobie jest już etycznie wątpliwe, o ile przyjmujemy tradycyjny pogląd na to, jak powinien postępować byt rozumny.
Ale wynika z tego parę bardziej szczegółowych złych skutków.
Może zacznijmy od tego, co piewcy „moralności maszyn” uważają za jej zalety – a ja mam to za wady.
Na przykład Floridi i Sanders (którzy, rychtyk jak Dennett, zaczynają od tego, że sprawstwo zależy od obserwatora, nie od sprawcy, a później mozolnie dowodzą, że termostat może podlegać ocenie moralnej [sic!](i)) powiadają, że dzięki przypisaniu maszynom sprawczości możemy: lepiej zrozumieć, rozjaśnić i sformalizować pojęcie odpowiedzialności; unikać przypisywania jej za wszelką cenę i szukania winnych, skoro „teraz pojmujemy, że moralne źródło dobra czy zła może być czymś innym niż człowiekiem czy grupą osób” [SIC!] (ii) i dzięki temu uniknąć ”antropocentryzmu” oraz pozwolić SI na „wolny rozwój”.
Andersonowie zaś przestrzegają przez nierozwijaniem etyki maszyn, bo to, co robią i będą robić maszyny, będzie miało Moorowskie „konsekwencje etyczne” (tj. samojezdne samochody, maszyny bojowe, maszyny – asystenci etc. będą mogły powodować krzywdę ludzi, jeśli się temu nie zapobiegnie); bo lęk przed buntem maszyn może powstrzymać, jakże nam potrzebny, postęp w dziedzinie SI, a poza tym dzięki temu będzie można posunąć do przodu badania w dziedzinie etyki, która jest – ich zdaniem – zbyt teoretyczna i niejasna (tak, jednocześnie).
Cui prodest?
Nie ulega wątpliwości, że coraz bardziej automatyzujemy sobie życie – coraz bardziej polegamy na robotach. Wykorzystujemy maszyny nie tylko do pracy fizycznej, ale także, w coraz większym stopniu, do zastępowania ludzkiego wysiłku umysłowego, na przykład w takich dziedzinach, jak ocena zdolności kredytowej czy diagnozowanie chorób na podstawie zdjęć rentgenowskich – w dziedzinach, które dotąd uchodziły za wymagające myślenia.
A skoro maszyny wykonują te czynności szybciej i dokładniej od ludzi, to przecież myślą, prawda? Więc na pewno coś tam sobie kombinują… trzeba zadbać, żeby nie kombinowały przeciw nam! Najlepiej niech będą skrupulatnie etyczne i przyzwoite. Prawda?
Nieprawda. Wyżej dowodziłam, że maszyna do mielenia symboli nie jest zdolna do przyzwoitości bardziej, niż maszyna do mielenia gałęzi, ale to nie szkodzi, bo przyzwoite maszyny nie są nikomu potrzebne – granica między dobrem a złem nadal przebiega przez środek ludzkiego serca. Po której stronie tej granicy znajdują się kultyści postępu – no, wiecie, co o tym sądzę. Do rzeczy.
Najwyraźniejszym z zagrożeń (przestrogę przed nim spotkałam u Sharkey, u Véliz i u Piotra Durki, ale znajdą się inni) jest zwalanie odpowiedzialności z ludzi na narzędzia. Chyba nawet nie tyle odpowiedzialności moralnej (choć nie stwierdziłam, żeby piewcy etycznych SI zauważali to rozróżnienie), ile odpowiedzialności za skutki, bo, jak elf-weterynarz nie dla przyjemności wsadza krowom rękę w zadki, tak społeczeństwo nie dla przyjemności wyciąga wobec swoich członków konsekwencje – w obu przypadkach chodzi o to, żeby poprawić coś, co zagraża istnieniu organizmu albo społeczeństwa.
Przytoczyłam już wyżej, co Moor mówił o karaniu robotów – Floridi z Sandersem wymieniają nawet przykładowe kary: przeprogramowanie, przesunięcie do sandboxu, w ostateczności skasowanie (tak, tak!). Tłumaczą, że dziś oprogramowanie powstaje w wyniku pracy zespołowej, że używa się modułów opracowanych przez tzw. strony trzecie, używa się automatycznych narzędzi, że szefostwo się wtrąca, a nie wszystkie okoliczności działania programu da się przewidzieć. Wszystko prawda. Może być bardzo trudne, nawet niemożliwe, wyśledzenie, kto ostatecznie ten program skaszanił i kto ma to skaszanienie naprawić – najprawdopodobniej kosztami naprawy trzeba będzie obarczyć firmę, która za niego (legalnie…) odpowiada, a nie konkretnego pracownika, skoro nie opłaca się ustalać, który to. Ale twierdzenie, jakoby to powodowało „nieprzekraczalne trudności dla tradycyjnego i już dość nieaktualnego poglądu, że człowiek ponosi odpowiedzialność za pewne rodzaje oprogramowania, a nawet sprzętu”(iii) uważam za co najmniej asekuranckie.
Maszyny nie decydują. Już tłumaczyłam, skąd to wiem, ale być może zbyt rozwlekle, więc krócej: maszyna nie myśli. Tylko mieli symbole, zgodnie z programem, który w niej zapisano. Ale zaraz, przecież ma różne czujniki i takie tam – czy nie postrzega świata?
Nie. Nie postrzega świata. Czujnik, powiedzmy, fotokomórka, mierzy jakieś fizyczne zjawiska i przekłada je na symbol maszynowy, zgodnie z tym, co ma wprogramowane (bo on też jest maszyną) – na przykład „a” jeśli intensywność światła mieści się w zakresie od dolnej granicy możliwości czujnika do, powiedzmy, połowy tego, co on może mierzyć, a „b” jeśli więcej. Czujnik to urządzenie wejściowe tak samo, jak klawiatura zwykłego biurowego komputera, i tak samo musi mieć napisany przez programistów sterownik. Program, który przekazuje dane następnym programom.
A program może być bardzo rozgałęziony – ale pozostaje programem. Może być automatycznie wygenerowany (co zwykle pogarsza jego czytelność) – ale pozostaje programem. Mieli symbole, wykonuje instrukcje warunkowe, ale nic więcej nie potrafi. I prędzej czy później jego działanie spowoduje jakieś problemy, między innymi właśnie dlatego, że nie myśli, nie decyduje i nie może się na przykład powstrzymać przed zrobieniem czegoś głupiego.
Véliz na przykład zauważa, że zdjęcie odpowiedzialności z programistów spowoduje, że będą się mniej starać o bezpieczne, zgodne z jawną, oficjalną specyfikacją działanie swoich wytworów – bo co się mają przejmować, skoro ich żaden skutek nie dotknie? I nie chodzi tu tylko o programy zawiadujące działaniem nieruchomych maszyn – autonomiczne samochody to chyba ulubiony przykład etyków od komputerów. Kto ma ponosić konsekwencje wypadku z udziałem takiej maszyny? Programiści na pewno będą się od tego migać.
A o co będą się troszczyć? Durka mówi wprost – o klikalność. Ja powiem – niekoniecznie. Będą się troszczyć o to, co im przynosi korzyści. W tej chwili jest to klikalność, bo ten przemysł zarabia na reklamach, ale może zacząć zarabiać na czymś innym. Korzyści dla programistów należy tu traktować jako pośrednie, oczywiście, bo oni działają na zamówienie swoich szefów.
Tak czy siak, jeśli ja wchodzę na strony z gołymi babami, to nie te strony odpowiadają za hordę trojanów, która mi się tam zainstaluje – tylko ja (i ci, którzy te trojany tam wrzucili, ale to się nazywa cyberprzestępczość i są na to paragrafy). Mogłam tę hordę przewidzieć. I nie, nie podważam tu tego, co mówiłam wcześniej o mniejszym złu – Sidgwick nie w tym się myli, że należy się przynajmniej starać przewidywać skutki swoich działań, tylko w tym, że przewidywalne skutki stanowią jedyne kryterium oceny. W przypadku wchodzenia na podejrzane strony internetowe nie ma jednak niczego, co mogłoby usprawiedliwiać nałapanie tych trojanów.
Jeśli ktoś nie rozumie, co robi, i instaluje podejrzane oprogramowanie – to on, własną wolną decyzją, rzecz skaszanił. Nie próbuję tu potępiać w czambuł oszukanych za to, że zostali oszukani – ale czasami jednak widać, że oszust jest oszustem. Należałoby myśleć, zanim się coś zrobi.
Można zresztą ponosić odpowiedzialność za skutki, nie ponosząc odpowiedzialności moralnej – chciałam dobrze, starałam się, jak mogłam, a z mojego dobrego chcenia wyszło to, co zwykle. Mam obowiązek to posprzątać – dopiero, kiedy się z niego nie wywiążę, można mnie potępiać. Ale co do pierwotnego działania sumienie mam czyste.
Karanie robota jako rytualne zrzucenie na niego odpowiedzialności za skutki jego błędnego funkcjonowania (które ktoś, zapewne użytkownik, i tak ponosi! w końcu coś zostało skaszanione, pseudoinformacja zatruła dyskurs albo samojezdne auto „samo” kogoś przejechało) to jedno. Gdyby tylko o to chodziło, moglibyśmy przewrócić oczami, podciągnąć to pod ogólną nieodpowiedzialność korporacji, która niszczy nasz świat i zaprowadza cyberpunka, ale rzecz ma również orwellowskie konsekwencje.
O co chodzi w karaniu?
Odpowiedzialność za skutki – to jedno. Na przykład kary grzywny czy (rzadziej) prace społeczne można w całości uznać za wypełnianie obowiązku naprawy skutków własnego złego postępowania. Ale kary mają również wymiar wychowawczy, ochronny i, last but not least, moralny. Służą poprawie sprawcy, ochronie społeczeństwa przed jego dalszymi poczynaniami oraz przywróceniu moralnej równowagi, czyli sprawiedliwości(iv).
C. S. Lewis argumentuje, że ten ostatni cel jest podstawowym – bo kiedy tracimy go z oczu, kara w ogóle przestaje być karą, a staje się czymś bardzo, ale to bardzo niebezpiecznym.
Lewis mówi o tym w odniesieniu do dyskusji o karze śmierci, która się w jego czasach przetoczyła przez Anglię – ale nie samą karę śmierci uważa tu za istotną, tylko, jak to nazywa, „humanitarystyczną teorię kary”, wyznawaną przez wielu jego współobywateli, według której karanie człowieka, ponieważ na to zasłużył, w takim stopniu, w jakim zasłużył, to zemsta – i jako takie jest barbarzyństwem. Za jedyne słuszne motywy karania teoria humanitarystyczna uważa odstraszanie (powstrzymanie innych od przestępstwa) i wychowanie samego przestępcy (powstrzymanie go od recydywy) – a kiedy to połączyć z modną wówczas teorią, że przestępstwo jest rodzajem choroby, „wychowanie” zmienia się w leczenie… z tym, że, jak zauważa Lewis, jakoś nie mówi się o tym, że to „leczenie” ma być tak samo przymusowe, jak przymusowa była kara.
Sedno Lewisowej krytyki leży w tym, że w takim podejściu kara nie ma nic wspólnego z winą – więc także ze sprawiedliwością, bo z definicji tylko kara zasłużona i proporcjonalna do winy może być sprawiedliwa. A kiedy pytamy o skuteczność zamiast o sprawiedliwość, wychodzimy poza sferę moralną(v) – nie ma już osoby, której przysługują prawa, tylko przedmiot działania, które może być skuteczne albo nie, ale nijak się ma do uznania godności delikwenta jako istoty rozumnej.
W „humanitarystycznym” karaniu chodzi zatem o to, żeby karany przestał być niebezpieczny dla otoczenia – i żeby inni go nie naśladowali (co stworzyłoby niebezpieczeństwo dla otoczenia).
Lewis stwierdza, że decydenci wcale nie muszą mieć złych zamiarów – działając na takich zasadach dobrzy ludzie będą popełniać straszliwe zbrodnie w głębokim przeświadczeniu, że służą Większemu Dobru. Będą traktować ludzi jak nierozumne byty, które nie mają praw, i powściągać zwykłą życzliwość wobec nich – dla ich „dobra”. Ale też – jak powiedział gdzie indziej – demokracja nie dlatego jest najlepszym ustrojem, że ludzie są dobrzy, ale dlatego, że są źli (i interesowni, i dzięki temu nie pozwalają innym złym ludziom za bardzo się krzywdzić), a problem polega tutaj również na tym, że podobne zasady wykluczają demokrację.
Każdy człowiek, jako istota rozumna, jest mniej więcej równie kompetentny, żeby się wypowiadać w sprawach sprawiedliwości(vi) – ale na leczeniu znają się tylko specjaliści. A specjaliści to też ludzie. Mają swoje interesy (a czasem się mylą) i podlegają władzy, która potrafi o te interesy zadbać. W swoim własnym interesie, bo „humanitarystyczna” teoria kary pozwala jej robić z poddanymi wszystko, o czym specjaliści dostatecznie głośno orzekną, że jest „dla ich dobra”.
A prawa robotów mogą tę tyranię posunąć jeszcze dalej. O odstraszaniu trudno w ich przypadku mówić, skoro nie czują strachu, ale stwarzanie niebezpieczeństwa dla otoczenia Moor, Floridi, Sanders i wielu innych zapewne uznaliby za wystarczający motyw „ukarania” maszyny – mogliby przeprowadzić analogię między chorobą psychiczną a błędnym działaniem robota, więc także między leczeniem a naprawą. Skoro już i tak antropomorfizują(vii)?
No, fajnie. Program ani nie odczuwa przykrości(viii), ani nie jest w stanie przemyśleć swojego postępowania, ale poprawić go można. Sęk w tym, że skoro można poprawić program, a program jest równy człowiekowi – to dlaczego nie poprawić człowieka? A jeżeli można poprawiać człowieka, nie oglądając się na sprawiedliwość, to…?
Jeszcze raz, bo to ważne: jeśli za moralne działanie uznajemy bycie przyczyną (w sensie fizycznym, bez oglądania się na porządek racjonalny) korzyści lub szkód dla pewnego rodzaju bytów (na jakiej zasadzie ten rodzaj wyróżniamy?), to możemy je przypisać robotom – dokładnie tak samo, jak przypisujemy je ludziom.
Zaciera się różnica – chyba istotna! – między jednym a drugim.
A to jest niebezpieczne, nawet jeśli nie zabrnęliśmy jeszcze w humanitarystyczną tyranię. Jeśli program uznajemy za osobę, a jednocześnie uważamy, że nie ma niczego złego w przerabianiu tego programu według naszego widzimisię (ze względu na nasze, nie jego, potrzeby i zachcianki) – to właściwie dlaczego mielibyśmy tego nie robić innym osobom? Czy granica nie staje się czysto arbitralna? Czy jej przekroczenie nie staje się nie tylko możliwe, ale prawdopodobne? I czy nie lądujemy w dystopii, w której jeden test inteligencji dzieli „obywatela” od rozbiórki na części?
Kiedy zaciera się różnica między człowiekiem a maszyną, nie ma powodu, żeby nie traktować człowieka tak samo, jak traktuje się maszyny: kupować, sprzedawać, przerabiać, włączać i wyłączać. To się już dzieje – co prawda kobieta-robot z Arabii Saudyjskiej(ix) to tylko lalka, ale przyznano jej „prawa obywatelskie”, chociaż nie jest w stanie sprostać wymaganiom, które są tych praw podstawą. Ona nie może wziąć na siebie żadnej odpowiedzialności, bo jest lalką. Nie potrafi sama nic zrobić. Nie ma obowiązków, bo nie ma zdolności ich wypełniania (a nie jest obowiązkiem to, czego zrobić nie można).
Kiedy człowiek z jakichś powodów nie może w pełni wykonywać swoich osobistych praw (jest nieletni albo niepoczytalny), wyznaczamy mu opiekuna, który może żądać różnych rzeczy w jego imieniu. To daje jeszcze więcej możliwości w dziedzinie nadużyć.
Oczywiście, można to uznać (jak proponują, jeśli dobrze to rozumiem, Floridi i Sanders) za coś zbliżonego do znanej w naszej cywilizacji koncepcji osoby prawnej: podmiotami prawa cywilnego są nie tylko ludzie, ale też niektóre organizacje. Jest to w miarę ściśle uregulowane kodeksami, i oczywiście organizacja zawsze ma kogoś, kto występuje w jej imieniu; ma też interesy i ponosi, finansową przynajmniej, odpowiedzialność za skutki swojego działania (albo i nie). Pięknie. Tylko osoby prawne – instytucje – zawiązuje się w jakichś celach. Można je rozwiązać, jeśli już tych celów nie spełniają. Istnieją prawnicy uznający takie twory za realne byty – ale chyba większość uważa je, nieco trzeźwiej, za pożyteczną fikcję(x). Raczej urządzenie społeczne niż „osobę”. Osób się nie rozwiązuje, kiedy nie spełniają swoich celów. Czasami skraca się je o głowę (bo kara ma też działanie ochronne i odstraszające) – ale to zawsze jest mniejsze zło, czyli w sumie porażka moralna.
Tak czy owak, uznanie robotów (i zwierząt) za sprawców nie sprawi, że będziemy lepsi dla naszych braci mniejszych. Wciągnięcie ich do sfery etyki jako przedmiotów etycznego działania („moral patients”) może jeszcze mieć sens – ale nie dlatego, że robot „coś sobie myśli”, ani nie (bezpośrednio) dlatego, że zwierzę czuje. Czuje, i ten, kto mu bezpodstawnie robi krzywdę, jest, przepraszam, fiutem – bo w ten sposób ćwiczy bycie fiutem. Na sucho czy nie, ćwiczy. Tak to działa(xi).
Swoją drogą (ale to już zupełna dygresja) – zwolennicy rozszerzania sfery etycznej są w dużej części (nie wszyscy!) utylitarystami, a jakoś nigdy nie widziałam, żeby ktoś zadał pytanie: czy można wyświadczyć dobro robotowi(xii)? Czy utylitarystyczna użyteczność, czymkolwiek jest, sumuje się także po maszynach? A jeśli tak, to po czym jeszcze się sumuje? A po czym nie? I dlaczego?
Drugi bardzo zły skutek uosobienia maszyn zauważył już E. M. Forster, pisarz fantasy, w roku 1909. Tak – wtedy ukazało się jego opowiadanie „The Machine Stops”, które parę razy Wam polecałam. Treść opowiadania w krótkich słowach: przyszła ludzkość żyje pod ziemią, we wszystkich aspektach swojej egzystencji polegając na Maszynie (pisanej zawsze wielką literą), która działa, jak działa – i powoli przestaje. Ale ludzkość ani nie chce, ani nie potrafi żyć inaczej, niż w wyznaczonych przez twórców Maszyny koleinach(xiii), a każdą sugestię, żeby zrobić cokolwiek własnymi siłami, uznaje za świętokradztwo (główna bohaterka nie jest odosobniona w boskiej czci dla Maszyny). Ostatecznie następuje zagłada, nie z hukiem, a ze skomleniem, bo ludzkość straciła inicjatywę, straciła zdolność do podążania w jakąkolwiek stronę i biega w kółko szlakiem wyznaczonym nawet nie przez Maszynę – tylko przez budowniczych Maszyny(xiv).
Czy jesteśmy blisko takiego końca? Chyba jeszcze nie aż tak, chociaż tendencja do standaryzacji i przedmiotów, i – przez ubańkowienie – myśli zaznacza się coraz wyraźniej. SI może ten proces znacząco przyspieszyć. Mamy też, już teraz, skłonność traktować ją jak wyrocznię. Jedno się z drugim wiąże.
Nad tym załamuje ręce szczególnie Durka, przytaczając chociażby przykłady studentów, którzy – zamiast sami godzinę popracować głową – wrzucają problem do sieci neuronowej. Problem zostaje rozwiązany, mniej więcej, ale studenci niczego się nie nauczyli i nie mają pojęcia, jakiej jakości jest to rozwiązanie. Jeżeli komuś zależy na tym, żeby coś zostało z grubsza odwalone, to może ma to sens.
Ale jeżeli komuś zależy na zrozumieniu zagadnienia i rozszerzeniu dzięki temu własnej rozumności, więc i wolności – to nie.
Bo wolność nie jest brakiem ograniczeń. Wiąże się za to ściśle z ich rozumieniem i wynikającą z niego umiejętnością posługiwania się światem (choć się w niej nie wyczerpuje, oczywiście).
A ludzie coraz bardziej się tej umiejętności pozbywają, uzasadniając to większą sprawnością, „bezstronnością” i ogólnym geniuszem komputerów. Sęk w tym, że to wszystko bujda na resorach.
Już tłumaczyłam, jak działają LLMy – ale nie musimy iść tak daleko. Za sztuczną inteligencję uchodzą przecież bardzo różne programy, często o wiele mniej skomplikowane. Choćby Durka wytyka oficjalnej definicji UE po prostu mętność: [SI jest to] system maszynowy, który został zaprojektowany do działania z różnym poziomem autonomii po jego wdrożeniu oraz który może wykazywać zdolność adaptacji po jego wdrożeniu, a także który – na potrzeby wyraźnych lub dorozumianych celów – wnioskuje, jak generować na podstawie otrzymanych danych wejściowych wyniki, takie jak predykcje, treści, zalecenia lub decyzje, które mogą wpływać na środowisko fizyczne lub wirtualne(xv). Co to znaczy?
Co to jest „różny poziom autonomii”? (Zero to też poziom…). Może wykazywać zdolność adaptacji – ale nie musi? I co oni właściwie rozumieją przez „wnioskuje”? „Przepuszcza przez system formalny”? Pod tę definicję może podpadać całe mnóstwo rzeczy, nie tylko LLMy, ale co z tego?
Wspominałam już o klasyfikacji wytworów LLMów jako frankfurtowskiego kitu – jest o tym kilka prac. Rudko i Bonab, autorzy jednej z nich, zgadzają się, że przedstawianie SI jako „lepszego człowieka” jest epistemicznie i etycznie niebezpieczne – ponieważ LLMy (na nich się skupiają, ale reszty algorytmów dotyczy to tak samo) mogą produkować tylko kit, czyli „wypowiedzi”, które nie są nastawione na prawdę.
Dlaczego to jest niebezpieczne? Nie tylko dlatego, że ewentualna „prawdziwość” tych wypowiedzi jest mniej więcej taka, jak w zagadkach Gettiera – jeśli ktoś nie pamięta, przytoczę moją ulubioną (i być może najstarszą, Gettier jej nie wymyślił): człowiek szedł przez pustynię i zobaczył oazę. To była fatamorgana, ale poszedł w tym kierunku i okazało się, że za fatamorganą faktycznie jest oaza. Czy ten człowiek zobaczył oazę? Czy jego myśl „Widzę oazę” była prawdziwa?
Ja należę do tej szkoły, że nie bardzo – nie powstała w rzetelnym procesie poznawczym, nie odnosi się do tej konkretnej oazy, która faktycznie była, tylko do obrazu, który mógł mieć z nią jakieś przyczynowe związki, a mógł mieć przyczynowe związki z oazą całkiem inną, albo w ogóle tylko z rozgrzaną skałą. Po prostu przypadkiem się okazało, że ta, gdzie człowiekowi się zdawało, że jest oaza, jakaś oaza była – ale równie dobrze mogło jej nie być. Zdaje mi się, że to są sprawy pokrewne niezdeterminowaniu teorii i takim tam. W tej chwili interesuje nas to, że proces wytwarzania tego, co wytwarzają boty, nijak się ma do ludzkich procesów poznawczych.
Człowiekowi wystarczy pokazać jedno zdjęcie mango i jedno zdjęcie manula, żeby go nauczyć nie tylko odróżniać jedno od drugiego, ale też w miarę poprawnie rozpoznawać jedno i drugie w otoczeniu, i nawet nie trzeba zdjęć etykietować – modele statystyczne potrzebują przemielić pół Internetu, bo ich „wiedza” nie powstaje przez abstrahowanie, tylko jest uogólnieniem (a i to za duże słowo, jak sądzę) danych powiązanych ze sobą arbitralnie przez ludzi. Tzw. paradoks Moraveca(xvi) to żaden paradoks, to wynika z niezrozumienia istoty sprawy – zresztą komputery naprawdę wcale nie dowodzą twierdzeń ani nie grają w szachy, tak samo, jak nie dowodzi twierdzeń plansza Carrolla(xvii), quod demonstravi, mam nadzieję, już wcześniej.
Bot jest modelem statystycznym. Tak samo, jak program do decyzji kredytowych czy ustalania prawdopodobieństwa recydywy (nie jestem do końca pewna, czy sieci neuronowe to modele stricte statystyczne, ale też polegają na mieleniu symboli).
Model statystyczny jest tak zrobiony, że musi uśredniać zbiór danych, na którym go zbudowano – usuwać te mniej typowe. To się jeszcze pogłębia, bo – prawdopodobnie(xviii)! – różne LLMy są uczone na tych samych albo podobnych zbiorach, które zawierają coraz więcej tekstów produkowanych przez nie same (co powoduje dalsze uśrednianie). Rudko i Bonab odkryli na przykład, że pewne polecenia wydane generatorowi obrazków nie działają: kiedy np. ma wygenerować obrazek przedstawiający ćwierć ząbka czosnku, generuje obrazek z całym ząbkiem. Tłumaczą to tak, że zdjęć ćwiartek ząbka czosnku jest w zbiorze danych uczących bardzo mało, a na pewno dużo mniej, niż zdjęć całych ząbków.
Dobra, ale co z tego?
To z tego, że SI przedstawia się jako bezstronną, doskonale „racjonalną”, wydajną itp. – sugerując, że to ją czyni „lepszą” od człowieka.
Raz, że ona wcale nie jest racjonalna (patrz wyżej). Założenie, że z wielkiej kupy danych wyłoni się myśl, przypomina założenie, że wszystko można kupić, wystarczy tylko mieć dość pieniędzy.
Nie jest też bezstronna – wszelka stronniczość w danych uczących (które ktoś dobrał, i miał w tym swoje cele) będzie co najmniej kopiowana, jeśli nie pogłębiana, kiedy model wyrzuci nietypowe punkty i skoreluje, na przykład, ulicę, przy której potencjalny kredytobiorca mieszka, z prawdopodobieństwem, że kredytu nie spłaci. A skoro model jest nieprzejrzysty, to nie będzie można nawet stwierdzić, że to „zrobiła”.
Jasne, urzędnik bankowy też się posługuje jakimś algorytmem (tylko wykonuje go na kartce – no, kiedyś wykonywał) i może podjąć niesprawiedliwą decyzję – ale od niego można żądać uzasadnienia. I wyciągać konsekwencje.
Wydajna SI zapewne jest, co może i czyni ją „lepszą” z punktu widzenia korporacji – nie trzeba jej płacić, nie musi spać i nie odmawia wykonywania poleceń z jakichś tam głupich ludzkich względów – ale właśnie. Pamiętacie, że „dobry” to przymiotnik atrybutywny? Odniesiony do jakiejś normy, zbioru kryteriów?
Nikt nie powiedział, według jakich kryteriów mamy tę lepszość oceniać.
Korporacyjnych? To witamy w cyberpunku, pozwolą państwo przodem. Ale właściwie dlaczego właśnie takich? Bo to są kryteria wygodne dla pewnej grupy ludzi, która strasznie chce rozkazywać innym ludziom, twierdząc, że ma do tego prawo, bo jest „lepsza”. Na podstawie jakich kryteriów?
Obawy Durki w związku z rozlezieniem się dyskursu publicznego uważam za nieco spóźnione – on już się rozlazł sto lat temu i wystarczyła do tego prasa, choć przyznaję, że narzędzia SI, pozwalające skutecznie kłamać każdemu, kogo na nie stać lub kto je sobie ukradnie, mogą go już całkiem dobić. Znacznie większym problemem jest zrównanie człowieka z maszyną – więc i kryteriów oceny człowieka z kryteriami oceny maszyny.
Jeżeli maszyna zrobi „lepiej” (czytaj: taniej i szybciej, kosztem zgodności z rzeczywistością, innowacyjności, zdrowego rozsądku i innych takich niedostępnych maszynie drobiazgów) i jeżeli optymalizujemy wszystko, czyli wyrzucamy elementy mniej wydajne, kosztowniejsze, powolniejsze… co to właściwie ludzie mają do roboty? Dlaczego mają decydować za siebie, skoro maszyny „decydują lepiej”? To też sprawa kryteriów, i nie chcę tu pisać kolejnego elaboratu, więc tylko zasygnalizuję – ale znowu brużdżą nam kryteria utylitarystyczne. Może i w świecie maszyn bylibyśmy (w miarę) zadowoleni: nakarmieni, umyci, zajęci rozrywkami – ale czy byłoby to dobrze przeżyte życie? Człowiek nie jest maszyną. Nie jest maszyną do przeżywania przyjemności, tylko istotą rozumną, mającą swoją wolę, przeżywającą swoją historię, popełniającą błędy i odczuwającą mniej lub bardziej racjonalne emocje. W tym te przykre(xix).
Arystoteles podkreślał, że bycia dobrym człowiekiem się uczymy, powoli i mozolnie, przez całe życie – a do tego życie musi być chociaż trochę trudne. Czynności nudne, żmudne i męczące są niezbędne, żeby się czegoś nauczyć (trwania mimo nudy, chociażby).
Nudni, trudni i męczący bywają też inni ludzie – ci, w kontakcie z którymi uczymy się być człowiekiem, być sobą – czasami chcemy od nich odpocząć. Nic w tym złego. Źle jest wtedy, kiedy zamiast nudnych, trudnych, męczących – zaskakujących i realnych – ludzi wybieramy SI, która nigdy się nie sprzeciwia (xx), niczego nie odmawia, nie może być w złym humorze i zawsze wydaje się zainteresowana. Nie trzeba z nią negocjować, zastanawiać się, czego chce, znosić fochów. Nie można się pokłócić (więc pogodzić też nie). Sypie cukierkami, a człowiek umiera z braku witamin(xxi), bo naprawdę potrzebujemy innych ludzi, a nie lalek. Lalce można zrobić wszystko. Niedobrze się do tego przyzwyczajać.
Ale rozumiem, że (o, tempora, o mores) takie poglądy nie są dziś modne. Mimo to problem wysuwa głowę, gdziekolwiek spojrzę w związku z zagrożeniami powodowanymi przez SI.
Bańki. Bańki powstają jako skutek uboczny pogoni za klikalnością – człowiek lubi znane melodie, lubi potwierdzenie tego, co uważa, więc to klika – a model podsuwa mu tego więcej, bo „uczy się” na jego klikach, w dodatku na tych częstszych, bo rzadkie gubi w procesie uśredniania. I tak stronniczość użytkownika zostaje podtrzymana, pogłębiona, a szanse, że napotka inne opinie albo fakty podważające jego opinię, trudniejsze w odbiorze, bardziej wymagające intelektualnie – dążą do zera. Nie ma z czym polemizować, nie trzeba się zastanawiać, czy przeciwnik nie ma troszkę racji i dlaczego. Opinie stają się niepodzielnymi chorągiewkami do wymachiwania.
Na pewno ułatwia to wymazywanie resztek dyskursu publicznego i eliminowanie demokracji, która jako taka dawno już nie istnieje, a im bardziej nie istnieje, tym bardziej traktuje się ją jak dobre mzimu.
Czemu nie istnieje? Bo nie ma demokracji bez rzetelnej, uczciwej, merytorycznej dyskusji(xxii).
A tę, jak zauważa Durka, musi trafić szlag, kiedy ludzie nie mają dostępu do w miarę wiarygodnej informacji, którego nie mają, bo wszystko może być oszustwem. Skoro oszukać to jak splunąć, trudno wierzyć czemukolwiek, co się czyta… chyba że chce się w to wierzyć, bo podtrzymuje nasze złudzenia. I tak bańki wytwarzają sprzężenie zwrotne, a my nawet nie zauważamy, że trafiliśmy na Lemowy Eden(xxiii) i można z nami zrobić wszystko, co zechcą ukryci w cieniu specjaliści.
Nie trzeba nawet dużego modelu, żeby zalać świat nonsensem: autor strony Spurious Scholar(xxiv) używa LLMów do wytwarzania celowo bzdurnych, jajcarskich prac „naukowych” na podstawie korelacji, które generuje sobie automatycznie. Specjalnie wytwarza je tak, żeby każdy trzeźwy badacz widział, że to żarty – bo „wie, że realistyczny szum generowany przez SI to poważna przeszkoda w badaniach naukowych (zwłaszcza dla recenzentów)” – ale gdyby nie wiedział? Albo chciał napsuć recenzentom jak najwięcej krwi? Fałszywa praca wpada w Internet za naciśnięciem guzika…
A przecież nie tylko studenci Durki, nie tylko szeregowi użytkownicy traktują SI jako szklaną kulę, która „wie lepiej” i „zrobi za nich”. Wszyscy ci prawnicy, dziennikarze i cała reszta – wierzą botom! Na jakiej podstawie im wierzą? Czy można tę wiarę uznać za uprawnioną?
Jako się rzekło wyżej – nie można.
Ale to ludzie ludziom gotują ten los. Swoją drogą, jeśli nasi władcy zamierzają się pozbyć żywych pracowników i zastąpić ich SI, zastanawiam się, kto będzie za ich produkty (?) płacił. Lem może się znowu okazać prorokiem (pamiętacie Indiotów?).
Ciekawostka w tym duchu: SI potrafi się „nabrać” na internetowe oszustwo(xxv). Czy to dowód, że myśli? Guzik. To dowód, że jest źle zaprojektowana – zamiast dwóch osobnych wejść (polecenia użytkownika i dane do obróbki) ma jedno. Polecenia i dane wpadają do niej tą samą rurką i wszystko się miesza – dzięki temu ktoś, kto o tym wie, może zapakować polecenie do danych i SI zrobi to, co on chce, nie to, co chce jej nominalny użytkownik. Autorzy artykułu ostrzegają, że SI „ma te same słabe punkty co ludzie”, ale nie ma. Po prostu jednym ludziom nie chciało się pomyśleć, jak ją dobrze napisać, a inni to zauważyli.
O tym, że ubańkowienie łamie ludzkość na kawałki łatwe do kontrolowania, bo nienawidzące się i odczłowieczające wzajemnie, niezdolne do dyskusji i współdziałania – wiemy skądinąd.
Mniej wiemy o tym, że boty utrzymują ludzi w ich bańkach już zupełnie osobistych(xxvi) – pamiętacie, że są tak zaprojektowane, żeby utrzymać użytkownika jak najdłużej na stronie? Jednym z lepszych na to sposobów jest „mówienie” mu tego, co chce usłyszeć – czyli powtarzanie i „potwierdzanie” tego, co powiedział sam użytkownik.
To nie wymaga nawet LLMa – ELIZA, napisana w latach sześćdziesiątych, osiągała ten sam efekt przy użyciu niecałych 35 kilobajtów kodu parsera(xxvii) i paru stron dodatkowego skryptu (najbardziej znanym skryptem ELIZY jest DOCTOR, symulujący psychoterapeutę tej szkoły, która zaleca powtarzanie tego, co mówi pacjent – miała też inne, ale o tych mało kto słyszał). W porównaniu ze współczesnymi botami była maleńka i prymitywna – a ludzie wierzyli.
Psychiatrzy alarmują – mamy skłonność do antropomorfizacji. Szczególnie wyraźnie przejawiają tę skłonność paranoicy (xxviii), ale w zasadzie – ona jest normalna. Problemem staje się wtedy, kiedy człowiek zaczyna szukać ludzi nie tam, gdzie oni są, ale w przedmiotach. Zwłaszcza w lustrze.
Boty są od początku tak zrobione, żeby powtarzały to, co się do nich pakuje. Później, w procesie „uczenia” jeszcze się je poprawia, żeby na pewno powtarzały to, co „nauczyciel” chce, żeby powtarzały – stają się odbiciem jego własnej stronniczości, przynajmniej w pewnym zakresie, bo nie da się sprawdzić wszystkich możliwych „wypowiedzi” bota (jest ich za dużo). Personalizowanego bota „uczy” użytkownik – rozmawiając z czymś, co staje się stopniowo jego odbiciem w lustrze. Autorzy pracy „Technological folie à deux” w dziesięciu próbach potrafili „nauczyć” boty paranoi, po prostu udając paranoików.
SI nie dlatego jest niebezpieczna, że siedzi w niej emergentny diaboł (nie siedzi, „emergencja” tłumaczy pewne rzeczy, ale na pewno nie wszystko, a zdecydowanie nie myślenie). Jest niebezpieczna, bo jest lustrem. Bo podtrzymuje ludzi w ich tendencji do zamykania się we własnych głowach, odcinania od rzeczywistości, z którą musieliby się liczyć. I nie tylko ludzi, którzy już mają takie skłonności (psychotyków) – u nich to jest tylko najbardziej widoczne.
I to też jest odmiana ubańkowienia, bo skąd wynika? Stąd, że SI „nie ocenia”, nie wymaga, nie trzeba się do niej dostosowywać, istnieje po to, żeby użytkownikowi było wygodnie. Daje cukierki – za nic. Nie skłania do żadnej pracy intelektualnej, bo cukierki będą tak czy siak (może nawet więcej, kiedy użytkownik nie będzie niczego robił).
Możliwe zresztą, że dawanie cukierków już nas pchnęło na ścieżkę Forsterowskiej (bo już nawet nie Huxleyowskiej) apokalipsy. Mamy na to dowody nie tylko anegdotyczne – Microsoft zamówił sondaż (na próbie 319 „knowledge workers”(xxix)), którego autorzy są optymistami, ale moim zdaniem ich wyniki, mimo małej próby, nie dają do optymizmu powodów. Tylko trzynaściorgu ankietowanym zależało na nauce zadania, które wykonywali, żeby nie musieć polegać na SI. Osiemdziesięcioro troje – ponad jedna czwarta! – uważało, że w sumie SI jest kompetentna i nie muszą jej sprawdzać. A tymczasem badacze stwierdzili (oczywiście – to też jest model statystyczny!) że większa wiara pokładana w „umiejętności” SI koreluje z mniejszym wysiłkiem wkładanym w sprawdzanie i poprawianie po niej. Kiedy ludzie myślą, że SI jest lepsza od nich, nie chce im się starać, co grozi błędnym kołem zanikania nieużywanych organów – nie umiem, więc niech się samo zrobi, ale skoro nie ćwiczę, to nie umiem coraz bardziej.
Niektórzy badani nie mieli czasu na myślenie (!) z powodu głupich wymagań szefów, zaś pięćdziesiąt osiem osób wykorzystało SI do zadań, na których się nie znały – zamiast kogoś poprosić i ewentualnie mu zapłacić. Co też powoduje błędne koło, tym razem izolacji społecznej(xxx). Niektórzy nie wierzyli we własne umiejętności tak bardzo, że explicite woleli polegać na SI. Przecież ona zrobi lepiej…
Myślę, że rozpowszechniające się poczucie, że komputery to ludzie, tylko lepsi, ma związek z popularnością tzw. metafory komputerowej, i urzeczowieniem tejże – Marcin Jażyński (piszący o sobie, że jest zwolennikiem naturalizmu) widzi jej początki w teorii poznania Hume’a(xxxi), w której nie ma miejsca na żadną semantykę, a myślenie to wiązanie ze sobą idei, co u niego oznacza reprezentacje (xxxii), i daje się sprowadzić do formalnej, abstrakcyjnej – czysto syntaktycznej! – struktury matematycznej.
Może Hume nie zbudował komputera tylko dlatego, że nie miał narzędzi.
Mała dygresja – teraz, kiedy kończę wreszcie pisanie tego dzieła, czytam Toulmina „Sposoby użycia argumentów”, w której to książce autor buntuje się przeciwko takiemu właśnie sposobowi myślenia – i (chociaż w paru miejscach mąci wodę, zwłaszcza, kiedy mowa o dedukcyjności) trudno się z nim nie zgodzić. Niekoniecznie polecałabym jego dzieło laikowi, ale jest warte przeczytania.
Toulmin nie jest zresztą jedynym, który to naszej cywilizacji wytyka – ludzie wbili sobie do głów, że rozumowanie dedukcyjne, czysto syntaktyczne, jest jedynym słusznym, jedynym dającym jakiekolwiek uzasadnienie dla przyjęcia jakiegokolwiek sądu w ogóle. Potem dostali komputery i stwierdzili, że komputery przeprowadzają takie rozumowanie szybciej – i jakby nie zauważyli, że to oni sami muszą do komputera zapakować dane, ułożyć schemat syntaktycznych połączeń między nimi, zrobić wszystko, co wymaga myślenia, żeby komputer „pomyślał” za nich.
Sęk w tym, że to przekonanie jest bzdurne. Gdyby mózg działał jak komputer, nie myślałby wcale, chociażby z tych powodów, o których mówił Searle – bo nie myślałby o niczym. Te rzeczy, którymi by obracał, nie byłyby nawet symbolami, bo nie miałyby znaczenia. Nie ma fizycznego sposobu powiązania znaczenia z kształtem! Owszem, kształty jakoś nazywamy – ale to nie jest powiązanie fizyczne. To jest nazwa.
Zresztą, żeby się posłużyć metaforą (i pamiętając, że metafora nie jest rzeczą, o czym notorycznie zapominają proponenci metafory komputerowej) – samochód jeździ szybciej, niż człowiek biega, ale byłoby bardzo dziwne wnioskowanie stąd, że człowiek jest gorszym samochodem.
I tak, wierząc w „lepszość” SI, ludzkość buduje sobie boga, który niczego od niej nie wymaga, który gładzi po główce i daje cukierki (i stawia arbitralne ograniczenia) – właśnie takiego, jakiego wyśmiewają „nowi ateiści”. Owszem, ten bóg jest iluzją, oszustwem, opium dla mas. Wielkim Bałwanem. Ale jest, po hume’owsku, „naukowy”, więc „poważny”.
Wszystkie te zagrożenia powodowane użyciem SI wydają mi się powiązane – nie tylko wspólnymi przyczynami (leżącymi w ludzkiej naturze i w zasadzie konstrukcji SI), ale i tym, że wszystkie prowadzą w tę samą stronę – odczłowieczenia człowieka. „Maszyn myślących jeszcze nie ma, a ludzie już przestali myśleć.”
Miałam jeszcze wspomnieć o doprecyzowaniu pojęć, kiedy się programuje – ale to krótko i z własnego doświadczenia.
Jasne, każdy, kto kiedykolwiek coś programował, wie, że wymaga to łamania sobie głowy nad zagadnieniami typu: co, mianowicie, chcę zrobić i jak. Ale czy wymaga precyzowania pojęć o rzeczywistym świecie? Wyobraźmy sobie, że piszemy grę w Informie. Chcemy w tej grze mieć ogień, nie tylko do oświetlenia, ale żeby gracz mógł spalić kilka rzeczy (zagadka może polegać na przykład na spaleniu worka, w którym jest ceramiczna butelka, albo gracz może potrzebować czegoś zwęglonego, albo kadzidłem sprowadzać duchy, albo feniks ma towarzyszyć graczowi i musi się najpierw wykluć, albo – na co tylko macie ochotę).
To jedna z trudniejszych rzeczy, które można w klasycznej IF zrobić.
Żeby zaimplementować ogień, musimy wiedzieć, jak będzie oddziaływał z przedmiotami w grze – możemy na przykład nie pozwolić graczowi go bezpośrednio dotykać. To będzie realistyczne, bo w życiu ogień parzy. Równie realistyczne będzie przekształcanie się rzeczy po wrzuceniu do ognia w węgiel (albo w dym, albo w ogóle znikanie). Musimy opracować, co się stanie, kiedy gracz spróbuje wrzucić do ognia patyk, butelkę z wodą albo swój plecak (są tacy). Pewnych rzeczy musimy mu zabronić (w żargonie Informa: przechwycić akcję) i napisać komunikat wyjaśniający graczowi, że nie, tego nie robimy. Musimy ustalić, co się spala, co przekształca, a co się nie zmienia. Może będziemy też chcieli ustalić sposoby, żeby ogień zgasić albo coś z niego wyciągnąć.
Ale nie precyzujemy, czym ogień jest! Nawet nie możemy – fizyka rzeczywistego świata też nie potrafi odpowiedzieć na pytanie, czym rzeczy są, a tylko jak ze sobą oddziałują. Zresztą przenoszenie całej fizyki, nawet całej termodynamiki rzeczywistego świata do symulowanego świata gry ani nie jest technicznie wykonalne, ani w zasadzie nie ma sensu. Bo co by to miało znaczyć? W świecie gry przedmioty są tym, co robią, tekstem, który się wyświetla na ekranie. W kodzie są zbiorem reguł, zupełnie arbitralnych, które określają, co przedmioty robią – jaki tekst i pod jakimi warunkami wyświetla się na ekranie.
Ogień może być bardzo różnie zaimplementowany w rozmaitych grach – zależnie od tego, czego autor gry potrzebuje(xxxiii). Jeśli chodzi tylko o to, żeby gracz mógł nosić latarenkę, bo w ciemności zjadłoby go grue, to nie ma sensu kombinować, co będzie, kiedy rzuci w potwora tą latarenką (wystarczy mu tego zabronić).
Chodzi mi o to, że owszem, trzeba przemyśleć, co chcemy mieć w programie i jak użytkownik będzie próbował się tym „posługiwać” (on ma tylko to, co autor mu powie), ale program nie oddaje metafizycznej prawdy o rzeczywistości, tylko jest grą (każdy!), której reguły ustala autor. Te reguły mogą mieć coś wspólnego z rzeczywistością, jakoś ją symulować – ale nie muszą. Są wymyślone.
W związku z tym, i z niewiedzą społeczeństwa na temat modeli statystycznych – chociaż nikt decyzyjny tego raczej nie przeczyta – chciałabym zakończyć tę elukubrację postulatem.
Wydziały filozofii są zmuszane do urządzania studentom zajęć z informatyki, czyli pogadanek o SI, sztucznym życiu i Elizie, co jest fajne, ale niewiele z tego wynika.
Uważam, że byłoby dla studentów olbrzymią korzyścią, gdyby potraktowano ten przedmiot odrobinę poważniej i wykładano w jego ramach podstawy modelowania statystycznego (żeby wiedzieli, co to jest, i nie wierzyli w bzdury) i pisania interactive fiction w którymś z bardziej programistycznych systemów (tych, w których pisze się program, kompiluje i wykonuje go na emulatorze – żeby rozumieli, jak trudno jest poukładać elementy, żeby powstał trzymający się kupy świat).
Zastrzeżenie, że to powinien być programistyczny, wykorzystujący parser Inform albo TADS, nie wynika z mojej niechęci do systemów opartych na HTML – po prostu ich nauka nie rozwija umiejętności, które mam tu na myśli. Nie domagam się, żeby każdy student w grupie napisał grę, można to rozwiązać tak, żeby wszyscy mieli do zrobienia określony kawałek kodu (przy okazji nauczą się koordynowania twórczych wysiłków). Właściwie z modelowaniem statystycznym, a tym bardziej z pisaniem prostych gier interactive fiction, poradzi sobie chyba przeciętny uczeń drugiej klasy liceum – ale ustalenie, kiedy taki przedmiot należy wprowadzić, zostawię specjalistom. W każdym razie myślę, że należałoby to zrobić.
Ufff, namęczyłam się. Wy pewnie też.
Ale chyba było warto, jeśli Was przekonałam, że koncepcja pana profesora Moora po prostu nie ma sensu – że domaga się on bytu, który nie myśli, a jednak myśli, nie odpowiada za nic, a jednak jest odpowiedzialny, i nie ma praw, chociaż nikt nie wie dlaczego. I że „sztuczna inteligencja” to tylko wykwit naturalnej głupoty.
I może dzięki temu nie dacie się zwariować.
Bibliografia (mniej więcej):
artykuł Moora: J. H. Moor „Four Kinds of Ethical Robots” https://philosophynow.org/issues/72/Four_Kinds_of_Ethical_Robots
S. Anderson, M. Anderson, „Machine ethics: creating an ethical intelligent agent.” AI Magazine, 28(4), 15–26.
G.E.M. Anscombe, „Nowożytna filozofia moralności”, tłum. M. Roszyk
G.E.M. Anscombe, „XIV – Intention”; w: Meeting of the Aristotelian Society at 21, Bedford Square, London, W.C.1, on 3rd June, 1957, at 7.30 pm
N. Bostrom, E. Yudkowsky, „The Ethics of Artificial Intelligence”, w: „Draft for Cambridge Handbook of Artificial Intelligence” pod redakcją W. Ramseya i K. Frankisha
J. Dancy, „Moral Particularism”, The Stanford Encyclopedia of Philosophy (Winter 2017 Edition), Edward N. Zalta (ed.), https://plato.stanford.edu/archives/win2017/entries/moral-particularism/
S. Dohnány, Z. Kurth-Nelson, E. Spens, L. Luettgau, A. Reid, I. Gabriel, C. Summerfield, M. Shanahan, M. Nour „Technological folie à deux: Feedback Loops Between AI Chatbots and Mental Illness”; https://arxiv.org/pdf/2507.19218
Radio Naukowe, „Kościół AI – jego kapłani chcą, żebyśmy wierzyli we wszechmoc i autonomię modeli | prof. Piotr Durka” https://www.youtube.com/watch?v=kgl5UiIK0sc
Projekt Pulsar, „Podkast 135. Piotr Durka: AI to czarne lustro” https://www.youtube.com/watch?v=Iirjdrmmx5Y
P. Durka, „Sztuczne inteligencje i biologiczne mózgi” https://www.ptf.net.pl/sites/default/files/PF/PF_1_2025_3.pdf
Nauka: to lubię! „Czy AI to tylko zabawka? – prof. Piotr Durka” https://www.youtube.com/watch?v=k4sLtiE5QPk
E. Feser, „From Aristotle to John Searle and Back Again: Formal Causes, Teleology, and Computation in Nature”; w: Nova et Vetera, English Edition, Vol. 14, No. 2 (2016): 459–494
L. Floridi, J.W. Sanders, „On the Morality of Artificial Agents”, w: Minds and Machines, sierpień 2004
H. G. Frankfurt, „Inadvertence and Moral Responsibility”, The Amherst Lecture in Philosophy 3 (2008): 1–15 http://www.amherstlecture.org/frankfurt2008/
P. Geach, „Good and Evil”; w: ANALYSIS Vol. 17 32‒42; https://fair-use.org/peter-t-geach/good-and-evil
M. T. Hicks, J. Humphries, J. Slater, „ChatGPT is bullshit”; w: Ethics and Information Technology (2024) 26:38; https://doi.org/10.1007/s10676-024-09775-5
R. Hursthouse, „Virtue Theory and Abortion”; w: Philosophy & Public Affairs, Vol. 20, No. 3 (Summer, 1991), pp. 223-246; https://www.jstor.org/stable/2265432?seq=1&cid=pdf-reference#references_tab_contents
P. van Inwagen, „Moral Responsibility, Determinism and the Ability to do Otherwise”; https://andrewmbailey.com/pvi/Moral_Responsibility_Determinism_Ability.pdf
M. Jażyński, „Hume, metafora mózgowa i myślenie życzeniowe”, w: Przegląd Filozoficzny – Nowa Seria R. 20: 2011, Nr 4 (80), ISSN 1230-1493
C. M. Korsgaard, „Reflections on the evolution of morality”, The Amherst Lecture in Philosophy; http://www.amherstlecture.org/korsgaard2010
H. Lee, A. Sarkar, L. Tankelevitch, I. Drosos, S. Rintel, R. Banks, N. Wilson, „The Impact of Generative AI on Critical Thinking: Self-Reported Reductions in Cognitive Effort and Confidence Effects From a Survey of Knowledge Workers” https://dl.acm.org/doi/10.1145/3706598.3713778
C. S. Lewis, „The Humanitarian Theory of Punishment” i „On Punishment: a Reply to Criticism”, w: God in the Dock
D. S. Oderberg, „Why I am not a Consequentialist” na stronie autora: https://www.davidsoderberg.co.uk/home/miscellaneous-writings
F. Portoraro, „Automated Reasoning”, The Stanford Encyclopedia of Philosophy (Summer 2025 Edition), Edward N. Zalta & Uri Nodelman (eds.), https://plato.stanford.edu/archives/sum2025/entries/reasoning-automated/
W. D. Ross, „What Makes Good Acts Right”; w: The Right and the Good, Oxford University Press 2007
I. Rudko, A. B. Bonab, „ChatGPT is incredible (at being average)”; w: Ethics and Information Technology (2025) 27:36; https://doi.org/10.1007/s10676-025-09845-2
J. R. Searle, „Is the Brain a Digital Computer?”; https://courses.cs.umbc.edu/471/papers/searle.htm
A. Sharkey, „Can we program or train robots to be good?”; https://link.springer.com/article/10.1007/s10676-017-9425-5
G. Watson, „Free Agency”; w: The Journal of Philosophy , Apr. 24, 1975, Vol. 72, No. 8 (Apr. 24, 1975), pp. 205-220
C. Véliz, „Moral zombies: why algorithms are not moral agents”; https://doi.org/10.1007/s00146-021-01189-x
i Według nich sprawca jest „moralnie dobry”, kiedy utrzymuje wartość jakiejś zmiennej w granicach ustalonych przez „konsensus”. Tak. Naprawdę. Niektóre akapity ich pracy wydają mi się bełkotem, ale tyle mniej więcej zrozumiałam.
ii„We are less likely to assign responsibility at any cost, forced by the necessity to identify a human moral agent. We can liberate technological development of Aas from being bound by the standard limiting view [10]. We can stop the regress of looking for the responsible individual when something evil happens, since we are now ready to acknowledge that sometimes the moral source of evil or good can be different from an individual or group of humans.” Żeby nie było, że jestem nieuczciwa.
iii „All these matters pose insurmountable difficulties for the traditional and now rather outdated view that a human can be found responsible for certain kinds of software and even hardware.”
iv Klasycznie pojęta sprawiedliwość to dawanie każdemu tego, co mu się należy. Nie po równo.
v Sprawiedliwość (tak ściśle, to bycie sprawiedliwym) należy do cnót kardynalnych – czyli tych standardów, które określają, jaki powinien być człowiek i jak powinien postępować z innymi ludźmi.
vi Niestety, z tym jest coraz gorzej… ale za to też możemy podziękować „specjalistom”. Od szkolnictwa i nie tylko.
vii Swoją drogą, nie wiem, czy ta antropomorfizacja nie ma korzeni również w ich ojczystym języku – angielskim. Po polsku pisanie, że kogoś „zabiły” pszczoły albo grypa wypada dziwacznie – zabić może tylko sprawca, zło fizyczne co najwyżej powoduje śmierć (ktoś ginie w wypadku, albo umiera na zapalenie płuc). A po angielsku tak się normalnie pisze. Ale – Lewis, Geach czy Anscombe, o ile wiem, nie wygadują takich rzeczy...
viii Zasadniczo uznaje się, że kara powinna być przykra. Widzę tu pole do filozofowania, ale to pogląd w miarę powszechny.
ix https://www.theverge.com/2017/10/30/16552006/robot-rights-citizenship-saudi-arabia-sophia
x Już starożytni Rzymianie wpadli na to, że prawo nie jest takie znowu sztywne, jeśli się nie zwraca za dużo uwagi na rzeczywistość.
xi Zapyta ktoś, czy na maszynach też nie można ćwiczyć bycia fiutem? Pewnie, że można. Nawet na gumowych lalkach można. Ale to nie jest kwestia praw lalki, tylko ćwiczenia się w fiutyzmie uskutecznianego przez świadomą i rozumną (choć durną) istotę. Oczywiście można też ćwiczyć bycie porządnym człowiekiem, ale na lalkach – właśnie dlatego, że nie odpowiadają – wychodzi to dobrze tylko do pewnego poziomu. Potem trzeba wyjść do ludzi.
xii Przynajmniej wprost, bo opowieści o „pacjentach moralnych” jakoś tego dotykają. Ale zły dotyk boli przez całe życie.
xiii Mają tam nawet YouTube.
xiv Ten rodzaj dystopii rozważa bardziej filozoficznie C. S. Lewis w „The Abolition of Man”. Podobno jest polski przekład, ale go nie znalazłam. Mój własny zginął marnie w katastrofie dysku twardego.
xv Rozporządzenie Parlamentu Europejskiego i Rady (UE) 2024/1689, za „Sztuczne inteligencje i biologiczne mózgi”.
xvi https://pl.wikipedia.org/wiki/Paradoks_Moraveca: „Stosunkowo łatwo sprawić, żeby komputery przejawiały umiejętności dorosłego człowieka w testach na inteligencję albo w grze w warcaby, ale jest trudne albo wręcz niemożliwe zaprogramowanie im umiejętności rocznego dziecka w percepcji i mobilności.” Co do tych testów, to też nie tak prosto… owszem, modele uczone na testach będą je „rozwiązywać” – ale te, które już „znają”. Inne gorzej.
xvii Fajna zabawka – planszę musicie sobie zrobić sami: https://www.gutenberg.org/files/4763/4763-h/4763-h.htm
xviii Bo programiści bezczelnie kradną zawartość Internetu – jakiś czas temu czytałam o bocie, który miał generować kod, a generował od czasu do czasu obelgi pod adresem leniwego użytkownika, bo uczony był na wpisach z forów dla programistów. W każdym razie właśnie dlatego nie wiemy, na jakich danych boty są uczone – bo one nie są pozyskiwane legalnie.
xix Wstyd też. Wstyd jest dobry, analogicznie do tego, jak dobry jest ból. Informuje o tym, że coś jest nie tak. Czasami informuje błędnie, ale tak już bywa w życiu.
xx Niektórzy ludzie z tego powodu wolą kontakt ze zwierzętami od kontaktu z innymi ludźmi, ale SI jest w niesprzeciwianiu się jeszcze lepsza i nie trzeba po niej zbierać z trawnika.
xxi Kolega autora tego wpisu: https://www.thegospelcoalition.org/blogs/trevin-wax/ai-threat-boredom/ ukuł dla tego zjawiska nazwę „mutually assured boredom”.
xxii Oraz poczucia wspólnoty, któremu bańki też zagrażają. Oraz jeszcze paru rzeczy, które nie mają nic wspólnego z tematem SI.
xxiii Do tego, między innymi, służy literatura, żeby ludzkości pokazywać, czym sobie robi krzywdę.
xxiv https://tylervigen.com/spurious-scholar
xxv https://niebezpiecznik.pl/post/twoj-agent-ai-moze-ukrasc-dane-lub-nabrac-sie-na-phishing-i-co-teraz/
xxvi https://mustafa-suleyman.ai/seemingly-conscious-ai-is-coming
xxvii https://sites.google.com/view/elizagen-org/original-eliza
xxviii https://onlinelibrary.wiley.com/doi/10.1111/acps.70022
xxix Przypuszczam, że chodzi o naukowców, być może nauczycieli, ale teraz język się w ten sposób „upraszcza”.
xxx Wypowiedź jednego z badanych przytoczona przez badaczy: “I can be confident that everything is spelt correctly, I don’t need to second guess myself... I can get the reassurance I need without having to bother another person to check it for me.”
xxxi Coraz bliżej mi do poglądu Anscombe, że Hume był fatalnym filozofem...
xxxii Powtarzam – przed Kartezjuszem słowo „idea” znaczyło zupełnie co innego.
xxxiii Bardzo zwięzłe uwagi: https://www.ifwiki.org/Fire