
„Encyclopaedia Galactica” definiuje robota jako: „mechaniczne urządzenie, stworzone do ujmowania człowiekowi pracy”. Dział sprzedaży Cybernetycznej Korporacji Syriusza określa robota jako „plastikowego przyjaciela, z którym przyjemnie przebywać”.
„Autostopem przez Galaktykę” nazywa dział sprzedaży Cybernetycznej Korporacji Syriusza „sforą bezmózgich palantów, którzy pierwsi pójdą pod ścianę, gdy nadejdzie rewolucja”, dodając odnośniki, że redakcję ucieszy każde podanie o pracę na etacie korespondenta do spraw problemów związanych z robotami.
Douglas Adams
Mam nadzieję, że wszyscy odpoczęli po części pierwszej, pełnej ciężkiej, zawiesistej metafizyki, i są gotowi na coś lżejszego (ze stopów magnezu). Teraz więc zajmiemy się tym, co napisał Moor i dlaczego to jest bez sensu. W następnym odcinku będzie trochę ode mnie.
Artykuł zaczyna się króciutkim, za to entuzjastycznym wstępem. Potem mamy klasyfikację, która zajmuje resztę pierwszej strony, na stronie drugiej następuje obowiązkowa wzmianka o robotach w filmach i o Asimovie (moim zdaniem wyjaśniająca niemało, jeśli chodzi o motywy stojące za tego typu pomysłami), potem kilka pochwał własnej koncepcji, unik ze szkoły Dennetta (nie do przyjęcia) i krótka lista zarzutów, które autor zbywa machnięciem ręki.
Wstęp, poza tym, że stawia tezę, że roboty będą kiedyś działały etycznie, na podstawie rozumowania moralnego, przynajmniej w pewnych okolicznościach (hmm…) służy głównie zapewnieniu, że autor w to wierzy. Chyba szczerze. Zaznacza też, że „roboty” obejmują u niego i hardware, i software, co wydaje mi się zbędnym zastrzeżeniem – program bez komputera, który go wykonuje, jest poza porządkiem przyczynowym, a sprzęt bez oprogramowania to tylko duży, horrendalnie drogi przycisk do papieru(i). Dalej będzie mowa raczej o oprogramowaniu, niezależnie od tego, czy maszyna, która je wykonuje, może się ruszać, czy nie.
To załatwiwszy, Moor dzieli sprawców moralnych na cztery kategorie (czy może raczej wyróżnia cztery poziomy sprawstwa, które się – chyba – nabudowują jeden na drugim(ii)):
„ethical impact agents” (można kombinować z tłumaczeniem, ale po co, skoro możemy takiego robota nazwać, na przykład, NS-2): sprawcy, których działanie ma „skutki etyczne”
„implicit ethical agents” (nazwiemy ich sobie QT-1): sprawcy, którzy mają wbudowane „automatyczne reakcje etyczne”
„explicit ethical agents” (RB-34): sprawcy działający „na podstawie”, a nie „według” zasad etyki, czyli zdolni do rozumowania moralnego(iii) i wydawania sądów
„full ethical agents” (Stephen Byerley): sprawcy zdolni do rozumowania moralnego, którzy przy okazji są świadomi, działają celowo(iv) i mają wolną wolę – tutaj należą ludzie.
Na jakim kryterium opiera się ten podział? Na pierwszy rzut oka wygląda to tak, jakby kolejne, hmm, podzbiory? obejmowały po prostu byty coraz bardziej złożone, czy zaawansowane, czy jak to nazwać.
To już wskazuje na założenie materialistyczne – pamiętacie, że w poprzedniej części nie omówiłam materializmu? To zaraz przyjdzie na to pora.
Ale najpierw: kiedy można mówić o skutkach „etycznych”? To nie jest ugruntowane pojęcie – co ono w ogóle znaczy?
Otóż Moor definiuje skutki etyczne jako szkody lub korzyści przysporzone ludziom. Wszystkie. Zamierzone i niezamierzone – co niekoniecznie musiałoby oznaczać, że przysporzyciel nie ma zdolności zamierzania czegokolwiek… ale Moor podaje dwa przykłady, które wskazują na to, że nie ma: „nawet zegarek elektroniczny można uznać za NS-2, jeżeli jego skutkiem (sic!) jest wspomożenie punktualności właściciela(v)” i „zastosowanie robotów jako dżokejów w wyścigach wielbłądów w Katarze ma etyczny skutek – zmniejsza potrzebę wykorzystywania do tego dzieci(vi)”
Trzecim przykładem Moora jest „nieetyczny” NS-2, czyli program z pluskwą milenijną(vii).
No, fajnie. Primo: utylitaryzm pełną gębą. Z całym dobrodziejstwem inwentarza, od braku sprecyzowanego podmiotu począwszy. Secundo, wprowadzając nagle dwie podkategorie, z których jedna nazywa się tak samo, jak ich nadzbiór, Moor mąci wodę – bo czy w konkretnym zdaniu o „etycznych” NS-2 ma na myśli wszystkie, czy tylko te, których praca akurat daje nam korzyści?
Dobra, ale po kolei. Przez dwa i pół tysiąca lat zachodniej myśli etycznej wszyscy wychodzili z założenia, że najpierw musi być sprawca, a potem dopiero można mówić o czynie i ten czyn oceniać. Jasne, mnóstwo rzeczy się po prostu dzieje, bez sprawcy, siłami natury, i te rzeczy mają skutki, i niektórzy filozofowie nazywali te skutki złem fizycznym, jeżeli były dla ludzi niekorzystne czy nawet nieprzyjemne – ale właśnie.
Czy jest sens biczować ocean, bo stoi na drodze? Pozywać do sądu słońce, bo nas oparzyło? Jakiś czas temu radio okropnie lamentowało nad facetem, który skatował kota za karę, ponieważ kot mu zjadł jakąś wędlinę. Wydaje mi się, że z tym facetem jest coś nie tak nie tylko emocjonalnie (zdecydowanie przesadził w reakcji), ale intelektualnie. Kot kartezjański nie myśli i nie ma celów – nie decyduje i nie jest sprawcą, tak samo, jak nie jest sprawcą ocean czy słońce. Kot arystotelesowski cele ma, ale zbywa mu na zdolności rozumowania. Żaden z nich nie czyni niczego, bo czyny są domeną sprawców. Nie można przypisać kotu odpowiedzialności.
W związku z tym trzeba być cokolwiek oderwanym od rzeczywistości, żeby kota karać(viii).
Karze się bowiem tylko świadomego sprawcę, którego najpierw się o coś oskarżyło (przypisało mu odpowiedzialność za konkretny czyn – o tym jeszcze powiemy, na razie niech wystarczy, że odpowiedzialność i wyciąganie konsekwencji to nie to samo). Kara może mieć sens jako wyrównanie szalek wagi Maat(ix) albo jako nauka na przyszłość – ale kot nie jest istotą rozumną, zdolną do wnioskowania z faktu, że została ukarana. Można go ewentualnie wytresować (czemu zdecydowanie nie sprzyja robienie mu trwałej krzywdy), ale nie można mu dać do myślenia. Sił przyrody, jak ocean, słońce, grawitacja i tak dalej, nawet tresować nie można.
Dalej. Zegarek, robo-dżokej i program to narzędzia. Oceniamy je według tego, czy dobrze służą do wykonywania zadań, do których wykonywania mają służyć, bo służenie do czegoś stanowi sens narzędzi – jest w tym pewna norma, ale to nie jest norma etyczna.
Bo przecież – narzędzia służą do czegoś ludziom. Zegarek nie jest przyczyną tego, że właściciel punktualnie przyjeżdża na spotkanie! Owszem, gdyby nie miał zegarka w ogóle, albo gdyby zegarek działał źle, prawdopodobnie byłoby z tym krucho, ale sam fakt posiadania zegarka nie pociąga za sobą punktualnego przyjazdu. I pociąga jej nieobecność różnych przeszkód, które mogłyby po drodze właściciela spotkać (np. mógłby utkwić w korku). Właściciel przyjeżdża na czas, o ile nic mu po drodze nie przeszkodziło, ponieważ tak postanowił. Posłużył się zegarkiem i samochodem, żeby wykonać swoją decyzję. Źródłem działania jest jego postanowienie, jako istoty rozumnej i odpowiedzialnej (działającej). Nie to, że jest właścicielem zegarka. Mógłby sprawdzić godzinę na telefonie albo na wieży Dworca Głównego, albo kogoś zapytać. I wyszłoby na to samo.
Żeby było jasne – zegarek nie jest nawet nakierowany na punktualność (właściciela), a tylko na pokazywanie czasu poprawnie. To jest sens istnienia zegarka. A co z tą informacją zrobi jego właściciel, to już zależy wyłącznie od wolnej decyzji właściciela.
Czy to znaczy, że nie możemy się usprawiedliwiać ze spóźnienia twierdzeniem, że zegarek stanął? Czasami możemy. Jeśli nie mieliśmy innej możliwości sprawdzenia, która godzina, a latamy cały dzień jak kot z pęcherzem, to owszem, może się zdarzyć, że naprawdę spóźniliśmy się nie z własnej winy. Ale zwalanie odpowiedzialności za nasze własne lenistwo i olewactwo na zegarek? Czy pan, panie Moor, wstydu nie ma?
Wracając do utylitaryzmu: wyraźnie widać, że Moor nazywa zegarek „etycznym” zasadniczo dlatego, że jest użyteczny. Tak samo robo-dżokeja (choć o jego użyteczności można dyskutować). A program z błędem jest „nieetyczny”, bo jego działanie powoduje szkody, czyli jest antyużyteczne.
Co mam do tej teorii etyki, już tłumaczyłam. Teraz zastosujmy to do robotów (hipotetycznie, oczywiście).
Wyobraźmy sobie robota bojowego. Został zbudowany i zaprogramowany do przynoszenia szkód pewnej grupie ludzi (zakładamy w tej chwili, że zawsze potrafi „rozpoznać” którzy to są, i nie zajmujemy się konkretną naturą tych szkód, bo nie musimy). Ale szkody przyniesione tym ludziom są korzyściami dla twórców robota (inaczej nie byłoby sensu go budować i używać).
Czy robot bojowy jest NS-2? Według definicji Moora tak, bo przynosi ludziom szkody i korzyści – ale czy jest robotem „etycznym”, czy „nieetycznym”? To najwyraźniej zależy od punktu widzenia… I od przypadku. Bo sytuacja na polu walki zmienia się cały czas, a rakieta wystrzelona we wroga może niechcący trafić swoich. Wykonuje ten sam program, który wykonywał, kiedy trafił wroga – zmieniły się tylko okoliczności. Czy robot – pechowiec moralny jest „nieetyczny”?
A teraz powiedzmy, że robot się zepsuł i już nie rozpoznaje, komu ma przynosić szkody – zaczyna je przynosić swoim. Stał się nieetyczny? Ale jeśli „próbuje”, cokolwiek miałoby to znaczyć (Moor nie próbuje robotom przypisywać dążeń, przynajmniej w tym artykule) przynieść szkodę swoim, a „niechcący” przyniesie ją wrogom? Co mamy zrobić z takim robotem?
Tak nawiasem, roboty usuwające „potrzebę” pracy dzieci w jednym kraju wywołują taką potrzebę w innym, bo kto wydobywa cały ten kobalt? Czy warunki pracy nieletniego górnika nie są cięższe od warunków pracy dżokeja? A więc – istnienie i funkcjonowanie robota może powodować skutki korzystne i niekorzystne dla ludzi jednocześnie, kiedy weźmiemy pod uwagę nie tylko tych ludzi, których akurat widzimy. Czyli nie zawsze możemy ocenić, czy NS-2 jest „etyczny” i nie zależy to tak całkiem od jego funkcjonowania (poprawnego lub nie – bo to najwyższy poziom, na którym można je oceniać), bo także od okoliczności i od decyzji, które podjął niedbały pracownik fabryki, niekompetentny inżynier albo głupi polityk. Nie robot! Robot działa zgodnie z programem, a nie podejmuje decyzje – kanał Raduni nie zdecydował, że będzie biegł akurat tak, lodówka nie może nagle zmienić zdania i zacząć grzać zamiast chłodzić, a wiatrak wybucha nie dlatego, że się zbiesił, tylko dlatego, że łopata miała wadę albo w silniku była usterka. Winny może być człowiek, ale nie wiatrak. Owszem, w angielszczyźnie tak się mówi, ale to jest metafora – jak widać, myląca.
Mówiąc krótko: jeżeli NS-2 to każdy byt, którego funkcjonowanie przysparza ludziom korzyści albo szkód, niezależnie od innych kryteriów, to NS-2 może być dosłownie wszystko. A w takim razie rozróżnienie na NS-2 i nie-NS-2 jest bezużyteczne. Analogicznie Searle zauważa, że każdy wystarczająco złożony układ fizycznych elementów możemy traktować jak komputer – czyli interpretować zachodzące w nim procesy, na przykład ruchy cieplne, jako obliczeniowe – ale to sprawia, że rozróżnienie na komputery i niekomputery jest metafizycznie bezużyteczne. Owszem, pewne układy lepiej się nadają do używania w roli komputerów, ale o tym, jak ich używamy, decydujemy my. Bycie komputerem to bycie używanym jako taki, nie coś fizycznego ani metafizycznego.
Nie bardzo można też rozróżnić między NS-2 „etycznym”(x) a „nieetycznym”, bo większość rzeczy w przyrodzie czasem przynosi nam szkody, a czasem korzyści, a często niektórym to, a niektórym to (bo przynoszenie korzyści zależy od naszych potrzeb, oczekiwań i działań, a czasem także od przypadku). W związku z tym, jeśli chcemy nasze postępowanie wobec danego bytu uzależnić od tego, czy jest „etyczny” czy nie, to jesteśmy w kropce.
Jeśli natomiast ograniczymy kategorię NS-2 do narzędzi zbudowanych przez człowieka, albo nawet tylko do maszyn cyfrowych i programów – to narzędzia buduje się i używa ich w określonych celach, które to cele narzuca użytkownik (budowniczy nawet niekoniecznie, bo zawsze można wykombinować nowe zastosowanie dla istniejących przedmiotów), więc oceniać można tylko to, czy narzędzie służy tym celom tak, jak użytkownik chce.
Ale o projekcie Moor mówi explicite dopiero przy QT-1, które mają „wbudowane na etapie projektu względy etyczne”. Jako przykłady podaje system bezpieczeństwa w samolocie oraz, z sobie tylko znanych powodów, bankomat. Przykładem złego QT-1 jest spambot.
I znowu – wszystkie te układy są narzędziami, może trochę bardziej skomplikowanymi od elektronicznego zegarka, ale tak samo, jak zegarek zostały zaprojektowane, zbudowane i zaprogramowane w określonym celu – ten cel pochodzi od programistów. Niewątpliwie wyznacza jakąś normę działania: maszyna działa dobrze, kiedy wypełnia swój cel. Ale kiedy go nie wypełnia, czy możemy powiedzieć, że jest „nieetyczna”? Najwyraźniej nie, skoro nieetyczny jest poprawnie działający spambot. (Czy spambot, który zasypałby farmę trolli wywołaniami i zawiesił, ale tylko dlatego, że działa błędnie, byłby „etyczny”?)
Skoro tak, to etyczność robota nie pochodzi od wypełniania narzuconej przez programistę normy, tylko od celu, o który w tej normie chodzi: jeśli chodzi o korzyść dla ludzi, robot dobry; jeśli chodzi o to, żeby im (znowu – którym?) zaszkodzić, robot zły. Nie ma sprawy. Tyle, że w takim razie ocenie, jako sprawca, podlega programista, nie robot. Robot jest tylko narzędziem do celu, który wyznaczył programista. On sam nie ma wyboru. Robi to, do czego jest zaprogramowany.
Ot, choćby ten bankomat, o którym Moor pisze, że musi sprawdzać, ile jest pieniędzy na koncie i „ograniczać kwotę, którą można podjąć jednego dnia(xi)” – no, po pierwsze, to nie bankomat ogranicza tę kwotę, tylko użytkownik ustala z bankiem, czy i w jakiej wysokości chce sobie narzucić takie ograniczenie(xii). A po drugie, bankomat, który wydaje tyle, ile użytkownik wpisał, o ile ta kwota nie przekracza stanu konta, to po prostu prawidłowo działający, spełniający normy działania bankomatu – bankomat. Jak przytomnie zauważa Amanda Sharkey, tu nie ma decyzji etycznej w sensie, w jakim używają tego słowa wszyscy poza Moorem(xiii). Tu w ogóle nie ma decyzji. Nie ma wolnej woli ani zastanowienia, więc nie ma decyzji. Tu jest tylko poprawnie działające, czyli dobre, narzędzie. Decyzję podjął ten, kto jest zbudował, ten, kto go użył, i może ten, kto je utrzymuje w sprawności – ale nie ono samo (bo na razie, przypominam, jesteśmy na etapie automatów, które nie myślą).
QT-1 nie może zmieniać własnego projektu ani programu. Nie decyduje o niczym. Może się najwyżej zepsuć, a skoro oceniamy jego etyczność według celu, do którego został przewidziany, to będzie wtedy równie „etyczny”, jak był, chociaż przestanie przynosić korzyści, a może zacznie powodować szkody – jak to się ma do oceny według skutków, o której była mowa przy NS-2? Bo w takim razie doprawdy nie wiem, jakie kryterium Moor przyjmuje. W każdym razie o to też nie można mieć pretensji do robota.
Ale może robot mógłby zmieniać cele swojego funkcjonowania? Trudno powiedzieć, jak miałby to zrobić, gdyby nie był świadomy i zdolny do rozumnej decyzji: gdyby program został z góry ułożony tak, żeby w pewnych warunkach nadpisywał sam siebie – to i tak musiałby mieć wyznaczone, przynajmniej na poziomie reguł generujących ten kod, czym się nadpisze i kiedy, bo nie mógłby się nadpisać byle czym – żeby dalej działał, jego nowe części musiałyby pasować do starych, a żeby sam wymyślić, jak się przerobić, żeby działało, musiałby chyba jednak dysponować jakąś rozumnością (rozumieć, co robi). O ile samoprzerabianie w ogóle jest możliwe, naturalnie.
Tyle, że o tym na razie nie było mowy! Cały czas jesteśmy przy robotach, które wykazują „automatyczne reakcje etyczne” – tylko doszliśmy właśnie do miejsca, w którym widać, że ta fraza nie ma sensu.
Podsumowując: nie można w przypadku automatów mówić o etyczności, a najwyżej o bezpiecznej (idiotoodpornej) konstrukcji (programowaniu). Jasne, bezpieczna konstrukcja maszyn musi uwzględniać pewne normy – ale to nie są normy etyczne. Możemy i powinniśmy wymagać od konstruktorów staranności, uczciwości, rozwagi i zdolności przewidywania, i oceniać ich pod względem etycznym – bo konstruktorzy podejmują decyzje. Maszyny nie. Nie ma decyzji bez rozumowania (patrz część pierwsza).
I dlatego trzecia kategoria Moora, RB-34, jest pusta, bo wyznacza ją zdolność rozumowania, uzasadniania własnych decyzji i wydawania sądów (chyba wartościujących?) – ale bez świadomości, wolności i wyznaczania sobie celów. A my już wiemy, że nie ma rozumu bez wolności, nie ma decyzji (co dopiero uzasadniania!) bez rozumu i że te cechy są nierozdzielnie splątane.
Moor mówi o zdolności działania „na podstawie ogólnych zasad”(xiv) – czyli podpartego abstrakcyjnym rozumowaniem. Zatem pytanie numer jeden brzmiałoby: czy artefakt może być do takiego rozumowania zdolny? Mam nadzieję, że w części pierwszej jasno pokazałam, że to nieprawdopodobne, a najpewniej niemożliwe.
Mówi też o konflikcie reguł, który RB-34 miałby umieć rozwiązywać, co wskazuje na założenie, że etyka jest do reguł sprowadzalna. Jak już napisałam w pierwszej części, przypuszczam, że wątpię. W tę sprowadzalność. Moor zresztą nie rozważa tego w jakichś szczegółach, spekuluje tylko troszkę o tym, jak komputer mógłby się stać do tego zdolny, a właściwie wymienia możliwości: dostatecznie rozbudowany program (to już, mam nadzieję, załatwiłam – wykonanie instrukcji warunkowej nie jest podejmowaniem decyzji), uczenie maszynowe albo może algorytmy genetyczne (to też, o ile wiem, uczenie maszynowe). I podsumowuje to tak, że maszyny może kiedyś będą zdolne do rozumienia etyki. No, cóż. Wątpię.
Podsumujmy:
NS-2: kategoria obejmuje wszystko – to, czy jakiś byt przynosi swoim funkcjonowaniem szkody, czy korzyści, zależy od jego relacji z tym, komu ma te szkody i korzyści przynosić, a wszystko jest w jakiejś relacji ze wszystkim;
QT-1: odpowiedzialność wymaga rozumu, a rozum musi być wolny – „automatyczne reakcje etyczne” to nonsens;
RB-34: rozumowanie nie polega na nieświadomym mieleniu symboli;
Stephen Byerley: był człowiekiem.
Jak w każdej dyskusji o czasie trzeba zacytować świętego Augustyna, tak w każdej dyskusji o etyce robotów trzeba zacytować Trzy Prawa Asimova, czego i Moor nie zaniedbał. Oto więc:
Po pierwsze, robot nie może wyrządzić krzywdy człowiekowi ani przez brak reakcji dopuścić, aby człowiekowi stała się krzywda.
Po drugie, robot musi wykonać każdy rozkaz człowieka z wyjątkiem rozkazów kolidujących z Pierwszym Prawem.
I po trzecie, robot musi chronić swoją egzystencję, o ile nie jest to sprzeczne z Pierwszym i Drugim Prawem.(xv)
Asimov wymyślił je takimi, bo wydawało mu się sensowne, żeby roboty były projektowane jako bezpieczne, użyteczne i trwałe (Internety twierdzą, że nie był wielbicielem tysięcznych popłuczyn po Frankensteinie, ale nie podobały mu się też historie o biednych, uciemiężonych robotach – co w sumie też może być popłuczynami po Frankensteinie). A wymyśliwszy, radośnie wyciskał z nich, ile się dało, sprawdzając, co wyjdzie, kiedy te prawa obejść. Znalazł na to kilkadziesiąt sposobów.
Moor traktuje prawa Asimova raczej skrótowo, ale moim zdaniem – one dobrze ukazują istotę rzeczy. Dlatego pochylę się nad nimi.
Problem nie polega wcale na tym, jak chce Moor, że roboty mogłyby za bardzo się starać wykonywać Pierwsze Prawo i usuwać ludziom z drogi wszelkie ryzyko – to znaczy, gdyby to było możliwe, to owszem(xvi), ale to jest niemożliwe (bo roboty nie mogą się starać, skoro nie są odpowiedzialne, czyli nie są autorami swojego działania i nie mogą przyjmować postaw – staranie to postawa wobec własnego działania!). Problem polega na tym, że roboty w ogóle nie mogą działać zgodnie z takimi prawami.
W swojej zadziwiająco trzeźwej pracy Nick Bostrom i Eliezer Yudkowsky ujmują to tak: gdyby Asimov wymyślił niezawodne prawa, nie miałby o czym pisać.
A to o pisanie mu chodziło. Fikcyjne roboty są fikcyjne – autorom opowiadań i scenariuszy nie chodzi o to, żeby takiego robota zbudować, ani nawet nie twierdzą, że byłoby dobrze go zbudować. Opowiadanie nie jest opisem wynalazku dla biura patentowego – ma na celu zabawienie czytelnika i pokazanie jakiegoś problemu. To nie musi być problem, przed którym czytelnik w rzeczywistości stanie, ale przyjemnie i pouczająco jest śledzić, jak bohaterowie go rozwiązują.
I właśnie – nawet u Asimova nie udało mi się znaleźć mówiącego robota, który nie byłby postacią. Kilka mniej ludzkich robotów opisał Lem (w opowiadaniach o Pirxie, inne lemowskie roboty są zupełnie antropomorficzne, często po prostu dlatego, że tak jest śmieszniej(xvii)), chociaż i Setaur, i robot z Terminusa, i Aniel wykazują bardzo ludzkie odruchy, o Nieliniowcach nie wspominając. Jasne, bardzo trudno jest opisać w opowiadaniu postać, która nie zachowywałaby się ani trochę jak człowiek (nie wiem, czy to w ogóle możliwe – prawdopodobnie czytelnik sam usiłuje traktować postacie możliwie antropomorficznie) i nie sposób oczekiwać, nawet po geniuszach, że im się to zawsze uda.
Ale dlaczego autorzy w ogóle robią z robotów postacie? Czemu nie po prostu automaty? Może dlatego, że automaty jako takie nie są specjalnie interesujące (nawet jeśli tematem opowiadania są kwestie okołoluddystyczne, fabuła przeważnie będzie się skupiać na ludziach, a nie na maszynach, a jeśli sprawy typu „wyklęty, powstań, ludu ziemi”, to roboty będą maksymalnie uczłowieczone). Można antropomorfizować nawet Fiata-126p(xviii), ale trudno uzasadnić potrzebę robienia tego w świecie przedstawionym i pakowania SI do, powiedzmy, wind, jeśli nie piszemy akurat komedii (cześć, Douglasie Adams!). Tak samo nie opisujemy na kilkunastu stronach tramwaju, bo tramwaj jako taki mało kogo interesuje. Ludzie przeważnie lubią czytać o ludziach. Nie szkodzi, że metalowych(xix). Nawet opowiadanie o bazaltowej rybce, która miała piramidę bitej śmietany, najprawdopodobniej będzie traktowało rybkę antropomorficznie, ponieważ opowiadania są o ludziach, nawet kiedy nie są o ludziach.
Dlaczego prawa Asimova są niepraktyczne? Otóż dlatego, że wymagają od robota, żeby był człowiekiem.
Raz: nie są formalnymi regułami, które można po prostu wpisać w program. Wymagają interpretacji, i to całe mnóstwo. Co to jest „krzywda”? Jak sformalizować odróżnianie krzywdy od niekrzywdy? (Nijak – do tego potrzebny jest cały aparat metafizyczny z pierwszej części i jeszcze trochę). Asimov miał z tym kupę zabawy chociażby w „Nagim słońcu” (spoilers!). Tam też zauważył, że jeśli robot nie wie, że łamie któreś prawo, może je „złamać”. A jeśli mówimy o wiedzy, to mówimy nie o porządku przyczynowym, tylko racjonalnym. W takim razie popełniamy antropomorfizm – robot jest traktowany jako byt, który może cokolwiek wiedzieć, a rzeczywiste roboty nie mogą, patrz część pierwsza.
I uwaga – nie chodzi mi tu o interpretację w sensie formalno-logicznym (jeden z przeczytanych przeze mnie artykułów twierdzi, że wystarczy dołączyć jakąś zewnętrzną bazę danych i już będzie interpretacja, semantyka i wszystko – magia jakaś). Baza danych to za mało. Baza danych sama nie myśli, choćby była nie wiem, jaka duża, tak samo, jak sterta piasku wielkości gwiazdy nie stanie się gwiazdą tylko dlatego, że jest duża – żeby być gwiazdą, trzeba podlegać pewnym prawom fizyki, koło których piasek przelatuje obojętnie (nie jest to, oczywiście, doskonała analogia, ale chyba obrazowa). Żeby przestrzegać praw Asimova, jak wszystkich praw stanowionych zresztą, trzeba je rozumieć. Nie tylko wiedzieć, co to jest rozkaz (a czy „rozkaz” wydany przez kogoś nieuprawnionego się liczy? „Rozkaz” i „uprawnienie” to nie kategorie fizyczne, to urządzenia społeczne!) ale umieć przełożyć rozkaz na działanie. Konkretne działanie w świecie.
Czy da się zmechanizować rozumienie? Jak starałam się wykazać powyżej, wątpię.
Oczywiście, Asimov nie traktował swoich zasad jak praw fizyki, a najwyżej reguły projektowania (chociaż roboty są u niego z zasady zaprojektowane tak, żeby złamanie praw je niszczyło) – ale wielu jego naśladowców owszem.
Drugim problemem, na który zwraca uwagę np. Sharkey, jest utylitarystyczne zacięcie tego typu „etyki”, które, oprócz znanych problemów utylitaryzmu, powoduje jeszcze na przykład taki: jeśli robotowi nie wolno(xx) dopuścić, żeby człowiekowi stała się krzywda z przyczyny (nie z powodu!) jego zaniechania, to albo każdy robot łamie Pierwsze Prawo, bo każde zaniechanie może być jedną z szeroko rozumianych przyczyn czyjejś krzywdy; albo każdy robot zapętli się na resztę istnienia wszechświata, bo musi to przecież obliczyć (a nie zaznaczyliśmy, jak daleko w przyszłość ma sięgnąć). A znowu, gdyby rozsądnie ograniczyć prawa do określonej sytuacji, określonych ludzi i określonego przedziału czasowego, prędzej czy później musi się okazać, że czegoś nie przewidzieliśmy, ponieważ wszechświat jest duży, skomplikowany i nigdy się dokładnie nie stosuje do abstrakcyjnych reguł.
Moor najwidoczniej tego nie zauważa, kiedy proponuje, żeby oceniać postępowanie robotów „empirycznie”: przez porównywanie „decyzji” robota z decyzją człowieka (nie mówi, jakim kryterium mielibyśmy się posłużyć, zgadywałabym, że kryterium skutków, które – mam nadzieję – rozjechałam już na płasko), ale najlepiej (on tak mówi) „poprosić robota o uzasadnienie” tej „decyzji”, ponieważ (serio tak mówi) ludzie często się nie zgadzają w sprawach etyki. Jeżeli, pisze dalej, robot poda przekonujące uzasadnienia równie dobre albo lepsze od tych, które przedstawiają „dobrze decydujący ludzie”, to będziemy mieli indukcyjny dowód kompetencji robota w badanym obszarze(xxi).
Pomijając to, że któreś z nas nie rozumie, co to jest empiria oraz indukcja (i chyba jednak nie ja), i oczywiście to, że robot nie rozumuje, więc nie jest w stanie uzasadnić niczego, mamy tu dwa problemy.
Pierwszy: skoro ludzie się nie zgadzają w sprawach etyki, i to tych istotnych, na tyle, że różni mędrcy (bo tak się tradycyjnie nazywa „dobrze decydującego człowieka”) wygłaszają sprzeczne opinie – to właściwie z którym mędrcem mamy porównywać robota? Gdzie jest kryterium wyboru mędrca? Chyba musimy się zdecydować na jakąś teorię etyki i jakieś założenia… a skoro tak, to na co nam jeszcze mędrzec? Skoro robota oceniamy na podstawie jego (mędrca) opinii, ale oceniamy jego opinię na podstawie czegoś innego? Po co nam taki pośrednik?
Ale to kwestia filozoficzna, a istnieje jeszcze ważna kwestia praktyczna (w potocznym sensie), której dotąd nie poruszyłam.
Robot nierozumny nie jest w stanie podać uzasadnienia niczego, bo nie rozumuje. Robot rozumny (gdyby istniał) oczywiście byłby – nim się w tej chwili nie przejmujemy. Sęk w tym, że „przekonujące uzasadnienie” jest takie zawsze dla kogoś. Logika (i fakty) ma w przekonywaniu co prawda spory udział, ale nie wystarczy. Liczą się także ethos – zaufanie odbiorcy i pathos – odwołanie do jego uczuć (zwykle za pośrednictwem wyobraźni)(xxii). Nikt nie da się przekonać, jeśli nie chce się dać przekonać. Ale jeśli ktoś bardzo chce uznać jakieś twierdzenie, jego prawdziwość może się okazać mniej ważna od korzyści, które by się miało, gdyby to twierdzenie było prawdziwe(xxiii).
A tu już powstaje niebezpieczeństwo. I to poważne. Bierze się ono stąd, że populus vult decipitur. A korporacje lubią go decipuntur, ponieważ wtedy daje im te takie małe zielone papierki, które mocą urządzeń społecznych pozwalają szefom tych korporacji się wygrzewać na Bahamach(xxiv).
Po polsku i wprost: ludzie chcą, żeby tam ktoś był. Dlaczego? Co myślą, że dzięki temu osiągną? Nie wiem. Mam kilka pomysłów, ale nie wiem. To w tej chwili nieistotne – istotne jest to, że chcą. Nie jest to (chyba) racjonalne, ale właśnie o to mi chodzi. Chcenie nie musi być racjonalne w sensie, w którym dziś zwykle się to rozumie. W sensie tradycyjnym (w którym chcenie powinno być racjonalne, a nie zwrócone na zgubę chcącego)… no, może po prostu ześwirowaliśmy już doszczętnie.
Bo spójrzmy, jak człowieki podchodzą do tego, co się dziś nazywa „sztuczną inteligencją”. W tej chwili najbardziej „ludzkimi” – i tymi, z którymi przeciętny odbiorca z największym prawdopodobieństwem się zetknie – przedstawicielami tej kategorii są tzw. duże modele językowe. Duże modele językowe są zaprojektowane (przez ludzi) do imitowania wypowiedzi ludzi.
Fajnie, tylko imitacja nie jest rzeczą – jest czymś, co udaje rzecz. Mosiądz udaje złoto, czyli przypomina je wyglądem na tyle, że ludzie, kiedy nie przeprowadzą odpowiednich prób, błędnie rozpoznają złoto, kiedy faktycznie mają do czynienia z mosiądzem. Odbicie gwiazd w powierzchni stawu nie jest niebem, a tylko wygląda jak niebo. Herbatnik w wyrobie czekoladopodobnym (nadal można to kupić!) nie jest herbatnikiem w czekoladzie.
Imitacje oddziałują na zmysły mniej więcej tak, jak oryginały – ale nie mogą zająć ich miejsca w porządku przyczynowym. Model językowy jest imitacją ludzkiego umysłu, a właściwie tylko jego zdolności posługiwania się językiem. Na ile dobrą?
Mówiąc bezstronnie, nie za bardzo. Raz, że po prostu nie wiemy, jak działa umysł (wiemy trochę o tym, jak nie działa, patrz część pierwsza) i – nawet, gdyby jednak działał na zasadzie przesuwania żetonów – mało prawdopodobne, żebyśmy zmajstrowali dobrą kopię, skoro nie wiemy, co mamy skopiować (i jest duża szansa, że to w ogóle nie da się skopiować). Dwa, że wcale nam to niepotrzebne, bo „wypowiedzi” modeli językowych różnią się od wypowiedzi ludzi pewnymi istotnymi cechami.
Kiedy wypowiada się człowiek, ma w tym zwykle jakiś cel. Może nim być „upewnianie się nawzajem, że jeszcze żyjemy”, jak to ujął Pratchett, może być przekazanie drugiemu człowiekowi informacji (z domniemaniem jej prawdziwości!), wyrażenie własnych uczuć, skłonienie do czegoś, interakcja w ramach urządzeń społecznych – różni autorzy wymieniają ich więcej, czasem bardziej szczegółowo, ale sedno sprawy tkwi w tym, że ludzie mają jakieś swoje, wolnym wyborem ustalone cele, kiedy mówią(xxv).
Modele językowe mają tylko jeden, nadany im przez programistów cel – udawać ludzi. Robią to „na skróty”: zamiast się kierować znaczeniem i konotacjami wyrazów, jak ludzie, dobierają je według odległości w „przestrzeni słów”, którą wytwarzają w procesie tzw. uczenia (kolejny antropomorfizm).
Może nie każdy zna tę koncepcję(xxvi) – matematycznie rzecz biorąc, n-wymiarowa przestrzeń to po prostu zbiór punktów: uporządkowanych n-tek liczb. Możemy w niej określić tak zwaną metrykę: funkcję, która wciągnie jako parametry dwa punkty i wypluje jedną liczbę, nazywaną odległością między nimi. Kiedy tak zrobimy, możemy porównać odległość między zadanym punktem A i punktem B z odległością między A i C, czyli wybrać, który, B czy C, jest bliżej A.
A ponieważ operujemy na abstrakcjach, to nie musi mieć nic wspólnego z fizyczną przestrzenią – takie przestrzenie matematyczne mają zastosowanie w statystyce jako metoda znajdowania podobieństwa między zbiorami danych (punktami), klasyfikowania ich i tak dalej. Możemy na przykład potraktować jako wymiary zawartość witamin, jako punkty – różne produkty spożywcze – i za pomocą takiej przestrzeni, wielowymiarowego wykresu, który nie da się narysować, ale można go zapisać w komputerze, możemy podzielić produkty na bogate w witaminy rozpuszczalne w tłuszczach, ale nie w wodzie, na bogate w witaminy rozpuszczalne w wodzie, ale nie w tłuszczach, na bogate w jedne i drugie i na ogólnie ubogie w witaminy(xxvii).
W modelach językowych odległość między punktami (reprezentującymi słowa) ma coś wspólnego z częstością, z jaką te słowa występowały razem w tekstach, na których model uczono – ale, ponieważ proces uczenia przebiega tak, że kontrolujący go ludzie wzmacniają połączenia, kiedy im się one podobają, a osłabiają, kiedy nie – nie do końca wiemy co. Poza tym, chociaż wytwarzanie „wypowiedzi” polega na wykreślaniu ścieżki w przestrzeni, model może się czasami „teleportować”, przeskoczyć na losowy punkt – bo zbyt przewidywalny nie byłby wiarygodny. Jeżeli losowy punkt zapoczątkuje sekwencję słów zupełnie od czapy, użytkownik powie, że bot ma „halucynacje”.
I to w sumie tyle.
Jedynym celem działania modelu językowego jest produkowanie „wypowiedzi” udających wypowiedzi człowieka (co ma jeszcze dalsze cele, np. zatrzymanie użytkownika na stronie). Spełnia ten cel całkiem nieźle – nawet za nieźle, skoro ludzie, skądinąd poważni i uważający się za realistów, chętnie wierzą, że ktoś tam jest. Jak zauważają autorzy pracy „ChatGTP is Bullshit”, którą polecam Waszej uwadze, użycie terminów typu „halucynacje” czy „konfabulacje” podtrzymuje i wzmacnia tę iluzję. W końcu halucynować i zmyślać może to, co ma jakiś aparat zmysłów, który może działać błędnie, i rozum, który może mieć fałszywe przekonania lub złośliwe intencje. A „halucynacje” botów nie są wynikiem błędu funkcjonowania – prawidłowy proces wytwarzania przez bota tekstu przebiega tak, że czasem muszą się pojawiać. Nie ma w modelu żadnych przekonań, najwyżej zapis widzimisię nauczyciela (nabazgrany jak patykiem na piasku), i nie ma też intencji. Intencję oszukiwania mieli jego twórcy. Wszelkie podane przez niego „uzasadnienia” są tzw. frankfurtowskim kitem (bullshit). O tym jeszcze w części trzeciej.
Fakty są takie, że model językowy to maszynka do oszukiwania, ze wszystkimi tego następstwami praktycznymi i emocjonalnymi.
Ludzie wierzą w „wypowiedzi” chatbota, które – jeśli są prawdziwe – są prawdziwe czystym przypadkiem (nie celowo – może ktoś pamięta mrówkę Putnama?(xxviii) albo problemy Gettiera, te z uzasadnieniami nie od tego zdania?), a często nie są prawdziwe, i wtedy ta wiara prowadzi do skutków wielce uciesznych, dopóki nie dotykają nas(xxix). Owszem, próbowano korporacjom nakazać, żeby filtrowały to, co ich modele z siebie wypluwają – ale raz, to niemożliwe (nie da się stwierdzić, czy zdanie jest fałszywe, bez dostępu do faktu, który opisuje(xxx)), a dwa, korporacje nie mają w tym interesu. Taniej zapłacić parę grzywien, niż porzucić sztandarowy „produkt”(xxxi).
Ale, co gorsza, ludzie wierzą, że tam po drugiej stronie jest ktoś, z kim można się zaprzyjaźnić.
Człowiek ma rozmaite potrzeby, w tym – jako istota społeczna – potrzeby związane z byciem częścią społeczeństwa, które dla uproszczenia nazwę emocjonalnymi. Zaspokajanie tych potrzeb coś się ostatnio popsuło. Na podstawie danych literaturowych mogę to popsucie datować na koniec XIX wieku, mniej więcej, ale nie twierdzę, że to jest pewne, uniwersalne, czy cokolwiek w tym rodzaju. Ważne jest to, że coraz trudniej nam ze sobą żyć – a bez siebie żyć nie możemy.
Kiedy właściwy przedmiot potrzeby jest niedostępny, ludzie przeważnie szukają zamienników, i takim zamiennikiem zostały ostatnio chatboty. W zasadzie zostały nawet zamiennikiem zamiennika, bo jak inaczej nazwać to, że ludzie traktują bota jako terapeutę?(xxxii) „Rozmowa” z botem jest po prostu łatwa – bot nie ocenia (a coraz bardziej się tego boimy) i potwierdza to, co mu się mówi (jak RB-34 w opowiadaniu Asimova...(xxxiii)), byle użytkownika zatrzymać jak najdłużej. Trochę jak kokaina – minimum wysiłku, maksimum tego, co się wydaje korzyścią, a okazuje, no, korzyścią na pewno nie.
Znak czasów.
Znakiem czasów jest też, jak sądzę, usilne sprowadzanie wszystkiego do jednego wymiaru – Moor chwali roboty jako bardziej od ludzi bezstronne, ale o tym bliżej przy, ekhm, zarzutach.
Najpierw trzeba się uporać z koncepcją Daniela Dennetta, na którą Moor się radośnie powołuje – nie do końca rozumiem, dlaczego. W zasadzie powołuje się na Dennetta rozróżnienie „poziomów abstrakcji” z których można różne byty opisywać, i traktuje to dość skrótowo, przez co można przeoczyć część najbardziej przeraźliwą.
Bo propozycja, żeby opisywać rzeczy na poziomie ducających się atomów, na poziomie zaprojektowanych (przez kogo?) funkcji i na poziomie rozumności – jest dość banalna. Gorzej z tym, o czym Moor nie wspomina, że według Dennetta te kolejne poziomy nie wnoszą niczego nowego(xxxiv) – nie chodzi o to, że opisujemy atomową budowę czegoś, tylko, że rozumność sprowadza się ostatecznie do bardzo skomplikowanego ducania atomów. Bo z atomów wszystko się składa, począwszy od żabek do domów – i poza atomami oraz próżnią, w której one się ducają, nie ma nic.
To jest właśnie redukcyjny materializm – pogląd modny, bardzo elegancko obalający się sam, i dziwnym zrządzeniem historii myśli przeważnie łączony z ateizmem (podobno są jacyś chrześcijańscy materialiści, ale nie miałam z nimi kontaktu). Bo tak: pamiętacie jeszcze długie, skomplikowane wyjaśnienia z części pierwszej? Otóż, kiedy Kartezjusz wyrzucił to wszystko do kosza, filozofowie przyrody zaczęli traktować świat jako artefakt. To ważne: świat Arystotelesa istniał zawsze (miał Pierwszego Poruszyciela, który go poruszał, ale nie zaprojektował). Świat scholastyków był stworzony przez Boga – nie zbudowany, tylko stworzony, z rzeczami powiązanymi przyczynowo z samej natury, dlatego, że są takie, jakie są. Natomiast świat nowożytnych filozofów przyrody był przez Boga zbudowany, jak, cóż. Zegarek. Złożony z części, które nie mają celu jako to, czym są, tylko nadał im go bezpośrednio Zegarmistrz.
Mówimy o czasach Newtona, kiedy ulubioną metaforą były mechanizmy zegarowe – i stąd właśnie wziął ten pomysł z zegarkiem Paley (słynna analogia zegarmistrza). Ale Newton, Paley i inni wierzyli, że Zegarmistrz istnieje. Natomiast Hume (choć nie mówił o tym głośno) już nie wierzył. Dennett (który mówił o tym bardzo głośno) też nie. A kiedy rzeczy nie są między sobą powiązane z samej swojej natury (powiązania i cele mają narzucone z zewnątrz), i nie ma nikogo, kto narzucałby im te powiązania i cele, nie zostaje nic, co mogłoby porządkować świat – nie ma przyczynowości. Tak mówi, chyba jako pierwszy, właśnie Hume: rzeczy następują po sobie (albo nie) przypadkowo, wszystko może się zdarzyć zupełnie bez przyczyny – ale prawa przyrody to opis regularności w przyrodzie. Jak one mogą istnieć? Przypadkiem. To tylko artefakt.
Kanta wnerwiło to na tyle, że wykoncypował złożoną teorię tłumaczącą, jak te regularności narzuca na świat rozum (a regularności istniejących w nim samym nie możemy poznać), ale to nie temat na dziś. Osobiście wolę świat postrzegać jako ogród niż jako zegarek, ale to tak na marginesie.
Wracając do redukcyjności materializmu – wiąże się ona ze scjentyzmem, czyli poglądem, że istnieje tylko to, co można naukowo badać, i tylko zdania naukowo sprawdzalne mają w ogóle sens (i mogą być prawdziwe). Tak nawiasem – samo zdanie „tylko zdania naukowo sprawdzalne mają sens” jest naukowo niesprawdzalne, więc samo sobie sens odbiera, i tak właśnie upada scjentyzm. Ale tutaj interesuje nas to, że naukowo można badać tylko rzeczy materialne (i to nie wszystkie) i pewne typy przyczynowych zależności między nimi, bo do badania takich rzeczy nauka została wymyślona. Dlatego scjentysta, żeby być na tyle konsekwentny, na ile potrafi, musi twierdzić, że nic niematerialnego nie istnieje – więc nie istnieje rozum ani pojęcia. Niektórzy twierdzą, że pojęcia są wyobrażeniami (nie jestem pewna, co przez to rozumieją, bo niekoniecznie to, co arystotelik), układami neuronów albo prądami w mózgu, niektórzy się tym nie przejmują.
W każdym razie sięgnęłam do pracy, którą Dennett sam napisał(xxxv), i tam znalazłam szersze wyjaśnienia tego, jak on traktuje osoby („osoba” czyli, wg najlepszej dostępnej definicji, przez Dennetta nieużywanej: indywidualna substancja natury rozumnej(xxxvi), na potrzeby niniejszego tekstu będzie tym samym, co hnau). Opadła mi szczęka.
Koncepcja Dennetta kształtuje się mniej więcej tak: osoba to nie to samo, co biologiczny człowiek. U Locke'a (wg Dennetta, nie sprawdzałam tego) można na przykład odróżnić pojęcie osoby w sensie moralnym, która ma prawa i obowiązki, odpowiada za swoje zachowanie; oraz w sensie metafizycznym, czyli jako bytu o określonych cechach: inteligentnego, świadomego, czującego, mogącego w wolny sposób wpływać na świat.
I tutaj Dennett zadaje pytanie o wzajemny stosunek tych dwóch pojęć: czy wszystkie osoby w sensie metafizycznym są osobami w sensie moralnym? I odwrotnie?
Pytanie jest sensowne tylko pod warunkiem, że nie widzi się ścisłego związku między odpowiedzialnością a sprawczością i całą resztą. Ale to jeszcze nic. Tego można nie widzieć.
Przeraźliwe jest to, że Dennett bierze ludzką skłonność do antropomorfizacji wszystkiego – i tłumaczy nią, ostatecznie, ją samą. Albowiem. Dennett twierdzi, że nie da się „obiektywnie” stwierdzić, czy jakiś byt spełnia wymienione przez niego warunki konieczne bycia osobą: rozumność; świadomość i intencjonalność (co u niego oznacza zajmowanie różnych postaw, przekonania, ogólnie myślenie sobie czegoś); bycie traktowaną jako osoba przez inne osoby (chodzi o przypisywanie intencjonalności); zdolność do traktowania innych jako osób; zdolność do używania języka; samoświadomość.
No, fajnie. Czyli jednym z koniecznych warunków bycia osobą miałoby być to, że inne osoby traktują omawiany byt jako osobę. Co uczyniło osobami tamte osoby? Bo chyba nie uczyniły się nimi same, prawda? A w Boga, którym mógłby podszorować swoją metafizykę, Dennett pryncypialnie nie wierzy(xxxvii). Powtarzam, osobą miałoby jakiś byt czynić to, że inne osoby myślą, że ona myśli. Które? Wszystkie? Bo w takim razie nie ma osób na świecie. Wybrane? Na jakiej zasadzie?
Dennett chce „z pozycji intencjonalnych” opisywać wszystko, czego funkcjonowanie najłatwiej i najwygodniej(xxxviii) tłumaczyć twierdzeniem, że to sobie coś myśli i ma jakieś dążenia (nie tylko ludzi – jako przykład podaje drzewa – tak, naprawdę). Bardzo się staram nie mówić źle o zmarłych(xxxix) – ale ta koncepcja jest chora. To nawet nie to, że Fiat 126-p nie stanie się osobą dlatego, że potraktujemy go jako osobę. Chodzi o to, że w ten sposób uzależniamy naturę świata od czyjegoś widzimisię, co jest postawieniem rzeczy na głowie. Przecież dlatego traktujemy coś jako osobę, że jest osobą – tak samo, jak nie dlatego coś jest jadalne, że to jemy, tylko jemy coś (między innymi) dlatego, że jest jadalne. Rzeczywistość nie zależy od tego, co my sobie myślimy(xl).
Dennett się tym nie przejmuje, ponieważ jego zdaniem nie można obiektywnie, czyli fizycznie sprawdzić (cokolwiek ma tu oznaczać to słowo), czy jakikolwiek byt jest świadomy, rozumny i tak dalej, zresztą zachowanie każdego (sic!) bytu da się wyjaśnić (cokolwiek ma tu oznaczać to słowo) bez odwołania do żadnej celowości, mechanistycznie. Przez ducanie atomów. Po prostu bardziej skomplikowane układy atomów ducają się, nie wiem, na więcej sposobów?
Ech. O tym już mówiłam (i teraz wiecie, po co tyle ględzenia). Dennett, jako materialista redukcyjny, uważa, że jedynym, co istnieje, jest pojęta po kartezjańsku materia. A zatem – jeśli w ogóle jest w świecie jakieś myślenie, to musi je wytwarzać materia właśnie, w jakiś tajemniczy sposób. Przytaczałam już argumenty wykazujące, że to się kupy nie trzyma, więc króciutko: materia w sensie kartezjańskim w żaden sposób nie może wytwarzać myślenia w sensie kartezjańskim, ponieważ „przetwarza informację” wyłącznie na zasadzie przesuwania żetonów.
Dennett popełnia właśnie ten błąd, który piętnuje Searle: uzależnia istotę bytu od obserwatora i udaje, że ten obserwator nie istnieje (bo gdyby istniał, jego istota musiałaby być zależna od innego obserwatora i tak w nieskończoność).
Ale to jeszcze nie wszystko! Według Dennetta osoby faktycznie nie istnieją – bo (tłumaczy to dość pokrętnie) „osoba” to, jego zdaniem, czysty ideał, do którego można najwyżej aspirować (nic nie mówi o tym, jak byt niezdolny do wyznaczania sobie celów może do czegokolwiek aspirować...), bo, żeby być osobą trzeba, oprócz tego wszystkiego, co powyżej, zachowywać się zawsze doskonale racjonalnie i sprawiedliwie(xli) – co jest oczywiście ideałem niespełnialnym. Czyli osób nie ma. I za każdym razem, kiedy jakiś byt postępuje (ekhm) nieracjonalnie i niesprawiedliwie, możemy go uznać za nieosobowy.
Oczywiście, taka koncepcja pozwala panu Dennettowi odmówić wszelkich praw niemowlętom, ludziom w śpiączce i wariatom, co on uważa za oczywiste, ale nie będę na tyle nieuprzejma, żeby sugerować, że tylko o to mu chodzi (o przestępcach nie wspomina – może to zbyt oczywiste). Albo, że – gdyby był konsekwentny – musiałby praw odmówić także sobie. Chyba że, oczywiście, „racjonalne i sprawiedliwe postępowanie” zdefiniujemy jako „to, co w tej chwili robi pan Dennett”.
I nie marudziłabym o tym, gdyby nie to, że właśnie na Dennetta powołuje się Moor, tłumacząc, jak roboty mogą być sprawcami moralnymi, nie będąc osobami: otóż nawet zwykłe komputery antropomorfizujemy(xlii), a „moralne” tym bardziej. Zapewnia przy tym, że nie musimy naprawdę wierzyć, że te roboty i komputery mają przekonania czy dążenia. Bardzo dziękuję za tę możliwość, ale nie skorzystam. Jeszcze odróżniam własne fantazje od rzeczywistości. Jeżeli byt ma przekonania i dążenia, to coś z tego wynika – coś, co by nie wynikało z braku tychże. Czasami opierniczenie komputera od najgorszych ma wartość katartyczną(xliii), ale oczekiwanie od niego, że pomyśli o mojej wygodzie, jest fantazją. Nie fantastyką, tylko oderwaniem od rzeczywistości.
Dennetta załatwiwszy, możemy wreszcie przejść do najważniejszego miejsca każdej nowatorskiej pracy filozoficznej, czyli tego, w którym autor przewiduje (albo zbiera od kolegów) argumenty podważające jego tezę i stara się je obalić. Moor się nie stara.
Wymienia te argumenty w przypadkowej kolejności i załatwia każdy w jednym – dwóch akapitach. Sęk w tym, że tylko mu się wydaje, że je załatwia.
Zarzut numer jeden: jak RB-34 ma działać etycznie, skoro jest nieświadomy – nie wie, co robi? Odpowiedź Moora: wystarczy, żeby miał właściwe dane i poprawnie je przetwarzał – przecież program szachowy dobrze gra, a nie wie, co robi.
Tak ściśle, to program szachowy wcale nie gra. Granie ma cele, jak choćby dobra zabawa, których program sobie nie stawia, bo nie jest w stanie. Ale ważniejsze jest co innego. Wielu autorów, owszem, porównuje moralność do gry (z różnych powodów i na różne sposoby), czasami wypada to niepoważnie – ale chyba żaden znany mi dotąd autor nie pchał tej analogii tak daleko. Dobre życie jest nieco bardziej skomplikowane od gry w szachy i, jako się rzekło, oczekiwanie, że da się zautomatyzować, świadczy o luźnych związkach oczekującego z rzeczywistością.
No, ale przecież Moor nie ma na myśli dobrego życia dla robota (czymkolwiek by miało być), tylko nieszkodzenie ludziom! I tu jest pies pogrzebany. Gdybyśmy od razu powiedzieli, że chodzi o projektowanie bezpiecznych robotów(xliv), nie brzmiałoby to tak fajnie. Zapewne nie byłoby z tego grantu – okazuje się, że rozmaici badacze tego zagadnienia (głównie inżynierowie) nawet nie wspominają o bezpieczeństwie, tylko beztrosko pytają o „moralność” bytów, o których doskonale wiedzą, że nie są rozumne (więc, jak – mam nadzieję – już wiecie, w ich przypadku nie można w ogóle mówić o moralności).
Sharkey przytacza na przykład eksperyment Winfielda, w którym roboty były zaprogramowane, żeby powstrzymywały inne roboty przed wpadnięciem do dziury (program „przewidywał”, czy drugi robot wpadnie czy nie), i czasami się zapętlały, bo miały dwa roboty do „uratowania” a żadnego kryterium, żeby wybrać jednego. Sęk w tym, że cała „moralność” w tym eksperymencie pochodziła od badacza – roboty nawet nie zapisywały w pamięci przeszłych skutków swojego funkcjonowania! Winfield zmodyfikował je zresztą tak, żeby się nawzajem wrzucały do tej dziury, ścigały się albo „udawały” że dziura jest tam, gdzie jej nie ma – i też nie one o tym decydowały, bo niby jak, ale program. Czyli Winfield. Roboty „umiały” tylko to, co Winfield im zaprogramował.
Albo tacy Andersonowie, którzy (oprócz tego, że wygłaszają wiele mocnych tez o algorytmizowalności etyki) twierdzą, że są na dobrej drodze do zbudowania RB-34, i że na podstawie etyki obowiązków prima facie załadowanej do komputera zrobili coś w tym rodzaju. Więcej o tym a chwilę, na razie – Sharkey zauważa, i ja się z nią zgadzam, że to, co Andersonowie wytworzyli (w wyniku uczenia maszynowego i zautomatyzowanego wnioskowania), to nie jest sprawca etyczny, a tylko narzędzie. Bo ich system po prostu przypomina pacjentowi o wzięciu leków. Na podstawie tego, kiedy pacjent ostatnio wziął leki, i zapewne dość skomplikowanej bazy danych, ale to właśnie robi. Nic więcej.
To niepokojące. Jasne, człowiek zawsze miał skłonność do antropomorfizacji, do traktowania wszystkiego dookoła, jakby było osobą. W wielu przypadkach jest to dla niego zupełnie korzystne, nie wspominając o tym, co traktuje jako osobę (czyli z szacunkiem). Ale to jest niepokojące, bo świadczy o chęci zrzucenia z siebie odpowiedzialności za działanie. Zajmiemy się tym później.
Na razie zarzut numer dwa: przecież do etycznego działania niezbędna jest wolna wola?
Moor traktuje go w sposób dla mnie niepojęty – w ogóle nie porusza problemu wolności woli! Twierdzi tylko, że ludzie muszą się opierać pokusom i samolubstwu(xlv), żeby działać etycznie, a roboty można zbudować od razu tak, żeby nie miały pokus i nie były samolubne (podobnie piszą Andersonowie).
Jasne, można. Zasadniczo trudno je zbudować inaczej, w końcu roboty nie mogą mieć pokus, bo do niczego nie dążą, nie są źródłem własnego działania – nie decydują i nie rozważają. Ale kubek na moim biurku też nie ma dążeń, nie ma pokus, a nie jest świętym. Ulubiony przykład Moora, program szachowy, nie ma wolnej woli, a „robi to, co ma robić” – no, robi. Ale związki wolnej woli z działaniem i myśleniem najwyraźniej naszemu autorowi umykają. Cały sens zarzutu z wolnej woli najwyraźniej mu umyka, bo wola wtedy jest wolna, kiedy jej właściciel samodzielnie, autonomicznie decyduje, rozważając – rozumem! – za i przeciw. A przynajmniej, kiedy jest do tego zdolny. Powtórzę jeszcze raz: komputer nie może sobie wybrać, czy będzie działał, czy nie. Jeśli wszystko w nim jest popodłączane, nic nie napuchło i użytkownik nie wylał na niego piwa – komputer będzie działał i już. Opowiadanie Pratchetta o komputerze, który odmawiał działania, kiedy zabrano mu pluszowego misia, jest urocze, ale prawdziwe komputery takie nie są.
Różnica między komputerem a informatykiem ma wiele wspólnego z rozróżnieniem między przyczyną sprawczą a celową. O jedną i drugą możemy zapytać tym samym słowem: dlaczego. Powiedzmy, że zapytaliśmy, dlaczego komputer nie działa – wtedy chodzi o przyczynę sprawczą (co się zepsuło). Ale kiedy pytamy, dlaczego informatyk nie przychodzi, możemy mieć na myśli przyczynę sprawczą (w budynku nie ma prądu i nie działa winda) albo motyw, sens, racje nieprzychodzenia informatyka (nie przychodzi, bo ostatnio mu nie zapłaciliśmy, więc chromoli nas jako klientów).
Komputer się nie włącza, bo nie ma prądu. Informatyk nie przychodzi, ponieważ nie chce.
Nie ma prawa fizyki, które zmusiłoby informatyka do przyjścia, kiedy on zdecydował, że nie przyjdzie. Można go do tego namówić – ale do tego informatyk musi zrozumieć, co do niego mówimy i zmienić decyzję(xlvi). A decyzję podejmuje na podstawie tego, co myśli – treści, które mu przekazaliśmy, niekoniecznie słowami (jeśli dotąd zwlekaliśmy z zapłatą, informatyk ma powód, żeby nie wierzyć, że tym razem zapłacimy na czas, a zatem, żeby się do nas nie spieszyć – bo dla jego dążeń jest istotne, żebyśmy mu płacili).
Są to rzeczy tak podstawowe i oczywiste, że trudno o nich pisać – a jednak, jak widać, niektórzy ich nie rozumieją. Mam swoje podejrzenia co do przyświecających tym niektórym powodów (rimshot!) ale o tym później.
Na razie ważne jest to, że mamy dwa porządki: deterministycznych praw fizyki i wolnej woli. Wolna wola nie działa przypadkowo (inaczej nie byłaby wolna) – kieruje się racjami, treścią myśli.
Pamiętacie rogalik? Właśnie o to mi chodziło. Śluzowiec nie ma wolnej woli – ale człowiek ma.
Zarzut trzeci jest już omówiony zupełnie po łebkach, otóż: etyka wydaje się niealgorytmizowalna, a przynajmniej nie mamy żadnych „etycznych algorytmów” – a przecież komputery działają w oparciu o algorytmy.
Tutaj Moor po prostu mąci, twierdząc, że może jest niealgorytmizowalna, ale my działamy etycznie, chociaż nie używamy do tego algorytmu. Możemy przenieść na roboty „procedurę, której używamy do wytwarzania dobrych decyzji etycznych(xlvii)”. Tak, naprawdę. Facet z doktoratami z komputerów i etyki nie wie, co to znaczy „algorytm”. Skoro algorytm to przepis postępowania prowadzący do rozwiązania ustalonego problemu, określający ciąg czynności elementarnych, które należy w tym celu wykonać(xlviii), to jest właśnie procedurą. Moor nie tyle odpiera zarzut niealgorytmizowalności etyki, ile zmienia mu nazwę i myśli, że nikt się nie połapie, że przypisał ludziom działanie według algorytmu, nijak tego nie uzasadniając.
Dodaje do tego, że roboty nie muszą zawsze podejmować „doskonałych” decyzji, wystarczą dostatecznie dobre – co też nie ma nijakiego znaczenia dla problemu (w końcu istnieją algorytmy dające przybliżone rozwiązania, algorytmy probabilistyczne i tak dalej – zależnie od tego, o jaki wynik chodzi układającemu algorytm).
A czy niealgorytmizowalność jakiegoś problemu koniecznie powoduje, że nie da się go załadować do komputera? Tak. Komputery w dzisiejszym rozumieniu, czyli (uniwersalne) maszyny Turinga, działają algorytmicznie i nie potrafią inaczej. Wykonują algorytmy.
Algorytmy zaś układają z zasady ludzie. Owszem, istnieje coś takiego, jak automatyzacja rozumowań, i używa się tego między innymi do badania, czy program jest poprawny. Modele językowe bywają też używane do wytwarzania nowego kodu(xlix), i ten nowy kod może być nawet poprawny – przypadkiem. Ale algorytmy nie układają się same.
Ot, chociażby: systemy automatycznego rozumowania wymaga dostosowania do każdego nowego zagadnienia z osobna – jeśli nawet samo oprogramowanie jest dość uniwersalne, trzeba zakodować tzw. pytanie, sprowadzone wcześniej do postaci skolemowej (nieczytelnej dla ludzi, ale nadającej się do obróbki w komputerze). I zawsze tak było. Czy używa się systemu dedukcyjnego na kartce, czy w komputerze, zawsze trzeba odpowiednio obrobić zagadnienie (dużo tracąc). Jak zauważa autor hasła w Encyklopedii Stanfordzkiej, automatyczne dowodzenie twierdzeń niewiele zmieniło w matematyce: im bogatsza teoria matematyczna, tym więcej nierozstrzygalnych algorytmicznie problemów, zresztą matematycy nie chcą być za bardzo wyręczani. Chcą rozumieć, a nie mieć rozwiązanie.
W każdym razie – nie chodzi o to, czy ludzie działają algorytmicznie, czy nie, tylko o to, że komputery nie mogą działać niealgorytmicznie.
Równie dziwacznie wypada odpowiedź Moora na kolejny zarzut: nie ma sensu przypisywać robotowi odpowiedzialności.
Mówi tu o odpowiedzialności etycznej, ale przy jego założeniach nie sposób jej odróżnić od odpowiedzialności za skutki, a stąd już tylko krok do wyciągania konsekwencji – nie wiem, czy o to Moorowi chodzi, bo zaczyna od tego, że robot „mógłby się uczyć metodą kar i nagród”(l)
I tutaj, postawiwszy pytanie „jak nagradzać i karać robota za to, jak jest zaprogramowany” nie traktuje go retorycznie. Przetłumaczę fragment, bo streszczenie tego nie odda:
„Można odpowiedzieć wprost, że roboty, które nie są full ethical agents, nie miałyby praw i mogłyby być naprawione albo przeprogramowane. W tym sensie moglibyśmy je uznać za przyczynowo odpowiedzialne za ich działania i naprawić je, jeśli źle działają, żeby w przyszłości działały lepiej(li)”
No, cóż. Pewien znany publicysta zauważył, że wracamy do czasów, kiedy dzieci się nie chroniło, krowy stawiało przed sądem, a małżeństwo zawierało bez świadków i udawało, że nic się nie stało(lii). I to jest doskonały tego przykład. O odpowiedzialności moralnej już powiedziałam, co miałam do powiedzenia, teraz odpowiedzialność w sensie konsekwencji. O prawach później.
Na razie wróćmy do zagadnienia trafu moralnego.
Obaj nasi pijani kierowcy wsiedli za kółko i przygazowali. Możemy nawet przyjąć, żeby ich postępowanie było jeszcze bardziej podobne, że pili razem, jednocześnie wyszli z baru i pojechali zupełnie takimi samymi ulicami. Postąpili identycznie – pech chciał, że jeden kogoś przejechał, a drugi akurat nie.
Czy są równie odpowiedzialni?
Z punktu widzenia prawa – nie możemy wyciągać konsekwencji wobec kierowcy, który nikogo nie zabił. Ale tutaj mowa nie o odpowiedzialności moralnej, tylko karnej. Żeby pokazać, że to nie to samo, Harry Frankfurt proponuje rozważyć trzeciego pijanego kierowcę, który wprawdzie trafia przechodnia – ale jakimś zwariowanym zbiegiem okoliczności trafia go akurat tak, że prostuje mu okropnie bolesny, powodujący znaczną niepełnosprawność przesunięty kręg w kręgosłupie.
Czy trzeci kierowca zasłużył na pochwałę? W końcu jego działanie miało dobre skutki!
Miało, ale zupełnym przypadkiem. Kierowca nie zamierzył takiego skutku, czyli nie myślał o nim jako o celu swojego postępowania. Czasami złe działanie fuksem przynosi komuś szczęście, czasami dobre działanie pechowo się kończy – Frankfurt rozważa przykład strażaka, który próbował uratować ofiarę pożaru, ale ją upuścił i zginęła. Wszystko, co zależało od decyzji strażaka, jest takie samo, jakie by było, gdyby uratował ofiarę. Nie chwalimy go, bo mu nie wyszło – ale Frankfurt uważa, że nie mamy racji. Oddanie obowiązkom, odwaga i ogólnie wszystko to, co czyni strażaka dobrym strażakiem, nie przemogły okoliczności, które akurat się źle ułożyły – ale to wina okoliczności, nie strażaka(liii).
Tutaj zaczyna się zwykle smęcić o tym, czy strażak, kierowca albo inny przykładowy nieszczęśnik mógł był postąpić inaczej, niż faktycznie postąpił, i Frankfurt (w innej pracy) też podejmuje takie smęcenie, podając fantastycznie zaplątane przykłady ludzi, którzy chcieli, żeby coś się stało, przyszykowali wszystko, a to się i tak stało bez potrzeby ich interwencji – i są odpowiedzialni za to zdarzenie, bo cały czas pilnowali, czy nie muszą mu trochę pomóc, i pomogliby, gdyby nie szło po ich myśli. Ostatecznie Frankfurt próbuje udowodnić, że nawet w świecie, w którym nie mamy sprawczości, możemy być odpowiedzialni.
Jest to może leciutka przesada, ale coś się w tym kryje, ważna intuicja – odpowiedzialność moralna i odpowiedzialność za skutki to nie do końca to samo. Skutki są częścią związku przyczynowego (fizycznego albo nie – skutkiem przeczytania książki jest także niefizyczna wiedza) i trudno je wiązać z czymś, co się do ich wystąpienia nijak nie przyczyniło, ale odpowiedzialność moralna to kwestia woli i decyzji. Jasne, decyzja najczęściej pociąga za sobą wejście w łańcuch przyczynowy. Ale łańcuchy przyczynowe są złożone. Nie każdy czyn przynosi takie skutki, jakie sprawca chciał.
Narzuca się tu pytanie, czy oceniać po skutkach czy po intencjach, na które odpowiem: po intencjach. Ale za skutki też trzeba odpowiedzieć. Jeśli dałaś plamę, postaraj się ją wywabić. To decyzja o niewywabieniu plamy podlega ocenie etycznej, nie samo (niezależne od woli) plamienie.
I teraz: gdyby maszyna była odpowiedzialna moralnie (czyli musiałaby być rozumna i wolna), to wtedy mogłaby mieć obowiązek poddania się karze (tak, jak my go mamy, nieważne, czy się z niego wywiązujemy). Mogłaby mieć obowiązek naprawienia tego, co zepsuła, ze względu na innych.
Ale Moor jednocześnie zakłada, że robot nie jest świadomy, że wyciąganie konsekwencji wobec czegoś, co nie jest świadome, ma jakiś (?) sens, i że naprawianie czy przerabianie maszyny jest dla niej „karą”, czyli chyba jest przykre, więc maszyna ma świadomość? Świadomość, przypominam, to zdolność odczuwania, na przykład przykrości. Ma ją kot. Nie ma jej Fiat-126p(liv).
Carissa Veliz zauważa, że jeśli robot nie odczuwa przykrości i nie może zmienić swojego postępowania (bez wolnej decyzji trudno mówić o postępowaniu, ale wiecie, o co chodzi), to karanie go jest pokazówką. Rytualnym zdjęciem odpowiedzialności – z jego konstruktorów. Ale jeśli robot jest po prostu zepsuty – to czemu mówimy o karze? O ten temat zahaczę jeszcze w części trzeciej.
Na razie krótko o pozostałych zarzutach.
Ten z braku u robotów empatii (co prowadziłoby do niezrozumienia potrzeb ludzi) też jest mętny i zakłada, że roboty są rozumne. Moor spekuluje, że wystarczyłaby dobra baza danych, żeby robot mógł rozpoznawać emocje, chociaż ich nie przeżywa.
Może i tak, ale co z tego? Różni moraliści rozmaicie traktują emocje i empatię (Hume na nich właśnie opiera całą etykę, Kant uważa je za przeszkodę, ujęcie Arystotelesa jest skomplikowane), ale nikt nie zakłada, że chodzi o cudze emocje. Zawsze mowa o emocjach sprawcy. Poza tym, jako się rzekło, jeśli robot jest wolnym sprawcą, to sam decyduje, czy uwzględni jakieś dane (w tym dane o emocjach) – a jeśli jest zaprogramowany, to zdecydował o tym programista. To, czy sprawca jest w stanie te dane zebrać, nie ma znaczenia dla etyczności jego działania, kiedy już je ma – jeśli sprawca nie jest w stanie się czegoś dowiedzieć, na przykład jest daltonistą i prosimy go o zielony kubek, to nie można mieć do niego pretensji, że nie wykonał polecenia – bo nie mógł. Pretensje możemy mieć do kogoś, kto widzi kolory i mógłby wykonać polecenie, ale postanowił tego nie robić. A w ogóle – po co robotowi wiedza o emocjach? Ma pocieszać ludzi? Czy nie zakładamy tutaj, że robot jest w normalnych, ludzkich, społecznych relacjach z ludźmi? Czyli, że już jest sprawcą?
Najpoważniejszy, swoim zdaniem, zarzut Moor podaje na końcu: otóż roboty nie mają wiedzy zdroworozsądkowej, a na niej opiera się większość rozumowań etycznych. Ale to nic, bo ludzie im tę wiedzę sukcesywnie wprogramowują i niedługo roboty będą sobie radziły w każdej sytuacji.
Musiałyby mieć berecik (albo obudowę) na pięć kilo kartofli. Wątpię, czy można wprogramować wiedzę (prawdziwe uzasadnione przekonania) czemuś, co nie ma przekonań, ale cóż. Nie będę powtarzała całego tekstu. Wiedzą zdroworozsądkową(lv) nazywa się w środowisku kapłanów SI fakty o świecie, które zna przeciętny człowiek – ale jaki człowiek? w jakim środowisku? w jakiej kulturze? Rozumowanie moralne oczywiście musi te fakty uwzględniać, ale czy zapisanie całej tej wiedzy w komputerze, a nawet w zdaniach, jest wykonalne? Bo na przykład zdaniem Scrutona (i całej austriackiej szkoły ekonomii) – nie. I do czego miałoby się przydać, skoro robot i tak nie potrafi tego zrozumieć?
W podsumowaniu Moor wspomina o rosnącej autonomii robotów (w tym bojowych), stawia też tezę, że „programowanie abstrakcyjnych pojęć” (cokolwiek miałoby to oznaczać) pomaga je doprecyzować.
Ale tym zajmiemy się w następnym odcinku.
i Zauważyliście, że „drogi” to przymiotnik atrybutywny?
ii Wskazywałoby na to jego twierdzenie, że konkretny robot może należeć do więcej niż jednej kategorii naraz.
iii Fachowo mówi się „praktycznego” ale laika to może dezorientować, więc postaram się od tego powstrzymać. Zresztą Moor używa słowa „moral” a nie „practical” (którego Anglosasi używają w tym sensie, ale chyba raczej ci skłaniający się ku etyce cnót).
iv Nie „intencjonalnie” – uwaga na „false friends”!
v Ang. „Even a digital watch can be considered an ethical impact agent if it has the consequence of encouraging its owner to be on time for appointments.” Moim zdaniem „encouraging” jest tutaj antropomorfizmem, chociaż, no, oceńcie sami: https://www.merriam-webster.com/dictionary/encourage
vi Osobiście kłóciłabym się z istnieniem takiej potrzeby, ale nie o to chodzi.
vii Młodszym czytelnikom wyjaśniam – to był sposób zapisu daty w systemach komputerowych, który oszczędzał miejsce, ale za to mieściły się w nim tylko ostatnie dwie cyfry roku, więc przy zmianie stulecia wszystkie daty nagle cofały się o sto lat. Ludzkość strasznie się tym podniecała w pewnym momencie.
viii Owszem, historia zna takie przypadki. Nawet w mądrzejszych od naszej epokach. Co nie zmienia faktu, że to jest głupie (nawet w najmądrzejszych epokach przeważają durnie).
ix Których równowagi istota nierozumna zaburzyć nie może, p. cz. 1.
x Dla porządku – tutaj w tym węższym sensie.
xi Ang. „(…) and often limit the amount that can be withdrawn on a daily basis”.
xii Możliwe, że programiści ustalają jakieś ograniczenie odgórnie – ale to ich, albo ich szefów, decyzja. Możliwe też, że zabraknie banknotów, ale to przypadek (wynik nieskoordynowanych działań wielu ludzi). Nie bankomat to sprawił.
xiii Moor mówi nawet o cnocie: QT-1, według niego, mają wbudowaną cnotę („have built-in virtue”). Co on rozumie przez to pojęcie, trudno orzec. Jeśli chodzi o doskonałość jako taką, to mają, jak wszystko – ale to nie jest doskonałość etyczna, tylko doskonałość narzędzi. Ale zdanie wcześniej Moor mówi o odruchach: „These agents have designed reflexes for situations that require monitoring to ensure security.” Czy to znaczy, że nie odróżnia jednego od drugiego, czyli nie ma pojęcia, co te słowa oznaczają? Może.
xiv Mówi też kilka niejasnych rzeczy o „informacji etycznej” czymkolwiek by miała być (nie mamy jakiejś osobnej „informacji chemicznej”, nie?), oraz działaniu na podstawie etyki, a nie tylko według niej, co skojarzyło mi się z Kanta działaniem ze względu na prawo moralne i na miłość własną, ale bardzo luźno i raczej się tu nie przyda.
xv „Zabawa w berka” w tomie „Ja, robot”, wyd. Rebis 2022, przekład Z. Królicki. Usunęłam smar konwersacyjny (w opowiadaniu prawa robotyki są podane w dialogu).
xvi Tak ostatecznie było u Asimova!
xvii „Tak na przykład pewien mózg uniwersytecki, zakochawszy się w żonie profesora matematyki, jął przez zazdrość fałszować wszystkie obliczenia, aż matematyk popadł w depresję, przekonany, że nie umie dodawać. Ale na usprawiedliwienie owego mózgu należy wyjawić, iż żona matematyka systematycznie uwodziła go, dając mu do sumowania wszystkie swe rachunki za najintymniejszą bieliznę.” Tak, Lem miał takie poczucie humoru. Nie wiedzieliście?
xviii True story.
xix Uważam za wypaczenie ideę „reprezentacji” – nie chodzi o to, żeby czytać o sobie samym. Inni ludzie są ciekawsi. Mimo to – człowiek jest człowiekiem, i ma skłonność do uczłowieczania wszystkiego, bo w ten sposób lepiej to rozumie, co mętnie zauważa nawet Dennett.
xx I wpisz tu, programisto, robotowi logikę deontyczną… nie, wyzłośliwiam się, sama logika deontyczna (jako system) da się zrobić, chociaż nie wiem, jak przełożyć „zakazane” i „dozwolone” na działanie maszyny. Może dojście do czegoś „zakazanego” przerywa program i wywołuje procedurę obsługi wyjątku, czy coś.
xxi „Because humans often disagree on questions of ethics, the latter method [prośba o uzasadnienie, T.] would likely be the most credible way of analyzing a robot's ethical decision-making competence. If a robot could give persuasive justifications for ethical decisions comparable to or better than those of good human ethical decision-makers, then the robot's competence would be inductively established for that area of decision-making.”
xxii Krótkie wyjaśnienie: https://www.youtube.com/watch?v=CW0bR9qyH_c
xxiii Asimov pisze o tym w świetnej, choć źle przetłumaczonej na polski, powieści „The Gods Themselves” (co jakiś geniusz przełożył „Równi bogom” – mam nadzieję, że usiłował zastosować ironię, ale mu nie wyszło).
xxiv Jak tak na to wszystko z zewnątrz spojrzeć, to „sen wariata” nie oddaje sedna...
xxv Nawet, kiedy mówią do siebie – bo chcą sobie coś lepiej przemyśleć albo znaleźli się na bezludnej wyspie i ćwiczą, żeby nie sfiksować.
xxvi Nie jestem matematykiem ani statystykiem i upraszczam tutaj, jak się da.
xxvii To jedna z nielicznych rzeczy, które jeszcze pamiętam z politechnicznego kursu obróbki danych.
xxviii https://filozofuj.eu/jakub-jernajczyk-mrowka-putnama/
xxix O ile nie żal mi wcale prawników, którzy zwalili swoją pracę na komputer, ani leniwych uczniów, to dziennikarz śledczy, którego nazwisko SI przypisała przestępcy, o którym pisał, albo facet, którego „oskarżyła” o morderstwo własnych dzieci mają pełne prawo być wściekli ( https://www.abc.net.au/news/2025-03-21/norwegian-man-files-complaint-chatgpt-false-claims-killed-sons/105080604 ).
xxx SI może mieć najwyżej dostęp do – niekoniecznie wiarygodnego – opisu tego faktu w Internecie, jeśli w ogóle może mieć dostęp do jakichkolwiek faktów, nie będąc podmiotem poznającym.
xxxi Na marginesie – inflacja znaczenia słów jest fascynująca, nie? Kiedyś produktem była marmolada, a nie model matematyczny czy oszukańcza umowa cywilno-prawna.
xxxii https://www.scientificamerican.com/article/why-ai-therapy-can-be-so-dangerous/
xxxiii Tak, wszystkie oznaczenia wzięłam ze zbioru „Ja, robot”. I nie są przypadkowe. Jeśli ktoś ma z tym problem, to jego problem.
xxxiv Nie, jasne, wiem (i Moor o tym wspomina), chodzi o to, że Dennett wyróżnia trzy poziomy wyjaśniania: fizyczny, „projektowy” (jak ta maszyna ma działać, nie zauważyłam, żeby któryś pomyślał, że maszyny zawsze ktoś buduje) i intencjonalny (przypisywanie intencji), i twierdzi, że opis z założeniem intencji jest mniej skomplikowany od opisywania atomu po atomie. Na pewno jest. Ale ilość nie przechodzi w jakość.
xxxv „Conditions of Personhood”, p. bibliografia (na końcu cz. 3)
xxxvi Boecjusz, „Przeciw Eutychesowi i Nestoriuszowi”, w: „Traktaty teologiczne”, tłum. A. Kijewski i R. Bielak, Kęty 2007
xxxvii Żadnego, chociaż Bóg osobowy powodowałby tu znowu pętlę, a nieosobowy Absolut nie byłby w stanie nikogo zrobić osobą, skoro mogą tego „dokonać” tylko inne osoby. Ale Dennett był znany z wojującego ateizmu.
xxxviii Bo są to bardzo obiektywne kryteria…
xxxix Zarówno Dennett jak i Moor zachowali się wielce nieuprzejmie i zaprzestali biologicznego funkcjonowania akurat w roku 2024.
xl Pewne jej aspekty zależą, ale nie może takim aspektem być to, kto jest zdolny do wytwarzania tych aspektów, bo wyjdzie pętla. Na szyję.
xli Sprawiedliwie wg Rawlsa, czyli zgodnie z normą interakcji międzyludzkiej, tak przynajmniej referuje jego poglądy Dennett.
xlii Jestem przekonana, że Starsza Pracownica w tym Zakładzie uważa, że w jej komputerze mieszka złośliwy gnom, który go spowalnia.
xliii Choć w zasadzie nie jest to zdrowe.
xliv Stuprocentowo bezpiecznych robotów też się nie da zbudować, bo nie przewidzimy wszystkiego.
xlv „Obsessive self-interest”. Słychać tu echa kantowskie.
xlvi Można go porwać i zastraszyć, ale on może się nie dać zastraszyć. I co wtedy?
xlvii „Whatever procedure we use to generate a good ethical decision, why couldn’t we give a robot an equivalent procedure?”
xlviii Nadal https://encyklopedia.pwn.pl/haslo/algorytm;3867807.html
xlix I potrafią obrzucić użytkownika wyzwiskami, bo są uczone na wpisach z forów dla programistów.
l „Like us, robots might learn through praise and punishment techniques.” Zauważcie antropomorfizm.
li „One direct response is that ethical robots that are not full ethical agents would not have rights, and could be repaired or reprogrammed. In this sense, we could hold them causally responsible for their actions and then fix them if they were malfunctioning so they act better in the future.”
lii Istnieją powody, dla których rozwód nie powinien być łatwy, i dla nich właśnie go utrudniono – ale mało kto o nich pamięta.
liii Można argumentować, że brak sukcesu świadczy o niedostatecznych staraniach, ale nie o to tutaj chodzi – tu chodzi o próbę nieudaną tylko z powodu pecha. Frankfurt zresztą rozważa też uczucia pechowego strażaka i stwierdza, że wstyd jest adekwatną reakcją emocjonalną na własną niedoskonałość. Jak to wyjaśni utylitarysta?
liv Naprawdę.
lv https://en.wikipedia.org/wiki/Commonsense_knowledge_(artificial_intelligence)