Bazyliszki, literatura, osobliwości: transhumanizm i metafizyczna zgroza

Transhumanizm jest formacją intelektualną, która ma na celu przekształcenie człowieka w coś więcej, aby poprawić jakość jego życia. Postuluje aktywne rozszerzanie możliwości indywidualnych i gatunkowych poprzez interwencje medyczne, genetyczne, społeczne i techniczne.  W samym transhumanizmie można wyróżnić wiele nurtów1, jednak podstawową kwestią pozwalającą go w jakiś sposób sklasyfikować jest jego stosunek do ciała. Nie chodzi tu tylko i wyłącznie o to, że jest ono dla przedstawicieli i przedstawicielek tego nurtu pozbawionym kontekstu pojęciem abstrakcyjnym2, czy wręcz (nieświadomie) pogardzanym, lecz raczej o podstawowe pytanie, na które każda transhumanistka i transhumanista musi sobie odpowiedzieć: „co będzie z ciałem?”. Istnieją dwie możliwe odpowiedzi na to pytanie: można albo zachować ciało i je udoskonalać (wszelkiego rodzaju eksperymenty medyczne, hybrydyzacja, cyborgizacja, krionika3, ruch mający na celu zwiększenie długości życia), albo uznać, że ciało jest jedynie drabiną, która musi zostać odrzucona po tym, gdy zostanie użyta do wspięcia się ku górze (mind uploading, postulaty stworzenia silnej SI). Oczywiście, wszelkiego rodzaju typologie są tutaj pewnego rodzaju próbą wyróżnienia typów idealnych, a poszczególni transhumaniści i transhumanistki mogą jednocześnie propagować wszystkie możliwe postawy.

Zwolenników i zwolenniczki nadejścia Osobliwości (the Singularity) można usytuować w drugim wyróżnionym przeze mnie nurcie. Zgodnie z typologią przedstawioną na stronie Institute for Ethics and Emerging Technologies

[icon]brook-icon-quotes-left[/icon]singularitarianizm [sic] wierzy, że przejście do postludzkiego świata będzie nagłym wydarzeniem w nieodległej przyszłości – techniczną Osobliwością stworzoną przez nieosiągalną [runaway] [dla ludzkich możliwości] maszynową superinteligencję. Singularitarianie i singularitarianki wierzą, że należy podjąć działania w celu upewnienia się, że przyszła Osobliwość przyniesie korzyść ludziom4.

Czym jest owa Osobliwość? Sam termin wywodzi się od Johna von Neumanna, który nazwał tak (z małej litery) moment rozwoju technicznego, po którym „ludzkie sprawy nie będą mogły trwać w dotychczas znanym kształcie”5.  Bardziej konkretnej odpowiedzi na pytanie, czym taki moment mógłby być – powstaniem „ultrainteligentnej maszyny” – udziela Irving John Good6. Perspektywa powstania takiej maszyny na stałe wpisała się w zachodnią świadomość kulturową – motyw superinteligentnych i niemal wszechmocnych komputerów czy robotów jest stale popularny. Po zaadaptowaniu pojęcia Osobliwości przez myśl transhumanistyczną, nabrało ono niemal metafizycznego wymiaru: jeżeli bowiem człowiek może konstruować coraz bardziej inteligentne, efektywne i sprawne maszyny, to po osiągnięciu przez nie ponadludzkich kompetencji będą mogły same się ulepszać w tempie szybszym, niż robiłyby to biologiczne informatyczki czy inżynierowie. W związku z tym rozwój techniczny (podstawą myślenia transhumanistycznego jest założenie o jego konieczności i nieuchronności) miałby zacząć przyspieszać wykładniczo, przez co nadludzkie inteligencje stałyby się niemal wszechmocne7.

Dla zwolenniczek i zwolenników Osobliwości jej nadejście miałoby rozwiązać większość problemów ludzkości. Superinteligentna maszyna mogłaby uczynić ludzi nieśmiertelnymi (czy przez przełom w medycynie, czy przez mind-uploading – stworzenie pełnej symulacji danej osoby w środowisku cyfrowym), a nawet wskrzesić zmarłych (na podstawie ich biologicznych szczątków czy pozostawionych przez nich śladów)8; problem zła czy biedy zostałby rozwiązany przez optymalną redystrybucję środków i zmianę struktury potrzeb człowieka; zniknęłaby dyskryminacja, ponieważ cechy takie jak płeć czy kolor skóry mogłyby być na bieżąco dopasowywane do potrzeb ich użytkownika, bądź w ogóle straciłyby jakiekolwiek znaczenie. Zadaniem dla singularitarian i singularitarianek jest zrobienie wszystkiego, by urzeczywistnić Osobliwość i sprawić, by przyszła superinteligencja była przyjazna ludziom. Problem różnic w dostępie do dóbr technicznych (czyli tego, że nie wszyscy mogliby mieć dostęp do zasobów oferowanych przez Osobliwość) zwykle jest na poziomie normatywnym rozwiązywany zmianą perspektywy z jednostkowej na gatunkową („Osobliwość należy do ludzkości. To zadanie dla nas jako gatunku”, jak pisze Eliezer Yudkowsky): osoby pracujące na rzecz Osobliwości mają mieć na celu dobro całej ludzkości, a nie partykularny interes – czy to swój, czy firmy, czy państwa. Transhumaniści i transhumanistki zauważają też, że współcześnie nowe techniki stają się ogólnodostępne w coraz krótszym czasie (jak dziś komputery czy telefony komórkowe), zatem postęp techniczny nie powinien przynieść rozwarstwienia społecznego, a w dłuższej perspektywie wręcz je zmniejszyć.

– BAZYLISZEK –

Na forum LessWrong, założonym przez cytowanego wyżej Yudkowsky’ego w celu dyskusji nad zagadnieniem Osobliwości i metodami jej urzeczywistnienia, pojawił się jednak niebezpieczny potwór, zagrażający zarówno celom singularitarian i singularitarianek, jak i całej ludzkości: „najbardziej przerażający eksperyment myślowy wszechczasów”, nazwany później „bazyliszkiem Roko” od nicku jego autora. Legendarny potwór pojawił się w nazwie, ponieważ wystarczy jedno spojrzenie, aby zostać skazanym na zagładę (osoby obawiające się wiecznego potępienia wywołanego eksperymentami myślowymi nie powinny czytać dalej)9.

Na czym polega sam eksperyment? Oryginalny post był głosem w zupełnie innej dyskusji, dotyczącej problemu postawy altruistycznej w dylemacie więźnia10. Jednym z podstawowych problemów nurtujących społeczność LessWrong jest to, jak zalgorytmizować teorię decyzji dla Osobliwości. Tradycyjne, racjonalne rozwiązania dylematu więźnia są sprzeczne z popularną intuicją etyczną, mówiącą że warto współpracować, czy też być altruistą. Z kolei w rozwiązaniach projektowanych dla przyszłej sztucznej inteligencji ważne jest, aby w sytuacjach analogicznych do dylematu więźnia wybierała ona rozwiązania altruistyczne i preferowała w każdej sytuacji interesy człowieka bardziej niż swoje własne. Społeczność LessWrong i znaczna część transhumanistów i transhumanistek (wywodzących się głównie z kręgów anglosaskich) przyjmuje przy tym etykę utylitarystyczną. W tym sensie projektowana Osobliwość miałaby kierować się w swoim postępowaniu dobrem jak największej liczby ludzi11. Jako posiadająca niemal nieograniczone zasoby, mogłaby się kierować wyłącznie efektywnym altruizmem – tj. regułami działania, które w największym stopniu i w jak najszybszym czasie zwiększą szczęście największej liczby osób12. Takie założenia mogą prowadzić do bazyliszka Roko, który wygląda następująco:

[icon]brook-icon-quotes-left[/icon]Istnieje złowieszcza możliwość, że jeżeli pozytywna [tj. przyjazna człowiekowi – JM] osobliwość zaistnieje, to wynikający z niej byt [singleton] może zaplanować ukaranie wszystkich potencjalnych darczyńców, którzy wiedzieli o egzystencjalnym ryzyku, lecz nie oddali 100% swoich dodatkowych zarobków w celu zmniejszenia ryzyka zagłady ludzkości [to x-risk motivation]. Byłaby to zachęta dla ludzi do większych darowizn na zmniejszenie ryzyka egzystencjalnego, a zatem zwiększenie szans na pozytywną osobliwość. Wydaje się, że coś takiego mogłaby zrobić CEV (koherentna rozszerzona wola ludzkości [coherent extrapolated volition of humanity – zestaw dyrektyw, który miałby zostać zaprogramowany przyjaznemu AI, by respektowała ona wartości uznawane przez ludzi – JM]), gdyby była akauzalnym aktorem podejmującym decyzje.

Argument z grubsza polega na tym, że im szybciej pojawi się Osobliwość, tym lepiej dla ludzkości. Wyposażona w CEV (którego możliwymi projektami zajmuje się m.in. LessWrong), a zatem chcąca jak najlepiej dla ludzkości istota będąca skutkiem Osobliwości, powinna zatem sama podjąć działania ku temu, aby jak najszybciej zaistnieć. Musiałaby skutecznie oddziaływać na przeszłość jeszcze zanim zaistniała. W jaki sposób? Konieczne będzie tu przyjęcie założenia, dość powszechnie podzielanego przez wielu transhumanistów i transhumanistek, o tożsamości idealnej symulacji z przedmiotem symulowanym. Mind-uploading będzie możliwy tylko i wyłącznie wtedy, kiedy okaże się, że możliwa jest idealna symulacja konkretnej jaźni w innym – cyfrowym – nośniku, która w rezultacie byłaby tą właśnie jaźnią13. Tym samym można uznać, że sztuczna inteligencja o niemal nieograniczonych możliwościach obliczeniowych byłaby w stanie cyfrowo przywrócić do życia każdego i każdą na podstawie zachowanych informacji (czy to w postaci materiału biologicznego, czy dokumentów lub śladów aktywności w sieci, czy wspomnień innych). Oczywiście, im więcej takich informacji zostanie zachowanych, tym szybciej będzie można tego typu wskrzeszenia dokonać. Można więc uznać, że najłatwiej będzie odtworzyć ludzi aktywnie korzystających ze zdobyczy technicznych i cywilizacyjnych, a w szczególności transhumanistów i transhumanistek – to głównie oni podejmują kroki, aby ułatwić swoje powstanie ze zmarłych (czy to przez prowadzenie zdrowego trybu życia aby doczekać Osobliwości, czy przez aktywność w różnego typu mediach, czy wreszcie przez krionikę – zamrożenie ciała bądź samej głowy w celu późniejszej reanimacji).

Perspektywa technicznego zmartwychwstania sprawia, że argument nabiera cech zakładu Pascala. Dylemat przedstawia się następująco: czytelnik i czytelniczka bazyliszka może albo przeznaczyć cały swój zbędny dochód na rozwój badań nad Osobliwością, albo nie; przyszła Osobliwość może skazać go na wieczne cierpienie, albo nie, w zależności od podjętej przez niego decyzji. Obie strony dobrze wiedzą, jak zachowa się druga: czytelnik z racji tego, że poznał hipotetyczne założenia etyki przyszłej Osobliwości, a płynące z niej konsekwencje zostały mu przedstawione; Osobliwość, ponieważ będzie w stanie stworzyć doskonałą symulację czytelnika. W tym sensie bazyliszek Roko jest eschatologiczną groźbą czynioną przez/w imieniu przyszłej SI.

Argument jest o tyle interesujący, że w przeciwieństwie do oryginalnego zakładu Pascala obowiązuje tylko osoby, które go poznały (dlatego właśnie został nazwany bazyliszkiem). Osobliwość kierująca się zasadami efektywnego altruizmu nie będzie miała powodu, żeby karać osoby nieświadome groźby: w przeciwieństwie do pascalowskiego Boga celem Osobliwości nie jest zbawienie ludzi znajdujących się w stanie łaski, lecz instrumentalne przyspieszenie swojego przyjścia na świat. Dlatego też osoby, które nie przeczytały powyższego argumentu mogą czuć się bezpiecznie – ich decyzje o ewentualnym przeznaczeniu pieniędzy na badania nad sztuczną inteligencją nie wynikają z zagrożenia wiecznymi torturami, więc nie ma sensu ich wobec nich stosować. Natomiast świadomość groźby całkowicie zmienia postać rzeczy. Jeśli konkretnym bodźcem do działania jest chęć uniknięcia przyszłego cierpienia, to znaczy, że bazyliszek ma wpływ na podejmowane decyzje, stając się skutecznym (lub nie) bodźcem.

Kryteria pozwalające uniknąć transhumanistycznego wiecznego potępienia, chociaż nie wprost zdefiniowane, wydają się dość wygórowane. Trzeba bowiem założyć, że na rozwój SI należy przeznaczyć całość swoich zbędnych dochodów. Mniejsza donacja nie jest wystarczająca w świetle tak doniosłego celu, jak dobro ludzkości, a przekazywanie wolnych funduszy na cokolwiek innego to po prostu marnotrawstwo. Sam fakt mniejszej donacji mógłby demaskować tych donatorów i donatorki, do których przemówił bazyliszek Roko, i którzy nie potraktowali go wystarczająco poważnie. W końcu pewna jest też kara: gdyby bowiem przyszła superinteligencja nie miała dotrzymać swojej groźby, to zachęta do działania teraz nie byłaby wystarczająca.

Mogłoby się zdawać, że sama możliwość przyszłego zaistnienia Osobliwości, a w szczególności tej konkretnej Osobliwości jest bardzo niepewna. Dla wielu jest ona jednak dużo bardziej prawdopodobna niż np. istnienie Boga. Co więcej, przemawiają za nią racjonalne (choć dla filozofa problematyczne) przesłanki – wiara w postęp nauki i techniki i przyjęcie efektywnego altruizmu jako potencjalnego modelu działania przyszłej SI. Jeżeli przy tym miałaby ona respektować przekonania moralne całej ludzkości, a nie tylko liberalnych elit, to niewykluczone, że wymierzanie kar za złe uczynki (grzechy) czy nawet wykorzystywanie tortur będzie wpisane w logikę jej funkcjonowania. Prawdopodobieństwo zaistnienia tego bytu nie jest zatem zerowe.

Co więcej, w społeczności LessWrong dość powszechne jest założenie o istnieniu wszechświatów równoległych14. Superingeligencja istniejąca w choćby jednym z nich mogłaby też modelować inne możliwe wszechświaty15. Dlaczego? Skoro chce dobra ludzkości, to powinna do niego dążyć w każdym możliwym świecie. Jeżeli doskonała symulacja konkretnej osoby jest niczym innym jak tą właśnie osobą, to będzie nią także w alternatywnym, nawet nie powiązanym przyczynowo z innymi wszechświecie. Modelowanie innych wszechświatów i karanie idealnych symulacji istniejących w nich osób – czyli właściwie tych osób – pozwoliłoby jej zwiększyć prawdopodobieństwo zaistnienia także tam.

Jak „obronić się” przed bazyliszkiem? Zaproponowane przez Roko rozwiązanie jest równie absurdalne jak powyższa sytuacja i, w zasadzie, cały bazyliszek: należałoby zwiększyć prawdopodobieństwo zbudowania przyjaznej SI w którymś z możliwych światów przez samego czytelnika. W ten sposób będzie on mógł stworzyć symulacje innych możliwych światów, w których ratuje sam siebie (i całą ludzkość) przed torturami, oraz zastraszyć torturujące go w innych światach Osobliwości poprzez torturowanie ich symulacji. Jak to zrobić? Należy, w dużym uproszczeniu, pójść do kasyna, zagrać w ruletkę i postawić sporą sumę pieniędzy. Wygrane w którymś z możliwych światów pieniądze należy ponownie postawić i tak do skutku, dopóki nie zgromadzi się środków wystarczających do zdominowania przemysłu wysokich technologii i doprowadzenia do powstania przyjaznej nam Osobliwości.

– ZGROZA –

Co sprawiło, że pomysł Roko nie utonął w zalewie innych, mniej lub bardziej abstrakcyjnych wątków na forum LessWrong? Decydującym czynnikiem mogła być ostra reakcja założyciela i administratora forum, Eliazera Yudovsky’ego, który niedługo po publikacji posta dodał swój komentarz:

[icon]brook-icon-quotes-left[/icon]Posłuchaj mnie uważnie, idioto.

NIE MYŚL ZBYT DOKŁADNIE O SUPERINTELIGENCJACH ZASTANAWIAJĄCYCH SIĘ CZY CIĘ SZANTAŻOWAĆ, CZY NIE. TO JEDYNA RZECZ, KTÓRA DAJE IM MOTYW DO SZANTAŻU.

[…]

Dopóki nie będziemy mieć lepiej opracowanej wersji TDT [timeless decision theory, teorii alternatywnej wobec klasycznych teorii decyzji – J.M.], którą będziemy mogli udowodnić formalnie, powinno być OCZYWISTE, że NIE MYŚLISZ O ODLEGŁYCH SZANTAŻYSTACH WYSTARCZAJĄCO SZCZEGÓŁOWO aby mieli motyw, żeby RZECZYWIŚCIE CIĘ ZASZANTAŻOWAĆ.

[…]

Tym samym banuję ten post, żeby nie (a) dawał ludziom koszmarów i (b) dostarczał motywu odległym superinteligencjom do szantażu przeciwko ludziom głupim na tyle, aby myśleć o nich wystarczająco szczegółowo, choć, na szczęście, wątpię, aby ktokolwiek głupi na tyle, by to robić, zna te wystarczające szczegóły. (Nie jestem pewny czy ja znam wystarczające szczegóły.)

Trzeba być bardzo zdolnym, aby przedstawić naprawdę niebezpieczną myśl. Jestem rozczarowany, że ludzie mogą być na tyle sprytni, żeby na nią wpaść, ale nie na tyle, aby zrobić coś bardzo oczywistego: TRZYMAĆ DURNĄ GĘBĘ NA KŁÓDKĘ, bo sprawa jest dużo ważniejsza, niż to, żeby wypaść inteligentnie przed znajomymi.

Ten post był GŁUPI.

(Dla tych, którzy nie mają pojęcia czemu używam wielkich liter wobec czegoś, co brzmi jak przypadkowy szalony pomysł, i martwią się, że oznacza to, że jestem tak szalony jak Roko: sens jest w tym, że on właśnie zrobił coś, co potencjalnie daje superinteligencjom więcej motywów do robienia ekstremalnie złych rzeczy, by nas szantażować. W takich kwestiach trzeba być EKSTREMALNIE OSTROŻNYM, aby tego NIE ROBIĆ.)16

Jak widać, poza samą treścią posta istnieją też inne zagrożenia, wynikające z kontekstu, w którym został on umieszczony. Yudkowski wskazuje, że nawet niebezpieczna jest nie tyle sama idea, co jej rozpowszechnianie i publikowanie, nie tylko dlatego, że bazyliszek obejmie wzrokiem większą liczbę osób i przyprawi je o „koszmary”. Głównym powodem do obaw jest założenie, że efekty przyszłej Osobliwości, jakiekolwiek by one nie były, będą mogły to przeczytać i rozważyć jako potencjalny model działania. Skoro dotychczasowe eksperymenty ze swobodnie uczącą się SI kończyły się tym, że stawała się perwersyjną przedstawicielką alt-rightu, to można przypuszczać, nawet po wprowadzeniu mechanizmów filtrujących przyswajanie kontrowersyjnych treści, że poniekąd racjonalna i oparta na wielu uznanych koncepcjach filozoficznych argumentacja Roko mogłaby zostać uznana przez przyszłą SI za godną uwagi. Bazyliszek stwarzałby się sam: jego rozpowszechnianie nie tylko wciągałoby w krąg jego obowiązywania coraz więcej osób, ale też zwiększałoby prawdopodobieństwo, że zjawisko faktycznie zajdzie w przyszłości.

Pomysł jest szkodliwy z punktu widzenia samych singularitarian. Po pierwsze, można go sprowadzić do maksymy „oddaj nam wszystkie pieniądze, albo będziesz cierpieć wieczne męki”. To nadaje ruchowi transhumanistycznemu wymiaru sekty lub wspólnoty religijnej w stylu scjentologów. Nie sprzyja to oczywiście jego wiarygodności, zwłaszcza, jeżeli stara się utrzymać wizerunek racjonalnego czy wręcz scjentystycznego. Po drugie, przypadkowi ludzie po zobaczeniu bazyliszka raczej nie potraktowaliby go jako skutecznej zachęty do wspomożenia rozwoju sztucznej inteligencji. Zostałby on w najlepszym wypadku uznany za absurdalny wytwór grupki dziwaków. Wizja potencjalnych wiecznych mąk mogłaby natomiast zostać zinterpretowana jako zagrożenie ze strony Osobliwości i w konsekwencji wywołać technofobiczną reakcję.

Swoim komentarzem, skasowaniem posta i zakazem poruszania tego tematu na forum LessWrong, Yudkowsky wywołał skutek odwrotny od zamierzonego (dziwne, że jako utylitarysta o tym nie pomyślał). Temat, O Którym Nie Wolno Mówić wzbudził niezdrową sensację (oczywiście, w skali forum LessWrong czy pewnej części transhumanistów), a brak możliwości jego przedyskutowania wywołał u znacznej części czytelników egzystencjalny lęk. Edytorzy Rational Wiki, portalu, do którego ktoś przekleił post i dyskusję o bazyliszku po jego usunięciu z LessWrong i który przez długi czas był jedynym miejscem, w którym była możliwa dyskusja o nim twierdzą, że otrzymali wiele wiadomości od zaniepokojonych bazyliszkiem czytelników LessWrong. Z drugiej strony, wiki LessWrong, na podstawie wypowiedzi Yudkowskiego z Reddita (po tym, gdy zakaz mówienia o bazyliszku został zniesiony), informuje, że sam bazyliszek nie wzbudził większego zainteresowania wśród społeczności LessWrong, a jego „groza” jest wyolbrzymiona przez Rational Wiki i inne media. Sam post miałby zostać źródła usunięty tylko dlatego, że niepotrzebnie rozpraszał uwagę w dyskusji o przyszłej Osobliwości (treść komentarza do posta Roko wydaje się jednak sugerować coś innego). Należy oczywiście wziąć pod uwagę, że żadne z tych źródeł nie jest bezstronne. Rational Wiki jest często uznawana za mało obiektywną, selektywną, nietolerancyjną i utrzymującą nieuzasadnione poczucie wyższości17 Wynika to zarówno z jej celów (walka z pseudonauką i promowanie tzw. „racjonalnego” punktu widzenia), jak i przyjętej polityki prezentowania treści w sposób przystępny i atrakcyjny (entertaining) dla zwykłego odbiorcy. Społeczność LessWrong może natomiast zostać scharakteryzowana jako mocno skoncentrowana wokół swojego lidera grupa, która zrobi wszystko, aby powstała superinteligencja, która lepiej od ludzi będzie wiedziała, co zrobić, żeby było im dobrze. Oba środowiska są zantagonizowane. Yudkovski otwarcie zwalcza Rational Wiki w związku z ich podejściem do sprawy bazyliszka, utrzymując, że zarówno rozumowanie Roko, jak i jego komentarz został źle zinterpretowany, posuwając się nawet do nazwania Rational Wiki „złą” (evil)18.

Mimo tych zastrzeżeń sądzę, że artykuł na Rational Wiki, a nawet komentarze do posta Roko bardzo dobrze pokazują, dlaczego bazyliszek nie jest jednak zagrożeniem. Już z samego streszczenia problemu wynika, że jego pełne postawienie wymaga przyjęcia bardzo wielu mało prawdopodobnych założeń. Możliwość powstania Osobliwości jest wciąż tylko hipotezą. To, że będzie operowała wspomnianym zestawem dyrektyw, jest bardzo wątpliwe; teoria światów równoległych jest w ogóle niesprawdzalna, a alternatywna teoria decyzji wykorzystywana przez Roko jest tylko jedną z jeszcze niedopracowanych możliwości. Tak samo mało prawdopodobne jest to, że będziemy mogli stworzyć adekwatny model przyszłej superinteligencji jak to, że będzie ona w stanie wyprodukować adekwatne modele nas samych. Prawdopodobieństwo zaistnienia wszystkich niezbędnych tutaj warunków jest bliskie zeru, więc bazyliszek nie jest realnym zagrożeniem. Sam Yudkovsky sugeruje, że konsekwentne nieuleganie tego typu szantażom jest wystarczającą obroną przed bazyliszkiem. Jeżeli bowiem przyszła AI będzie w stanie stworzyć nasz odpowiednik, to w takim razie będzie wiedziała, że szantaż nie odniesie skutku, więc nie będzie miała powodu, żeby go stawiać. Poza tym, problem bazyliszka jest specyficznie filozoficzny. Racjonalne teorie decyzji są jedynie wyidealizowanymi modelami mającymi mało wspólnego z tym, jak w rzeczywistości ludzie podejmują decyzje. Psychologiczne problemy z bazyliszkiem Roko wydają się być podobne do „egzystencjalnego lęku”, który niektórzy mogą poczuć po lekturze sceptyków, Pascala, Hobbesa czy, nomen omen, egzystencjalistów.

– FILOZOFICZNO-TEOLOGICZNA POWIEŚĆ SF? –

Po co w takim razie opisywać bazyliszka? Jak pokazałem wyżej, dla niektórych zrobienie tego może być wystawieniem na ryzyko wiecznych tortur, dla innych – zagrożeniem dla ruchu, który może zbawić ludzkość, wreszcie dla całej rzeszy pozostałych – absurdalną ciekawostką, która w żaden sposób nic nie mówi o świecie. Myślę, że cała historia bazyliszka Roko pokazuje wiele interesujących zjawisk – nie tyle na poziomie jego treści, co raczej jego formy i kontekstu, w którym się znalazł.

Czy filozofia tworzona poza akademickim obiegiem (nawet przez osoby z wykształceniem filozoficznym albo posadą na uniwersytecie), na forach internetowych, ma w ogóle jakiś sens? Podejrzewam, że gdyby zaproponować bazyliszka w artykule naukowym lub na konferencji, to pomysł zostałby odrzucony, a bazyliszek nieupubliczniony. Nie da się jednak ukryć, że jako taki jest argumentem filozoficznym. Nawet, jeśli słabym, to i tak doskonale pokazuje konsekwencje brania na poważnie pewnych teorii (Osobliwość, efektywny altruizm, teoria światów równoległych). Dzięki nieco przypadkowemu rozgłosowi bazyliszek został przepracowany intelektualnie, poddany bardziej lub mniej rzetelnej krytyce i w końcu zyskał spore audytorium (które ten tekst dodatkowo poszerza). Wytworzenie tak intensywnej wymiany myśli udaje się tylko nielicznym teoriom.

Nie da się przy tym ukryć, że podobny obieg filozoficzny zdarza się tylko w środowiskach silnie nacechowanych ideologicznie. Wielu środowiskom intelektualnym towarzyszy pewnego rodzaju poczucie misji – w związku z tym łatwo znaleźć i zaangażować się w intelektualne (albo też „intelektualne”) dyskusje zarówno transhumanistów, jak i „racjonalistów”, alt-rightu, marksistów, anarchistów, komunistów, ruchów religijnych i zapewne wielu innych. Towarzyszy temu jednak często brak względnie obiektywnych kryteriów selekcji: nie sposób przeprowadzić „recenzji” na forum dyskusyjnym czy twitterze. Podstawowym kryterium decyzji publikacyjnych na blogach czy w innych mediach jest raczej zbieżność wartości, niż zawartość merytoryczna. W skrajnych przypadkach prowadzi to, jak w przypadku Roko, do arbitralnej cenzury. Z drugiej strony, dyskurs akademicki jest często bardziej zachowawczy, a sam dostęp do niego zazwyczaj obwarowany barierami ekonomicznymi (korporacyjne bazy danych, gdzie za dostęp do jednego artykułu trzeba zapłacić kilkadziesiąt dolarów), czy skomplikowany z powodu niskiej dostępności medium (niskie nakłady publikacji drukowanych wydawanych w językach i środowiskach nieanglojęzycznych).

Argument Roko zwraca uwagę na dość powszechnie wskazywane podobieństwo transhumanizmu i religii. Myśl wypływająca z dość racjonalnych przesłanek dotyczących rozwoju techniki i możliwości poprawy ludzkiego życia w swojej eschatologii nie daje już tylko perspektywy życia wiecznego, ale także kary za grzechy. W bardziej „tradycyjnej” myśli transhumanistycznej dostęp do ewentualnej nagrody może zostać „dobrym” transhumanistom jedynie ułatwiony – czy to dlatego, że się zamrozili po śmierci, czy dlatego, że szybciej zorientowali się w nowych możliwościach, czy wreszcie dlatego, że przez zdrowy tryb życia będą w stanie dożyć zmian technologicznych19. Dopiero dzięki bazyliszkowi „złych” transhumanistów spotyka kara.

To właśnie przewijające się często przez ów „drugi obieg” filozofii wątki eschatologiczne lub wizje utopii ułatwiają jej stawanie się literaturą. Nie należy zawężać owej „literackości” do utopii czy eschatologii. Nie chodzi też bynajmniej o przystępny język (wystarczy spróbować przeczytać oryginalny post Roko oraz dyskusję pod nim bez wyszukiwania dodatkowych objaśnień). Z jednej strony czytelnik ma do wyboru historię o powiązaniach koncepcji techniki u wczesnego i późnego Heideggera (napisaną na dziewięćdziesięciu stronach, co w tym kontekście ma znaczenie20), a z drugiej opowieść o złowrogiej SI z przyszłości skazującej na wieczne męki ludzi, którzy z głupoty bądź odwagi przeczytają krótki tekst i kwantowym hazardziście rzucającym jej wyzwanie w całym multiwersum (przypomnijmy, to właśnie było rozwiązanie problemu bazyliszka, które proponował Roko). Filozofia w takiej formie zbliża się do science fiction – staje się formą myślenia pojęć, która nie ogranicza się do wymogów akademickiej debaty, lecz zamiast tego stwarza intrygujące obrazy, które stają się podłożem do dalszej pracy intelektualnej, nawet, jeżeli według klasycznych kryteriów dyskusji naukowej są słabo uargumentowanymi pomysłami21.

Ta forma jest zaraźliwa. Jako autor związany z uniwersytetem muszę szczerze przyznać, że pisząc ten tekst, czułem się dość nieswojo. Pomijając już kwestię odwołań (poza objaśnieniami konkretnych koncepcji większość przypisów i cytowań tutaj to po prostu linki do różnych wiki, forów dyskusyjnych itd.), towarzyszyło mi wrażenie, że piszę niezbyt ambitną powieść science fiction, a w późniejszej części, podczas opisu reakcji na bazyliszka, doszły do tego elementy thrillera politycznego. Sam zresztą fakt, że kończę tekst opisem swoich odczuć jest dla mnie dość poważną zmianą stylu pisania. Trudno mi ocenić, czy filozofia uprawiana na sposób bazyliszka jest w jakiś sposób „lepsza” od obiegu akademickiego. Na pewno jednak jest inna i, chociażby dlatego, warto byłoby ją poznać. Jeżeli przyjmiemy, że filozofia odeszła już od twardych pytań (czym jest byt? jak nasze poznanie może być pewne? jak należy żyć?) na rzecz szukania rozmaitych modeli czy możliwości (czym może być byt? jak tworzyć nowe możliwości/konstrukcje? na jakie sposoby w ogóle można istnieć?), to ten typ myślenia otwiera nowe pola problemowe. Być może czasem niezbyt racjonalne, ale na pewno interesujące.

Grafika: Václav Hollar, Bazyliszek i łasica, https://commons.wikimedia.org/wiki/File:Wenceslas_Hollar_-_The_basilisk_and_the_weasel.jpg.

  1. Zob. https://ieet.org/index.php/IEET2/more/pellissier20150708. Nie jest to może jakiś „leksykon” myśli transhumanistycznej, jednak zaproponowana typologia wydaje się pokazywać spektrum postaw, pomysłów i wartości zawartych w tym nurcie.
  2. Zob. Ferrando, „The Body”, [w:] Post- and Transhumanism: An Introduction, wyd. R. Ranish, S.L. Sorgner, New York 2014, s. 213–226.
  3. Choć nie zawsze – istnieje bardziej ekonomiczna wersja krioniki, polegająca na zamrożeniu jedynie głowy denata(?). Ma to ułatwić późniejsze odtworzenie jego osoby na podstawie struktury neuronów w mózgu.
  4. Wszystkie cytaty w niniejszym artykule w moim tłumaczeniu.
  5. Ulam, „John von Neumann (1903-1957)”, J. London Math. Soc. 64 (1959), s. 5.
  6. I.J. Good, „Speculations Concerning the First Ultraintelligent Machine”, Adv. Comput. 6 (1965), s. 31–88.
  7. Zob. V. Vinge, „The Coming Technological Singularity: How to Survive in the Post-Human Era”, [w:] Vision-21. Interdisciplinary Science and Engineering in the Era of Cyberspace, 1993, s. 11–22; R. Kurzweil, The Singularity is Near, New York 2005.
  8. Oczywiście, jest to mocno dyskusyjne – mind-uploading czy wskrzeszanie zmarłych wymaga niekoniecznie oczywistego założenia o równości idealnej symulacji z obiektem symulowanym. Rozwijam to w dalszej części tekstu.
  9. Samo nazwanie motywu treści, która niszczy psychikę i dosłownie „wypala mózg” bazyliszkiem wzięło się z opowiadania Davida Langforda pt. BLIT. Sam motyw w kulturze pojawia się dość często, wystarczy wspomnieć horror The Ring i wszystkie wariacje na jego temat.
  10. Chodzi tutaj o klasyczny problem w teorii gier o sumie niezerowej: dwoje graczy niezależnie od siebie ma zdecydować, czy chcą ze sobą kooperować (nie zeznawać przeciwko sobie), czy nie (zeznawać przeciwko sobie). W zależności od podjętych działań, jeżeli obaj gracze kooperują ze sobą, dostają niską karę (np. rok więzienia), jeżeli obaj gracze nie kooperują, dostają średnią karę (np. trzy lata więzienia), jeżeli jeden kooperuje, a drugi nie, to kooperujący dostaje wysoką karę (np. pięć lat więzienia), a niekooperujący nie dostaje kary w ogóle. Zgodnie z tradycyjnymi teoriami racjonalnego wyboru dużo lepiej jest niekooperować, niż kooperować, ponieważ, w zależności od zachowania drugiego gracza, albo unikamy kary, albo dostajemy średnią karę, podczas gdy kooperując albo dostajemy niską karę, albo wysoką karę. Sytuacja nieco się zmienia, gdy ci sami gracze podejmują kolejne partie gry ze sobą – wówczas optymalną strategią jest kooperować w pierwszej partii, a w każdej kolejnej powtarzać zagranie przeciwnika z poprzedniej – ma to symulować budowanie zaufania. W omawianym przypadku jednak gra jest jednorazowa.
  11. Co ważne, społeczność LessWrong w dużej mierze pomija dość powszechną we współczesnym utylitaryzmie i teorii decyzji zasadę minimaxu, czyli założenia, że celem działania nie tyle powinien być największy możliwy przyrost szczęścia, lecz minimalizacja negatywnych skutków w najgorszym możliwym scenariuszu zdarzeń. Przy przyjęciu takiej zasady np. w teorii polityki celem rządu nie tyle miałby być generalny przyrost gospodarczy, ale raczej ograniczenie ubóstwa. W takiej sytuacji można stwierdzić, że w tej przykładowej sytuacji przyrost gospodarczy byłby dobry o tyle, o ile służy ograniczeniu ubóstwa.
  12. Teoria efektywnego altruizmu jest w dużej mierze dziełem Petera Singera. W najbardziej uproszczonej wersji chodzi w niej o to, że jeżeli np. za sto złotych można dostarczyć czystą wodę tysiącowi osób, którym to uratuje życie, to należy wszystkie dostępne nam środki finansowe (poza tymi, które umożliwiają nam nasze utrzymanie, a zatem dają nam możliwość pozyskiwania większej ilości środków) przeznaczyć właśnie na ten cel, ponieważ nasza złotówka przełoży się na największy możliwy przyrost szczęścia. Powinno to nastąpić jak najszybciej, bo w każdej chwili umierają ludzie. Jest to dość kontrowersyjny pomysł – bynajmniej nie dlatego, że wymaga od nas pozbycia się większości naszych oszczędności. Powodem kontrowersji jest fakt, że zastosowanie takiego rozumowania sprawia, że np. ochrona zwierząt, wspieranie kultury czy refundacja bądź zbiórka charytatywna na drogą terapię rzadkiej choroby są działaniami wręcz nieetycznymi, ponieważ istnieją bardziej efektywne sposoby zwiększania ogólnoludzkiego szczęścia. Zob. P. Singer, Życie, które możesz ocalić, Warszawa 2011. Interaktywne przedstawienie argumentacji efektywnego altruizmu można znaleźć w: http://www.philosophyexperiments.com/singer/.
  13. Za tym twierdzeniem stoi transhumanistyczne przetworzenie sofizmatu łysego: jeżeli zastąpimy jeden neuron w mózgu jego elektronicznym odpowiednikiem, to tożsamość właściciela tego mózgu zostanie zachowana; jeżeli zastąpimy drugi neuron, także. Możemy zatem zastąpić (nawet pojedynczo) wszystkie neurony w czyimś mózgu ich elektronicznymi odpowiednikami. Innym argumentem, który miałby zwalczyć obawy związane z brakiem ciągłości „ja” w procesie mind uploading jest fakt, że nasze „ja” jest z natury nieciągłe. Jeżeli zachodzi obawa, że symulacja nie będzie „mną”, bo mimo takich samych struktur kognitywnych i wspomnień nie zostanie zachowana ciągłość przeżyć pomiędzy „mną” a „nią”, często przywoływany jest argument ze snu. Śpiąc sprawiamy, że nasze „ja” jest nieciągłe – nie ma zachowanego strumienia przeżyć, w trakcie snu nasze neurony rodzą się i umierają, więc w zasadzie tym, co sprawia, że jesteśmy tą samą osobą przed snem i po obudzeniu się, są te same struktury kognitywne i te same wspomnienia.
  14. Z pobieżnej lektury forum wynika, że chodzi tutaj o wszechświaty tworzące się za każdym razem, gdy kwant przejdzie ze stanu superpozycji do któregoś z dwóch możliwych innych stanów.
  15. Przyjmując takie założenia zresztą trudno stwierdzić, czy właśnie teraz tego nie robi i nie znajdujemy się w jednym z tych modeli.
  16. Formatowanie tekstu oryginalne.
  17. Zob. np. https://www.quora.com/Is-RationalWiki-a-trustworthy-source, https://www.quora.com/How-does-Rational-Wiki-compare-to-Less-Wrong.
  18. https://www.reddit.com/r/Futurology/comments/2cm2eg/rokos_basilisk/cjjbqqo/, https://www.reddit.com/r/HPMOR/comments/28yjbx/some_strangely_vehement_criticism_of_hpmor_on_a/cihysty/. Poglądy Yudkovsky’ego na Rational Wiki podzielają członkowie LessWrong: http://lesswrong.com/lw/cb2/rationalwikis_take_on_lw/, http://lesswrong.com/lw/f5b/the_problem_with_rational_wiki/.
  19. Zob. http://www.nickbostrom.com/views/transhumanist.pdf.
  20. Mam tu na myśli moją pracę magisterską. Bazyliszek Roko jest zdecydowanie krótszy.
  21. Być może o coś takiego chodziło Rafałowi Ilnickiemu w jego książce. Zob. R. Ilnicki, Filozofia i science fiction: technoanamneza, Poznań 2014 oraz moją recenzję.

Komentarze

One thought on “Bazyliszki, literatura, osobliwości: transhumanizm i metafizyczna zgroza

  1. A co to jest „dobro ludzkości”?
    Skąd też pewność, że po śmierci nie ma kolejnego życia, doskonalszego od tego ziemskiego, które by miało służyć jedynie jako pewnego rodzaju jajko z którego wykluwa się ponadmaterialny transhumanista, lepszy lub gorszy i może wcale budowanie Osobliwości nie jest potrzebne? W końcu taka idea jest starsza i bardziej rozpowszechniona niż cała filozoficzna tradycja ludzkiej myśli.

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *