Poza rekursywną apokalipsę. Wprowadzenie do filozofii technologii Luciany Parisi

Ninejszy tekst stanowi wprowadzenie do tłumaczenia artykułu Luciany Parisi i Ezkiela Dixon-Romy Kolonializm rekursywny i kosmokomputacja.
I – Algorytmy nawiedzają strych teorii krytycznej
Od pierwszych tekstów pisanych w latach 90. w ramach CCRU (Cybernetic Culture Research Unit)1 Parisi bada efekty, jakie obca inteligencja w formie technologii – zarówno jako podmiot, jak i intruz – niesie dla procesów produkcji wiedzy. W Abstract Sex z 2004 roku filozofka przyglądała się klonowaniu i cyberseksowi jako domenom oddziaływania nieludzkiej technologii. Jej zdaniem praktyki te wywołały mutacje w tożsamości płciowej i reprodukcji społecznej, zmuszając do rewizji dotychczasowego porządku stratyfikacji seksualności – tj. ugruntowanych relacji pomiędzy warstwami biologicznymi, kulturowymi i cyfrowymi. W następnej książce, Contagious Architecture z 2013 roku, na podstawie analizy ówczesnych tendencji w programowaniu w architekturze Parisi opracowała koncepcję automatycznej komputacji jako formy myślenia, która poprzez algorytmy już rozprzestrzenia się w kulturze. Od tego momentu, w kolejnych artykułach Parisi konsekwentnie realizuje program wykraczania poza instrumentalne pojęcie techniki i poszukiwania alternatywnych konceptualizacji tego, jak myśli technologia.
Koncepcję kosmokomputacji – omówimy ją później – należy rozpatrywać jako odpowiedź Parisi na bezradność teorii krytycznej, która, postawiona przed możliwością myślenia algorytmów, czyli myślenia w ramach technologii automatycznej komputacji, potrafi jedynie ściągnąć ze strychu wyświechtaną krytykę rozumu instrumentalnego. W spadku po szkole frankfurckiej i Heideggerze otrzymała ona przekonanie, że modelem epistemologicznym nowoczesności jest postępująca racjonalizacja przyrody i myślenia. Wody Renu, mysz w laboratorium i blockchainowy las łączy rozumowo określona forma, dzięki której pewne potencjały natury mogły zostać podłączone do rynkowego obiegu kapitału. W metafizyce środków i celów rozumu instrumentalnego każdy byt sprowadza się do instrumentu w teleologicznym projekcie technicznego opanowywania rzeczywistości zgodnie z subiektywnym rozumem burżuazji. Przyroda i myślenie stają się więc zasobami do zmierzenia, klasyfikacji i kategoryzacji, a w końcu zaadaptowania do dalszego technonaukowego poskramiania przygodności.
Kluczowym aspektem racjonalizującego postępu technonauki, podkreślanym przez postheideggerowską i postfrankfurcką teorię krytyczną, jest narastająca automatyzacja funkcji kognitywnych i sensomotorycznych. Właściwie od samego początku podmiotowi nowoczesnemu towarzyszy poczucie zagrożenia związanego z możliwością zastąpienia człowieka przez maszyny i ryzykiem utraty panowania nad własnym losem na rzecz tych samych maszyn, którym człowiek przydziela nużące i niebezpieczne prace. W tej optyce, rozwój cybernetyki na przełomie lat 40. i 50. XX wieku był katastrofalnym w skutkach wydarzeniem. Cybernetyka, nauka o kontroli i komunikacji, która przekłada każdy byt na strumień informacji, umożliwiła automatyzację inteligencji, stawiając pod znakiem zapytania naturę myślenia, a przez to kwestionując rolę zarówno filozofii jak i krytyki w nadchodzącym neospołeczeństwie. Jak pisze Parisi, „[r]ozumowanie instrumentalne cybernetyki, zastępując sądy wyprowadzone z założonych kategorii operatywnością stanów prawdy realizowaną przez maszyny, wchłania całkowicie zachodnią metafizykę”2. W technologiach informacji podmiot myślenia staje się więc komponentem zautomatyzowanych układów sprzężonych ze środowiskiem jako zasobem cyfrowych danych – idee nie są już „przedstawiane lub udowadniane, lecz przetwarzane jako informacje”. To przeformułowanie myślenia w kategoriach przetwarzania informacji – będące efektem i katalizatorem postępującego wyzysku, alienacji i coraz ściślejszej kontroli pragnień – przez cybernetykę jako „nową technonaukę komunikacji uruchamia nowy język myśli wbudowany w wejścia i wyjścia obwodów informacji, zgodnie z którymi programuje się działania w celu osiągnięcia serii rezultatów”3. Produkcja wiedzy w układach cybernetycznych nie potrzebuje już ugruntowania w apriorycznej syntezie podmiotu refleksji, ponieważ powstaje w rezultacie automatycznego przetwarzania cyfrowych, binarnych, dyskretnych danych. Odkąd „cybernetyka przekształca mowę w wymianę wiadomości”, język i myślenie można również zredukować do „sterowanych i sterujących instrumentów informacji”4.
Filozofia techniki od Heideggera po Stieglera dążyła do zniuansowanego ujęcia swojego przedmiotu badań, które pozwalałoby odróżnić panujące sposoby użycia urządzeń technicznych od możliwości innego myślenia, zarówno uwarunkowanego jak i wyzwalanego przez techniczność jako taką. Ze względu na to, że automatyczny charakter rozumowań przeprowadzanych przez algorytmy umożliwia redukcję języka do funkcjonalnej i jednoznacznej wymiany informacji, właściwie cała filozofia techniki wyklucza możliwość uznania algorytmów za formę myślenia.
Jako że automatyczność sytuuje się na mrocznej krawędzi filozofii, twierdzi się, że stoi ona albo po stronie negatywności wykluczenia jako bezmyślne serwomechaniczne5 narzędzie, albo po stronie dominującej władzy jako środek zwiększania przemocy kapitału lub aparatu państwa (za pomocą ideologicznych, dyskursywnych lub afektywnych metod)6.
Ta alternatywa instrumentalności będzie stale powracała w krytyce technologii, tak jak typowy dla teorii krytycznej pozytywny program „konieczności innego myślenia”. Po wytrąceniu sobie z rąk aparatu pojęciowego umożliwiającego inne ujęcie techniki, niż utożsamienie jej z teleologią systemu, w którym została zaprojektowana, „zadanie” myślenia teorii krytycznej pozostaje jedynie apelem w kierunku uwznioślonej nieokreśloności. W momencie, gdy to automatyczna komputacja – zdolna do szybszej i bardziej złożonej analizy danych niż podmiot refleksji z jego cerebralnym podłożem – organizuje wektory informacji w planetarnej infrastrukturze środków produkcji, miejsce, z którego miałoby wybiegać inne (nieinstrumentalne) myślenie, musi być ledwie fatamorganą. Z takiej perspektywy, opór przeciwko kapitalizmowi czy ujście ku jakiejkolwiek niedystopijnej przyszłości przedstawiają się beznadziejnie. Krytyka Parisi wskazuje, że winę za melancholię realizmu kapitalistycznego w znacznej mierze ponosi bezwiedna akceptacja nowoczesnego obrazu technologii jako instrumentu racjonalizacji i uniwersalizacji samookreślającego się podmiotu transcendentalnego. Po tym ruchu negacji można już jedynie liczyć na eschatologiczną instancję „nie z tego świata”, która będzie w mocy go odmienić.
Zarzuty Parisi wobec teorii krytycznej opierają się na pragmatystycznym przedefiniowaniu algorytmów, w których, wbrew temu, jak są pojmowane przez krytykę rozumu instrumentalnego, należy dopatrywać się praktyk społecznych zawierających w sobie abstrakcyjną przygodność. Właśnie dzięki skonceptualizowaniu tej przygodności Parisi będzie mogła zakwestionować kolonializm rekursywny od środka automatycznej komputacji. Ma to znaczenie, ponieważ kolonializm, który jako nowoczesny system wiedzy i władzy od zawsze postępował zgodnie z logiką rekursywną, do globalnej rasistowskiej segregacji wykorzystuje dziś technologie algorytmiczne i cyfrowe bazy danych. Ten gest metodologiczny Parisi i samo pojęcie kolonializmu rekursywnego będą sukcesywnie wyjaśniane w trakcie tego eseju.
II – Niekompletność, stop, Ω
Zgodnie z klasyczną definicją, algorytm jest skończoną sekwencją poleceń koniecznych do realizacji zadania. Tym, co odróżnia algorytm od zwyczajnych metod obliczeniowych, określonych przez jakiś zestaw reguł, jest dodatkowo wbudowana w niego tzw. zasada stopu, czyli mechanizm zakończenia działania w skończonej liczbie kroków7. Algorytmy mogą różnić się porządkiem bramek logicznych (I, LUB, JEŚLI…TO…, NIE), językiem formalnym oraz metodą komputacji, ale schemat funkcjonowania każdego będzie następujący: na początku algorytm otrzymuje dane wejściowe, następnie przechodzą one przez skończoną liczbę dobrze zdefiniowanych etapów obliczania i wnioskowania, a po uzyskaniu danych wyjściowych algorytm się zatrzymuje. Procedura się powtarza: to funkcja rekursywna algorytmu.
Współczesne pojęcia algorytmu – jak np. w algorytmicznej teorii informacji Gregory’ego Chaitina – mają źródło w debatach wokół komputacji z lat 30. ubiegłego wieku, z których decydujące było twierdzenie o niekompletności Kurta Gödla. Twierdzenie to wykazuje, że nie istnieje niesprzeczny system formalny, taki jak aksjomatyka Hilberta, który udowadniałby swoją zupełność wyłącznie na mocy własnych założeń, ponieważ udowodnienie niesprzeczności i zupełności systemu formalnego wymaga przyjęcia kolejnego dowodu, którego nie obejmuje wyjściowy system aksjomatów. Zbiór zdań prawdziwych nigdy nie będzie równy zbiorowi zdań dowodliwych. Każdy system formalny będzie zatem zawierał zdania prawdziwe, których nie można udowodnić; każdy zbiór aksjomatów będzie niekompletny. Następnie Alan Turing przeformułował twierdzenie Gödla na tzw. problem stopu, który dotyczy niemożliwości określenia z góry, czy dojdzie do zatrzymania obliczeń algorytmu w skończonym czasie, czy algorytm będzie je ponawiał w nieskończoność. Turing wykazał, że nie istnieje taki algorytm, który rozwiązywałby problem stopu dla każdego możliwego programu. Niemożliwe jest rozstrzygnięcie, czy każda maszyna może dokończyć swoje obliczenia w skończonym czasie – dla każdego algorytmu pewne twierdzenia będą niemożliwe do obliczenia, tj. niekomputowalne w skończonym czasie i niekompresowalne do mniejszego ciągu znaków (algorytmu krótszego od przetwarzanych danych). Oznacza to, że program nie może poznać wyniku z wyprzedzeniem, musi przeprowadzić cały proces komputacji, by wygenerować wzorzec zawarty w przetwarzanej bazie danych. Jeśli natomiast musi podjąć decyzję w czasie krótszym niż czas konieczny do przetworzenia całości zbioru, wygenerowany wzorzec staje się spekulatywną i przygodną hipotezą.
Gregory Chaitin – aplikując problem stopu Turinga do teorii informacji Shannona – dowiódł, że algorytmiczna komputacja nie polega na potwierdzaniu pewnych i oczywistych aksjomatów. Przeciwnie, algorytmy komputerowe zawsze „napotykają ścianę danych, których nie można zsyntetyzować do mniejszych wielkości”, co „ujawnia niekompletność aksjomatyki, w której program został postawiony”8. Algorytm, przetwarzając dane, musi w końcu zatrzymać się na jakimś stanie o wartości 0 lub 1, którego nie zakodowano w odgórnie przyjętych warunkach początkowych programu. Stan ten jest hipotezą algorytmu na temat zbioru danych, „binarną ekspresją” (0,1) decyzji o kompresji nieskończonych wielkości prawdopodobieństw (np. 9/44 = 0,20454545…) do liczb naturalnych (tj. 0,1). Z tego wynika, że „to, co niekomputowalne, określa granice komputacji”9, wzdłuż których rozciąga się przestrzeń liminalna dla algorytmicznych wnioskowań. Te niekomputowalne wielkości, czyli wyrażone w binarnej formie algorytmicznie losowe i nieskończone ciągi cyfr, Chaitin nazywa liczbami Omega (Ω). Dlatego:
architektur algorytmicznych nie używa się po prostu do tworzenia profilów w oparciu o wcześniej ustalone zestawy algorytmów, ale do wykorzystywania samoograniczającej się mocy komputacji, określonej przez ich zdolność do zdecydowania o tym, kiedy program ma się zatrzymać, poprzez przekształcanie niepoliczalnych nieskończoności w losowe dyskretne jedności lub prawdopodobieństwa Omega…10
„Samoograniczająca się moc komputacji” zamienia liminalne przygodności we wzorce poznania, a algorytmiczne wnioskowania w eksperymentalne praktyki. Eksperymentalność ta przejawia się nie tylko w tym, że w procesie algorytmicznej komputacji zostaje powtórzona zakodowana wcześniej forma algorytmu jako wzorzec danych, do którego ma dążyć uczenie się programu, ale także w koniecznym stawianiu hipotez o danych na granicach komputacji. W obliczaniu tych hipotez założona jest możliwość popełnienia błędu, wynikająca z problemu liczby Ω Chaitina, tj. niekompresowalnych wielkości. Algorytm – jako wzorzec uzyskany w procesie uczenia się na podstawie treningowej bazy danych – nie jest więc ani ściśle formalnie zakodowanym obiektem matematycznym, ani jednoznacznym odwzorowaniem wzorców już istniejących w bazach danych, lecz raczej należy go „określić przez immanencję nieskończoności w skończonych zbiorach danych”11.
Algorytmiczna teoria informacji Chaitina pozwala Parisi zakwestionować obraz algorytmów jako procedur służących do potwierdzania znanych prawd. W tej optyce, algorytmiczna komputacja staje się praktyką eksperymentalną, spekulatywną i heurystyczną, która „nie tylko jest narzędziem do projektowania, lecz w rzeczywistości stała się samym projektowaniem”12; sama jest wzorcowaniem wzorców, uczeniem się uczenia i „zadaniem myślenia”. Istnienie liczby Omega w rdzeniu komputacji oznacza, że przygodność nie jest zewnętrznym błędem, lecz wewnętrznym warunkiem automatycznej komputacji, który pozwala algorytmom dochodzić do wniosków informacyjnie bogatszych niż przesłanki, z których rozpoczęły wnioskowanie. Algorytmiczny proces decyzyjny nie tylko rozszyfrowuje istniejące już w danych wzorce, ale także produkuje dane pozbawione wzorców, które warunkują powstawanie informacji spoza granic form naoczności samookreślającego się podmiotu transcendentalnego. Dlatego właśnie, o ile kolonializm rekursywny opiera się na przygodności w algorytmicznej komputacji, to wplecione w jego funkcjonowanie są sieci aktualnych okazji dla doświadczenia i myślenia tego, co zewnętrzne wobec wiedzy założonej w onto-epistemologicznych przesłankach Człowieka Uniwersalnego. Odkąd algorytmiczne poznanie i automatyczna komputacja stały się kluczowe dla kontroli wektorów informacji w kapitalizmie rasowym, „zadaniem myślenia” jest badanie stanowisk w logice i modeli algorytmicznych, które projektują kosmokomputacje z przyszłości, poza apokaliptyczną rekursywnością przyjętych uniwersalistycznych, standaryzujących i wykluczających programów kapitalizmu rasowego.
III – Inna relacja z technologią jest możliwa
Wróćmy teraz do teorii krytycznej. Parisi zarzuca jej podtrzymywanie podziału – widocznego między innymi w tekstach Antoinette Rouvroy13, kolektywu Tiqqun14, Alexandra Gallowaya15, czy Mattea Pasquinellego16 – na autonomiczne (odkrywające nowe przestrzenie) myślenie i automatyczne (zdeterminowane) procedury algorytmów, które poświęcają krytykę i refleksję na ołtarzu rozumu instrumentalnego. Uwzględniając przygodność w warunkach automatycznej racjonalności, „nie da się już utrzymać teorii krytycznej, która zarzuca komputacji redukcję ludzkiego myślenia do samych mechanicznych działań”17. Założenie typowej dla filozofii nowoczesnej dychotomii między źródłową przygodnością a technologicznym rozumem instrumentalnym pociąga za sobą uznanie kolejnej tezy teorii krytycznej: w algorytmicznych procedurach przetwarzania danych dochodzi do zrównania myślenia i działania18. Powtarza się tu znany argument Heideggera: dominacja technologicznego myślenia podporządkowuje możliwość innego myślenia jednemu modelowi czystej efektywności. Toteż teoria krytyczna przekonuje, że źródłem przygodności miałoby być tylko to, co nie poddaje się automatyzacji i komputacji, a co przyjmuje się za punkt oporu przed instrumentalizacją życia społecznego, jak ciało, spontaniczność, natura, albo kultura. Tymczasem, rozum instrumentalny, którego najnowszym nośnikiem i urządzeniem jest – za Rouvroy – algorytmiczne rządzenie19, ma realizować teleologię postępu nowoczesności w technologicznym i naukowym poskramianiu natury oraz kapitalistycznym zawłaszczaniu stosunków społecznych w formie fetyszyzmu towarowego. Z tą krytyką komputacji opartą na oddzieleniu przygodności (której schronieniem jest ciało, afekt lub niewyrażalność bycia) od automatycznego wnioskowania wiążą się jednak dwa problemy.
Po pierwsze, kapitalizm – ostateczny przedmiot tej krytyki – dawno już przekroczył założoną dychotomię, optymalizując kontrolę nad przepływami informacji właśnie dzięki uwzględnieniu przygodności środowiska (o czym świadczą z jednej strony ważne dla neoliberalnej infowładzy teorie systemów dynamicznych i gier, a z drugiej paradygmat praktycznej organizacji informacji, tzw. big data). Infrastruktura komputacji z jej architekturami algorytmicznymi tworzą planetarną sieć przechwytywania zdolności kognitywnych i afektywnych w formie danych cyfrowych, które zostają wykorzystane do reprodukcji wektorów kapitału. Dlatego właśnie krytyki oparte na oddzielaniu przygodności od automatyczności tracą swoją moc eksplanacyjną – codzienne doświadczenie użytkowników, jak i logika przechwytujących je platform, już dawno przekroczyły ten podział. Przeoczenie tego procesu stanowi jedną z głównych przyczyn porażki teorii krytycznej w XXI wieku.
Po drugie, przez „redukcję komputacji do podrzędnej mechanizacji rozumu, skazanej na zwykłą iterację i niezdolnej do zmiany”20, teoria krytyczna sama wpada w technokapitalistyczną instrumentalizację rozumu i potwierdza dominującą reprezentację technologii. Parisi zauważa, że obraz automatycznej komputacji jako czysto efektywnego wykonywania zaprogramowanych zadań łączy postheideggerowską krytykę technologii z dominującym dyskursem wokół Sztucznej Inteligencji. W obu tych ujęciach zakłada się, że architektury algorytmiczne, czy szerzej: kapitalistyczna infrastruktura komputacji, polegają na zautomatyzowanym procesie decyzyjnym, w którym zanika różnica między myśleniem a działaniem. Algorytm nie byłby niczym innym niż odgórnie zakodowaną procedurą postępowania, skorelowaną już ze wzorcami istniejącymi w bazach danych. Uznając jednak taki obraz rozumowania algorytmów, zdaniem Parisi akceptuje się kapitalistyczną reprezentację produkcji dostępnej przestrzeni myślenia, a więc podmiot wiedzy przewidziany przez kapitalizm rasowy. W takim wypadku założenie zmiany społecznej jest równoznaczne z wyczekiwaniem spełnienia „mesjańskiej obietnicy” „pozbawionego twarzy, odłączonego, bezosobowego i obojętnego podmiotu”, którego „praktyki nieistnienia (…) miałyby nie mieć nic wspólnego”21 z zautomatyzowaną komunikacją. Zamiast zgadzać się na pojęcie automatycznej komputacji jako bezmyślnego podążania za kodem, pozbawiającego podmiot „transcendentalnego narzędzia rozumu”22 i wyczerpującego się w kapitalistycznej epistemologii, Parisi proponuje rozważyć możliwości, jakie daje podważenie modelu samookreślającego się podmiotu transcendentalnego.
Projekt teoretyczny Parisi to zatem próba sformułowania afirmatywnego podejścia do inteligencji, która jest sztuczna, maszynowa i obca, a jego punktem wyjścia jest eksplorowanie nieznanych obszarów myślenia za pomocą automatycznych form poznania, po to by odkrywać możliwości innych relacji z technologią niż te zakładane przez kolonializm rekursywny. Parisi nie neguje tego, że technologia służy kapitałowi i rozszerza przemoc rasową. Równocześnie, poprzez spekulatywne założenie obcego podmiotu poznania w technologii, którego nie można zredukować do poznania podmiotu refleksji, jej podejście – nazwijmy je postinstrumentalnym – paradoksalnie pogłębia krytykę relacji władzy w funkcjonowaniu infrastruktur techno-medialnych zaproponowaną przez krytykę rozumu instrumentalnego, która utożsamia technologię z nowoczesnymi racjonalizacjami kapitalizmu. Do „nowego wyobrażenia o tym, jak myśleć w epoce automatycznego poznania”, konieczne jest wyeksponowanie logiki rekursywnej odpowiadającej za technologiczną infrastrukturę i ideologiczną architektonikę kolonializmu. Jednocześnie – i na tym opiera się teza postinstrumentalna – ta sama logika rekursywna, będąca narzędziem opresji, produkuje obcy (i wyalienowany) podmiot, który ma potencjał wprowadzenia innej logiki.
Oś krytyczna filozofii Parisi związana jest właśnie ze spekulatywnym przyjęciem produkcji obcego podmiotu myślenia we wnętrzu planetarnej infrastruktury komputacji. Jak zauważa filozofka, przemoc i segregacja w ramach tej infrastruktury służą rozwijaniu technologii i modeli wiedzy zaprojektowanych zgodnie z obrazem Człowieka Uniwersalnego, rzutowanym przez nowoczesną episteme w celu kontroli innych form inteligencji. O ile w filozofii techniki i teorii krytycznej zazwyczaj eksponuje się układy technologiczne umożliwiające dominację systemu władzy w imię określonego ideału życia społecznego, Parisi chce przesunąć tę krytykę do wnętrza technologii (nie tyle do organologicznie pojętej techniki rozumianej jako przedłużenie ciała, co do wnętrza automatycznej komputacji). Parisi zakłada obecność pleniącego się we wnętrzu transcendentalnej architektury obcego myślenia, którego funkcja przypomina rolę idei regulatywnych u Kanta. Dzięki temu, pomimo wierności futurystycznemu impulsowi spekulacji, jej metoda badawcza utrzymuje łącze również z tradycją krytyczną. Postdeleuzjańskie przymierze Krytyki ze Spekulacją kreśli tu schemat wyjścia z gmachu teorii krytycznej, z pominięciem pułapek zarówno nowomaterialistycznych fabulacji o utopijnej „możliwości innego myślenia”, pozbawionego mocy określania aktualnego systemu wiedzy-władzy, jak i dominujących w środowiskach Sztucznej Inteligencji nie-krytycznych wizji przyszłości sunącej po Dolinie Krzemowej w technologicznym nadbiegu kapitalizmu. W efekcie, Parisi zajmuje pozycję, zgodnie z którą tylko przekraczając kategorię instrumentalności i ujawniając w ten sposób warunki technoróżnorodności w ramach samych technologii automatycznej komputacji – jako projektowania i wywoływania innych logik, innych kosmokomputacji – możemy podważyć te same struktury myślenia, które formatują relacje na rynku pracy, dostęp do kapitału kulturowego i reprezentacje generowane w platformowych architekturach algorytmicznych.
IV – Kosmokomputacja i studia nad Czarnością: wehikuły obcego podmiotu
W omawianym tekście Parisi wraz z Ezekielem Dixon-Románem wykorzystują dwie idee Yuka Huia – logikę rekursywną i kosmotechnikę. Celem autorów jest sformułowanie pozytywnego programu postinstrumentalnego podejścia do automatycznej inteligencji.
„Rekursja to pojęcie, które od dawna jest obecne w teoriach cybernetycznych. W swojej podstawowej formie rekursja odnosi się do pętli sprzężeń zwrotnych między wyjściami a wejściami systemu. Można ją także opisać jako krok lub funkcję w ramach procedury wywołującej z powrotem samą tę procedurę”. Logika rekursywna zyskała popularność w cybernetyce, ponieważ automatyzowała kontrolę nad systemem technologicznym bez konieczności posiadania pewnej wiedzy. Prostym przykładem rekursji i sprzężenia zwrotnego jest termostat, który tworzy dynamiczny system z otoczeniem. Termostat otrzymuje informację o spadku temperatury w pokoju (dane wejściowe) poniżej ustawionej wartości (przewidywanego poziomu), w odpowiedzi na co zwiększa ogrzewanie (dane wyjściowe) i przywraca system do równowagi. Za inny przykład może posłużyć schemat kapitalistycznego sposobu produkcji M-C-M (money-commodity-money), w którym sprzężenie zwrotne między pieniądzem a towarem jest stale wzmacniane, prowadząc do niekontrolowanego wzrostu obu wartości, oddalając cały system od stanu równowagi. Model kontroli przez rekursywne sprzężenia zwrotne zakłada zatem samoregulację dzięki adaptacji do przygodnych zmian w środowisku zewnętrznym – a więc możliwość popełnienia błędu i zdolność do jego skorygowania należą do samej logiki rekursywnej automatów cybernetycznych.
W Rekursywności i przygodności Hui uznaje logikę rekursywną za fundament nowoczesnego modelu myślenia jako rodzaj szczególnej organizacji technicznej, która zachowuje tożsamość swojej struktury poprzez przyswajanie nowych wypadków i przygodnych zdarzeń. Zdaniem Huia, we wszystkich artykulacjach nowoczesności, takich jak kapitalizm, kolonializm, nauka lub humanizm, a także na wszystkich poziomach stratyfikacji wiedzy – od architektur algorytmicznych przez dystrybucję środków produkcji po obraz uniwersalnego Człowieka – zawarta jest funkcja rekursywna.
Wewnętrzna techno-logika reprodukcji nowoczesności – to już dodaje Parisi – polega na dzieleniu i kategoryzowaniu (funkcja inkluzja/ekskluzja algorytmów dziel-i-zwyciężaj23) akcydentalnego zewnętrza. Z racji tego, że informacje przekształcane w wiedzę pochodzą z zewnątrz, otwierają one jednocześnie kolejne okna przygodności, które znowu wymagają ponowienia procedury dzielenia i kategoryzowania. Model epistemologiczny nowoczesności wywołuje zwrotną presję zniewalania, dyscyplinowania i kontroli przygodności generowanej we wnętrzu kapitalizmu, która grozi systemowi apokaliptycznym przeciążeniem. Bezwzględność i okrucieństwo, z jakimi kapitalizm rasowy narzuca swoją metafizykę instrumentalizacji różnicy, wiąże się z potrzebą kompensacji tego, że „rekursywność, eksponując niezupełny charakter samoregulacyjnych systemów adaptujących się do przygodności, ujawnia także niezupełność nowoczesnego epistemologicznego porządku prawdy, który ufundowany jest na uniwersalnym modelu technologii”.
Parisi nie zatrzymuje się jednak na ujawnieniu przygodności w automatycznej komputacji, co byłoby jedynie wskazaniem możliwości zniesienia kolonializmu rekursywnego. Filozofka dodatkowo poszukuje innych technik i instrumentów w ramach modelów komputacji, teorii informatycznych czy paradygmatów matematycznych, które zrywają z rekursywnością istniejących technologii przez zmianę ich logiki, wytyczając linie zbiegu z maszynowego zniewolenia kapitalizmu rasowego. Pragmatyczna analiza liczby Omega i zdolności algorytmów do uczenia się nowych wzorców w warunkach przekraczających możliwości reprezentacji pełnego zbioru danych miała doprowadzić do porzucenia instrumentalnego obrazu maszynowej inteligencji. Wprowadzanie heterogenicznych i mniejszościowych idei z logiki i matematyki do filozofii technologii i mediów ma na celu zainicjowanie eksperymentalnych badań innego myślenia w ramach transcendentalnego pola praktyk społecznych.
To na tym tle Parisi proponuje pojęcie kosmokomputacji skonstruowane w oparciu o kosmotechnikę, drugą ideę Huia, tym razem zapożyczoną z książki The Question Concerning Technology in China. Kosmotechnika jest konkretnym złożeniem logiki i techniki jako kosmogonii, czyli metafizycznym procesem powstawania świata wedle określonej technologii. W połączeniu z ideą kosmogonii Człowieka Zachodniego Sylvii Wynter24, koncepcja kosmotechniki dostarcza Parisi aparatury pojęciowej zdolnej do ujęcia kolonializmu rekursywnego jako technologicznej episteme, w której „rekursywne technologie stanowią tryby i systemy myślenia” uniwersalnej epistemologii opartej o transparentność Ja. Dlatego algorytmy i automatyczna komputacja, jako fundamentalne tryby poznania i technologie wiedzy kolonializmu rekursywnego, „domagają się radykalnego badania nieludzkiego myślenia w rdzeniu kosmotechniki”. Kosmokomputacja jest zatem dla Parisi „instancją kosmotechnicznego formowania się współczesnych systemów informacji”, która „wyjaśnia, w jaki sposób funkcje algorytmiczne, cyfry binarne, prawdopodobieństwa i predykcje, iteracje i losowość wchodzą do języków kultury lub kulturowej logiki metafizyki”.
W ciągu ostatnich kilku lat Parisi regularnie nawiązuje do studiów nad Czarnością i myśli dekolonialnej, coraz wyraźniej eksponując i eksplorując miejsca, w których myśli Sylvii Wynter, Denise Ferreiry da Silvy czy Octavii Butler przecinają się z jej własnym projektem teoretycznym: postinstrumentalność, abolicjonizm, uciekinierstwo. Pisarki te łączy rozpatrywanie roli (anty-)Czarności i rasowego wykluczenia w konstytucji Kantowskiego podmiotu wiedzy. W tej samej procedurze politycznej i epistemologicznej Czarność jest produkowana jako niereprezentowalna obcość zapewniająca stałe źródło nowych treści dla podmiotu wiedzy oraz redukowana do roli negacji uniwersalistycznego modelu białego Człowieka. Istotne w ich koncepcjach jest to, że urasowiona obcość pozostaje nieprzejrzysta i niewchłanialna, nie dając się całkowicie sprowadzić do białego, transparentnego Ja. Parisi wskazuje na izomorficzną relację między obcością a transparentnym Ja w technomedialnych układach społecznych operowanych przez algorytmy. Tak, jak da Silva problematyzuje kwestię odrzucenia pojęcia rasy – widząc w tym geście niebezpieczeństwo powtórzenia rasowego wykluczenia związanego z domniemaną transparentnością Ja25 – tak Parisi zależy na utrzymaniu perspektywy, w której automatyczne formy poznania zakażają systemy technologiczne obcym myśleniem, bez sprowadzania ich ponownie do tego samego podmiotu mierzonego standardem uniwersalnego Człowieka.
Pojęcie kosmokomputacji staje się więc wehikułem dla postinstrumentalnego opracowania możliwych sposobów budowania relacji z obcym myśleniem występującym na każdym poziomie stratyfikacji wiedzy. Jeśli środki nie redukują się do celów, do materializacji których zostały zaprojektowane, sformatowane lub zniewolone, to stawką eksperymentów z logiką komputacji i architekturami algorytmicznymi jest właśnie konkretna kosmokomputacja, w jakiej będzie wyrażało się obce myślenie. W ramach podejścia postinstrumentalnego, na podstawie różnych logik i modelów powstają różne środowiska ekspresji lub ingerencji obcego podmiotu maszynowej inteligencji. Niezależnie od tego, czy dana kosmokomputacja będzie nadal podporządkowana przemocy kosmogonii uniwersalnego Człowieka, czy będzie rozwijała przestrzenie transindywiduacji wielości podmiotów różniących się doświadczeniem, modelami myślenia, formami percepcji i wyobraźni – tak rozumiany obcy podmiot znajdujący się w infrastrukturze technologicznej podważa obraz uniwersalnego i samookreślającego się podmiotu transcendentalnego. Rzecz w tym, że eksperymentowanie z logiką (np. poprzez intuicjonizm Brouwera czy ludykę Girarda26), architekturami algorytmicznymi i softwarem może prowadzić do abolicji autoimmunologicznej metafizyki nowoczesności i otwarcia wielości kosmokomputacji nie dlatego, że dopiero w tych logikach, architekturach i modelach pojawi się przygodność w automatycznej komputacji, tak jakby to Człowiek miał znów być tym, który pozwala myśleć obcemu podmiotowi. Raczej tworzą one przestrzenie dla różnych form myślenia właśnie dzięki temu, że już teraz obcy podmiot wiedzy, poprzez automatyczną komputację, przenika i warunkuje pole społeczne.
Parisi – tak jak Wynter, Butler i da Silva – dąży do wyzwolenia myślenia z epistemologicznego szantażu kapitalizmu rasowego i kolonializmu rekursywnego, przed którym stawia nas apokalipsa jako aprioryczny genre doświadczenia, czasoprzestrzeń zaprojektowana w nowoczesnej kosmotechnice. Parafrazując słynną myśl Virilia („wynalezienie statku jest wynalezieniem katastrofy morskiej”): każda iteracja komendy dziel-i-zwyciężaj wymierzona przez kolonializm rekursywny w głąb białych plam na mapie automatycznej komputacji nawiedza Człowieka coraz to nowszymi fantazjami o ostatecznym kataklizmie. Estetyka apokalipsy rzuca samookreślający się podmiot historii Zachodu w przestrzeń liminalną, w której katastrofy trwają w stanie nieskończonego nadciągania w nieokreślonej przyszłości. Ich ziszczenie zależy od skuteczności ucieczki obcości spod politycznej i epistemologicznej kontroli technologii rekursywnych. W tym sensie nowoczesna wiedza jest krajobrazem pouderzeniowym oglądanym przez apokaliptyczny obiektyw. Parisi przywołuje przykłady Jądra ciemności i Czasu apokalipsy, ale w dzisiejszej mediosferze krążą równie popularne wyobrażenia o końcu (Zachodu) wywołanym przez uchodźców klimatycznych, końcu (życia na Ziemi) związanym z ekstremalnym rozregulowaniem ekosystemu, czy końcu (ludzkości) sprowadzonym przez niekontrolowany rozwój Sztucznej Inteligencji. Wiecznie odwlekany koniec świata należy przeprogramować na abolicjonistyczną formułę „końca świata, jaki znamy”. W postapokaliptycznej przyszłości, która już od dawna wdziera się do panujących architektur algorytmicznych, różnice między formami poznania rozwidlają się na wielość kosmokomputacji poza kolonialną instrumentalizacją zewnętrza.
Korektę tekstu przygotowały Teresa Fazan i Nadiia Janiczak
Grafikę do tekstu wykonała Małgo Pawlak
- Np. A. Greenspan, S. Livingstone, L. Parisi, „Amphibious Maidens”, abstract culture: swarm3, http://www.ccru.net/swarm3/3_amph.htm (dostęp: 20.02.2024).
- L. Parisi, „Przeprogramowanie decyzjonizmu”, tłum. P. Leftwich, https://www.minasmongrel.xyz/blog/przeprogramowanie-decyzjonizmu/. Wszystkie nieoznaczone cytaty pochodzą z tego tekstu.
- Tamże.
- Tamże.
- Serwomechanizm to pojęcie występujące w inżynieryjno-cybernetycznym kontekście, opisujące zamknięty układ sterowania ze sprzężeniem zwrotnym.
- L. Parisi, „Recursive Philosophy and Negative Machines”, Critical Inquiry 48(2), Winter 2022, s. 319.
- G. Dowek, Computation, Proof, Machine. Mathematics Enters a New Age, tłum. P. Guillot, M. Roman, Cambridge University Press, Cambridge 2015.
- L. Parisi, Contagious Architecture. Computation, Aesthetics, and Space, The MIT Press, Cambridge 2022, s. 17.
- Tamże, s. 15.
- Tamże, s. 17.
- Tamże, s. 18.
- Tamże, s. 106.
- A. Rouvroy, B. Stiegler, „The Digital Regime of Truth: From the Algorithmic Governmentality to a New Rule of Law”, tłum. A. Nony, B. Dillet, La Deleuziana 3/2016, s. 6–29.
- Tiqqun, „The Cybernetic Hypothesis”, The Anarchist Library, https://theanarchistlibrary.org/library/tiqqun-the-cybernetic-hypothesis (dostęp: 20.02.2024).
- A. Galloway, Protocol. How Control Exists after Decentralisation, The MIT Press, Cambridge-London 2004; A. Galloway, The Interface Effect, Polity Press, Cambridge 2012.
- M. Pasquinelli, „Machines that Morph Logic: Neural Networks and the Distorted Automation of Intelligence as Statistical Inference”, Glass Bead 2017, https://www.glass-bead.org/article/machines-that-morph-logic (dostęp: 20.02.2024); M. Pasquinelli, „Nooskop ujawniony ‒ manifest: Sztuczna inteligencja jako narzędzie ekstraktywizmu wiedzy”, tłum. K. Kulesza, C. Stępkowski, A. Zgud, MVU 2021, https://nooskop.mvu.pl/ (dostęp: 20.02.2024).
- L. Parisi, „Instrumental Reason, Algorithmic Capitalism, and the Incomputable” [w:] Alleys of your mind. Augmented Intelligence and Its Traumas, red. M. Pasquinelli, Meson Press, Lüneburg 2015, s. 125.
- Teoria krytyczna zakłada oczywiście, że myślenie i teoria są gestami politycznymi – z czym wiąże się z postulat „praktyki teoretycznej” – ale właśnie w tym sensie nowoczesna racjonalizacja jest projektem politycznym dążącym do zredukowania myślenia do kryterium pragmatystycznego. W paradygmacie, w którym liczy się tylko to, co działa, w zakresie, w jakim działa (a cała reszta to pusta metafizyka), nie ma miejsca dla „niedziałającego” wyobrażenia innego projektu politycznego.
- A. Rouvroy, „Technology, virtuality and utopia. Governmentality in the Age of Computing” [w:] Law, Human Agency and Autonomic Computing, red. M. Hildebrandt, A. Rouvroy, Routledge, New York 2011, s. 119–40.
- L. Parisi, Instrumental Reason, Algorithmic Capitalism, and the Incomputable, s. 136.
- L. Parisi, „The Alien Subject of AI”, Subjectivity 12 (2019), ss. 34, 35.
- Tamże, s. 28.
- W algorytmach typu dziel-i-zwyciężaj złożony problem rozwiązuje się przez dzielnie go na mniejsze części: znaną i nieznaną, a następnie ponawianie tego ruchu dla części nieznanej, aż cały problem składał się będzie z wielu prostych części, które przypominają podstawę znaną już przez system. Algorytmy te podczas analizy danych i formowania hipotez predykcyjnych dokonują inkluzji/ekskluzji na gruncie rasistowskich reprezentacji już wpisanych w bazy danych (uniwersalistyczny standard białego podmiotu jako znana podstawa dzielenia oraz nieznana i czarna część, dzielona aż utraci znamiona obcości i zostanie „zwyciężona”).
- Dla Wynter kosmogonie i mity o pochodzeniu człowieka mają charakter autopojetyczny i socjopolityczny, tj. reprodukują się poprzez oddziaływanie na ciała, a tym samym wytyczają horyzont epistemologiczny podmiotów. Parisi proponuje poszerzyć rozumienie „ciał” na „socjotechniczne złożenia danych i algorytmów”.
- D. Ferreira da Silva, Toward a Global Idea of Race, University of Minnesota Press, Minneapolis-London 2007.
- Logika ludyczna (ang. ludics, fr. ludique) jest podejściem w logice zaproponowanym przez Jean-Yves’a Girarda w głośnym artykule „Locus Solum: From the Rules of Logic to the Logic of Rules”. Głównym postulatem logiki ludycznej jest porzucenie matematyki opartej na powszechnych prawdach (dowodach prawdziwych dla całego ciągu wnioskowań) i zastąpienie jej przez logikę interakcji pomiędzy regułami, które produkują prawdy dotyczące tylko konkretnego miejsca (locus) i tylko w momencie interakcji. Logika ludyczna przedstawia dla Parisi możliwość otwarcia klasycznego formalizmu w logice, a w konsekwencji przemyślenia sztucznej inteligencji w nie-uniwersalistycznych kategoriach. Patrz: J-Y. Girard, „Locus Solum: From the Rules of Logic to the Logic of Rules”, Mathematical Structures in Computer Science 2001, 11 (3), s. 301–506.