Nawet gdybyśmy chcieli, to nie uciekniemy od nowych technologii – zresztą, dlaczego mielibyśmy tego chcieć?
Sztuczna inteligencja i Internet były u swojego zarania nadzieją na lepszy świat. Wciąż mogą nią być, nawet jeśli dziś kojarzą się nam raczej z inwigilacją i manipulacją. O tym, że inny Internet jest możliwy, mówi jeden z kuratorów Biennale Warszawa 2022, Bartosz Frąckowiak.
Sylwia Niemczyk: Powiem szczerze, że gdy przeczytałam założenia tegorocznego Biennale Warszawa, to musiałam przez chwilę się zastanowić. Z jednej strony sieć i sztuczna inteligencja, a z drugiej – J.R.R. Tolkien? Jak Wam się udało połączyć dwa światy?
Bartosz Frąckowiak: Tytuł Biennale, czyli Widzące kamienie i przestrzenie poza Doliną rzeczywiście odwołuje się do Tolkiena, a konkretnie do wymyślonych przez niego palantirów, czyli właśnie „widzących kamieni”. Wyglądały jak czarne kule i pozwalały wybranym osobom – tym, które były obdarzone odpowiednią mocą – nie tylko widzieć przeszłe i przyszłe wydarzenia, lecz także przenikać wzrokiem poprzez materię i dostrzegać rzeczy, które znajdowały się gdzieś daleko. Poza tym, kiedy się było w pobliżu jednego palantira, można było słyszeć to, co się działo przy innym – tworzyły więc sieć nadajników-odbiorników. Często służyły też do komunikacji mentalnej, bez użycia języka, na zasadzie transmisji „mózg do mózgu”.
Skojarzenie tolkienowskich „widzących kamieni” z Internetem i technologią AI jest trafne, ale wcale nie powstało na potrzeby Biennale Warsawa – zapożyczyliśmy je od amerykańskiej, bardzo tajemniczej firmy informatycznej Palantir Technologies, która została założona przez Petera Thiela niedługo po atakach na World Trade Center i przez lata była finansowana przez CIA. Jeszcze do niedawna nikt nie wiedział, co dokładnie robi i jak to robi. Wiadomo było jedynie, że jest jedną z największych albo nawet największą firmą na świecie zajmującą się zbieraniem danych i realizuje zlecenia głównie dla wojska i agencji rządowych, w tym FBI i CIA. Według jednej z popularnych teorii ujęcie Osamy bin Ladena było możliwe tylko i wyłącznie dzięki informacjom uzyskanym właśnie przez Palantira.
Sam Peter Thiel to niezwykle ważna postać świata technologicznego – jest nie tylko właścicielem Palantira, ale także współzałożycielem PayPala, jednym z głównych udziałowców Facebooka i bliskim współpracownikiem Marka Zuckerberga, a do tego znanym inwestorem Doliny Krzemowej. Nazwy swoich firm zawsze bierze z Tolkiena. I robi to z konkretnego, ideologicznego powodu, otóż uważa, że jak czarodziej Gandalf ratuje świat – i ma tutaj na myśli bardzo konkretny świat, czyli Zachód. Mówi wprost, że Palantir chroni zachodnie wartości np. konserwatyzm i dominację białej rasy.
Nowe technologie w służbie starej ideologii.
Dokładnie tak. Nagle okazuje się, że ludzie, którzy zajmują się supernowoczesnymi, progresywnymi technologiami w gruncie rzeczy są zanurzeni w reakcyjnych, radykalnie konserwatywnych poglądach. A przecież przez wiele lat, właściwie jeszcze do niedawna, cała Dolina Krzemowa kojarzyła się z wolnością, równością, nawet ideami hipisowskimi. To też w pewnej mierze był zabieg marketingowy, wykreowany na potrzeby odbiorców – podobnie jak wielki amerykański mit wynalazców, którzy zaczynali w garażu bez jednego dolara przy duszy. Aż tu nagle zjawia się Peter Thiel z Tolkienem pod pachą i tolkienowskim Save the Shire na koszulce – ponoć wszyscy pracownicy Palantira mają takie koszulki – i nagle technologia przestaje się kojarzyć przyjaźnie i wolnościowo, a zaczyna autorytarnie i groźnie.
Dlaczego w takim razie kuratorzy Biennale, w tym Ty, zdecydowali się na przywołanie tego samego Tolkiena?
Bo uznaliśmy, że tolkienowskie „widzące kamienie”, które tak się spodobały Thielowi, są jednocześnie zgrabną metaforą mogącą posłużyć do zobrazowania wielu mechanizmów funkcjonujących w obszarze współczesnych technologii, sztucznej inteligencji czy sieci neuronowych: patrzenia w przyszłość i przeszłość, klasyfikacji i predykcji, zbierania danych i na ich podstawie opisywania wzorców i reguł ludzkich zachowań.
Ale to nie wszystko, bo przecież z drugiej strony sieć internetowa, tak samo jak kamienie u Tolkiena, nie jest jakimś abstraktem, tylko tworem konkretnym i materialnym. Dzięki metaforze palantirów możemy więc zwrócić uwagę na aspekt, który zazwyczaj jest pomijany, czyli na materialność technologii. Cały nasz sprzęt elektroniczny składa się przecież z jakichś „kamieni” – to są minerały, metale ziem rzadkich, które pochodzą z konkretnych miejsc na Ziemi, np. z kopalni w Afganistanie czy w Kongu. Rzadko się nad tym zastanawiamy, tak samo, jak nie myślimy o materialności danych, które też przecież muszą być w konkretnym miejscu przechowywane i przetwarzane. Obecnie na świecie jest prawie 9 mln centrów przetwarzania danych, które łącznie zajmują powierzchnię dwa razy większą niż Paryż. Te centra potrzebują przecież wody, żeby chłodzić serwery. Na Ziemi, chociażby w USA, już istnieją miejsca, gdzie zaczyna brakować wody właśnie dlatego, że jest ona wykorzystywana przez centra przetwarzania danych. Poza tym weźmy pod uwagę ślad węglowy i emisję CO2. Centra przetwarzania danych potrzebują gigantycznej ilości energii elektrycznej, która w dużej mierze pochodzi z węgla. Twórcy i użytkownicy technologii blockchain skłaniają się, żeby coraz bardziej opierać się na źródłach energii odnawialnej, ale to nadal stanowi niewielki procent dzisiejszej technologii. Zostało dokładnie wyliczone, że przemysł przetwarzania danych emituje więcej CO2 niż cały przemysł lotniczy. I tendencja cały czas jest rosnąca.
I nie mówimy tutaj o przemyśle lotniczym uziemionym podczas lockdownu?
Nie, badania, o których wspominam, pochodzą z 2019 r., czyli jeszcze z czasów przedpandemicznych. Dla wielu ludzi to jednak spore odkrycie, że ich zdjęcia i mejle nie znajdują się w jakiejś chmurze, ale w konkretnych halach przemysłowych czy bunkrach pamiętających jeszcze czasy zimnej wojny. Infrastruktura technologiczna to także ogromne kable przeciągnięte przez dno oceanu, którymi są transferowane dane.
Jak to się stało, że zdecydowaliście się skierować światło na nowoczesne technologie?
Przez ostatnie lata zajmowaliśmy się tematyką autorytaryzmu i bardzo długo planowaliśmy [Biennale Warszawa miało się odbyć w 2021 r., ale ze względu na pandemię zostało przełożone o rok – przyp. red.], żeby to on był głównym tematem najbliższej edycji. Chcieliśmy spojrzeć na niego możliwie najszerzej – nie tylko na działania rządów, ale też korporacji, które odbierają nam wszystkim sprawczość, rozsadzają różne formy demokracji i popychają naszą rzeczywistość w złą stronę. 10 lat temu uważnie obserwowaliśmy najpierw światowy zryw społeczny, którego częścią była arabska wiosna, Occupy Wall Street, Indignados. Ale zaraz potem zaczęły się próby zduszenia go. Szybko okazało się, że skuteczne. Dzisiaj na świecie raczej dominują nie prądy wolnościowe, ale autorytarne. Im uważniej się temu przyglądaliśmy, tym wyraźniej widzieliśmy, że dla tych wszystkich nowych autorytaryzmów kluczowa jest nowoczesna technologia.
Pandemia jeszcze bardziej zanurzyła nas w świecie technologii, wszyscy dziś jesteśmy dostępni na Zoomie, Teamsach, coraz więcej ludzi pracuje zdalnie. W którymś momencie doszliśmy do wniosku, że najsensowniejszą platformą do rozmowy o świecie jest płaszczyzna technologiczna.
Wiele osób po słowie „technologia” przestaje dalej słuchać.
Ciekawi mnie w takim razie, o czym dyskutują ze znajomymi, bo przecież dzisiaj, jeśli chcesz rozmawiać np. o polityce, to nie masz wyjścia – musisz mówić o technologii. Jeśli chcemy obserwować zmiany w społeczeństwie – najsensowniej to robić poprzez technologię. Tak samo współczesna ekonomia nie istnieje bez technologii. Kwestie klimatyczne też najwyraźniej widać przez jej pryzmat. Okazuje się, że współcześnie nie ma żadnego ważnego obszaru życia, który nie przenikałby się z tematami technologicznymi. Chcemy o tym mówić.
Tylko jak już to usłyszymy, czy możemy potem coś z tą wiedzą zrobić? Nawet jeśli będziemy wiedzieć o kablach rozciągniętych na dnie oceanów, którymi płynie Internet, to przecież nie przestaniemy z niego korzystać. Możemy się zatrwożyć, słysząc, że nasze dane są gdzieś przechowywane, ale nadal nieraz będziemy musieli je udostępniać.
To, co mówisz, silnie wiąże się z naszym poczuciem sprawczości, które obecnie przeżywa wielki kryzys. Większość ludzi myśli: „No dobra, żyjemy w takiej rzeczywistości i nic już nie możemy zrobić”. Jak w thatcherowskim haśle: there is no alternative. Mnóstwo katastroficznych narracji filmowych, popkulturowych wzmacnia to przekonanie, że nie mamy pola manewru.
A mamy?
Możemy mieć. I o tym też chcemy podczas Biennale mówić. Poza linią krytyczną, która ma uświadamiać i pokazywać powiązania pomiędzy danymi obszarami – zresztą zawsze celem Biennale Warszawa było pokazywanie, jak jedna rzecz odnosi się do drugiej – mamy też drugą linię, wizjonerską. Chcemy otwierać wyobraźnię i poszerzać jej pole. Chcemy przedstawiać pomysły, próby, prototypy, konkretne działania, które udowadniają, że można w alternatywny sposób wykorzystywać technologię.
Chciałbym podkreślić, że wcale nie nawołujemy do rezygnacji z niej. Ale żeby ją zmieniać, musimy najpierw sobie zdać sprawę z tego, jak wygląda stan rzeczy na dzisiaj.
Spójrzmy na pierwszy z brzegu przykład: mnóstwo ludzi dziś namawia, żeby nie drukować gazet czy książek, bo bardziej ekologiczne będzie korzystanie z Internetu. Tylko czy na pewno tak jest? Czy wiemy, jaki ślad węglowy generujemy w ten sposób? Inny przykład: hashtag #climatechange, który jest przecież używany przez aktywistów w dobrej wierze, generuje poprzez samego Twittera około 70 kg CO2 rocznie, a poprzez TikToka – który jest pod względem emisyjnym najgorszym medium społecznościowym – aż 3,5 tys. kilogramów.
Uświadomienie sobie, że coś wcale nie jest oczywiste, to już pierwszy krok do lepszego zarządzania swoimi decyzjami.
Tyle że decyzje typu: książka czy czytnik wciąż pozostają tylko na poziomie mojego gospodarstwa domowego.
Poziom indywidualnych decyzji też jest istotny. Oczywiście Biennale zawsze miało też ambicję inicjowania debaty na poziomie systemowym, ale uważam, że powinniśmy działać na obu poziomach równocześnie. Podczas naszych biennalowych wydarzeń będziemy pokazywać, że to jest możliwe. Chcemy poświęcić dużo miejsca rozmowie o technologiach, które działają w sposób prodemokratyczny, które budują wspólnoty, a nie je rozbijają. Takich technologicznych inicjatyw, o różnym charakterze, już trochę powstało. Na świecie istnieją np. spółdzielnie taksówkarskie, działające sprawiedliwiej niż Uber. Albo kooperatywy danych – członkowie dobrowolnie dzielą się swoimi danymi, np. medycznymi, wiedzą, co się z nimi dzieje, i dostają za nie wynagrodzenie. Albo weźmy Fairbnb, które działa podobnie jak Airbnb, ale w przeciwieństwie do niego ma wpisane w swój model biznesowy również finansowe wsparcie inicjatyw i społeczności lokalnych.
Przykładów praktycznych rozwiązań będzie na Biennale sporo, ale pokażemy też prace artystyczne, które mogą otwierać naszą wyobraźnię. Mam wielką nadzieję, że do Warszawy przyjedzie m.in. praca Heleny Nikonole Bird Language. Nikonole jest artystką i kuratorką, a zarazem programistką. W Bird Language wykorzystała sieci neuronowe – te same, które są stosowane do działań inwigilacyjnych – do tego, żeby zrozumieć język ptaków. Rejestruje śpiew słowika i przepuszcza go przez sztuczną inteligencję, aby wyodrębnić wzorce językowe, wychodząc z założenia, które kiedyś sformułował Noam Chomsky, że każdy język ma swoją strukturę. Tak jak z ludzkiej mowy można wyodrębnić pojedyncze fonemy, tak Nikonole próbuje to zrobić ze śpiewu słowika. Na podstawie tych wzorców artystka zaczęła tworzyć własne śpiewy – nie nagrane i zmiksowane, ale stworzone od początku do końca przez AI. Niewykluczone więc, że dzięki technologii zyskamy narzędzie do międzygatunkowej komunikacji.
To rzeczywiście otwiera wyobraźnię.
Jest też poetycka praca Kyriaki Goni Networks of Trust. Artystka wyszła od pięknej fantazji na temat wysp greckich, które w starożytności tworzyły rodzaj sieci: istniał między nimi przepływ nie tylko towarów, ale też informacji i nurtów w sztuce. Dzisiaj, kiedy sieć służy głównie pobieraniu naszych danych, Goni tworzy sieć intymną i bezpieczną, składającą się tylko z trzech węzłów. Jeden znajduje się na greckiej wyspie Tilos, drugi w Atenach, a trzeci w Warszawie. Kiedy ktoś pojawi się blisko jednego z nich, będzie mógł połączyć się z tą siecią. Znajdzie w niej historie dotyczące przyszłości, poza tym poprzez interaktywną platformę sam będzie mógł np. podzielić się swoim wyobrażeniem. Goni próbuje poprzez tę pracę wyobrazić sobie, jak mógłby wyglądać alternatywny Internet, zbudowany na zaufaniu i bezpieczeństwie – taki, który nie próbuje na każdym kroku nas kapitalizować i wykorzystać.
W takim razie świetnie się wpisuje w obecną dyskusję w Polsce o bezpieczeństwie i inwigilacji w sieci.
Jeszcze lepiej wpisuje się w nią powstały dwa lata temu projekt Made to Measure [ang. Stworzony na miarę – przyp.red.], który pokazuje, jak – bazując na ograniczonej bazie danych – można odtworzyć pełną mapę wiedzy o konkretnym człowieku. Polega on na społecznym eksperymencie. W 2020 r. twórcy kolektywu Laokoon w drodze otwartego naboru poprosili chętnych o przesłanie pakietów swoich danych osobowych z wyszukiwarek i mediów społecznościowych z ostatnich pięciu lat. Zadaniem, które postawili przed sobą, było zrekonstruowanie życia danej osoby: kim jest, co robi, jak wygląda, jakie ma życie osobiste i dylematy.
Otrzymali ponad 100 takich pakietów, losowo wybrali jeden, nie wiedząc, kim jest właściciel danych, znali tylko jego ID. Zdecydowali się korzystać tylko z danych pozyskanych z Google, bo uznali, że jeśli mieliby brać pod uwagę dane z Netfliksa czy Facebooka, zadanie byłoby zbyt proste. W dodatku te googlowe dane też były niekompletne – brakowało danych z jednego roku. Bazując na niepełnym zbiorze i tak bardzo dokładnie odtworzyli życie tej anonimowej osoby. Zrekonstruowali wszystko, nawet z grubsza odwzorowali pokój, w którym mieszkała. Korzystając ze wsparcia m.in. profilerów i analityków danych, określili, jakie ta kobieta – bo okazało się, że była to kobieta – ma relacje ze swoim ciałem i jakie wartości są dla niej ważne. Ustalili nawet, kiedy i z kim zaszła w ciążę, kiedy poroniła.
To nie były wyłącznie dane z wyników wyszukiwania?
Nie, tego typu informacji nie pozyskuje się, bazując tylko na historii wyszukiwań. Analiza danych polega na wiązaniu w tzw. klastry tematyczne danych, które pojawiają się w różnych miejscach, i sprawdzaniu, jaki wzór się z nich wyłania. Dane tamtej osoby zostały przetworzone na wiele różnych sposobów, tak żeby można było zobaczyć nieoczywiste zależności między nimi. W kolejnym etapie Made to Measure kolektyw Laokoon zatrudnił aktorkę i nagrał w formie dokumentu sieciowego paradokumentalny, interaktywny film o życiu tej zrekonstruowanej kobiety. Kiedy go skończono, skontaktowano się z tą osobą, dotąd znaną tylko z adresu IP, i zaproszono ją na spotkanie z aktorką wcielającą się w jej rolę – ich spotkanie też zostało nagrane.
To niebywale silne doświadczenie widzieć, jak jedna osoba opowiada drugiej jej życie, nieraz intymne szczegóły, i prawie wszystko się zgadza. I widzieć, jak ta druga osoba płacze, mówiąc, że algorytm wie o niej więcej niż ona sama.
Czy oglądając ten film, nie myślisz, że z Tobą by im się to wszystko jednak nie udało?
Myślę, że udałoby im się z łatwością. Dbam o kwestie prywatności, ale jestem przekonany, że przez sito moich zabezpieczeń i tak przechodzi mnóstwo danych o mnie. Pamiętajmy, że artyści z grupy Laokoon nie posiadali danych internetowych z jednego roku, kiedy zaproszona do eksperymentu osoba nie korzystała w ogóle z usług Google’a. Tymczasem, jak się okazuje, także zrekonstruowanie wydarzeń z tego okresu było możliwe, wystarczyło – jak się okazuje – wnikliwie przeanalizować „punkty danych” bezpośrednio go poprzedzające i występujące zaraz po nim.
Poza tym, widzowie tego dokumentu sieciowego zostają wciągnięci w pewną grę. Po obejrzeniu filmu dostajemy pewien pakiet danych i zadanie, by zrekonstruować część życia kobiety. Dostajemy kilka hipotez i głosujemy. I w odpowiedzi, ku swojemu zaskoczeniu, dostajemy szereg informacji… o sobie. Znajdujesz się tu i tu, w sposób szczególnie uważny analizowałeś to i to, wykonywałeś ruchy myszką z taką i z taką częstotliwością – co świadczy, że jesteś taką i taką osobą. Algorytmy dokładnie sprawdzają, co robisz, na jakich danych się skupiasz. Ostatecznie w ramach projektu grupy Laokoon dostajesz precyzyjny profil psychologiczny samego siebie, z konkretnymi cechami – wykonany tylko na podstawie tego, w jaki sposób brałeś/brałaś udział w Made to Measure. Projekt jest dostępny w sieci, każdy może wziąć udział w tym eksperymencie.
Made to Measure to dobra ilustracja tego, o czym pisze Shoshana Zuboff w Wieku kapitalizmu inwigilacji.
Ta książka jest dla mnie bardzo ważna i była jedną z inspiracji dla tegorocznego Biennale. Zuboff, filozofka, psycholożka społeczna, profesorka Harvardu, pokazuje, że nasze życie jest lepiej zrozumiałe i przewidywalne dla algorytmów niż dla nas samych. W Wieku kapitalizmu inwigilacji opisuje ona nowy moment historyczny, w którym teraz jesteśmy – nasze intymne sprawy, relacje społeczne, choroby, uzależnienia i emocje budują kapitał. Z naszej mentalności, procesów fizjologicznych, z emocjonalności preparowane są wzorce behawioralne, które następnie ładuje się w paczki i sprzedaje jak produkty. Zuboff ostrzega, że to igranie z ogniem. W czasach kapitalizmu inwigilacji pojedynczy człowiek zostaje sprowadzony tylko do zestawu statystycznych danych, co jest bardzo groźne dla człowieczeństwa.
Dla Shoshany Zuboff inwigilacja i kapitalizm inwigilacyjny nie są pobocznymi zjawiskami naszej współczesności, ale samym jądrem systemu, w którym dzisiaj funkcjonujemy. Procesy inwigilacyjne warunkują nasze życiowe postawy, wybory i zachowanie w o wiele większym stopniu, niż widać to na pierwszy rzut oka.
A co widać na drugi rzut?
Łatwo jest określić, np. kto ma skłonność do uzależnień. Można to ustalić, nie tylko zbierając dane o tym, jakie aplikacje zainstalowałeś na telefonie i jak często ich używasz, ale też na podstawie samego sposobu korzystania z telefonu komórkowego. Czy wiesz, że iPhone rejestruje, czy trzęsie ci się ręka, kiedy trzymasz telefon. To nie jest informacja trudna do zarejestrowania, na podobnej zasadzie przecież działa każdy krokomierz. Jeśli więc np. co drugi dzień wieczorem drży ci ręka, to o czym to może świadczyć? Takie informacje są pożądane przez wiele korporacji, np. przez portale hazardowe, które adresują swoje reklamy do osób skłonnych do uzależnień.
Nie łudźmy się, każdy z nas jest już dawno sklasyfikowany i wystawiony na sprzedaż. Dane, które generujemy, poruszając się w Internecie, bywają czasem porównywane do ropy naftowej. Też są wydobywane – z nas, potem poddawane rafinacji, czyli przetworzeniu, aż na końcu stają się paliwem energetycznym świata, w którym żyjemy. I tak samo jak wydobycie ropy wyjaławia ziemię, tak wydobycie danych wyjaławia ludzkość.
W jaki sposób konkretnie ją wyjaławia?
Nasza wolna wola jest poddawana nieustannym próbom, codziennie ulegamy manipulacji lub jesteśmy na nią narażeni, odgórnie profilowane są nasze ścieżki poznawcze, wzmacniane są niektóre nasze cechy czy nawyki, być może wcale nie te, które sami chcielibyśmy wzmacniać. Myślę, że Zuboff ma rację, mówiąc, że to jest niebezpieczne, nie tylko dla demokracji i społeczeństwa, lecz także dla pojedynczego człowieka. Jeśli chcesz się zmienić na lepsze, pożegnać złe nawyki, przejść jakiś proces terapeutyczny – to może ci być trudno, bo algorytmy wcale nie muszą być po twojej stronie.
Chcemy o tym mówić w tegorocznej edycji Biennale Warszawa, bo wychodzimy z założenia, że jak w każdej dobrej terapii, zanim zaczniemy zdrowieć, najpierw musimy uświadomić sobie, jak się sprawy mają. Ktoś powie, że dzisiaj, aby żyć, trzeba być zanurzonym w tym świecie algorytmów: coś za coś. Jakiś koszt musimy za to ponosić. Tylko pytanie, czy my naprawdę wiemy, jaki to jest koszt? Bo to nie jest tylko tak, że ktoś o nas coś tam wie.
Ten ktoś, dzięki temu, że coś o nas wie, wytwarza ramy świata, w które musimy się zmieścić, i dobrze na tym zarabia.