Media type: audio

Ta sama linia będzie się wydawała krótsza albo dłuższa zależnie od tego, czy na jej końcach narysujemy strzałki skierowane do siebie czy od siebie. To tylko jeden z błędów poznawczych, w dodatku wcale nie największy.

Horoskop na rok 2024 głosi, że Wodnika czeka stabilny czas bez nadmiernych dramatów i uniesień. Osoby spod tego znaku mogą spodziewać się awansu, podwyżki, nowych znajomości. Brzmi wiarygodnie, mimo że przepowiednia sprzed roku obiecywała niemal to samo. Ta sprzed dwóch lat również. Z opisu znaku wynika, że Wodniki są otwarte, towarzyskie, ciekawe świata i wnoszą do otoczenia dużo dobra. Zgadza się! Ale dlaczego ta charakterystyka pasuje też do Bliźniąt, Wagi, Barana, Strzelca i Ryb? Horoskopy są tak ogólne, że mogą się odnosić do każdego, dlatego im wierzymy. Psychologia nazywa taką sytuację efektem horoskopowym lub efektem Barnuma. To błąd poznawczy, czyli zniekształcony sposób postrzegania rzeczywistości, który – jak w książce Diagnoza psychologiczna wyjaśnia dr Katarzyna Stemplewska-Żakowicz – sprawia, że uznajemy za trafne bardzo niejednoznaczne opisy siebie. Nawet jeśli te treści, jak w przypadku horoskopów, celowo napisano tak, żeby pasowały do wielu osób. Teoretycznie wiemy, że nie da się racjonalnie określić osobowości człowieka na podstawie tak skąpych danych jak data urodzenia, ale i tak często przyznajemy, że opis do nas zadziwiająco pasuje. Zwłaszcza gdy ukazuje nas w korzystnym świetle i daje nadzieję na lepsze jutro. Ostatecznie ludzie niemal zawsze starają się znaleźć u siebie pozytywne cechy i poszukują potwierdzenia, że przyszłość przyniesie coś dobrego. Według Stemplewskiej-Żakowicz efekt horoskopowy tłumaczy także popularność wielu poradników i książek poppsychologicznych. Często są one napisane w tak ogólny sposób, że większość czytelników może na własną rękę zdiagnozować u siebie różnego rodzaju zaburzenia, np. syndrom DDA (Dorosłe Dziecko Alkoholika), czy odnaleźć źródła swoich aktualnych problemów w negatywnych doświadczeniach z dzieciństwa – tak niekonkretnie scharakteryzowanych, że mogłyby dotyczyć prawie każdego. Zwykle wnioski wysnute na tej podstawie są nietrafne. Błędy poznawcze sprawiają, że postrzegamy rzeczywistość w krzywym zwierciadle.

Ja tylko udaję…

Kilka lat temu aktorka i absolwentka Harvardu Natalie Portman przyznała, że podczas studiów (z psychologii zresztą) cały czas miała wrażenie, że znalazła się na uczelni w wyniku jakiegoś nieporozumienia, bo przecież nie jest wystarczająco inteligentna. Kiedy zabierała głos w dyskusji, obawiała się, że zostanie uznana za „głupią aktorkę”. Tak działa tzw. syndrom oszusta, opisany po raz pierwszy w 1978 r. przez Pauline Clance i Suzanne Imes. Amerykańskie psycholożki ukuły ten termin, opierając się na sesjach psychoterapeutycznych kobiet odnoszących sukcesy zawodowe. Później dowiedziono, że powszechność tego odczucia nie ma większego związku z płcią, po prostu mężczyźni rzadziej się do niego przyznają.

Syndrom oszusta to przekonanie, że życiowe osiągnięcia zawdzięczamy szczęś­ciu lub przypadkowi, a nie własnym staraniom i umiejętnościom. Psycholożka społeczna prof. Hanna Brycz z Uniwersytetu Gdańskiego wyjaśnia, że wiąże się ono z poczuciem niepewności wobec zajmowanej przez siebie pozycji społecznej czy jakości swojej pracy. Dr Aneta Kiwnik-Dahm, psycholożka kliniczna z Uniwersytetu SWPS i psychoterapeutka poznawczo-behawioralna, dodaje, że osoba dotknięta tego rodzaju lękiem nieustannie obawia się przyłapania na kłamstwie co do swoich kompetencji – lada moment wszyscy się zorientują, że tak naprawdę nie zasłużyła na zajmowane stanowisko.

Roger Jones, dyrektor firmy konsultingowej Vantage Hill Partners, w artykule What CEOs Are Afraid Of (Czego boją się prezesi) opublikowanym w „Harvard Business Review” powołuje się na wyniki ankiety, którą przeprowadził w 2014 r. wśród 116 dyrektorów generalnych i kierowników dużych korporacji. Jak wykazała, te wysoko postawione osoby najbardziej obawiają się, że wyjdzie na jaw ich brak kompetencji. Mimo obiektywnych sukcesów tego rodzaju lęki podważają pewność siebie i utrudniają współpracę z innymi członkami zespołu. Do syndromu oszusta przyznał się nawet Howard Schultz, dyrektor generalny i twórca światowej potęgi Starbucksa. Pisząc ten tekst, sama zakładam, że redakcja szybko zorientuje się, iż nie nadaję się na dziennikarkę. Prof. Brycz zdradza, że ten syndrom równie powszechnie występuje w środowisku akademickim: „Stale zmagam się z poczuciem, że powinnam pracować intensywniej, ciężej, coraz więcej od siebie wymagać; że artykuł ostatnio oddany do recenzji okaże się słaby i zostanie odrzucony”. To nie jest nowo odkryte zjawisko. Już w 1985 r. Joan C. Harvey i Cynthia Katz w tekście If I’m So Successful, Why Do I Feel Like a Fake? (Skoro odnoszę takie sukcesy, dlaczego czuję się jak oszust?) przywołały szacunki, według których ponad 70% populacji przynajmniej raz w życiu go doświadczyło.

Chociaż takie myślenie utrudnia życie, może też kształtować wartościowe cechy. „Od roku 2010 w psychologii funkcjonuje pojęcie pokory intelektualnej – mówi prof. Brycz. – Bardzo przydatnego zjawiska, które polega na umiłowaniu prawdy, dążeniu do trafności w swoich sądach, poszukiwaniu alternatywnych wyjaśnień i demaskowaniu iluzji we własnym myś­leniu. Przykładem takiego podejścia jest historia prawie stuletniego profesora fizyki, który całe życie pracował nad pewną teorią. Po wykładzie młodego człowieka, który ją obalił, profesor podszedł do prelegenta i podziękował mu, bo wreszcie zbliżył się do prawdy. Pokora intelektualna jest zaprzeczeniem arogancji i pychy. Być może dzięki takiemu zwątpieniu we własną nieomylność i nieustannemu podważaniu swoich kompetencji odczuwamy potrzebę, żeby się dokształcać, rozwijać i poszerzać horyzonty. Może to właś­nie ten błąd poznawczy wciąż pcha nas do przodu?”.

Droga na skróty

Skąd biorą się błędy poznawcze? To schematy postrzegania rzeczywistości, które powinny ułatwiać nam funkcjonowanie. Odgrywają rolę myśli automatycznych, czyli idei i przekonań pojawiających się w danej sytuacji natychmiast (dlatego bywają nazywane „myślami gorącymi” albo „spod palca”), niezależnie od naszej woli, po to, żeby wywołać pewne reak­cje. „Możemy określić je jako drogę na skróty, która pozwala szybko ocenić sytuację, wyciągnąć wnioski i błyskawicznie zarea­gować. Taka automatyzacja odciąża mózg, który i tak jest przeładowany procesami poznawczymi” – tłumaczy dr Anna Korsak z Uniwersytetu SWPS, psycholożka kliniczna i psychoterapeutka poznawczo-behawioralna.

Myśli automatyczne mają znaczenie ewolucyjne: ostrzegają przed zagrożeniem i po prostu umożliwiają przeżycie. „Jeśli przechodzimy na pasach i słyszymy, że obok ostro hamuje samochód, instynktownie odskakujemy. Myśl automatyczna budzi odpowiednie emocje, w tym przypadku lęk, który wywołuje reakcję ucieczki. W sytuacjach, w których musimy działać szybko, nie mamy czasu na zastanawianie się; potrzebujemy schematów poznawczych, żeby nasz gatunek przetrwał” – wyjaśnia dr Kiwnik-Dahm. Problem pojawia się, jeśli nasz sposób postrzegania rzeczywistości zostanie obarczony błędem, który uznajemy za prawdę i utrwalamy w swoim sposobie myślenia. Prof. Brycz przyznaje, że psychologia dostarcza coraz więcej dowodów na to, iż nasze postrzeganie, ocena świata, ludzi oraz samego siebie daleko odbiegają od racjonalności.

Pożyteczne pomyłki…

Błędem poznawczym, który ułatwia życie, jest błąd inklinacji pozytywnej. Prof. Brycz wyjaśnia, że polega on na patrzeniu na świat przez różowe okulary i sprawia, że zarówno siebie, jak i swoich bliskich oceniamy znacznie pozytywniej, niż na to zasługujemy, przeceniamy własne lub ich talenty czy uczciwość. Podobnym błędem jest egocentryczny błąd atrybucji, za sprawą którego winę za swoje porażki przypisujemy środowisku („Nie zdałem egzaminu, bo nauczyciel się uwziął”), natomiast sukcesy zawdzięczamy sobie („Ale ja jestem zdolny”).

Przytoczone tu błędy najczęściej nie krzywdzą otoczenia i do pewnego stopnia są dla nas przystosowawcze. Zdrowiej przecież jest nie obarczać winą siebie, doceniać własne zasługi i dowartościowywać bliskich. Co ciekawe, życie ułatwiają również irracjonalne przekonania, m.in. poczucie, że należy odwdzięczyć się za przysługę. „Przecież przysługi wyświadcza się bezinteresownie. A jednak zazwyczaj o nich pamiętamy i staramy się odwzajemnić” – twierdzi prof. Brycz. Ta „nieracjonalność” występuje też w świecie zwierząt, np. niektóre nietoperze pomagają niespokrewnionym osobnikom, dzieląc się z nimi zasobami krwi, jeśli wcześniej otrzymały od nich pomoc.

„Wydaje się, że takie zjawiska mają podłoże ewolucyjne, a tzw. zasada czy pułapka wdzięczności jest swego rodzaju klejem społecznym – wyjaśnia dalej psycholożka. – Jak pokazuje prężnie rozwijająca się teraz psychologia pozytywna, okazywanie wdzięczności jest sposobem na sprawną regulację emocji i utrzymanie pozytywnego nastroju oraz przeżywanie miłości do świata, ludzi, a także samego siebie”. A to są zachowania i emocje, które dobrze wpływają zarówno na nasze życie wewnętrzne, jak i na stosunki społeczne.

…i niebezpieczne błędy

Istnieją też takie błędy, które nakładają się na dysfunkcje psychiczne, np. depresję, stany lękowe czy kompulsje, i są dla nich typowe. „Osoby cierpiące na to samo zaburzenie bardzo często podzielają jednakowe zniekształcenia poznawcze. Mówimy wtedy o specyficzności poznawczej” – wyjaśnia dr Kiwnik-Dahm.

Dla depresji charakterystyczny jest błąd atrybucji depresyjnej, który polega na tym, że osoba tłumaczy porażki swoimi stałymi cechami („Jestem głupia”), a sukcesy przypisuje czynnikom zewnętrznym („Trafiło mi się jak ślepej kurze ziarno”). Z kolei w zaburzeniach lękowych pojawia się tzw. czytanie w myślach, czyli przypisywanie innym ludziom określonych intencji, których oni wcale nie muszą mieć. Kiedy ktoś na nas spojrzy, myślimy: „Na pewno sądzi, że jestem gruba”. Jeśli ktoś idzie ulicą i się śmieje, to uważamy, że śmieje się z nas. Osoby depresyjne i lękowe będą czujnie jak radar wyłapywać te komunikaty, które potwierdzą ich przekonania. Psychologia określa to efektem cocktail party. Nazwa odwołuje się do sytuacji, kiedy podczas imprezy, mimo szumu i harmidru jesteśmy w stanie usłyszeć swoje imię wypowiedziane w tłumie i wyciszyć w głowie pozostałe komunikaty wokół nas.

Podobny mechanizm działa w zaburzeniach psychicznych. „Osoby lękowe będą odbierać z otoczenia bodźce, które informują o zagrożeniu. Jeśli usłyszą, że ktoś np. wypowiada zdanie: »On sobie nie poradził«, automatycznie pomyślą, że to o nich. Osoby z depresją będą wyczulone na informacje o stracie. Mogą wychwytywać komunikaty w stylu: »Już nie jest taki jak kiedyś«, »Stał się inną osobą« i odnosić je do siebie” – tłumaczy dr Korsak. Problem w tym, że sposób, w jaki odbieramy rzeczywistość, przekłada się także na nasze działania. Zniekształcenia poznawcze często wywołują u nas okreś­lone emocje, nierzadko negatywne, nasze samopoczucie natomiast wpływa na to, jak się zachowujemy. Jeśli więc myślę: „Nie zdałam egzaminu, bo jestem bezdennie głupia, nigdy mi się już nie powiedzie”, to istnieje małe prawdopodobieństwo, że sięgnę po podręcznik i zacznę się uczyć. Raczej pomyślę, że czas rzucić studia, bo się do nich nie nadaję. Tym samym błędne założenie wynikające z kondycji psychicznej w danym momencie powoduje, że podejmujemy decyzje, które mogą mieć wpływ na całe nasze życie.

Współcześnie powstają też nowe błędy poznawcze. Wraz z rozwojem mediów społecznościowych naukowcy zidentyfikowali błąd, tzw. FOMO (ang. fear of missing out), polegający na lęku przed tym, że coś (np. wydarzenie towarzyskie) nas ominie, jeśli nie będziemy na bieżąco śledzić mediów społecznościowych lub serwisów informacyjnych. „To destrukcyjne nastawienie, które sprawia, że ciągle zaglądamy do telefonu, zamiast interesować się tym, co dzieje się wokół nas, przykładowo bliskimi” – tłumaczy prof. Brycz.

Szczególnie niebezpieczny może być podstawowy błąd atrybucji. W 1967 r. dwaj amerykańscy psycholodzy Edward Jones i Victor Harris przeprowadzili eksperyment. Jego uczestnicy mieli wysłuchać przemówień zarówno pochwalnych, jak i krytycznych wobec Fidela Castro, a następnie ocenić postawy mówców w stosunku do kubańskiego dyktatora. Badani uznali, że osoby wygłaszające referaty przychylne władzy naprawdę muszą lubić Castro. Co ciekawe, opinia uczestników próby nie uległa zmianie, nawet kiedy już dowiedzieli się, że przemówienia były przydzielone mówcom losowo: decydował rzut monetą. Na podstawie tego eksperymentu dekadę później profesor psychologii Lee Ross ukuł pojęcie podstawowego błędu atrybucji, zwanego też błędem korespondencji.

Psycholog Elliot Aronson w książce Człowiek – istota społeczna tłumaczy, że wyjaśniając zachowania innych, przeceniamy czynniki osobowościowe czy dyspozycyjne i ignorujemy fakt, że mogły być one wymuszone sytuacją lub rolą społeczną. Pokazuje to również przeprowadzony przez Rossa eksperyment, tzw. program quizowy. Badanych podzielono na dwie grupy: osoby prowadzące quiz i zadające pytania oraz zawodników, którzy mieli na nie odpowiadać. Okazało się, że obserwatorzy z góry zakładali, iż prowadzący dysponują większą wiedzą i posiadają więcej informacji („Tak ładnie zadawał pytania”), a zawodnicy są mniej mądrzy („W ogóle nie znał odpowiedzi”). Kompletnie pominięto fakt, że role zostały przydzielone losowo i było mało prawdopodobne, żeby prowadzący faktycznie wiedzieli więcej od zawodników. Psycholodzy ostrzegają, że podstawowy błąd atrybucji przejawia się także w dość powszechnej wśród ludzi tendencji do obwiniania ofiar, np. przemocy domowej, zamiast sprawców.

Oceń go na chłodno

Czy zniekształceń poznawczych udaje się pozbyć? Dr Kiwnik-Dahm twierdzi, że przynajmniej część z nich można próbować zidentyfikować i wyeliminować, a pomaga w tym terapia poznawczo-behawioralna. „Uczymy pacjentów metody restrukturyzacji poznawczej – wyjaśnia psycholożka. – Jeśli np. mamy do czynienia z błędami logicznymi, które szybko działają, pomocna może być chłodna ocena sytuacji. Ćwiczymy ich wyłapywanie, rozpoznawanie ich mechanizmów i szukanie alternatywnej myśli, realistycznej i osadzonej w rzeczywistości”. Przykładowo jeśli pacjent, który nie zdał egzaminu, uważa, że przyczyną jest jego głupota i nieumiejętność radzenia sobie, psycholog może go poprosić, żeby podał argumenty przemawiające przeciwko tej refleksji; aby przypomniał sobie chwile, kiedy czuł się lepiej, a także sytuacje, w których udało mu się zdać egzamin. Jeżeli ćwiczy się to dostatecznie często, łatwiej wyłapać zniekształcenia i przestać im ulegać.

Według psychologii poznawczo-behawioralnej nasze myśli, emocje, zachowania i reakcje fizjologiczne wzajemnie na siebie oddziałują. Zmieniając jedną z tych sfer, możemy wpłynąć na inne. Anna Korsak ostrzega jednak, że to nie jest takie proste: „Niestety istnieją błędy, które ciężko wyrugować, silnie związane z naszymi uprzedzeniami i stereotypami. Ich zadaniem ma być ochrona naszego ja, ale w dość bezwzględny sposób”.

Jednym z takich błędów jest tzw. dehumanizacja ofiary, czyli tendencja do odmawiania cech ludzkich nielubianym grupom społecznym. „Błąd ten został opisany w trakcie wojny w Wietnamie, podczas której amerykańscy żołnierze, którzy mordowali cywilów, argumentowali swoje działania przekonaniem, że ich ofiary nie są takimi samymi ludźmi jak oni. Z takiego podejścia wywodzi się kolejne zjawisko, tzw. obiektyfikacja, czyli uprzedmiotawianie osób, których nie lubimy” – wyjaśnia prof. Brycz. Błędy te bywają bardzo groźne, ponieważ blokują racjonalne myślenie i mogą prowadzić do wielu niebezpiecznych zachowań.

W połowie doczesnej wędrówki zaczynamy odczuwać ciężar nie tylko własnego życia, lecz także tego, którego nie przeżyliśmy. Dojrzałość przychodzi, gdy przestajemy zaprzeczać własnej skończoności.

Jest słoneczny czerwcowy dzień, siedzę w pokoju na piętrze. Zza okna dobiega ptasi jazgot. Wszystkie szpaki z okolicy zleciały się, żeby jeść czereśnie z drzewa, które rośnie tuż przy domu. Niewiele było czasu, żeby nacieszyć się widokiem (i smakiem) pięknych owoców. Dojrzała czereśnia to czereśnia, której czas dobiegł końca. Nie będzie już ani większa, ani piękniejsza: jest spełniona i doskonała. Nie można już niczego dodać. Nic się już więcej nie wydarzy.

Zmierzch w południe

A ludzie? Z ludźmi jest zupełnie inaczej. Gdy wydaje się, że osiągają szczyt życiowych możliwości, gdzieś między 40. a 50. rokiem życia, nie wspominają o spełnieniu, lecz zaczynają napomykać o kryzysie wieku średniego. Carl Gustav Jung w swoim niewielkim eseju pt. Przełom życia porównuje koleje ludzkiego losu do biegu słońca w ciągu dnia. Najpierw wznosi się ono w górę. Dla człowieka to okres zakorzeniania się w świecie, budowania pozycji, określania swojego znaczenia. Najważniejsze zadanie polega na wspinaniu się coraz wyżej. Nie jest to proste, nie każdy ma dość siły i odwagi. Niektórzy pozostają w blokach startowych przerażeni, sfrustrowani i nieszczęśliwi. Inni ruszają w życie, uczą się, pracują, zakładają rodzinę, osiągają jakiś sukces. Do momentu, kiedy tak jak słońce dochodzą do zenitu, punktu kulminacyjnego. To może być zaskoczeniem, ponieważ w swoim jednorazowym istnieniu nikt nie może z góry przewidzieć, że jakiś punkt kulminacyjny będzie. A jednak – jak pisze Jung – „o dwunastej w południe zaczyna się zmierzch. Ten zmierzch to odwrócenie wszelkich wartości i ideałów poranka” (tłum. Robert Reszke).

W pierwszej połowie życia wszystko jest mniej więcej oczywiste. Trzeba zmierzyć się z tym, co przynosi los. Zakasać rękawy i robić, co trzeba. Działać, decydować, być konsekwentnym. Niekiedy zacisnąć zęby i zrezygnować z jakichś planów i marzeń, iść na kompromis. Zmiana przychodzi niepostrzeżenie. Nadal jesteśmy w pełni sił, aktywni, mamy wiele zadań do wykonania, planów, a jednak z pewnym zdziwieniem dostrzegamy nowy wymiar egzystencji. Może się to wydarzyć w czasie, gdy dzieci przestają być dziećmi albo gdy umiera ktoś bliski. Dostrzegamy, że coś się kończy, że jakiś wątek się wyczerpał. Wtedy po raz pierwszy dociera do naszej świadomości, że wszystko dobiegnie kiedyś kresu. Włoski psychoanalityk Franco De Masi w książce Kres istnienia. Psychoanalityczne rozważania o przemijalności pisze o tym tak: „Fantazje na temat naszej śmiertelności pozostają mało pogłębione, dopóki nie dotrzemy przynajmniej do drugiej połowy naszej ziemskiej węd­rówki” (tłum. Danuta Golec, Dobrosława Krakowiak-Gennari). Wtedy zaczynamy dostrzegać, że możliwość snucia planów, marzeń i nadziei staje się co najmniej ograniczona. Nie możemy już myśleć o sobie z niezmąconą pewnością, że coś na pewno się jeszcze wydarzy.

De Masi przywołuje zdanie francuskiego filozofa Vladimira Jankélévitcha, że rozpacz to brak przyszłości. Cień tej rozpaczy pojawia się w połowie życia: przeczucie, że to, co nas czeka, ma granice. Wprawdzie jednym z dokonań Prometeusza – być może większej wagi niż wykradzenie bogom ognia – było uzyskanie zapewnienia, że ludzie nigdy nie poznają daty swojej śmierci, mogą więc marzyć i planować, nawet gdyby mieli umrzeć następnego dnia, ale po przekroczeniu zenitu nie możemy już zaprzeczać własnej śmiertelności. Jak pisze De Masi: „Myśl o tym, że życie zmierza do śmierci, to coś na kształt intensywnego nieświadomego zakłócenia psychicznego przypominającego załamanie depresyjne. Własna śmierć jawi się jako chaos, stan pomieszania i prześladowania. Nic dziwnego, że to nowe doświadczenie budzi lęk i opór”.

Jeśli jest w nas więcej nienawiści niż miłości, próba zapanowania nad tym chaosem przybiera postać megalomanii, narcyzmu, zawiści, okrucieństwa, zachłanności. Z niezgody na upływ czasu i związane z nim zmiany fizyczne garściami czerpie zyski przemysł anti-ageing. Ta niezgoda może przyjmować różne formy: udawania przed sobą i otoczeniem, że nic się nie zmieniło, że jest się równie sprawnym fizycznie jak dawniej, że wygląda się tak samo jak 10 lat wcześniej, erotycznej „drugiej młodości” w swojej męskiej i żeńskiej odmianie, złości i strachu, że za chwilę przyjdą młodsi. „Te jałowe próby zatrzymania upływu czasu – pisze De Masi – mogą jednak doprowadzić do emocjonalnego zubożenia lub zniekształcenia charakteru. Kryzys wieku średniego uda się opanować jedynie wtedy, gdy człowiek konstruktywnie zmierzy się z pojęciem kresu istnienia i traumatycznym wpływem myśli o śmierci”.

Poddać się zmianie

Ten kryzys przychodzi, gdy okazuje się, że to, co stanowiło ramę dotychczasowego życia, traci aktualność. Coś, co uznawaliś­my za oczywiste i pewne, wcale już takie nie jest. Zadania, obowiązki, cele, które nadawały znaczenie kolejnym dniom, miesiącom i latom, wydają się mniej ważne niż dawniej, a może zupełnie niepotrzebne? „Stan ludzkiej niepewności w zetknięciu ze śmiercią […] to skutek niemożności poznania swojego przeznaczenia; i to właśnie w tej »niewiedzy« rodzi się obecność nieobecności. Śmierć jest właśnie nieobecną obecnością. Wizja śmierci jest sama w sobie nieodłącznym elementem braku integracji” – pisze De Masi. Śmierć jest nieobecna, bo gdy przyjdzie, wszystko inne zniknie. Jednak w drugiej połowie życia nieobecność wdziera się do naszej świadomości. Obecność nieobecnego wszystko zmienia. Można się tej zmiany bać, zaprzeczać jej, wypierać ją. Albo poddać się jej. Jung opisuje historię pewnego pobożnego człowieka, przewodniczącego rady kościelnej, u którego w wieku około 40 lat pojawiła się i narastała postawa nieznoś­nej nietolerancji moralnej i religijnej: „Człowiek ten stawał się coraz bardziej ponury, w końcu nie był już nikim innym, jak tylko czarną jak noc ostoją Kościoła. W ten sposób dożył pięćdziesiątego piątego roku życia. Pewnego razu w środku nocy nagle usiadł na łóżku i powiedział do żony: »Teraz już wiem. Jestem nędzarzem!« […] Ostatnie lata życia spędził on na rozrywkach, na które poświęcił znaczną część swego majątku. Najwyraźniej nie był taki niesympatyczny, skoro był zdolny do takich skrajności!”.

Przez 15 lat, kiedy jego stan się pogarszał, ów człowiek z czymś się zmagał. Możliwe, że z coraz większą determinacją bronił się przed narastającym przeświadczeniem, że brakuje mu czegoś ważnego, o czym nie chciał wiedzieć, co nie mieściło się w jego wizji. Nie on jeden. Nie tak łatwo dopuścić myśl, że we własnej egzystencji, którą udało się jakoś uporządkować, czegoś brakuje, że coś się o siebie upomina. Słowa „uporządkowane” i „porządek” mają szczególne znacze­nie. Życie uporządkowane jest skończone, zamknięte – bliższe stagnacji, jałowej rutynie, ciasnemu schematowi. Niby jest w nim jakaś racjonalność i w zasadzie nie wiadomo, dlaczego miałoby się ją burzyć, pozwalać sobie na szaleństwa. A przecież – jak błyskotliwie ujął to XVII-wieczny francuski pisarz François de La Rochefoucauld – „kto żyje bez szaleństwa, mniej jest rozsądny, niż mniema” (tłum. Tadeusz Boy-Żeleński). Stagnacja to nuda, a nuda to śmierć za życia. Oznacza nie tylko zatrzymanie w miejscu, lecz także paskudne przeczucie, że już nie da się z niego ruszyć. Nie wynika z tego, że nie można już nic robić. Można angażować się w pracę, awansować, nawet poszukać innej posady. Zajmować się rodziną, przyglądać się, jak dzieci dorastają i odchodzą z domu. Zaopiekować się starzejącymi się rodzicami, planować kolejne wakacje. Tak naprawdę jednak nic się już nie dzieje. Przyszłość jako przestrzeń, w której można się rozwijać, wydaje się zamknięta. Trudno się z tym pogodzić, bo wewnętrzna przemiana, jakiej zaczyna się doświadczać w drugiej połowie życia, przynosi również kłopotliwą świadomość możliwości, których się nie wykorzystało; szans, które się zaprzepaściło.

To tylko złudzenie, że ważne decyzje, jakie się podejmuje, są zawsze racjonalnie przemyślane. Wybór drogi zawodowej czy partnera może być odzwierciedleniem „fałszywego self” – postaci siebie rozwijanej (nieświadomie), żeby dostosować się do presji środowiska. Wybór ścieżki życiowej mógł wydawać się atrakcyjny, bo był bardziej bezpieczny niż inne i odpowiadał oczekiwaniom rodziców. Albo dawał szansę na wyrwanie się z opresyjnego środowiska. A może to środowisko było tak złe, przesycone przemocą i pogardą, destruktywne dla poczucia własnej wartości, że trudno było dopuścić myśl o własnych pragnieniach. W naszych wczesnych wyborach często więcej jest rozpaczy niż radości, ucieczki niż podążania świadomie wybraną drogą, więcej poszukiwania bezpiecznego azylu niż odwagi.

Poczuć smak chwili

Jung pisze, że w połowie doczesnej węd­rówki człowiek zaczyna odczuwać ciężar życia nieprzeżytego. W wersji ekstremalnej ten ciężar może okazać się nie do udźwignięcia, jak w przypadku bohatera opowiadania Lwa Tołstoja Śmierć Iwana Iljicza, który na łożu śmierci mówi: „[…] żegnam się z życiem ze świadomością, że zagubiłem wszystko, co było mi dane, i że nic nie można już naprawić” (tłum. Jarosław Iwaszkiewicz). Uświadomiwszy to sobie, zaczyna krzyczeć – i krzyczy przez trzy dni…

Dojrzałość zaczyna się od kryzysu wieku średniego. Można próbować się przed nim bronić, zaprzeczając przy tym rzeczywistości. Można pogrążyć się w żalu po czasie, który minął, po zmarnowanych szansach i utraconej młodości. Skryć się w depresji. Albo zmierzyć się z prawdą o ulotności swojego istnienia i zagadką śmiertelności. Zagadką, bo śmierć – zaprzeczenie życia – jest czymś, czego nie można sobie wyobrazić. Niezależnie od tego, czy pojawi się w niej syn Nocy, mroczny, skrzydlaty, nadlatujący bezszelestnie Tanatos, czy odrażający kościotrup z kosą – znana ikonografia to jedynie słaba próba odzwierciedlenia emocji, jakie budzi niewyobrażalne.

Paradoksalnie tylko odważne spotkanie z niewyobrażalnym jest ratunkiem; szansą, żeby wyrwać się ze stagnacji, uratować od nudy. Stając oko w oko z „nieobecnym”, nie można nie zadać sobie pytania o własną „obecność”; nie pomyśleć: Kim jestem? Co tu robię? Na czym naprawdę mi zależy? Ile warte jest dla mnie to, kim się stałem? „Myślenie o włas­nej śmierci ostatecznie sprowadza się do spotkania z samym sobą, do poznania realności naszego życia i jego autentyczności wtedy, gdy nie udaje się już unikać prawdy” – pisze De Masi. Proces, który zaczyna się w drugiej połowie życia, nie ma nic z prostoty i jednoznaczności pierwszej połowy. Człowiek staje się dojrzały, gdy uświadamiając sobie swoją sytuację, nie zaprzecza jej i nie rozpacza. Gdy potrafi dostrzec, że jego historia obejmuje zarówno to, co się w nim wydarzyło, jak i to, co się nie wydarzyło. Jak to ujmuje izraelski jungista Erel Shalit w książce Cykl życia. Archetypowa droga człowieka: „Nawet jeś­li udało nam się kroczyć naszą własną ścieżką, nawet jeśli mieliśmy szczęście podążać drogą rzadko uczęszczaną, nawet jeśli odnaleźliśmy drogę do domu i poczuliśmy, że nasza osobista wyprawa ma znaczenie – to musimy też nieść w sobie pytania, na które nie znaleźliśmy odpowiedzi, i zostawić za sobą nieznane możliwości drogi, której nie obraliśmy” (tłum. Adam Kościuk, Karol Domański).

Człowiek dojrzały potrafi utrzymać w umyśle sprzeczność, jaką niesie świadomość skończoności życia z jednej strony oraz sensowności marzeń i planów z drugiej. Budowania czegoś, co z pewnością trzeba będzie porzucić. I mimo tego, o czym się przekonuje – a może właśnie dzięki temu – potrafi dostrzec wartość tego, co mu się przydarza. Nie bez powodu jednym z najważniejszych ćwiczeń duchowych w ogrodzie Epikura było meditatio mortis – uprawiane nie po to, aby zadręczać się perspektywą śmierci, ale by nauczyć się czuć smak każdej ulotnej chwili.

Obecność nieobecnego uwalnia od marazmu, wnosząc w codzienność niezbędne dla rozwoju napięcie. Stawia pytania, których wcześniej nie było czasu sobie zadać. Uświadamia problemy, których – jak pisze Jung – nigdy się nie rozwiąże, bo ich sens nie na tym polega, że się je rozwiązuje, lecz na tym, że się nad nimi pracuje. To nowe wyzwanie. Bez jego podjęcia życie nie byłoby pełne. Dojrzałość to pora pytań, nie odpowiedzi; ruchu, nie zatrzymania; poszukiwania, nie spoczynku.

W niepewnych czasach silniej odczuwamy potrzebę przynależności. Co jest potrzebne, by krąg przyjaciół stał się prawdziwą wspólnotą?

Przez współczesną kulturę zachodnią przebiega znamienne napięcie.

Ceni ona indywidualizm, akcentuje odrębność każdego człowieka, jego osobową godność i wolność wyrażające się w przysługujących mu prawach. W rezultacie między mną a drugim czy drugą powstaje coś w rodzaju granicy, niewidzialnej i jednocześnie nieprzeniknionej. Ja nigdy w pełni nie pojmę jej lub jego, oni zaś nigdy do końca nie pojmą mnie. Nie tylko nasze wewnętrzne światy są dla nas nawzajem niedostępne; niedostępność jest bardziej fundamentalna. Jesteśmy raczej „obok siebie” niż „razem”, raczej „w stosunku do” niż „dla siebie nawzajem”. Możemy współpracować, pomagać sobie w różnych sytuacjach, a nawet ratować jedno drugie, ale naszą więź naznacza swoisty niepokój: czy na pewno mogę na tobie polegać? I czego ty masz prawo oczekiwać ode mnie? To cena, jaką płacimy za osobistą wolność.

W indywidualistycznej kulturze Zachodu jest jednak również miejsce dla poszukiwania zakorzenienia, powiązania, a więc nieodrębności. Potrzeba ta dochodzi do głosu zwłaszcza wtedy, gdy pojawia się jakiś kryzys – ekonomiczny czy humanitarny – a wraz z nim pytania: Co jesteśmy winni innym? Jak daleko sięga nasza odpowiedzialność? Na czym jest oparta i jaką formę powinna przybrać? Nikt nie jest samotną wyspą, to oczywiste. Ale co z tego wynika? Odpowiedzi na te pytania bywają różne. Niekiedy prowadzą w kierunku wspólnotowego egoizmu, najczęściej narodowego. Ale mogą też zmierzać w inną stronę: utożsamienia z małą grupą, wybranym środowiskiem i konkretnymi ludźmi. Mogą mieć ugruntowanie w historii, religii czy określonym światopoglądzie, ale bywają również spontaniczną odpowiedzią na nową sytuację wymagającą okazania solidarności. „Najpierw jest ranny i jego krzyk – pisał w Etyce solidarności Józef ­Tischner. – Potem odzywa się sumienie, które potrafi słyszeć i rozumieć ten krzyk. Dopiero stąd rośnie wspólnota”.

W swoich rozważaniach będę się koncentrować na niewielkich zbiorowościach – nie takich jak naród, wspólnota obywatelska czy europejska, bo duże społeczności są często przedmiotem namysłu, krytyki lub afirmacji, natomiast mniejszym nie poświęca się wiele uwagi, może z wyjątkiem rodziny. Sformułowania „małe wspólnoty” używa się na ogół w stosunku do grup religijnych. W niniejszym artykule pojęcie to rozszerzam na zbiorowości, które nie są nadmiernie liczebne i chcą budować więź niedającą się sprowadzić tylko do określonych korzyści. Takie społeczności mogą naturalnie rozwiązywać problemy nękające ich członkinie i członków, ale relacje tworzą się wokół czegoś więcej niż nawet najszlachetniej rozumiany wspólny interes. Obok rodziny (bardzo różnie dziś zresztą definiowanej) są to rozmaite kręgi przyjaciół, lokalne grupy sąsiedzkie czy pomocowe.

Moje doświadczenie jest szczególnego rodzaju. Od przeszło 35 lat należę do wspólnoty powstałej wokół osób z niepełnosprawnością intelektualną. Nasza grupa stanowi część szerszego ruchu, lecz na co dzień żyje przede wszystkim problemami i potrzebami kilkunastu osób, z powodu których powstała. Dawniej prowadziliśmy intensywne życie wspólnotowe, widując się niemal co tydzień oraz wyjeżdżając na obozy letnie i zimowe. Dziś spotykamy się rzadziej, wyjazdy organizujemy jedynie latem, niemniej budowane przez dziesięciolecia relacje i poczucie przynależności do grupy są bardzo silne.

Wspólnota, do której należę, ma wyraźne centrum – to przyjaciółki i przyjaciele, wokół których i dla których się zgromadziliśmy. Nie w każdej wspólnocie tak jest. Niekiedy centrum grupy jest lider lub liderka, czasem określona idea, wartość lub cel, a czasem po prostu istniejące więzi. Nasze centrum jest specyficzne, ponieważ osoby z niepełnosprawnością intelektualną nie zawsze potrafią wprost komunikować swoje oczekiwania. Wymaga to od nas wyjątkowej uważności. Wiele decyzji podejmujemy w ich imieniu, ale musimy być czujni, żeby nikogo nie traktować jak podopiecznego, który ma dostosować się do stanowionych przez nas reguł. Nie prowadzimy terapii – tworzymy wspólnotę przyjaciół, którzy przede wszystkim cieszą się z tego, że są razem. Jesteśmy nastawieni na relacje: pielęgnujemy je i staramy się rozwijać.

Często jestem pytany o to, co jest potrzebne małej wspólnocie, żeby zachowała żywotność. W pięciu punktach zebrałem swoje spostrzeżenia – raczej ostrożne podpowiedzi niż gotowe recepty.

Po pierwsze: odpowiedzialność

Ci, którzy chcą tworzyć wspólnotę, powinni sobie odpowiadać – w podwójnym sensie tego słowa. Nie może być między nimi głębokich konfliktów osobowościowych, bo te będą nie tylko uniemożliwiać współpracę, lecz także rozsadzać grupę od wewnątrz. Ważne jest, by tworzący wspólnotę potrafili odpowiedzieć na czyjeś wołanie, prośbę, potrzebę – nawet wówczas, gdy nie zostaną one wypowiedziane. Wspólnota nie musi każdej sprawy wywlekać na światło dzienne, żeby zbiorowo ją rozważać. Są takie zagadnienia i takie obszary, które mogą, a nawet powinny pozostać w ukryciu. Z drugiej jednak strony można ją porównać do nieustannie toczącej się rozmowy, w której czymś naturalnym jest zadawanie pytań i oczekiwanie odpowiedzi. Podstawowe pytanie, z jakim człowiek przychodzi do wspólnoty (choć rzadko formułowane wprost), to: „Czy jestem coś wart, czy jest na tym świecie ktoś, dla kogo moje życie jest cenne?”. Wspólnota powinna na to pytanie odpowiedzieć twierdząco.

Kiedy padnie taka odpowiedź, rodzi się odpowiedzialność. Wspólnotę tworzą ludzie zarówno odpowiadający sobie, jak i gotowi odpowiadać za siebie nawzajem. Niszczy ją brak stałego zaangażowania: dziś jestem, jutro może będę, a może nie. Wiele osób ma dziś problem z podejmowaniem decyzji, czuje opór przed zobowiązaniem; nie potrafi powiedzieć nie tylko, co będzie robić w najbliższym miesiącu, ale nawet następnego dnia. Jeśli wspólnota ma przetrwać, trzeba ją traktować jako coś zobowiązującego, inaczej zbudowanie relacji z innymi członkami i członkiniami będzie niemożliwe. Nie chodzi o nadmierną formalizację – wspólnota nie jest miejscem, w którym będzie się sprawdzać obecność jak w szkole. Chodzi o coś bardziej wewnętrznego, rodzaj egzystencjalnej decyzji, która sprawia, że dokonujemy przesunięć w osobistej hierarchii wartości.

Po drugie: otwartość

Odnosi się to do przyjęcia postawy powitania i ufności. Nie tylko zaaprobowania różnic, lecz także dostrzeżenia w nich wartości. W mojej wspólnocie jedni robią to, co do nich należy, bardzo szybko, inni dużo wolniej. W efekcie ustala się rytm życia wspólnoty, który nie jest ani „pośpiechem”, ani „guzdraniem się”. Staramy się postrzegać każdego z nas jako wartość, nawet jeśli z początku z pewnymi jego cechami trudno się nam pogodzić.

Wspólnota powinna dbać o otwartość na zewnątrz i do wewnątrz. Obumiera, kiedy odcina się od zewnętrznego świata i zamyka w sobie. Ale jeszcze szybciej dochodzi do jej rozkładu, gdy przestaje być otwarta wobec własnych członkiń i członków. Gdy będąc we wspólnocie, trzeba wyrzec się zbyt wiele i zbyt mocno nagiąć do oczekiwań innych, więzi wspólnotowe zaczynają się „supłać”, a następnie zrywać. Jednomyślność bywa siłą, ale też zgubą, a w każdym razie zubożeniem. Jest potrzebna w sprawach najbardziej podstawowych, lecz pogląd, które sprawy są podstawowe, może ulegać zmianie. Wspólnota nie powinna pogrążać się w nieustających dyskusjach, choć nie powinna ich również gasić; musi założyć, że prawie wszystko może być przedmiotem negocjacji, a zmiana ma szansę przynieść poprawę sytuacji. Jedna idea to za mało, by wspólnota się rozwijała. Jeślibyśmy w naszej wspólnocie nie szukali nowych idei i związanych z nimi pomysłów, groziłoby nam, że się sobą znudzimy.

Wspólnota potrzebuje prawdy. Jednak przez „prawdę” zbyt często rozumie się prywatny pogląd na jakąś sprawę. Nie niszcząc istniejących różnic, trzeba we wspólnocie poszukiwać tego, co obiektywne, co wynika z uzgodnienia rozmaitych punktów widzenia. Przepływ informacji musi być sprawny, ale nie pośpieszny. Można powiedzieć, że wspólnota powinna działać dokładnie odwrotnie niż większość współczesnych mediów, gdzie – jak w jednym ze swoich zapisków w Lapidariach zanotował przed laty Ryszard Kapuściński – nie ma czasu „na niuanse, szczegóły, wieloznaczności, różnice, odcienie”, a miejsce bogactwa zajmuje tempo: „wszystko jest powtarzaniem tego samego, byle prędko, byle utrzymać rytm”. Wspólnota ma stać po stronie bogactwa informacyjnego, a nie tempa.

Po trzecie: cierpliwość

Nawet jeśli grupa pozytywnie odpowiada na większość naszych pytań i potrzeb, nie stanie się na ogół „wspólnotą naszych marzeń”. Wspólnota bowiem się przeobraża, nigdy nie osiągając ostatecznego kształtu. Cierpliwość to zgoda na nieznane, ale też zaakceptowanie faktu, że nie wszystko jest zrozumiałe. Zdecydowałem się wyodrębnić ją, ponieważ moje doświadczenie podpowiada mi, że źródłem większości problemów w budowaniu relacji z innymi jest właśnie brak cierpliwości.

Cecha ta jest potrzebna przede wszystkim w okresach kryzysu. Bywa, że trwa on tak długo, iż wydaje się permanentny. Może mieć rozmaite formy. Czasem chodzi o to, że „nic się nie dzieje”, wspólnota jakby stanęła w miejscu i nie może ruszyć, brakuje pomysłów i energii. Czasem przyczyną są konflikty, których grupa nie potrafi rozwiązać. Bywa jednak i tak, że okres kryzysu jest rezultatem nadmiernej aktywności czy chęci reformowania. „Lepsze” bywa wtedy wrogiem „dobrego”. Cierpliwość pozwala nam dostrzec, że nie wszystko musi być doskonałe, że również „niedoskonałe” może dać wspólnocie to, czego ona potrzebuje.

Cierpliwość powstrzymuje nas także przed nieustannym krytykowaniem i poprawianiem innych. Relacje z nimi lepiej oprzeć na niepełnej wiedzy niż na nadmiernej ciekawości. Istnieją granice ingerencji w czyjeś życie. Wielu z nas – być może nawet większość – ma naturalną, często nieuświadamianą skłonność do narzucania innym własnego sposobu widzenia świata i własnych wobec tego świata oczekiwań. Cierpliwość i uczciwość wobec siebie uczą nas rozpoznawać w sobie tę skłonność i panować nad nią. Inne oraz inni odsłonią się przed nami, kiedy będą tego chcieli.

Po czwarte: kompromis

Dzięki niemu poszczególne indywidualności i różnice zdań nie rozsadzają grupy, lecz ją ożywiają. We wspólnocie ważna jest umiejętność wybaczania. Przy odmiennych opiniach i charakterach nietrudno o większe albo mniejsze napięcia. Czasem padnie jedno słowo za dużo. Czasem tych niepotrzebnych słów nagromadzi się zbyt wiele. Nawet najbardziej kochający się ludzie potrafią nawzajem mocno się ranić. Sprawne mechanizmy przebaczenia – oto, czego wspólnota bardzo potrzebuje.

Słowo „mechanizmy” nie powinno nas w tym kontekście zmrozić. Chodzi o to, że kiedy jesteśmy zamknięci w swoim bólu czy w złości, coś z zewnątrz może nas otworzyć. Przebaczenie nie przychodzi łat­wo, a obecność osób trzecich, ich rady czy naciski zazwyczaj nie pomagają. Dobrze, jeśli grupa, wiedząc, że wśród jej członkiń i członków istnieje napięcie, ma sposoby na rozładowanie go. Taką rolę może odegrać zarówno wspólna wyprawa, jak i wspólny posiłek czy oglądanie filmu. Niektórym pomaga zbiorowa mod­litwa czy przeżywane razem momenty ciszy. Ważne, aby ci, którzy nie są bezpośrednio zaangażowani w konflikt, byli w takich chwilach dyskretni.

Najbardziej wzruszające momenty w mojej wspólnocie to te, kiedy widzę swoich przyjaciół z zespołem Downa, gdy po jakiejś sprzeczce – zwykle niezbyt gwałtownej – proszą jedni drugich o przebaczenie i przytulają się. Ujmuje mnie naturalność, z jaką to robią. Być może tak zostali wychowani, ale myślę, że mają też w sobie naturalną skłonność do poszukiwania harmonii z innymi – skłonność, którą my, nazywający siebie „normalnymi”, nieco zagubiliśmy.

Po piąte: świętujmy

Mówiąc o świętowaniu, na ogół mamy na myśli rozmaite rytuały, praktykowane z mniejszą lub większą regularnością. Nawet karnawał jest swoistym rytuałem: przychodzi w określonym czasie, ma swoje formy, które celebruje i powiela. Jednak „świętowanie wspólnoty” to coś trochę innego. Powinno ono biec równolegle z resztą jej działań. To jakby nieustająca świadomość, że wspólnota jest czymś rzeczywistym i trzeba cieszyć się jej istnieniem.

Świętowanie można by porównać do alegorycznej sceny z renesansowych obrazów przedstawiających sadzawkę młodości: ludzie wchodzą do niej starzy i słabi, wychodzą zaś młodzi i pełni energii. Wspólnota potrzebuje nieustannej odnowy – lepiej dla niej, gdy uczestnicy ją doceniają, kiedy tylko mogą, świętując niejako „na bieżąco”. Oczywiście, powinna też mieć swoje szczególne dni – obchodzić urodziny, imieniny, rocznice – ale o wiele większe znaczenie ma to, co dzieje się pomiędzy, pewien wymiar „świąteczności”, który przenika życie codzienne.

Ważnym przejawem tego „powszedniego świętowania” są dobre słowa. Zbyt mało ich sobie mówimy. Mam przyjaciółkę z zespołem Downa, Magdę, która potrafi to robić w sposób oryginalny. Kiedyś, obserwując wolontariuszkę pochyloną nad książką, powiedziała: „Kasiuńciu, bardzo ci ładnie w tym czytaniu”. Nie każdy, rzecz jasna, posiada taki talent jak Magda, ale dobrze jest uświadomić sobie, że właś­nie takie momenty mają wielką wartość w budowaniu relacji. Dobre, serdeczne, czułe słowo sprawia, że to, co wspólnie robimy, nabiera dodatkowego smaku. Nie chodzi o płytką egzaltację, lecz o głębokie przeżycie radości z bycia razem.

Napisawszy powyższe, myślę o tym, ile jeszcze spostrzeżeń pozostało niewypowiedzianych. Czyż nie powinienem napisać, że fundamentem każdej wspólnoty jest zachwyt? A co z miłością? Co ze wspólnym działaniem? Zostawiam jednak te niepełne uwagi jako zachętę, punkt wyjścia do własnych refleksji. Może przydadzą się one w myśleniu nie tylko o małych, lecz także dużych wspólnotach? Często nie wiadomo, co ma większy wpływ na co: „duże” na „małe” czy na odwrót.

Zamiast chwilowych przymierzy – stała wspólnota z jej wszystkimi zaletami i wadami. Badacze wciąż główkują, kto, kiedy i właściwie dlaczego to wymyślił?

Według Edwarda O. Wilsona, współtwórcy socjobiologii, pod względem anatomii czy fizjologii owady są od nas tak różne, że wydają się mieszkańcami obcej planety. Ich linia ewolucyjna oddzieliła się od linii człowieka 600 mln lat temu – a mimo to jesteśmy w stanie dostrzec w ich egzystencji formy doskonale nam znane. Termity afrykańskie nie tylko łączą się w liczne i zorganizowane zbiorowości żyjące na wspólnym terytorium, współpracują, znają podział kastowy, dysponują robotnikami wznoszącymi 5-metrowe kopce, lecz także zajmują się hodowlą. W specjalnych komorach, wykorzystując resztki roślinne, hodują grzyby, od których zależy ich życie. Samo gniazdo też nie jest przypadkowo uformowaną przestrzenią, ale skomplikowanym systemem komór i galerii. Termity potrafią komunikować się ze sobą w zakresie danego etapu budowy; ściśle realizują kolejne fazy pracy. Gdy zastaną niedokończony fragment konstrukcji, pracują nad jego zakończeniem. Działają zgodnie z planem.

Obecność owadów i ciepło wydzielane przez ich ciała powinny doprowadzić do przegrzania gniazda i niedoboru powietrza, jednak budowa termitiery niweluje to ryzyko. Według Edwarda O. Wilsona konstrukcja pełni funkcję podobną do naszych urządzeń klimatyzacyjnych. Zapewnia utrzymanie w komorze, w której przebywają królowa i król, tej samej temperatury, jak również stałej koncentracji dwutlenku węgla (odchylenie od normy rzadko przekracza 0,1%).

Socjobiologia od zarania była krytykowana z wielu powodów, choćby nadmiernej skłonności do antropomorfizacji świata nie ludzkiego. Zarzut ze wszech miar słuszny: zawsze należy zastanawiać się, czy nie przykładamy naszej miary do zjawisk, których nie możemy zrozumieć. Trudno jednak kwestionować uderzające analogie pomiędzy życiem zwierząt a naszym. Jedną z niezaprzeczalnych zasług socjobiologii jest upowszechnienie prawdy, że życie wspólnotowe, oparte na regułach i wspólnych celach, nie jest wyłącznie domeną człowieka. Watahy wilków, stada ptaków, roje szarańczy to przykłady społeczności, które można porównywać z ludzkimi: zorganizowanych grup osobników tego samego gatunku, współpracujących i komunikujących się ze sobą.

Zdaniem Wilsona pod pewnymi względami owady wciąż nas przewyższają. Jeś­liby wziąć pod uwagę takie cechy, jak altruizm, zdolność do samopoświęcenia dla dobra innych, nasze społeczeństwo wypada dużo gorzej. Kolonia jest czymś w rodzaju superorganizmu. My przedstawiamy się jako gatunek egoistyczny, wykorzystujący innych członków naszej wspólnoty do zaspokojenia własnych potrzeb, zachowania altruistyczne rezerwując najczęściej dla wąskiego kręgu rodzinnego. Jednakże Wilson utrzymuje, że człowiek (jako jedyny z kręgowców!) prześcignął owady w zakresie organizacji społecznej. W dodatku nierzadko przekraczamy ssaczą „zasadę egoizmu”, wykonując gesty wobec osób, z którymi nie jesteśmy spokrewnieni (choć oczywiście najczęściej oczekując odwzajemnienia odroczonego w czasie).

Tym, co według badacza doprowadziło nas do stworzenia złożonych form organizacji i zachowań, jest nasza inteligencja. I tu dochodzimy do kwestii, która wymaga szerszego omówienia.

Myślę, że ty czujesz…

Zdroworozsądkowe przypuszczenie, że inteligencja jest warunkiem tego, co skomplikowane i zorganizowane, współcześnie psycholodzy ewolucyjni uzupełniają jeszcze drugą hipotezą: to właśnie życie społeczne stało się czynnikiem determinującym ewolucję mózgu naczelnych. Zgodnie z tym kierunkiem myślenia społeczeństwo poprzedza rozwój inteligencji i jest jego przyczyną. Co więcej – możliwe, że zasada ta dotyczy nie tylko naczelnych, lecz także wszystkich ssaków i ptaków.

Według nowych teorii podstawę życia społecznego stanowi „umysł”, a ściślej mówiąc – dysponowanie „teorią umys­łu”. Warunkiem życia grupowego jest znajomość zarówno własnych, jak i cudzych stanów psychicznych; umiejętność wyobrażenia sobie, że inny osobnik myś­li i czuje podobnie do nas, ma zbliżone spostrzeżenia czy intencje. W ramach tej teorii nie przypisuję posiadania umysłu, powiedzmy, klamce w drzwiach, dlatego się z nią nie komunikuję i nie traktuję jej jak członka swojej wspólnoty.

Brytyjski antropolog i psycholog ewolucyjny Robin Dunbar mówi w tym kontekście o różnych poziomach intencjonalności – słowo to oznacza u niego umiejętność refleksji nad stanem własnego lub cudzego umysłu: uczuciami, pragnieniami itd. Pierwszy poziom osiąga każda samoświadoma istota. Zdolność do posiadania poglądu o świadomości innej istoty to już drugi poziom. Kolejne poziomy są nieskończonymi ciągami stanów rozmaitych umysłów, umiejscowionych w sobie jak w matrioszce. Przykładowo, pierwszy poziom może wyrażać się w stwierdzeniu: „Wiem, że jestem zły”. Drugi: „Wiem (1), że on jest zły (2)”. Trzeci: „Sądzę (1), że on myśli (2), że Andrzej jest zły (3)”. Czwarty: „Wydaje mi się (1), że on myśli (2), że Andrzej myśli (3), iż Ewa jest zła (4)” – i tak dalej.

Zrozumienie tej nieco abstrakcyjnej teorii jest bardzo pomocne w pojmowaniu zjawiska ludzkiego życia społecznego i jego wpływu na rozwój inteligencji. Badania prowadzone przez Dunbara wykazały, że zachowania związane z mentalizacją (to zbiorcza nazwa dla takich procesów psychicznych, jak: „wierzę, że”, „myślę, że” „wyobrażam sobie, że”, „chcę”, „przypuszczam”) są dużo bardziej wymagające dla mózgu niż te, które dotyczą np. zapamiętywania faktów. Ponadto podczas eksperymentów stwierdzono, że im wyższych „poziomów intencjonalności” dotyczyły zadania, tym większa była u uczestników aktywność neuronalna w pewnych obszarach kory przedczołowej i w płacie skroniowym.

Dzieci opanowują podstawową „teorię umysłu” w wieku około pięciu lat; w późniejszym czasie dochodzi umiejętność rozumienia wyższych poziomów. Co ciekawe, przeciętny dorosły człowiek potrafi sprawnie posługiwać się pięciostopniową intencjonalnością (z czego wynikałoby, że nie miałby problemu ze zrozumieniem zdania: „Myślę, że ty chcesz, aby Andrzej chciał, żeby Ewa myślała, że Antoni chce, by Marta coś zrobiła”, ale już bardziej skomplikowane byłyby dla niego trudne do pojęcia). Życie codzienne najczęściej wymaga jednak od nas intencjonalności zaledwie drugiego poziomu.

Komputery mają zerową intencjonalność – nie są świadome danych, którymi dysponują. Być może również niektórym owadom brakuje jakiejkolwiek samoświadomości. Większość ssaków zna tylko pierwszy stopień. Małpy takie jak orangutan czy szympans docierają do drugiego poziomu. Według Dunbara zrozumienie reguł społecznych jest tak trudne i wymagające, że tłumaczy, dlaczego socjalizacja pojedynczego człowieka trwa aż tyle lat. Zdaniem naukowca przeciętny mózg homo sapiens potrzebuje na to aż 20–25 lat. Jeśli owe teorie są prawdziwe, można by powiedzieć, że mózgowcem nie jest ten, kto potrafi dobrze liczyć, lecz ten, kto rozumie innych.

Hipotezę istnienia „mózgu społecznego” wspiera analiza fizycznych rozmiarów mózgu. Te gatunki owadów, które żyją w większych grupach (tak jak to robią pszczoły czy mrówki), mają większe ciała grzybkowate niż osobniki żyjące samotnie. Mózgi współczesnych psów domowych, które wchodzą w liczne interakcje z różnymi ludźmi, są większe od mózgów ich biologicznych przodków. Jednak przede wszystkim tę hipotezę popierają badania z obrazowaniem mózgu małp i ludzi: objętość kory nowej danego człowieka jest proporcjonalna do wielkości jego sieci społecznej.

W odróżnieniu od innych ssaków małpy (ale już nie małpiatki) dysponują nowymi obszarami w korze przedczołowej. Jest to kojarzone ze złożonymi zdolnościami poznawczymi, w tym m.in. z planowaniem i ocenianiem zachowań – również istotnymi w kontekście kompetencji społecznych. Według Dunbara można podejrzewać, że kora przedczołowa pomaga powstrzymywać impulsywną reakcję. To bardzo ważna umiejętność, jeśli chodzi o budowanie wspólnot: wspomniany przez Wilsona egoizm może zostać pokonany dopiero wówczas, gdy osobnik opanuje – dajmy na to – impuls sięgnięcia po jabłko (dzięki czemu będzie mógł je dostać ktoś inny).

150 znajomych

Często przyjmuje się, że naczelne łączą się w grupy z podstawowego praktycznego powodu: skuteczniejszej obrony przed drapieżnikami. Mimo to życie w grupie wcale nie jest rozwiązaniem idealnym; rodzi takie problemy, jak chociażby rywalizacja o jedzenie czy miejsce do odpoczynku. Im liczniejsza grupa, tym większe zapotrzebowanie na pożywienie, a przecież migracja w jego poszukiwaniu zwiększa ryzyko spotkania z drapieżnikiem. Podstawowy kłopot obserwowany w grupach małp dotyczy jednak konfliktów wewnętrznych, których ofiarą padają samice – pod wpływem stresu ich cykl miesiączkowy może ulec zaburzeniu, co skutkuje nawet bezpłodnością. Aby przetrwać, konieczne jest zawiązywanie wewnątrzgrupowych sojuszów, co pomaga przeciwstawić się konfliktowym jednostkom.

Znaczące jest to, że im większa grupa, tym częściej pojedynczy osobnik ugruntowuje mniejszą liczbę więzi, jak gdyby stawiając na jakość, a nie na ilość relacji. Tu dygresja: zdaje się, że monogamia jest bardziej wymagająca dla mózgu niż poligamia. Życie w parze monogamicznej wymaga zarówno rozwiązywania problemów wynikających z wewnętrznych konfliktów interesów, jak i nieuchronnego konfrontowania się z zagrożeniem w postaci alternatywnych partnerów i partnerek żyjących w tej samej grupie. Para musi tolerować siebie nawzajem i jednocześnie nie tolerować innych przebywających na tym samym terytorium w okresie reprodukcyjnym (co jest zachowaniem rzadkim dla innych ssaków niemonogamicznych). Wydaje się też, że wejście na drogę monogamii prowadzi do trwałego przeprogramowania mózgu – gdy bowiem zwierzęta przestawiają się na monogamiczny typ związków, nie wracają już do starego modelu.

Wspomniane już wcześniej trudności w osiąganiu wysokich poziomów intencjonalności prowadzą do wniosku, że liczba osobników, z którymi można tworzyć w miarę zaangażowane więzi (w literaturze przedmiotu określa się ją mianem liczby Dunbara), nie jest nieskończona. Ta prawda dotyczy zarówno zwierząt, jak i ludzi. Według autora tej teorii człowiek jest w stanie utrzymywać stabilne, bliskie relacje ze 150 osobami. Początkowo wydaje się, że to zaskakująco mało, ale przecież rzeczywiście uczestnictwo w większych grupach nie przychodzi nam łatwo. Relacje w zbiorowości przekraczającej 150 osób są powierzchowne, niepewne, krępujące, naznaczone nieufnością, trudne do zapamiętania, przez co nieraz wymagają mnóstwa regulujących je norm, tak by się nie rozpadły. Społeczności, które przewyższają „naturalne” możliwości poznawcze mózgu, muszą być „sztucznie” wspomagane.

Hipotezę o istnieniu liczby Dunbara potwierdzałyby np. dane demograficzne społeczeństw łowiecko-zbierackich, udokumentowane liczebności starych wiosek angielskich z XVIII w., a nawet rozmiary kompanii militarnych. Badacz ze swoim zespołem weryfikował poprawność tej liczby na wiele sposobów: w jednym z eksperymentów proszono uczestników o wypisanie z książki telefonicznej wszystkich osób, które są dla nich ważne; w innym zaś sprawdzano, ilu ludziom badani wysyłali kartki na Boże Narodzenie. Najbardziej spektakularne okazały się jednak badania, na które powołuje się Dunbar, dotyczące współczesnych mediów społecznościowych oraz interakcji w Internecie: na próbie 10 mln reprezentantów stwierdzono, że średnia liczba osób, z którymi możemy wymieniać się e-mailami, zamyka się w widełkach 100–200. Wszystkie te rozliczne badania zawsze grawitują wokół tej samej wartości – liczby Dunbara.

Teoria brytyjskiego antropologa ma interesujące implikacje dla badań w ramach „socjologii i kultury prehistorycznej”. Skoro 150 jest naturalną liczbą dla homo sapiens dysponującego określonym mózgiem, można obliczać, jak mogły wyglądać wspólnoty naszych praprzodków, bazując na rozmiarach ich czaszek (i odpowiedniej objętości znajdujących się w nich mózgów). Większy mózg sugeruje życie w większej grupie; mniejszy – w mniejszej. Przykładowo, zdaniem Dunbara, wierzenia religijne wymagają określonego stopnia intencjonalności: wynika stąd, że jeśli dana prehistoryczna czaszka jest zbyt mała, by pomieścić mózg, który sugeruje posługiwanie się taką intencjonalnością, nie mogło być mowy o życiu religijnym.

Zarówno Wilson, jak i Dunbar wskazują też, że najlepiej rozwinięte społeczeństwa powstały z jednostek rodzinnych. Według tego drugiego z naukowców pięć lub sześć rodzin łączyło się w solidarną gromadę; liczniejsze społeczności oczywiście były możliwe, ale po przekroczeniu liczby 150 członków stawały się – podobnie jak w przypadku wspomnianych wcześniej małp – bardziej stresogenne i przesycone konfliktami.

Ta teoria wydaje się przekonująca; jest również zgodna z obecnym paradygmatem biologii – wyobrażeniem o życiu, które nieustannie dąży do „replikowania się w jednostkach”. Dane etnograficzne komplikują nam jednak przypuszczenie o fundamentalnej roli rodziny w kształtowaniu się pierwszych wspólnot homo sapiens. Współcześnie antropologia kulturowa dostarcza obszernego materiału obrazującego, jak rozmaicie mogą być rozumiane ludzkie wspólnoty i jak trudno byłoby objąć je jedną formułą.

Kto to jest krewny?

Odwołując się do teorii Dunbara, archeo­log David Graeber i antropolog David Wengrow w słynnej książce Narodziny wszystkiego z rozbrajającą szczerością zauważyli, że przecież nie każdy lubi swoją rodzinę, a wiele osób nawet unika z nią kontaktu. Jest to spostrzeżenie tyleż zabawne w swojej oczywistości, co wymagające uwzględnienia w poważnym rozumieniu ludzkich kultur. Współczesne badania dotyczące dzisiejszych grup łowców-zbieraczy oraz tych żyjących w epoce lodowcowej pozwalają przypuszczać, że od zarania wspólnoty ludzkie niekoniecznie składały się z krewnych biologicznych.

Nie ulega wątpliwości, że stosunki pokrewieństwa w dużym stopniu określają życie tzw. społeczeństw pierwotnych. Odrębną kwestią jest jednak to, jak rozumieją one pokrewieństwo. Istotność rodziców biologicznych to stosunkowa nowość w historii idei, charakterystyczna dla współczesnej kultury zachodniej – w niektórych społeczeństwach jest ona wręcz zupełnie niezrozumiała.

Zilustrujemy to kilkoma przykładami. Dziewczęta z kasty Nayra z Wybrzeża Malabarskiego, gdy osiągają dojrzałość płciową, wychodzą za mąż za dojrzałych mężczyzn; zaślubiny celebrowane są publicznie. Następnie młode mężatki muszą spędzić trzy kolejne noce z poślubionym rytualnie mężem, ale później mogą już legalnie wchodzić w inne relacje, a nawet korzystać z pełnej swobody seksualnej – niemniej każdemu narodzonemu dziecku przypisane jest ojcostwo pierwszego rytualnego męża (choć ten nie musi być ojcem biologicznym). Czy znaczyłoby to, że imperatyw przekazywania genów, który miałby konstytuować rodzinę i o którym piszą socjobiolodzy, nie obowiązywał w tej grupie etnicznej?

Warto także przywołać przedmiot słynnej antropologicznej kontrowersji, czyli kwestię tego, czy Aborygeni – opisywani przez pierwszych etnografów i misjonarzy – zauważali związek przyczynowo-skutkowy między aktem płciowym a zapłodnieniem. Z uwagi na to, że zgodnie z ich systemem religijnym ciąża była tam rozumiana jako inkarnacja ducha przodka w łonie kobiety, tej zależności mogliby nie dostrzegać. Duchy, przyjąwszy postać płodu, podstępem dostawałyby się do wnętrza kobiety (szczególnie łatwo miało dochodzić do tego w miejscach kultu, w których przebywali totemiczni przodkowie). Również badani przez Bronisława Malinowskiego Trobriandczycy w ogóle nie uważali się za biologicznych ojców dzieci, którymi się opiekowali (nie rozumieli też sensu kastracji bydła).

W tradycyjnych społecznościach wyobrażenia dotyczące pokrewieństwa rozciągają się zresztą na świat pozaludzki. Francuski antropolog Philippe Descola zaobserwował, że ludność Achuar z lasów Amazonii w równy sposób traktowała roś­liny i zwierzęta. W swojej książce Be­yond Nature and Culture badacz pod­kreślał, że Achuar nie dzielą osób na „ludzkie” i „nie ludzkie”. Duchy, rośliny i zwierzęta są dla nich takimi samymi istotami jak ludzie. Z naszej perspektywy byłaby to więc wspólnota ponadludzka. Wszyscy jej członkowie komunikują się między sobąpoprzez zaklęcia: rośliny i zwierzęta rozumieją je, ale nie odpowiadają od razu. Robią to później albo poprzez sny czy podczas halucynogennych wizji.

Inne kosmologie amazońskie prezentują podobne rozumienie świata przyrody. Ludność Macuna z Amazonii również postrzega zwierzęta i rośliny jako osoby, przy czym ich klasyfikacje są bardziej płynne niż u Achuar: ludzie mogą zmienić się w rośliny lub zwierzęta i vice versa. Wszystkie te byty są uczestnikami życia społecznego, a także rytuałów. Według wierzeń Macuna zwierzęta odprawiają ceremonie i żyją we własnych domach. Jedynie tymczasowo przyjmują postacie, które odbieramy jako zwierzęce, a kiedy znikają nam z pola widzenia, w swoich siedzibach przybierają naturalne dla siebie formy. Dla myśliwego Makuna zwierzyna łowna odgrywa taką samą rolę we wspólnocie jak małżonek.

Miasto, masa, religia

Współcześnie w następstwie rozwarstwienia społecznego więzi pokrewieństwa straciły swoje znaczenie na rzecz innych relacji, np. ekonomicznych i politycznych. Najistotniejsza historycznie w tym kontekście okazała się rewolucja miejsko-cywilizacyjna, w ramach której powstają wielomilionowe supermiasta. Ten proces toczy się już od czasów neolitycznych.

Robin Dunbar stwierdza, że nie wiadomo, w jaki sposób doszło do przejścia na niezwykle stresogenny i konfliktogenny osiadły tryb życia, ale sugeruje, że mogło ono wynikać z tej samej przyczyny, dla której inne naczelne zbierają się w większe grupy: obrony przed drapieżnikami. W przypadku homo sapiens byłaby to też obrona przed sąsiadami, jednak wielką kontrowersję archeologiczną dotyczącą tego, czy najstarsze znane ludzkie osady miały fortyfikacje, Dunbar traktuje jako nieistotną. Jego zdaniem już sam fakt życia w większej grupie zniechęca do ataku, a każdy dom pełni funkcję ochronną.

Niestety ta część rozważań brytyjskiego antropologa nie jest przekonująca ani zgodna z bardziej specjalistycznymi publikacjami na temat ludzkich konfliktów militarnych. Badacz Keith F. Otter­bein w książce How War Began (Jak zaczęła się wojna) podkreślał, że warunkiem przejścia na osiadły tryb życia oparty na rolnictwie jest czas długotrwałego pokoju. Nie można niczego uprawiać, gdy się walczy lub oczekuje walki. Archeologia neolitu również pokazuje, że nie był to okres rozwoju „rzemiosła wojennego”, a świadectwa jakichkolwiek zdecydowanych działań militarnych pojawiają się znacznie później niż pierwsze osady.

Wyjaśnienie Dunbara jest nieprzekonujące z jeszcze jednego powodu. Badacz zakłada, że decyzja homo sapiens o porzuceniu nomadycznego trybu życia miała jakiś sens biologiczny, że była „racjonalna”, tymczasem przecież wiele z ludzkich działań – z praktycznego punktu widzenia – wydaje się nie mieć sensu. Susanne K. Langer ośmieszała sposób myślenia cechujący psychologię genetyczną: w swojej książce Nowy sens filozofii zauważała, że żaden szczur nie oddaje się rytuałom mającym spowodować magiczne zniknięcie ścian labiryntu, w którym się znajduje, a człowiek właśnie takie rytuały odprawia. Ludzie najczęściej oddają się aktom symbolicznym, pozbawionym wszelkiej racjonalnej celowości. W rzeczywistości tylko nieliczne nasze zachowania mają znaczenie związane z przetrwaniem, rozmnażaniem się czy obroną – tymi wszystkimi pierwotnymi potrzebami, które mielibyśmy dzielić z innymi zwierzętami i którym miałyby być podporządkowane wszelkie nasze działania. Filozofka stwierdza wręcz, że zachowania praktyczne i zdroworozsądkowe należą bardziej do zachowań zwierzęcych niż ludzkich. Człowiek przede wszystkim tworzy symbole i wyraża idee. Najlepszym tego przykładem jest samo mówienie, któremu ciągle się oddaje (pisanie i czytanie tego artykułu to kolejne przykłady).

Rozważając to, co wiemy o najstarszych siedzibach homo sapiens, uzasadnione będzie przypuszczenie, że ludzie zaczęli się gromadzić również dla celów symbolicznych, a mówiąc ściślej – robili to po prostu z powodów religijnych.

Przykładem takiej wspólnej pracy jest Göbekli Tepe – zespół megalitycznych konstrukcji wzniesionych około 9000 r. p.n.e., najstarsze miejsce kultu religijnego ludzkości. Słupy ważą nawet tonę i są bogato rzeźbione. Powstanie całego kompleksu musiało wiązać się ze skoordynowaną pracą ogromnej rzeszy osób. Dodajmy do tego informację, że jest to dzieło społeczeństw nomadycznych, które tylko okresowo zbierały się w tym miejscu w celach rytualnych, w innych porach wracając do rozproszonego trybu życia. Mniej znanym, ale równie fascynującym miejscem jest Poverty Point znajdujące się w amerykańskim stanie Luizjana. Osada – najpewniej także o charakterze religijnym – obejmuje 200 ha konstrukcji ziemnych, matematycznie uszeregowanej przestrzeni sformowanej zgodnie z regułami świętej geometrii. Ta budowla też nie jest dziełem ludów osiadłych, lecz została wzniesiona przez nomadycznych myśliwych i rybaków.

Miasto można uznać za najdonioślejszy przykład ludzkiego życia społecznego. Do powstania każdego z nich było potrzebne zaangażowanie zdecydowanie większej grupy uczestników niż 150 osób wskazane przez liczbę Dunbara. Ludzie z jakiegoś powodu zjednoczyli się tak bardzo, że byli w stanie postawić niebotyczne konstrukcje i wytworzyć skomplikowane relacje społeczne utrzymujące wspólnotę żyjącą w tak dużym zagęszczeniu.

Najstarsze znane miasto – neolityczne Çatalhöyük założone około 7400 r. p.n.e. na terenie dzisiejszej Turcji – według ostrożnych szacunków zamieszkiwane było przez około 5 tys. osób. Odnajdowane na jego dawnych terenach liczne czaszki zwierząt miały potwierdzać teorię, jakoby zbudowali je rolnicy i hodowcy bydła. Jednak nowsze badania archeo­logiczne wykazały, że były to kości upolowanej zwierzyny, a zachowywano je jako przedmioty kultu. O bogatym życiu religijnym mieszkańców tej osady świadczą malowidła ścienne czy praktyka grzebania zmarłych pod podłogą domostw.

Powstanie miejskich cywilizacji kojarzymy często z podbojami dynastycznych monarchii, a jednak najstarsze miasta Mezopotamii sprzed 4–3 tys. lat nie dostarczają archeologicznych argumentów na rzecz istnienia jakichkolwiek królów – brakuje charakterystycznych dla monarchii form pochówku, pałaców, inskrypcji czy fortyfikacji.

W książce Powszechna historia miasta Joel Kotkin stwierdza, że rolą każdego wielkiego miasta w dziejach ludzkości – obok zapewniania bezpieczeństwa oraz umożliwiania obrotu towarów i usług – było stworzenie przestrzeni sakralnej. Miasto żyło, gdy rozwijało się we wszystkich tych trzech aspektach. Kotkin dowodzi, że nawet w dzisiejszej, zeświecczonej cywilizacji zachodniej funkcję podobną do dawnych piramid, zigguratów czy wież kościelnych pełnią strzeliste wieżowce, które oddziałują na wyobraźnię i wywołują quasi-religijne skojarzenia.

Ludzie łączą się zarówno w małe, jak i ogromne grupy, nawet jeśli ich mózgi nie są do tego przystosowane. Robią to w celach praktycznych, takich jak obrona przed wrogiem, skuteczność w wytwarzaniu czy zdobywaniu pożywienia, ale też z powodów zupełnie niepragmatycznych i symbolicznych. W skład własnej społeczności potrafią zaliczać nie tylko ludzi z krwi i kości, lecz także zwierzęta, rośliny, duchy, zmarłych. Chcą dalej przekazywać swoje geny, jednak czasem wydaje się, że jest im to zupełnie obojętne.

Jeśli więc chodzi o bycie razem, u homo sapiens spotykamy wszelkie wariacje.

Umiejętność czytania i pisania zmienia ludzki umysł oraz przekształca życie całych społeczeństw. Pytanie: czy zawsze na lepsze?

W eseju O kulcie książek Jorge L. Borges przypomniał, że ani Pitagoras, ani Platon, ani Jezus nie byli orędownikami pisma. Zdecydowanie preferowali słowo mówione. Jeśli chodzi o elity duchowe i intelektualne, przewrót nastąpił mniej więcej w IV w. – pióro zwyciężyło. To w tym czasie młody św. Augustyn opisywał w Wyznaniach tajemniczą postać swojego nauczyciela, św. Ambrożego, który w milczeniu, z zastygłą twarzą śledził wzrokiem ciągi znaków, „dając pokarm umysłowi”. Nam ten obraz może wydawać się banalny, ale cudowność pisma podziwiano i wychwalano jeszcze w czasach nowożytnych. Przykładem niech będzie Friedrich Schlegel, według którego „prawdziwa litera była wszechmocną i rzeczywistą różdżką czarodziejską”.

Najczęściej traktuje się je jako przełomowy wynalazek umożliwiający wierne odzwierciedlenie mowy i myśli. Ten punkt widzenia, który też w nowszych czasach prezentowali klasycy językoznawstwa, współcześnie nie wytrzymuje krytyki zarówno ze strony antropologii, jak i historii. Pismo nie tylko odtwarza mowę oraz myśli, lecz także w istotny sposób na nie wpływa. Jego pojawienia się nie można traktować jako odizolowanego wynalazku. Zmiany, które ono wywołało, są na tyle poważne, że należy wręcz mówić o powstaniu kultur pisma. Okazuje się, że umiejętność pisania i czytania ma niezwykle doniosłe konsekwencje poznawcze i społeczne.

W latach 60. XX w. przedstawiciele tzw. wielkiej teorii piśmienności zainaugurowali nowy sposób myślenia o tak fundamentalnej roli pisma. Do czołowych badaczy tej koncepcji należy wybitny brytyjski antropolog kulturowy sir Jack Goody.

Przez całe życie był związany z Uniwersytetem w Cambridge, zaczynał od studiów literackich i jak wielu badaczy przed nim (w tym choćby Bronisław Malinowski) zainteresował się antropologią dzięki lekturze Złotej gałęzi Jamesa G. Frazera – książki, którą przeczytał podczas wojny w obozie jenieckim w Niemczech.

Jego twórczość wyznaczają dwa wielkie zagadnienia: wpływ pisma na ludzki umysł i kulturę, a także zwalczanie wszelkich przejawów etnocentryzmu. Oba tematy ściśle się ze sobą łączą. W dużym skrócie: posługiwanie się pismem powoduje wytworzenie się u osoby piśmiennej pewnego rodzaju racjonalności, a ta następnie zostaje zastosowana w ocenie innych kultur (te, które się nim nie posługują, przedstawicielom kultury pisma jawią się jako nieracjonalne). Wbrew opiniom o wyjątkowości Zachodu w dziedzinie organizacji, nauki i technologii – jak wskazywał Goody – podobne zjawiska i przemiany następowały skokowo wszędzie tam, gdzie pojawiła się jakaś forma zapisu, pergamin czy prasa drukarska.

Okulary piśmienności

Przez ostatnie stulecia myśliciele Zachodu, szczególnie klasycy antropologii, chętnie wskazywali różnice między kulturami pierwotnymi a cywilizowanymi. Społeczeństwa proste przeciwstawiano złożonym; magicznenaukowym; prelogiczne czy mistycznelogicznym; tradycyjnenowoczesnym; wyróżniano myślące konkretem i te posługujące się abstrakcją. Goody zgadzał się z Claude’em Lévi-Straussem, że poszukiwanym czynnikiem odróżniającym naszą kulturę od tych pierwotnych nie są uwarunkowania społeczne, polityczne czy religijne, lecz poprzedzające je rozmaite postrzegania świata. Zauważył jednak, że o ile Lévi-Strauss trafnie wskazał ów czynnik, o tyle nie wyjaśnił jego źródła. Jak można się domyślać, według Goody’ego różnica w tym postrzeganiu zasadza się właśnie na używaniu pisma.

Mowa jest ulotnym dźwiękiem. Zdarzeniem ograniczonym w czasie i przestrzeni. Wszelkie te bariery jednak znikają, gdy sprowadzimy ją do dwuwymiarowej formy graficznej. Zapisany komunikat może oddalać się od nadawcy, może nawet przeżyć go o stulecia. A co najistotniejsze – zapisana mowa przestaje być efemeryczna. Od tej chwili zostaje „unieruchomiona”, daje się obserwować z zewnątrz. Oczywiście współcześnie potrafimy utrwalić dźwięk, ale to nie to samo. Nie może być poddawany analizie czy udoskonalany w równym stopniu co zapisany komunikat, bo wciąż pozostaje sygnałem akustycznym, a nie znakiem materialnym. Dopiero zanotowane i odczytywane słowa ujawniają relacje pozostające często w żywej mowie ukryte – pojawiające się między nimi sprzeczności, dwuznaczności, brak spójności, które sprawny mówca może zakamuflować.

Te cechy pisma są na tyle istotne, że modyfikują nasze wzory myślenia. Refleksja ukształtowana przez zapis i lekturę staje się bardziej linearna, abstrakcyjna oraz intelektualna. Zdaniem Goody’ego piśmienność w istotny sposób przyczyniła się do rozwoju logiki, udoskonala argumentacje i akcentuje binarność.

Dociekania historyczne pokazują, że początki pisma na Bliskim Wschodzie w ogóle nie miały związku z pragnieniem wiernego odzwierciedlania mowy. Były to przede wszystkim listy i spisy rzeczy. Pierwsza znana forma zapisu, czyli sumeryjskie pismo klinowe, powstawała jako poukładane kolumny i rzędy. Rejestry i wyliczenia prowokują do pytań o relacje między wchodzącymi w ich skład elementami. Pismo to nie tylko pomoc dla pamięci, lecz także bodziec do intelektual­nego zainteresowania się zarejestrowaną informacją.

Przykładowo – jak twierdził Goody – tworzenie list rzeczy doprowadziło do powstania systematycznej teorii matematycznej, a babilońskie rejestry bóstw czy planet i oddzielających je od siebie odległości miały dać podwaliny astrologii. Praktykowane w starożytnej Mezopotamii odnotowywanie znaczących zdarzeń (okresów rządów, bitew itd.) w ciągach chronologicznych zapoczątkowało natomiast nauki historyczne i ukształtowało sposób myślenia o dziejach, którego i my jesteśmy dziedzicami. Według Goody’ego myśl naukowa ewoluowała wszędzie tam, gdzie dochodziło do rozwoju umiejętności czytania i pisania. To nie przypadek, że początków dzisiejszej nauki należy szukać na Bliskim Wschodzie, a jej twórczy rozkwit nastąpił w starożytnej Grecji, w której posługiwano się alfabetem. Z kolei spektakularny rozwój nowożytnej nauki w Europie poprzedziła „rewolucja Gutenberga”.

Etnografowie od dawna zauważali, że to nieprawda, iż w społeczeństwach pierwotnych ludzie są bezwzględnie oddani swoim rytuałom i mitom, wszyscy wierzą w bogów oraz skuteczność magii i wyroczni. W każdym plemieniu pojawiają się osoby, które moglibyś­my okreś­lić mianem myślicieli lub podważające ogólnie przyjęty obraz świata. Zdaniem Goo­dy’ego różnica dzieląca nasze bardziej sceptyczne społeczeństwo od tamtych kultur polega na tym, że jednostki wątpiące w społecznościach niepiśmiennych nie mogą swoich myśli zachować, tak aby były one trwałe i następnie zostały rozwinięte. Nie chodzi więc o brak sprzeciwu i całkowitą jednomyślność, lecz o wynikającą z braku pisma niemożność akumulacji sceptycyzmu, która mogłaby zapoczątkować bardziej znaczące przemiany w kulturze.

Prowadzenie list i rejestrów już w starożytności przyczyniło się do swego rodzaju faworyzowania nauki polegającej na klasyfikowaniu rzeczy. W kulturach oralnych rzadko sporządza się wyliczenia. Jeśli pojawiają się w książkach etnograficznych, to zdaniem Goody’ego jako efekt przeinaczeń etnografa narzucającego swoje metody porządkowania świata. Jeżeli nawet w danej kulturze występują w formie szczątkowej, nie stają się wzorcem dla klasyfikacji i myślenia. Tymczasem wielkim symbolem naszej kultury pisma jest encyklopedia, będąca sumą wszelkiej wiedzy zgromadzonej w postaci ułożonych alfabetycznie haseł. Alfabet jest przykładem arbitralnego – z punktu widzenia logiki i wartości – sposobu klasyfikacji danych, ale okazuje się niezwykle pomocny, gdy próbujemy uszeregować wielość chaotycznych informacji.

Konsekwencje rozważań Brytyjczyka pomagają zrozumieć współczesne postrzeganie świata. Jeśli zastanawiam się, co będę dziś robił, i wymieniam dane czynności w porządku hierarchicznym lub chronologicznym – planuję w sposób, który najłatwiej oddać w graficznej formie dwuwymiarowej. Gdy zastanawiam się nad historią kraju czy nad biegiem swojego życia albo tworzę listę rzeczy, które chcę osiągnąć – cały czas myślę jak przedstawiciel kultury pisma; ktoś, kto uwewnętrznił jego logikę. Pis­mo, od czasów nowożytnych wprowadzone do szkół, kształtuje specyficzny sposób myślenia, formułuje struktury myślowe i poznawcze, poza które właściwie nie sposób wyjść.

Goody zauważał, że wystarczy, aby pis­mo pojawiło się wśród elit, a reszta danego społeczeństwa, choćby była niepiśmienna, również się zmieni. Kon­sekwencją tego jest pogląd, zgodnie z którym pismo staje się fundamentalnym czynnikiem przekształcającym kulturę do tego stopnia, że można mówić o osobnej kulturze pisma mającej określone cechy, istniejące co najwyżej w formach zalążkowych w kulturach oralnych.

Można pójść jeszcze dalej w wyprowadzaniu wniosków z teorii wielkiej piś­mienności. Choć Goody nie mówi tego wprost, przypuszczalnie jest tak, że my, którzy uwewnętrzniliśmy logikę pisma, nie pozostajemy już w tak ścisłej relacji ze światem materialnego konkretu, jaka cechuje kultury oralne. Faworyzując zmysł wzroku i abstrakcję, nie widzimy świata jako ciągły, lecz poszatkowany i podzielony znakami; wydarzenia nie są dla nas nierozerwalnie osadzone w swoich konteks­tach, a nasze doświadczenie okazuje się bardziej intelektualne niż cielesne.

Narzędzie bogów

Bez pisma nie do pomyślenia są największe światowe religie – judaizm, chrześcijaństwo, islam – które nie istnieją w oderwaniu od swoich świętych tekstów. Nawet nieco odmienne od nich hinduizm, buddyzm czy taoizm mają pisma kanoniczne od stuleci określające ich charakter. Tym samym wielkie religie przyczyniły się do pogłębiania piśmienności w swoich społecznościach poprzez konieczność poznawania świętych pism. Choć w ich ramach istnieje wiele odmiennych wyznań, sekt i herezji, istotność odniesienia do podstawowych tekstów nie ulega zmianie. Możliwe są rozmaite interpretacje i to one decydują o różnicach między poszczególnymi doktrynami, ale zasadnicze podstawy spisane w świętych tekstach pozostają niepodważalne dla wyznawców.

Współcześnie wciąż można spotkać pogląd, zgodnie z którym gdzieś przetrwała jakaś niezmienna, prastara pogańska tradycja licząca setki czy nawet tysiące lat. Niektórzy tropią wynikające z niej zwyczaje z przekonaniem, że nieskodyfikowane mity i rytuały są takie same od swojego zarania. W rzeczywistości brakuje dla takiego ujęcia dowodów.

Istnieją za to argumenty na rzecz stanowiska zupełnie przeciwnego. To właś­nie wielkie religie uniwersalistyczne, mające swoje korpusy tekstów, cechuje większa stałość wynikająca z ciągłego odniesienia do tych samych, uznanych za święte pism. Lokalne religie afrykańskie badane przez Goody’ego wykazywały się większą elastycznością i swobodą w przetwarzaniu treści swoich wierzeń. Eksperyment polegający na zapisywaniu – przez kilkadziesiąt lat – na taśmach magnetofonowych recytacji lokalnych mitów pokazał, że ich treść znacząco modyfikowano, i to niekiedy w sposób fundamentalny. Bogowie i boginie wręcz wymieniali się funkcjami. Już sama różnorodność wierzeń i rytuałów, występująca nawet wśród ludów sąsiadujących ze sobą, dowodzi wielkiej kreatywności kultur oralnych w formowaniu ich życia religijnego. Oczywiście możliwe, że jakaś kultura oralna utrzyma takie same wierzenia przez stulecia, ale wydaje się, że wówczas konieczny jest pewien czynnik polityczny czy instytucjonalny, który zapewni taką stałość.

Co więcej, okazuje się, że dopiero święte księgi sprowokowały wytworzenie idei religii jako sfery wydzielonej z innych dziedzin życia społecznego. Badane przez Goody’ego społeczności afrykańskie nie mają słów, które można przetłumaczyć jako religia czy rytuał.

Prawo, państwo, niewolnictwo

Afrykańskie religie plemienne są ściśle związane z życiem danej społeczności; konwersja jest raczej niemożliwa. Inaczej niż buddyzm, chrześcijaństwo czy islam nie istnieją one w oderwaniu od grupy etnicznej, w ramach której powstały. Zdaniem Goody’ego uniwersalizm religijny wiąże się z pewną tendencją, która polega na zerwaniu z kontekstem i dążeniu do uogólnień, wprowadzaniu sformułowań i twierdzeń abstrakcyjnych, a pojawia się wraz z piśmiennością.

Ta uwaga zbliża nas do samej idei powstania prawa – zjawiska nieodzownie związanego z pismem – które należy odróżnić od istniejącego w kulturach oralnych zwyczaju. Ogólna formuła prawna wprowadza problemy interpretacyjne, które zwyczaj rozwiązuje poprzez ścisły związek z kontekstem. Dlatego reguły prawne rozrastają się w nieskończoność, by móc przewidzieć wszelkie możliwe wariacje sytuacyjne. Pisemny charakter prawa skutkuje więc możliwością nadużyć czy absurdami.

Wynalazek pisma na Bliskim Wschodzie wiąże się z rozwojem miast i spektakularnej architektury. W tym miejscu możemy jednak dodać za Lévi-Straussem, że początki pisma w Sumerze i Egipcie idą w parze z narodzinami… niewolnictwa. Spisy ludności umożliwiły jej lepszą kontrolę i wykorzystywanie do pracy, a tym samym tworzenie organizmu politycznego. Nawet w czasach współczesnych obserwowaliśmy, jak wprowadzenie obowiązkowej nauki czytania i pisania przyczyniało się do większego nadzoru państwa nad jednostką. Zdaniem fran­cuskiego antropologa ktoś, kto potrafi czytać, nie może usprawiedliwiać się nieznajomością spisanego prawa.

Inni badacze także zauważyli niezupełnie pozytywny wpływ piśmienności na życie społeczeństw. Pismo sprzyjało powstawaniu nierówności społecznych – np. egipski pisarz (urzędnik prowadzący rejestry ludności i zajmujący się administracją) czy kościelny duchowny (mający dostęp do spisanego Słowa Bożego) w oczywisty sposób sytuowali się wyżej w hierarchii.

Wielka różnica?

Jak już zostało wspomniane, Goody w swojej karierze akademickiej trudnił się również krytyką etnocentryzmu. Wielu teoretyków (oraz polityków) utrzymywało i nadal utrzymuje, że pojawienie się racjonalności, nauki czy kapitalizmu było szczególną zdobyczą kultury zachodniej. W początkowym okresie swojej pracy Goody też niejako podzielał ten pogląd, wiążąc wyjątkowość Zachodu z greckim pismem alfabetycznym i konsekwencjami, jakie ono wywołało. Jednak w swoich późniejszych tekstach (choćby w książce Renesans. Czy tylko jeden?) zmienił zdanie, przyznając, że wcześniej nie dostrzegał zalet pisma logograficznego stosowanego w Mezopotamii, Egipcie czy Chinach. Przykładowo, niefonetyczny chiński sposób zapisu umożliwił „eksport” kultury na różne obszary językowe, co jest wykluczone w zapisie alfabetycznym.

Krytycy teorii Goody’ego zauważyli, że mimo jego wysiłków w podważaniu koncepcji, które uzasadniałyby wyższość Zachodu, antropolog w trakcie całej swojej działalności badawczej równolegle pracował nad tym, by dostarczyć przeciwnikom silny argument. Przecież podział na kulturę oralną i piśmienną łatwo da się wykorzystać politycznie. Dzięki niemu można znów cofnąć się do XIX w. i w nowym przebraniu mówić o cywilizacji i dzikich, a także racjonalizować i uzasadniać wszelkie zamiary cywilizowania dzikich.

Fakt, wczesny artykuł Następstwo piś­mienności częściowo można interpretować w ten sposób, jednakże późniejsze dzieła Goody’ego nie przeciwstawiają tych dwóch typów kultur w tak ostry sposób. Zdaniem badacza nie mamy tutaj bowiem do czynienia z wyraźną dychotomią, a raczej z pewnymi tendencjami. Goody starał się balansować między dwoma stanowiskami: nie zgadzał się na dyskryminujące rozróżnienie między umysłowością pierwotną a współczesną, ale też nie podzielał stanowiska, które ignoruje wszystkie różnice między społeczeństwami. Ponadto należy pamiętać, że według niego tendencje piśmienne i oralne istnieją nie tylko w każdej grupie społecznej, lecz także u każdej jednostki. Nawet my, przedstawiciele kultury pisma, w życiu codziennym możemy zachowywać się jak reprezentanci kultury oralnej.

Na koniec, odstępując już od koncepcji Brytyjczyka, dodajmy, że w przypadku stosowania pisma nie mamy do czynienia z prostym podziałem na tych chcących, ale niepotrafiących się nim posługiwać, oraz tych bardziej sprawnych intelektualnie, którzy chcą i potrafią. Etnografowie w Ameryce Północnej rejestrowali niechęć kultur tubylczych wobec pisma; niektóre społeczeństwa świadomie z niego zrezygnowały.

Pewien XIX-wieczny wódz rdzennych mieszkańców, cytowany przez Martina Kuckenburga w książce Pierwsze słowo, twierdził, że pismo „rodzi błąd i kłótnie” (tłum. Bartosz Nowacki). Wódz utrzymywał, że jego Wielki Duch mówi i można go usłyszeć w grzmotach, w huczącej burzy, w potężnych bałwanach oraz innych zjawiskach przyrody. Jednak ten Wielki Duch „nie pisze nigdy”.

Mniej więcej wtedy, kiedy wymyślono koło, zrodził się też drugi, być może jeszcze bardziej rewolucyjny pomysł: że słowa można zapisywać.

Na początku był obrazek czy – jak to mówią badacze pisma – piktogram. Dłoń, drzewo, radło, oko, ptak, słońce, woda (oznaczały ją dwie fale, jedna nad drugą). Z pojedynczych znaczków składano proste rebusy: usta plus chleb równa się jedzenie. Dzięki piktogramom i rebusom łatwiej było handlować, kontrolować, liczyć. Z czasem jednak same piktogramy i rebusy przestały wystarczać. W drugiej połowie IV tysiąclecia p.n.e. w kraju Sumerów, żyjących w delcie Eufratu i Tygrysu (późniejsze tereny południowej Mezopotamii, a obecnie Iraku), zrodził się system klinów – znaków nieco podobnych do gwoździ lub litery T, które rysowano bądź żłobiono (albo po prostu wyciskano) trzcinowym rylcem w glinie. I tak kombinacja trzech pionowych i czterech poziomych „gwoździ” reprezentowała głowę, cztery ukośne oznaczały jęczmień, a jeśli ktoś chciał przedstawić chleb, to rył trzy „gwoździe” stojące na jeszcze jednym. Piśmiennicze symbole przekształcały się w coraz bardziej abstrakcyjne. Po kolejnych dwóch tysiącach lat, około 2800 r. p.n.e., można było już zapisać dźwięki ludzkiej mowy.

Sumerowie powszechnie są uważani za twórców pisma. Chociaż nigdy swojego systemu nie przekształcili w prawdziwy alfabet, to i tak okazał się on przełomowym osiągnięciem, które wyznaczyło granicę między prehistorią a starożytnością. Z jednym zastrzeżeniem: być może już niebawem okaże się, że… palma pierwszeństwa wcale nie należy do nich.

„Do tej pory powszechnie uważano, że to Sumerowie byli pierwsi. Jednak w świetle ostatnich badań i odkryć archeo­logicznych, zwłaszcza tych z egipskiego grobowca U-j w Abydos, tę teorię zaczęto ostatnio podważać. Dowodów wciąż jest mało i nie wszystkich przekonują, ale wygląda na to, że nieco szybsi mogli być Egipcjanie – mówi Dominika Kossowska-Janik, kustoszka warszawskiego Muzeum Azji i Pacyfiku, znawczyni historii pisma. – Ważny jest tutaj nie tylko czas, w którym pojawiły się pierwsze znaki, lecz także kontekst. Dotychczas sądzono, że początkowo pismo służyło Egipcjanom do tego, by wychwalać władcę, bogów i kulturę Egiptu. Teraz okazuje się, że podobnie jak dla Sumerów, w pierwszym okresie istotniejsza była funkcja administracyjna czy też rachunkowa” – dodaje.

Hieroglify na papirusie

Dopóki jednak nie wiadomo na pewno, kto był pierwszy, trzymajmy się dawnych ustaleń, według których egipskie pismo, czyli hieroglify, powstało później, ale przez długi czas rozwijało się równolegle z sumeryjskim pismem klinowym. W szczytowym okresie rozwoju składało się z 700–800 znaków.

Jak wspominała Kossowska-Janik, za pomocą hieroglifów zapisywano hymny na cześć królów i faraonów, a także wielkość zbiorów czy wydatki oraz wpływy do budżetu władców. System egipski należy do pism przejściowych, czyli takich, które łączyły ideogramy (uproszczone obrazki) i znaki fonetyczne. Były wykuwane w kamieniu, często na ścianach świątyń czy grobowców, na urnach i posągach. W III tysiącleciu p.n.e. hieroglify pojawiły się też na papirusie – wytrzymałym materiale wytwarzanym z cibory papirusowej, rośliny gęsto porastającej ówczesną Afrykę. Te hieroglify, które były ideogramami, opisywały zarówno konkretne rzeczy, jak i pojęcia abstrakcyjne. „Jak na przykład zapisać słowo »świecić« albo »dzień«? Egipcjanie poradzili sobie z tym bardzo prosto. […] rysowali słońce lub gwiazdy; celem oddania ruchu przedstawiali kroczącego człowieka lub tylko jego nogi” – pisał profesor Karol Myśliwiec, egiptolog i archeolog, w książce Święte znaki Egiptu. Znaczenia nieraz domyślano się z kontekstu, do rozwiewania wątpliwości służyły także determinatywy – znaki, które nie miały żadnej wartości fonetycznej, jedynie doprecyzowywały znaczenie poprzedzającego je słowa.

Prawo do używania hieroglifów przywłaszczyli sobie potężni egipscy kapłani, stąd sama późniejsza nazwa „hieroglify” (pochodząca z języka greckiego) oznacza „pismo bogów” albo „święte znaki”. Umiejętność czytania i pisania w Egipcie stała się sprawą prestiżu. Kto znał hieroglify, ten dzierżył władzę – i nie zawsze miał ochotę się nią dzielić.

Z hieroglifów wyewoluowały dwa inne rodzaje egipskiego pisma: hieratyczne i demotyczne. To pierwsze zostało podyktowane potrzebą chwili. Świat przyśpieszał, zapis też powinien. Uproszczenie znaków wydawało się najlepszym wyjściem. „Już nie trzeba było tracić tak dużo czasu, by tworzyć piękne, ale skomplikowane symbole. Warto pamiętać, że przecież hieroglify poza funkcją komunikacyjną pełniły też funkcję dekoracyjną” – mówi Kossowska-Janik.

Z kolei pismo demotyczne powstało, kiedy zwyczaj pisania wyszedł – wbrew dawnym pragnieniom egipskich kapłanów – poza krąg osób najlepiej wyedukowanych. Dziś mówi się, że było ono pismem ludu: zdecydowanie prostsze, łatwiejsze do opanowania. Jak wskazywał profesor Myśliwiec: „W zestawieniu z hieroglifami i hieratyką, które można porównać do pisma drukowanego i pisma ręcznego, zapis demotyczny przypomina stenografię”. Ze względu na swoją prostotę znaki demotyczne upowszechniły się i wyparły hieratykę.

Kaligrafia i węzełki

Tymczasem w Chinach ponad 3 tys. lat temu rodził się zupełnie inny system pis­ma, dziś uważany za najdłużej nieprzerwanie funkcjonujący na świecie. Składał się ze znaków odpowiadających pojedynczym słowom albo sylabom, które czasem łączyły się w bardziej złożone pojęcia. Przez setki lat forma chińskich znaków przeszła ewolucję, ale zasady ich funkcjonowania pozostają niezmienne.

Za najstarsze świadectwa pisma chińskiego uchodzą datowane na XIII w. p.n.e. wróżebne inskrypcje z czasów dynastii Shang, ryte w kamieniu, skorupach żółwi czy kościach łopatkowych wołów. Każdy tekst był wpisany w kwadrat, odczytuje się go od góry do dołu, zaczynając od prawej strony. Treść najstarszych zapisów skupiała się wokół ofiar składanych duchom przodków i bóstwom, a także wojen, polowań i innych wydarzeń z życia dworu. Późniejsze inskrypcje powstawały na naczyniach z brązu oraz bambusowych i jedwabnych zwojach.

Olbrzymi wpływ na wygląd chińskich znaków miało wynalezienie papieru, datowane na około 105 r. n.e. Kaligrafowanie pędzlem i tuszem sprawiło, że znaki zyskały miękkość i wyrafinowanie, pojawiły się też linie o różnej grubości. Słowa zapisywano jednak bez odstępów między nimi, co dziś przysparza wielkich kłopotów badaczom starochińskiego pisma.

Istnieje teoria, że mniej więcej w tym samym czasie co Chińczyków potrzeba zapisywania słów owładnęła ludy andyjskie. Lecz ich pomysł był zupełnie inny od tego, co znano na Bliskim Wschodzie czy w Azji. Pismo kipu (choć od razu warto dodać, że nie wszyscy naukowcy uważają je za pismo), które stworzyli, to system węzełków plecionych na linach z bawełny albo wełny lam, wikunii bądź alpak. Do głównego sznura prostopadle przyczepiano cieńsze sznureczki (zdarzało się, że nawet 1500), na których wiązano supełki. Ale sznurek nie był równy sznurkowi, a supeł supłowi. Różniły je grubość, kolor, rodzaj węzła. Każdy z tych elementów niósł jakąś informację.

Umiejętność odczytywania kipu zanik­ła, do czego przyczyniła się hiszpańska konkwista, która w XVI w. podbiła terytoria dawnego imperium Inków rozciągające się od dzisiejszej Kolumbii po Boliwię i Chile. Hiszpanie konsekwentnie niszczyli rdzenne kultury na opanowywanych przez siebie terenach, a za przywiązanie do nich surowo karali. Do dziś nie wiemy, jaki rodzaj informacji zawierały te linkowe „księgi”.

Ale jest kilka hipotez. Najodważniejsza z nich mówi o pełnoprawnym, skomplikowanym systemie piśmienniczym, za pomocą którego można było wyrazić wiadomości z każdej dziedziny życia. Inne koncepcje nie wybiegają aż tak daleko, według nich kipu utrwalało jedynie podstawowe dane liczbowe albo proste komunikaty. Prawdopodobnie inkascy władcy wykorzystywali pismo węzełkowe do odnotowywania liczby ludności terytoriów, które mieli we władaniu, pogłowia bydła czy stanu zbiorów. Być może ten system pomagał również w obliczaniu i ściąganiu podatków. Konkwistadorzy, którzy w 1583 r. ostatecznie zabronili używania kipu, a istniejące węzełki nakazali spalić, uważali, że pismo to służy do podtrzymywania kultu miejscowych bogów.

Litery jak dźwięki

Przełomem w historii piśmiennictwa było powstanie alfabetu fenickiego, datowane na około 1100 r. p.n.e. „Fenicjanie jako pierwsi używali alfabetu, który był skodyfikowany. Natomiast już sporo wcześniej podobne próby wprowadzenia pism alfabetycznych podejmowali ich przodkowie, Kananejczycy, a więc lud, który zamieszkiwał ziemie Lewantu [Izraela, Palestyny, Jordanii i Libanu – przyp. aut.], zanim pojawili się tam Hebrajczycy. Pismo kananejskie powstało poprzez dostosowanie niektórych egipskich hieroglifów do języka lokalnego. Miało to miejsce mniej więcej na początku drugiego tysiąclecia przed naszą erą, trudno o dokładniejszą datę” – opowiada Kossowska-Janik.

Stworzony przez Fenicjan system znaków składał się z 22 liter, wyłącznie spółgłosek (samogłoski nie miały swoich symboli) i był odczytywany od prawej do lewej. Litery odpowiadały brzmieniu poszczególnych dźwięków mowy, a nie brzmieniu całych słów. Dzięki temu można było precyzyjniej wyrazić ludzkie myśli. Pisanie nie wymagało już zapamiętywania setek trudnych obrazków czy znaków. Litery zapisywano na skórach, papirusie czy – początkowo niezwykle drogim – pergaminie, który wyrabiano ze skór owiec, koźląt lub cieląt (co ciekawe, produkowano nie tylko białe pergaminy, lecz także niebieskie, żółte, purpurowe czy czarne). Samo słowo „alfabet” powstało od nazw dwóch liter alfa i beta, które z kolei swe źródło mają w fenickich słowach aleph – „wół” (literę a zapisywano jako ideogram przypominający głowę wołu) oraz beth – „dom” i „powodzenie” (kwadrat z otworem; w domyśle: dom z oknem). W podobną stronę poszły dwa inne semickie systemy pisma: hebrajski i aramejski. W obu samogłoski należało sobie dopowiadać, co było problematyczne, zwłaszcza dla tych, którzy próbowali odczytywać te zapisy wieki później. Do dziś zresztą z tego powodu trwają debaty interpretatorów fragmentów Starego Testamentu spisanych po hebrajsku.

Niedługo później ten system udoskonalili Grecy, którzy dodali do alfabetu samogłoski i stworzyli własny system, składający się z 24 znaków: 17 spółgłosek i 7 samogłosek. Litery greckie były proste, jednakowej wysokości, z dominującymi formami okrągłymi i trójkątnymi. Z biegiem lat wykształciły się cztery rodzaje greckich liter: majuskuła (duże litery), minuskuła (małe litery), kursywa (pismo pochylone) i uncjała (pismo okrągłe, bez kanciastych liter). Zmianie uległ również kierunek odczytywania – ostatecznie przyjęto formułę od lewej do prawej.

Według żyjącego w V w. p.n.e. historyka Herodota system piśmienniczy przynieśli do Hellady Fenicjanie towarzyszący synowi króla Tyru – Kadmosowi. Ponoć Grecy długo podchodzili sceptycznie do tej dziwacznej nowinki. Dzieła literackie zgodnie z tradycją nadal przekazywali potomnym wędrowni pieśniarze przy akompaniamencie liry. Przez kilkaset lat pismo nie odgrywało tu większej roli. Książki w postaci zwojów papirusowych weszły do obiegu handlowego dopiero w V w. p.n.e., wtedy też upowszechniła się umiejętność czytania i pisania. Ale nawet wówczas krytykował je największy z greckich filozofów, Platon. „Najlepszą ochroną byłoby w ogóle nie pisać i pamięciowo przyswajać nauki. Bo to, co jest napisane, nie daje się utrzymać w tajemnicy” – uważał. Jego zdaniem ważkie filozoficzne treści nie powinny trafiać do „szerokich kół”, a upowszechnienie pis­ma łączyło się według niego z takim zagrożeniem. „Poważny człowiek nigdy nie będzie pisał o tym, co dla niego najistotniejsze; nie wyda tego na łup nieporadności i zawiści innych” – pisał filozof w Liś­cie VII. Paradoksem całej tej sytuacji jest fakt, że swój atak na pismo Platon… spisał.

Elegancka łacinka

Wraz z hellenizacją świata antycznego pismo greckie rozprzestrzeniło się w basenie Morza Śródziemnego, na Bliskim Wschodzie i w Azji Środkowej. Dość szybko zapis grecki stał się ówczesną lingua franca. Greka inspirowała kolejne ludy do tworzenia nowych systemów. Około V w. p.n.e. rozwinęły się trzy warianty greckiego alfabetu: południowy (używany na Krecie i Thirze), zachodni (Peloponez, Tesalia, kolonie w Italii, a także na Sycylii) oraz wschodni (kolonie jońskie w Azji Mniejszej i Attyce). Ze wschodniego wywodzą się m.in. prasłowiańska głagolica czy używana do dziś cyrylica. Z zachodniego – alfabet łaciński, który zdominował języki Europy (i nie tylko te). „Głagolicę stworzył św. Cyryl, żeby zapisywać Ewangelię w językach słowiańskich. Z kolei twórcą trzech pism kaukaskich, a więc gruzińskiego, ormiańskiego i Albanii Kaukaskiej, była jedna osoba, św. Mesrop” – mówi Kossowska-Janik.

Zdecydowanie największy sukces spośród nowych sposobów zapisu odniosła rzymska łacina. Alfabetyczno-fonetyczny system pisma Rzymianie najpewniej przejęli jednak nie bezpośrednio od Greków, lecz od żyjących w Italii Etrusków. O popularności tego alfabetu zadecydowały jego prostota, uniwersalność i łatwość adaptacji. A także terytorialny zasięg państwa rzymskiego. Łacina podbijała antyczny świat również później, wraz z jego chrystianizacją.

Mimo to składający się z 24 liter alfabet łaciński potrzebował czasu, by stać się pis­mem, którym operujemy obecnie. Uważa się, że ostateczny kształt uzyskał dopiero na przełomie XIII i XIV w. Wcześniej sporo przy nim majstrowano: dodając i usuwając litery zależnie od obowiązujących prądów intelektualnych czy nawet widzimisię władców albo patrycjuszy. Pojawiały się i znikały m.in. x, y, k czy g. Litera v przez pewien czas oznaczała zarazem samogłoskę i spółgłoskę. W IV w. p.n.e. jeden z cenzorów usunął z, bo uznał je za niepotrzebne. Trzy całkiem nowe litery wprowadził cesarz Klaudiusz, ale przetrwały one tylko do jego śmierci w 54 r.

Dzięki rozrostowi Imperium Rzymskiego pismo stało się nośnikiem religii i kultury na dużą skalę. Już około roku 500 łacinka była najpowszechniej używanym alfabetem w całej Europie. Rzymianie zadbali również o jej formę. Odpowiedzią na typy piśmiennicze wywodzące się z Grecji były rzymskie kroje:

– kapitała elegancka, zwana też kwadratową (capitalis quadrata): monumentalna, staranna, dziś będąca wzorem dla wersalików;

– kapitała chłopska (capitalis rustica): prosta, z cienkimi liniami pionowymi i szerokimi poziomymi;

– kursywa rzymska: niezbyt staranna, do użytku codziennego;

– uncjała rzymska: charakteryzująca się zaokrąglonymi kształtami i zmienną grubością liter.

Epoka Gutenberga

Za następną rewolucją w historii pisma stała maszyna. W 1448 r. jubiler z Moguncji Jan Gutenberg założył pierwszą drukarnię. Wzorując się na istniejących już prasach introligatorskich, zaprojektował prasę drukarską. Podobne urządzenia, wykorzystujące ruchome czcionki, znano już w XI-wiecznych Chinach, różnica jednak polegała na tym, że maszyna ­Gutenberga miała czcionki z metalu, łatwo się je formowało, dodatkowo cechowały się trwałością. Nie można było tego powiedzieć o dawnych prasach, do których litery wykuwano z kamienia albo wytwarzano je z miękkich materiałów.

Moguncki złotnik zasłynął też z popularyzacji kroju gotyckiego w piśmie. Światową sławę zdobył drukowany przez niego w latach 1452–1455 tekst Wulgaty, czyli Biblii przełożonej z hebrajskiego i greckiego na łacinę. Biblii Gutenberga wydrukowano 180 egzemplarzy, do dziś przetrwało 48 (jeden z nich jest w Polsce, w Muzeum Diecezjalnym w Pelplinie).

Zanim powstała maszyna Gutenberga, teksty przepisywano ręcznie na pergamin. Przeważnie parali się tym mnisi w specjalnych pomieszczeniach klasztornych zwanych skryptoriami. Przepisanie jednej solidnej księgi czasem zajmowało skrybie nawet 20 lat, siłą rzeczy wszelkie pisane dzieła były drogie i trudno dostępne. Za sprawą niemieckiego wynalazcy ziściły się obawy Platona – pismo wreszcie miało szansę dotrzeć do szerszego kręgu odbiorców, a dzięki temu mogło silniej oddziaływać na organizację społeczeństw, politykę, prawo czy religię. Dzięki wynalezieniu druku (i spopularyzowaniu papieru) pojawiła się również możliwość powszechnej edukacji.

Być może bez prasy drukarskiej Gutenberga nie przetrwałoby wiele epokowych wynalazków, przełomowych opinii czy ważnych tworów kultury. Kto wie, co stałoby się z dziełem Kopernika, gdyby w odpowiednim czasie nie udało się go wydrukować? Przecież niedługo potem trafiło ono na papieską listę ksiąg zakazanych, a całe nakłady konfiskowano. Na szczęście dzięki wystarczająco szerokiej już wówczas dystrybucji O obrotach sfer niebieskich nie musiało polegać wyłącznie – jak chciał dawny grecki filozof – na ludzkiej pamięci.

Historia kołem się toczy

I wreszcie najnowsze techniczne wynalazki, które zmieniły nasz sposób zapisywania myśli. Maszyna do pisania i jej bezpośredni następca – komputer. Po upowszechnieniu się cyfrowych form zapisu tak wielkiego znaczenia nie ma już papier, ponadto coraz rzadziej piszemy ręcznie (wiele osób nawet nie robi tego w ogóle). I tu zdaniem niektórych akurat trzeba bić na alarm. Pisanie ręczne jest konieczne do prawidłowego rozwoju intelektualnego. Aktywuje w mózgu ośrodki odpowiedzialne za koncentrację, orientację przestrzenną, dobrą pamięć i umiejętność rozwiązywania problemów.

Marshall McLuhan, kanadyjski teoretyk komunikowania masowego, już w latach 60. XX w. stwierdził, że środek przekazu ma na odbiorcę większy wpływ niż sam przekaz. Jego praca Galaktyka Gutenberga nawoływała do zerwania z dawnym, linearnym sposobem pisania, a tym samym ze „sztywną” naukową metodą prowadzenia dyskursu publicznego. Badacz zastanawiał się nad wpływem druku – a szczególnie alfabetu fonetycznego – na świadomość człowieka i kulturę nowoczesnej Europy. McLuhan zderzał przedpiśmienne myślenie kultur oralnych z umysłowością ludzi wychowanych na piśmie, zwłaszcza drukowanym. Jego zdaniem upowszechnienie wynalazku Gutenberga znacząco wpłynęło na powstanie państw narodowych – a co za tym idzie: nacjonalizmów – i na dominację w tych społeczeństwach racjonalizmu oraz indywidualizmu.

McLuhana porównywano z Newtonem, Darwinem, Einsteinem czy Freudem, ale znalazło się również całkiem spore grono badaczy, którzy zarzucali mu naiwną wiarę w technikę, a także formułowanie ryzykownych teorii mimo niewielkiej wiedzy o ośrodkowym układzie nerwowym człowieka. Krytycy McLuhana jeszcze w latach 80. czy 90. XX w. wytykali mu, że niektóre media u schyłku tysiąclecia dryfują bardziej w stronę lokalności niż globalności – to jest ich przyszłość. Te głosy ucichły w momencie szalonego rozwoju Internetu w pierwszych latach XXI w. Podobną do McLuhana tematykę od ­lat 50. poprzedniego stulecia podejmował jego rówieśnik, wybitny historyk literatury i filozof Walter Jackson Ong. Doszedł on do wniosku, że „pismo przekształciło ludzką świadomość znacznie bardziej niż jakikolwiek inny wynalazek”.

Dziś pismo to już nie tylko równe rządki powszechnie znanych liter, które musimy przyswoić, by się czegoś dowiedzieć albo coś wyrazić. To także tzw. mapy myś­li, a więc dość szczególna, nielinearna metoda notowania i zapamiętywania informacji, przypominająca bardziej kolorowy rysunek niż tradycyjną notatkę. Pełna ikonek i symboli, rozmaitych stylów pisma oraz różnej wielkości liter. Ten przykład, ale też w dużej mierze odejście od pisania ręcznego (nawet w szkołach) i popularność internetowych emotikonów (niekiedy słusznie kojarzonych z hieroglifami) pozwalają zaryzykować stwierdzenie, że historia pisma jeszcze się nie zakończyła. Co więcej, choć oczywiście jest stanowczo za wcześnie, by z całą pewnością o tym wyrokować, to jednak można przypuszczać, że trwająca obecnie rewolucja nie pozostanie bez wpływu na ludzki sposób myślenia i postrzegania świata.

Gdyby twój mózg stracił zdolność ignorowania niektórych bodźców, słyszałbyś wyraźnie każdy dźwięk, czuł każdy zapach, smak i teksturę wszystkiego, z czym styka się twoja skóra. Miałbyś wrażenie, że zaraz oszalejesz od nadmiaru bodźców. Podobnie czują się osoby ze spektrum autyzmu.

To był, zdaje się, 2005 r. Miałam dwadzieścia parę lat i postanowiłam wybrać się na randkę w ciemno. Niewiele pamiętam z tego spotkania, zamazała mi się nawet twarz chłopaka, z którym się umówiłam. Doskonale zapadły mi za to w pamięć zapach, zbyt głośna muzyka w knajpie i mój dyskomfort, gdy nie byłam w stanie skupić się na rozmowie. A także wstyd, że zabrakło mi pewności siebie, żeby poprosić o ściszenie radia. Wtedy trudno byłoby mi przyznać się przed chłopakiem, że na naszej randce przytłoczyły mnie odczucia zmysłowe. Po wielu latach zrozumiałam swoją tajemniczą podatność na nieprzyjemne zapachy i hałas: jestem osobą autystyczną (wolę to określenie od formy „z autyzmem”, która brzmi, jakbym była oderwana od przypadłości, która przecież towarzyszy mi na wszystkich etapach życia!). W pakiecie mam również ADHD – zespół nadpobudliwości psychoruchowej z deficytem uwagi. Medyczne zaświadczenia otrzymałam lata później w następstwie niezliczonych kryzysów i piętrowych kompensacji – prób udawania, że pochodzę z wytrzymalszego miotu niż w rzeczywistości. Obie przypadłości zlały się w jeden, niezdejmowalny garnitur, który dzisiaj mogę nazwać zespołem nielogicznego reagowania.

Bezpieczna więź

Spektrum autyzmu to w psychiatrii i neurologii diagnoza stosunkowo młoda. Pierwsze opisy kliniczne autorstwa psychiatrki Grunii Suchariewej opublikowano w 1925 r., chociaż za ojców tego zespołu cech diagnostycznych uważa się dwóch mężczyzn: Hansa Aspergera i Leo Kannera. Warto odnotować, że ten drugi cytował pracę Suchariewej, więc musiał ją znać. Rozpoznania nadal nie można sformułować inaczej niż na podstawie pogłębionych wywiadów diagnostycznych i testów psychometrycznych. Nie istnieje badanie krwi, badanie obrazowe czy genetyczne, które pozwala stwierdzić lub wykluczyć autyzm. Obserwację diagnostyczną zwykle opiera się na trzech kluczowych grupach deficytów: trudnościach w komunikacji, trudnościach w nawiązywaniu i podtrzymywaniu relacji społecznych, a także powtarzalnych wzorcach zachowań. Dopiero w 2013 r. włączono do kryteriów diagnostycznych trudności w przetwarzaniu bodźców zmysłowych, czyli nadwrażliwość, niedowrażliwość albo brak koherencji w porządkowaniu oraz interpretowaniu danych sensorycznych. To, w jaki sposób funkcjonuje autystyczny mózg, początkowo interesowało klinicystów mniej od tego, jak manifestuje się społeczne niedopasowanie autystycznych jednostek. Wszelkie interwencje terapeutyczne projektowano tak, by zamaskować u osób w spektrum brak intuicyjnego zrozumienia kontaktów międzyludzkich. O ile dziecko łatwiej przekonać do współpracy, o tyle w przypadku starszych (i większych) osób autystycznych standardem leczenia było farmakologiczne tłumienie silnej ekspresji frustracji, wynikającej z chronicznej traumy i niemożności zakomunikowania światu swoich potrzeb. Dopiero ostatnie lata umożliwiły naukowcom przyjrzenie się temu, co sprawia, że rodzimy się i rozwijamy w spektrum autyzmu. Wiele wskazuje na to, że kluczowa jest relacja jednostki ze zmysłami. I to właśnie na bazie „niekoherencji” – nadmiernej podatności lub niedowrażliwości zmysłowej, trudności z wyławianiem z sensorycznego morza tego, co społecznie uznane za wartościowe i ważne – kształtować się może kondycja autystyczna. Wyobraźmy sobie dwa dziecięce po­koi­ki. W każdym z nich znajduje się młoda mama z 18-miesięcznym dzieckiem. Obie muszą na chwilę przerwać zabawę z malcami, zatem odstawiają ich do kojców i wręczają im ulubione książeczki. Nagle zza otwartego okna dobiega głoś­ny dźwięk ambulansu. Co zrobi większość rodziców? Skieruje wzrok na dziecko, by antycypować jego potencjalnie lękową reakcję. Nie, to nie ten osławiony instynkt macierzyński – to adaptacyjna umiejętność, stopniowo rozwijana przez opiekunów, która każe im w pierwszej kolejności sprawdzać bezpieczeństwo zależnej od nich istoty. Jednak nie o matki, ojców czy innych zaangażowanych w opiekę tutaj chodzi. W jednym z pokoików dziecko podnosi głowę znad zabawki i wzrokiem szuka opiekuna: wykształcona między nimi bezpieczna więź sprawia, że reakcją na gwałtowny, potencjalnie zagrażający bodziec zmysłowy jest intuicyjne dążenie do kontaktu. Jeśli mama natychmiast nie podbiegnie do malucha, prawdopodobnie odpali on swoją syrenę i uspokoi się dopiero w ramionach matki. Drugie dziecko – a potrwa to zaledwie ułamek sekundy, nim wybuchnie płaczem – w pierwszej kolejności nie skupi się na szukaniu wzrokiem oczu mamy, tylko skieruje uwagę w stronę źródła hałasu. I teraz rodzi się pytanie: u którego z dzieci mogą ujawnić się cechy (chociaż niekoniecznie zaburzenia) ze spektrum autyzmu lub jakakolwiek inna neuroatypowość związana z przetwarzaniem zmysłowym? Prawdopodobnie właśnie u tego, które zwróci się bezpośrednio w kierunku bodźca. Sformułowana w latach 60. przez brytyjskiego psychiatrę i psychoanalityka Johna Bowlby’ego teoria więzi zakłada, że bazę dla społeczno-emocjonalnego rozwoju dziecka stanowi bezpieczna więź z opiekunem. Co to właściwie znaczy? Kompletnie zależne od rodziców niemowlę czerpie przyjemność z bliskości z opiekunami, zarówno tę płynącą z sytości i napojenia mlekiem, jak i wynikającą z dotyku, ciepła ciała oraz rytmu bicia serca. To, co dostaje od kochających i uważnych rodziców, upewnia je, że może na nich polegać. Zatem gdy doświadczy bodźca lub zespołu bodźców, co do których nie ma pewności, czy mu zagrażają, zwróci się do osób, które do tej pory go nie zawiodły. Nawet kiedy jesteśmy dorośli, to uwarunkowanie ciągle działa: przestajemy się bać, gdy tuli nas ktoś bliski, nasza frustracja opada w trakcie pożywnego posiłku (Anglosasi mówią: hanger, co jest połączeniem słów anger, czyli złość, i hunger – głód), a słuchając muzyki kojarzącej się z uderzeniami serca, znajdujemy przestrzeń na przeżycie straty i smutku. Przykład z pokoikami w żaden sposób nie stanowi kryterium wczesnej diagnostyki autyzmu, ilustruje jednak coś, co na kolejnych etapach rozwoju może okazać się kluczowe. Dodam też, że absolutnie chybiony jest pomysł, jakoby osoby ze spektrum autyzmu nie potrzebowały i nie były w stanie budować bezpiecznych więzi. Tego potrzebujemy wszyscy, niezależnie od neurotypu.

Dlaczego się kiwam

W przypadku osób z autyzmem program, który skłania dzieci do poszukiwania więzi, akceptacji i poczucia bezpieczeństwa, uruchamia się w sposób nieco bardziej skomplikowany. Ich układ nerwowy nie jest w stanie wystarczająco szybko przetworzyć i zinterpretować natłoku napływających do systemu danych wejściowych ani wygenerować stosownej reakcji. A od tego przecież może zależeć przeżycie! Wszystkie stereotypowo „autystyczne” zachowania, takie jak kiwanie się, machanie rękami, powtarzanie sekwencji dźwięków, to autostymulacje. Stanowią strategie przetrwania w świecie, który uparł się zamęczyć nas nadmiarem bodźców. Zjawisko chyba najtrudniejsze do interpretacji dla osoby autystycznej stanowi drugi człowiek. Dane wejściowe płynące od innych to nie tylko zapach, ton głosu, odległość, w jakiej od nas stają, lecz także wyrażane przez nich emocje, kod zachowań charakterystyczny dla grupy społecznej, ubiór czy status, który przypisujemy im we własnej hierarchii ważności. Zastanawialiście się kiedyś nad tym, jak trudno się w tym połapać? Człowiek jako funkcjonujący w czasie i przestrzeni układ zmiennych to system dynamiczny oraz nieprzewidywalny. Nawet jeśli kogoś dobrze znamy i jesteśmy w stanie „zmapować” jego algorytmy zachowań, możemy ze zdumieniem dostrzec, że zmiany w tych algorytmach potrafią zajść bardzo szybko. A osoby w spektrum odnajdują poczucie bezpieczeństwa w zjawiskach powtarzalnych, przewidywalnych, na które mają wpływ: tym samym jedzeniu, ubraniu, tych samych ludziach, filmach. Sama pamiętam, że jako dziecku łatwiej było mi nauczyć się czytać i liczyć, niż przyswoić zasady społeczne w trakcie swobodnej zabawy z rówieśnikami. Do pewnego wieku mózg multiplikuje komórki nerwowe w astronomicznym tempie, zwłaszcza między 18. a 36. miesiącem życia. Przestajemy wtedy być zależnymi od rodziców słodkimi bobasami, przeistaczamy się w Maszyny Eksploracji i Zniszczenia; zaczynamy rozumieć włas­ną autonomię, decyzyjność oraz granice w relacjach z otoczeniem ożywionym i nieożywionym. Żeby jednak wejść na wyższe stopnie organizacji poznawczej (myślenie abstrakcyjne, planowanie, przewidywanie konsekwencji działań), potrzebne jest – oprócz dynamicznych przyrostów połączeń nerwowych – uporządkowanie owego nadmiaru. Dlatego kolejnym krokiem w rozwoju układu nerwowego jest zjawisko przycinania synaptycznego (synaptic pruning). W dużym skrócie: polega ono na likwidacji rzadko używanych połączeń pomiędzy neuronami, co z kolei umożliwia bardziej efektywną komunikację między potrzebnymi sieciami neuronowymi. Badania nad tym zjawiskiem potwierdzają, że połączenia synaptyczne w autystycznych mózgach inaczej się organizują i słabiej doświadczają zjawiska przycinania. Nadmierna liczba połączeń i nadaktywność nerwowa nie będą manifestować się wyłącznie zespołem sawanta (tak jak u filmowego Rain Mana, który w sekundy umiał wypluć z siebie wyniki skomplikowanych równań), ale przejawią się przede wszystkim dysproporcją w popycie i podaży energii potrzebnej do zasilenia tak ekstrawaganckiej elektrowni. Tym samym – orientacji w rozumieniu Najtrudniejszego z Systemów: drugiego człowieka. Najnowsze wydanie DSM, czyli klasyfikacji zaburzeń psychiatrycznych, publikowanej przez Amerykańskie Towarzystwo Psychiatryczne, traktuje autyzm jako spektrum obejmujące osoby od tych o najniższych potrzebach wsparcia w codziennym funkcjonowaniu do potrzebujących takiej pomocy bez przerwy. Jestem osobą o najmniejszym zapotrzebowaniu na wsparcie (pierwszy poziom) – pracuję zarobkowo, a nawet utrzymuję rodzinę. Nie oznacza to jednak, że w ogóle nie potrzebuję wsparcia. Osoby o najwyższym zapotrzebowaniu (trzeci poziom) często zmagają się z niepełnosprawnością sprzężoną, intelektualną, co sprawia, że ktoś, kto pomaga im w życiu, musi być przy nich 24 godziny na dobę. Osoby na trzecim poziomie spektrum autyzmu (celowo nie używam takich określeń jak „niskofunkcjonujące” czy „z głębokim autyzmem”), kiedy osiągną wiek dorosły i wyrosną z systemu edukacji specjalnej, wpadają w „czarną dziurę” niepełnosprawności. Często nie komunikują się werbalnie, co więcej – mają za sobą doświadczenia rozmaitych traum powstałych wskutek nieskutecznych ingerencji „terapeutycznych” czy prób wyciszenia zachowań uciążliwych dla otoczenia. Są niechętnie przyjmowane do placówek wsparcia dziennego, ich kondycja jest bowiem szczególnie wymagająca. Nigdy nie wiadomo, co osobę z autyzmem przerazi, przebodźcuje czy wywoła silną potrzebę autostymulacji, która rozproszy albo przestraszy innych uczestników zajęć. Nierzadko opieka nad dorosłymi przedstawicielami „trzeciego poziomu” okazuje się zadaniem ponad siły (nie tylko dla rodzin i bliskich, lecz także całego systemu wsparcia) i wielu z nich trafia na wieloosobową salę DPS-u lub szpitala psychiatrycznego. Nie dlatego, że ludzie z tym „zestawem” niepełnosprawności są niebezpieczni i muszą zostać odizolowani, ale głównie dlatego, że aparat sensoryczny, który każe im czuć wszystko wszędzie naraz, uniemożliwia porozumienie się z innymi oraz światem.

Pobudzeni

Jeśli u osoby (z autyzmem czy też nie) występują zakłócenia w obszarze recepcji i przetwarzania bodźców zmysłowych, to cierpieć mogą na tym kolejne „piętra” funkcjonowania mózgu, czyli sfera emocjonalna, a także wyżej zorganizowane procesy poznawcze: kojarzenie faktów, wyciąganie wniosków, pamięć, zdolności analityczne czy wieloetapowe planowanie zadań. I odwrotnie: zakłócenia na „wyższych” poziomach mogą wpływać na receptory. Przykładowo ludzie w stanach depresyjnych czasem doświadczają zaburzeń smaku i powonienia podobnych do tych, do których przyzwyczaiła nas pandemia. Depresja może powodować również zaburzenia zmysłów interocepcji i propriocepcji odpowiedzialnych za poczucie ciała w przestrzeni oraz informujących o stanie narządów wewnętrznych. Stąd też jej sugestywne, literackie opisy, takie jak „mokry koc owinięty wokół głowy” albo „ciało z ołowiu”. Zdiagnozowani lękowcy albo osoby z objawami PTSD częściej doświadczają gwałtownych pobudzeń układu współczulnego. Hiperczujność stanowi objaw, w którym ciało wchodzi w wielonarządowy tryb awaryjny. Niektóre układy i organy przyśpieszają (np. układ sercowo-naczyniowy), inne zwalniają (np. pokarmowy); w obszarze zmysłów zorientowani jesteśmy na wyłapywanie potencjalnych zagrożeń, wobec których podejmiemy strategię walki, ucieczki albo zamrożenia. Niekoherencji sensorycznej doświadczają także osoby z ADHD – przypad­łością neurorozwojową, której przyczyn upatruje się w zaburzeniach gospodarki dopaminowej. Dopamina (do pary z noradrenaliną) zasila układ nagrody, wspomaga procesy uczenia się i obszary mózgu odpowiedzialne za tzw. funkcję wykonawczą: utrzymanie uwagi, planowanie, orientację w czasie i przestrzeni. Adehadowcy z uwagi na szybsze „spalanie” dopaminy będą odczuwać niemal fizjologiczną potrzebę bodźców zmysłowych stymulujących jej produkcję. Może być nią zarówno pragnienie ruchu, jak i innych wielozmysłowych, intensywnych wrażeń. Sami zdiagnozowani raportują jednak, że momentów niedowrażliwości bywa równie wiele co nadwrażliwości; doświadczają – podobnie jak przebodźcowane osoby z autyzmem – stanów przeładowania, przewlekłego napięcia, depresji i wypalenia.

Czuję bardziej

Zagadnienie „podatności” sensorycznej pojawia się niemal zawsze, gdy rozmawiamy o zdrowiu psychicznym, fizycznym, jak również ogólnym dobrostanie jednostek. W 1996 r. amerykańska psycholożka Elaine Aron opublikowała książkę Wysoko wrażliwi. Jak funkcjonować w świecie, który nas przytłacza, w której zawarła teorię spektrum wrażliwości przetwarzania sensorycznego. Wyszczególniony przez nią zespół objawów dotyczy zarówno podatności na bodźce zmysłowe (zwłaszcza na światło, dźwięk i zapach), jak i ogólnie pojmowanej wrażliwości na środowisko, naturę, miasto, innych ludzi. Amerykanka stawia hipotezę, że istnieją jednostki, których nadmierna receptywność sprawia, iż są nie tylko bardziej podatne na rozregulowanie, lecz także skłonniejsze do empatii i bardziej wyczulone na piękno czy poczucie prawdy i sprawiedliwości. Tak, nie brzmi to najlepiej: według Aron istnieje grupa ludzi (15–20% społeczeństwa) wyjątkowo obdarzonych sensorycznie, a zarazem – jak nasuwa się na myśl – „moralnie wywyższonych”. Ta koncepcja budzi dzisiaj sporo kontrowersji i jest krytykowana przez środowiska psychologiczne. Tym bardziej że Aron sformułowała ją na podstawie obserwacji zachowań i reakcji… swojego autystycznego siostrzeńca. Niemniej jednak dla wielu osób teoria ta odegrała kluczową rolę w formowaniu tożsamości. Umówmy się: wrażliwość nie jest cechą, która w czasach galopującego neoliberalizmu może stanowić wymierną, policzalną wartość. Najczęściej bywa przeszkodą i społecznym spowalniaczem, panuje też przekonanie, że nie sprzyja produktywności i pozytywnemu podejściu do życia. Często wręcz jest mylona z nadwrażliwością i przewrażliwieniem, również na własnym punkcie. W tym sensie można przyznać Aron rację. Wyższa niż przeciętna wrażliwość, właściwie zaopiekowana psychoterapeutycznie, może stanowić wartość i oręż przeciwko bezwzględnemu kapitalistycznemu światu. Trudno jest mi wyobrazić sobie sytua­cję, poza końcem świata, która sprawi, że stanie się on bardziej przyjazny sensorycznie, zwolni, uciszy się, przestanie przytłaczać. Mam poczucie, że dzieje się na odwrót. To w gestii osób o wyższym poziomie wrażliwości, w tym mojej, pozostaje zapewnianie sobie doraźnych remediów, dzięki którym bodźce nie zużyją zanadto naszych wątłych zasobów: zatyczki do uszu, wyprowadzka na wieś, ciche godziny w supermarketach, leki psychiatryczne, unikanie zatłoczonych miejsc i głośnej muzyki, a przede wszystkim – psychoedukacja, psychoterapia i żmudny, niekończący się proces poznawania siebie. Szczególnie nęcące wydają mi się propozycje XVIII-wiecznego lekarza Melchiora Adama Weikarda, który pierwszy w historii medycyny opisał objawy nieuważnego podtypu ADHD. Medyk zalecał umieszczać „płochych rozproszeńców” w ciemnych i cichych pokojach, traktować masażami, kąpielami, gimnastyką i jazdą konną. Poproszę o receptę, najlepiej refundowaną.

Z tą barwą jest trochę tak jak ze słynną fajką na obrazie Renégo Magritte’a – niby jest, ale jednak jej nie ma. Oczywiste, prawda?

W latach 80. XX w. pewien trener z Uniwersytetu w Iowa wpadł na genialny pomysł: zlecił przemalowanie ścian stadionowej szatni drużyny przyjezdnej na różowo. Wystrój wnętrza – kombinował zapewne szkoleniowiec – miał być rodzajem psychologicznej presji wywieranej na niczego nieświadomych przeciwnikach. Różowy jako kolor kulturowo kojarzony wtedy z kobiecością i delikatnością miał podkopywać u gości pewność siebie oraz poczucie fizycznej wyższości. W roku 2005 władze uczelni posunęły się krok dalej i podczas dużego remontu przemalowano na różowo także umywalki, toalety oraz prysznice. Wywołało to wprawdzie wiele kontrowersji – krytycy zarzucali akademickim decydentom brak poszanowania zasad równości i sprawied­liwości społecznej – protesty na nic się jednak zdały i szatnie pozostały różowe.

Piłkarze z Iowa nie byli pierwszymi, których próbowano poddawać psychologicznym sztuczkom opartym na kolorowej perswazji. W latach 70. ubiegłego stulecia takie próby – też z różem w roli głównej – podejmował amerykański badacz Alexander Schauss. Opierając się na przekonaniu, że kolor ma kluczowe znaczenie w regulowaniu ludzkich emocji i temperamentu, w 1979 r. doprowadził do przemalowania kilku cel zakładu karnego w Seattle na odcień, który mogli­byśmy określić jako flamingowy. Koncept ten naukowiec wywodził z przeprowadzonych badań wskazujących na obniżenie napięcia mięśniowego i ogólnego poziomu agresji u ludzi poddanych działaniu konkretnego odcienia różu. Testy wykonywane na sobie samym, polegające na dłuższym wpatrywaniu się w rozmaicie zabarwione kwadraty, utwierdziły go w tych wnioskach: po takiej sesji Schauss obserwował u siebie zwolnienie pulsu lub tempa oddychania tylko w przypadku czworokątów w kolorze różowym. Opracowany metodą prób i błędów odcień nazwano Baker-Miller pink (od nazwisk dyrektorów zakładu karnego, gdzie kolor ten zastosowano po raz pierwszy). Pierwotnie powstawał on przez zmieszanie około 0,5 litra czerwonej farby używanej do malowania więziennych ogrodzeń z 4,5 litra farby białej. Obecnie „róż Bakera-Millera” można kupić w wielu sklepach ze specjalistycznymi farbami. Nie pędźcie jednak do najbliższego, ­jeśli faktycznie chcielibyście wykorzystać jego kojące właściwości. Przeprowadzone w 2015 r. doświadczenia, wykonane z zachowaniem wszelkich reguł badań empirycznych, nie potwierdziły pacyfikującego działania różu zaprojektowanego przez Schaussa. Uniwersytetowi w Iowa najwyraźniej ta nieścisłość nie przeszkadza: różowe szatnie funkcjonują tam do dzisiaj, a ich barwa jest pieczołowicie odnawiana przy każdym remoncie.

Co właściwie ma w sobie kolor różowy, że tak łatwo przypisujemy mu kody i znaczenia kulturowe? Schauss padł ofiarą zbyt pochopnego wiązania barw z domniemanym psychologicznym wpływem (jak również, zapewne, nie dość dobrze zaprojektowanych badań). Trudno jednak nie zauważyć, że współcześnie różowy jest wręcz przeładowany znaczeniami, głównie związanymi z tożsamością płciową i realizacją ról płciowych. Lalki Barbie są niemal uosabiane z tym kolorem, podobnie jak wiele innych gadżetów kojarzonych z zabawkami dla dziewczynek (kucyki, księżniczki, minizestawy fryzjerskie). Faktem jest też, że róż albo się kocha, albo się go nienawidzi; rzadko kiedy spotykamy się z „letnim” podejściem do tej barwy. A przecież – z fizycznego punktu widzenia – to w zasadzie kolor, który nie istnieje! Nie znajdziemy go w wielobarwnym łuku tęczy ani smudze kolorowego światła rzucanej na ścianę przez pryzmat. Barw takich jest oczywiście więcej; poza różem do grupy tej należą najrozmaitsze odcienie liliowego, purpury czy niezwykle popularnej ostatnio magenty. Sam róż także ma pełną gamę wariantów: pudrowy, landrynkowy, majtkowy, malinowy… Wszystkie łączy jedno: są tzw. kolorami niespektralnymi, w całości powstającymi w mózgu dzięki specyficznemu sposobowi, w jaki nasze oczy czytają barwne bodźce padające na ich siatkówki.

Okulary mózgu

Zacznijmy od rzeczy najprostszej – kolor rejestrujemy w sposób niewiele odbiegający od tego, w jaki robią to cyfrowe aparaty fotograficzne. Nasze oczy różnią się od nich detalami, np. materiałem, z którego wykonane są elementy światłoczułe, lub metodą przewodzenia sygnału elektrycznego powstającego w bombardowanych światłem receptorach. Zasada jest jednak podobna i opiera się na percepcji trójbarwnej. Mikroskopijne detektory światła barwnego w naszych siatkówkach występują w trzech wariantach: niektóre rejestrują przede wszystkim światło niebieskie, inne – zielone, jeszcze inne – czerwone. Pokrewieństwo z systemem RGB (ang. red-green-blue) stosowanym w cyfrowej rejestracji (i reprodukcji) obrazu nie jest przypadkowe, choć tak naprawdę receptory światła „czerwonego” w ludzkich oczach powinny raczej nazywać się „żółtopomarańczowymi”, jeśli wziąć pod uwagę ich rzeczywistą wrażliwość. Ale jedno się zgadza: zakresy czułości „pikseli” naszych siatkówek wspólnie „pokrywają” obszar tęczowego widma światła widzialnego, sięgając od krótkofalowego fioletu aż do głębokiej, długofalowej czerwieni. Skoro klasyczna tęcza nie zawiera koloru różowego, to skąd biorą go nasze oczy (oraz mózgi)?

Barwne widmo światła widzialnego przedstawiamy z reguły liniowo: jako doskonale znany gradient, w którym kolejne kolory przelewają się jeden w drugi, tworząc wszystkie możliwe kombinacje odcieni. Wyobraźmy sobie, że takie linear­ne spektrum zawiniemy w zamknięty pierścień. Fioletowo-granatowy koniec znajdzie się wtedy bezpośrednio obok barw krwistych i czerwonych. Intuicyjnie dostrzegamy, że domknięcia tego kręgu bez wahania dokonamy dzięki stworzeniu łagodnego, tonalnego przejścia między fioletami jednego końca i czerwieniami drugiego – powstaną wtedy najrozmaitsze odcienie liliowej purpury i czerwieniejącej fuksji. Dokładnie to, czego potrzebujemy, by „zobaczyć” owe – wydawać by się mogło: fizycznie niemożliwe – kolory.

Niespektralność różowego – to, że jego zobaczenie wymaga współpracy dwóch fotoreceptorów „obsługujących” przeciwległe krańce barwnego spektrum – może być jednym z powodów postrzegania przez nas tego koloru jako wyjątkowo jaskrawego i wyróżniającego się. Biologia podpowiada nam wręcz, że nie jesteśmy wcale wyjątkowi, przypisując kolorom niespektralnym unikatowy sensoryczny potencjał! Proszę się zastanowić: jakie odcienie dominują w świecie kwiatów? Pomijając dość szeroko rozpowszechnione biele i żółcienie, kolejną dominantą roślin kwitnących jest właśnie róż we wszelkich swoich wariantach. Nie powinien nas więc dziwić fakt, że funkcjonujące w większości języków nazwy koloru różowego mają stricte botaniczne pochodzenie (o czym za chwilę). Abstrahując jednak od lingwistyki: czy w rozpowszechnieniu różowego w przyrodzie, zwłaszcza wśród roślin, nie leży czasem jakiś głębszy sens? Uogólniając zaś: czy kolory niespektralne nie stanowią jakiejś szczególnie uprzywilejowanej (z biologicznego punktu widzenia) rodziny barw? Sprawa jest o tyle skomplikowana, że niespektralność danego koloru nie jest czymś uniwersalnym i zależy w głównej mierze od tego, jak fotoreceptory konkretnego zwierzęcia rejestrują barwne światło. Fascynujące i genialne w swojej prostocie badania eksplorujące przestrzenie barw „niemożliwych” nie u ludzi, lecz u ptaków pozwoliły nam zbliżyć się do odpowiedzi na to niełatwe pytanie. Ich bohaterami zostały chyba najbardziej kolorowe organizmy, jakie napotkać można w przyrodzie: filigranowe klejnoty tropików, diabelsko szybkie i bajecznie ubarwione kolibry.

Kolory, o jakich się nie śniło

Widzenie barwne ptaków nie przypomina naszego. Podczas gdy my dostrzegamy trzy podstawowe kolory widma – niebieski, zielony i czerwony – i to z ich połączenia tworzymy w swoich głowach wszystkie inne postrzegane przez mózg odcienie, ptaki idą o krok dalej. Ich oczy, poza znanymi nam trzema receptorami barwnymi, zawierają czwarty: ultrafioletowy, dostrojony do rejestrowania światła dla ludzi niewidzialnego, rozciągającego się w tęczowym widmie poza granicę wyznaczoną przez indygo i fiolet. Oznacza to, że kolibry, a wraz z nimi większość innych gatunków ptaków, widzą znacznie więcej kolorów „nieistniejących”: dziwnych i trudnych do wyobrażenia sobie wariantów różowego, powstających za każdym razem, gdy stymulowane są dwa lub trzy receptory „obsługujące” nieprzylegające do siebie regiony barwnego spektrum (oczywiście rozszerzonego o kolor ultrafioletowy). Poza „ludzkim” różem (konsekwencją jednoczesnego pobudzania receptora czerwonego i niebieskiego) ptaki widzą więc np. „róż ultrafioletowy” (stymulacja receptorów czerwonego i UV) czy „róż zielony” (stymulacja receptora UV i zielonego). Posiadanie czterech, a nie trzech fotoreceptorów koloru oznacza też zdolność widzenia kilku odcieni „hiperróżu”, powstających przy stymulacji trzech konkretnych receptorów (choćby czerwonego, niebieskiego i UV).

Przez długi czas kolory niespektralne były w zasadzie ignorowane przez biologów. Różowy (barwa niespektralna w świecie widzialnym ssaków naczelnych) oraz jego podrasowane, hiperintensywne warianty znane z ultrafioletowego świata ptaków i motyli milcząco traktowano jak wszystkie inne, „porządne” kolory spektralne. Badacze zdawali się nie zauważać jednego, dość zaskakującego faktu. W świecie roślin – a dokładnie w rzeczywistości ich barwnych kwiatów – kolory niespektralne nie należą do rzadkości. Więcej, są niemal regułą! Różowy, purpurowy, liliowy i pudrowy to jedne z najczęściej spotykanych odcieni kwiatowych koron. Wynika to przede wszystkim z łatwości, z jaką kolory te mogą być produkowane w tkankach roślin – wszystkie są oparte na antocyjanach, barwnikach wszechobecnych w komórkach niemal każdej rośliny lądowej. Wszędobylskość antocyjanów to efekt stosunkowo nieskomplikowanej ścieżki ich biosyntezy, wysokie stężenia w barwnych częściach roślin wynikają zaś z ich doskonałych właściwości sygnalizacyjnych. Antocyjany z łatwością mogą produkować całą gamę kolorów: od głębokiej czerwieni poprzez różowy, purpurowy, liliowy aż do kolorów fioletowo-różowych. Za barwną wszechstronność tych pigmentów odpowiada wrażliwość antocyjanów na odczyn środowiska: w warunkach kwaśnych są one czerwone, w zasadowych – niebieskie lub fioletowe. Precyzyjne sterowanie odczynem antocyjanowego roztworu pozwala więc roślinom tworzyć wszelkie wyobrażalne odcienie różu czy purpury. Na tym roślinne zamiłowanie do barw „nieistniejących” się nie kończy. Poza kolorami widzianymi przez nas, ludzi, kwiaty potrafią również generować najrozmaitsze kombinacje barw widzialnych z ultrafioletem.

Niespektralny trop kwiatowy podjęli niedawno amerykańscy badacze zajmujący się kolibrami – miniaturowymi klejnotami ptasiego świata, zwinnymi jak najszybsze owady, ubarwionymi jak najmisterniejsze dzieła sztuki jubilerskiej. Żywią się one nektarem kwiatów, logiczne więc było, aby ich widzenie szczególnie dobrze radziło sobie z wykorzystywaniem barw niespektralnych, tak typowych dla źródła spożywanego przez nie pokarmu. Konstruując szereg niespektralnych kolorów, by następnie nauczyć badane osobniki wiązania ich z określonymi nagrodami, naukowcy ci wykazali, że kolibry w istocie doskonale rozróżniają najsubtelniejsze nawet warianty różów i ptasich „hiperróżów”. Co więcej, okazało się, że mieniące się wszystkimi kolorami tęczy pióra tych ptaków też korzystały z pozaspektralnego bogactwa ultrafioletowego uniwersum. Kolibry nie tylko żyją w świecie zabarwionym wszelkimi, trudnymi do wyobrażenia i surrealistycznymi, odcieniami różowości – one są uosobieniem tej rzeczywistości, do absolutnych granic wykorzystującym biologiczne możliwości zmysłu widzenia.

Subtelne niejednoznaczności

Jako ludzie nigdy nie będziemy mieli dostępu do hiperróżowego świata kolibrów. Kolorowa rzeczywistość widziana ludzkimi oczami jest trójbarwna i wyobrażenie jej sobie w wersji rozszerzonej o dodatkowy wymiar – ultrafioletowy – jest równie karkołomne jak próba poszerzenia znajomej trójwymiarowej przestrzeni o czwarty wymiar. Możemy czynić tutaj nieporadne przybliżenia, wykorzystując rozmaite upraszczające założenia, lecz w całości nigdy takiego świata nie zobaczymy. Jednak nawet „zwykły” ludzki róż niesie w sobie ogromny ładunek symboliczny i kulturowy.

Zacznijmy od nazwy: trudno powiedzieć, czy ze względu na swoją fundamentalną niespektralność, czy nieuniknioną dwoistość (to jeszcze czerwony czy już fioletowy?), nazewnictwo koloru różowego jest stosunkowo późnym dodatkiem w większości języków, które nadały mu odrębne określenie. W wielu z nich koloru takiego w zasadzie nie ma: w językach celtyckich odcienie różowego określa się jako „białawą czerwień”, w duńskim i fińskim jako „jasną czerwień”, a w islandzkim po prostu jako „blady”. Po chińsku powiemy „pudrowy czerwony”, po japońsku – zależnie od subtelnych różnic w tonie opisywanego odcienia – „brzoskwiniowy” lub „wiśniowy” (obie formy wywodzą się od koloru kwiatów drzew, do których się odwołują). W bliższych nam kulturowo językach różowy też nie ma nazwy stworzonej stricte do jego opisania: nazywamy go bowiem, nawiązując albo do barwy kwiatów róży: różowy (polski), rose (francuski), albo do goździka: pink (angielski).

Czymś, co ewidentnie wysuwa się ponad nazewnicze dwuznaczności, jest miejsce, jakie kolor różowy zajmuje w naszej zbiorowej, kulturowej świadomości. Mówiąc „naszej”, mam oczywiście na myśli tzw. zachodni krąg kulturowy. To w nim róż jest traktowany jako synonim emocjonalności, delikatności, zmysłowości – cech tradycyjnie, stereotypowo przypisywanych pierwiastkowi kobiecemu. Mało który kolor ma aż tak silne konotacje kulturowe, co jest ciekawe nie tylko dlatego, że mówimy tutaj o kolorze niespektralnym. Podejmowano próby wykazania, że „żeńskość” różowego jest w jakiś sposób wrodzona, zakodowana w pierwotnych mechanizmach percepcyjnych naszego mózgu. I o ile badania prowadzone w obrębie tego samego, zachodniego kręgu kulturowego wskazują na pewną tendencję kobiet do faworyzowania kolorów ciepłych i odcieni purpury bliższych różowemu (z przeciwną preferencją skierowaną na kolory chłodniejsze – niebieskie i niebieskozielone – widoczną u mężczyzn), o tyle rozszerzenie takich prac na kultury niewywodzące się ze Starego Kontynentu nie daje już tak jednoznacznych wyników. Badania prowadzone w afrykańskich społecznoś­ciach łowiecko-zbierackich wykazały wręcz, że nie istnieje w nich żaden płciowy podział w zakresie preferowanych kolorów i odcieni.

Wygląda więc na to, że różowy i jego „genderowe” konotacje pozostaną jednym z najbardziej spektakularnych przykładów kulturowej mutacji. Wiele badań wskazuje, że przed połową XX w. płcie nie były aż tak silnie spolaryzowane pod kątem związanych z nimi skojarzeń kolorystycznych. Małe dzieci – niezależnie od płci – ubierano zarówno w odcienie różu, jak i błękitu. Pojawiła się nawet sugestia, że na początku XX stulecia tendencja kulturowa mogła być odwrotna i róż – jako bardziej zdecydowany i wyrazisty – typowano na kolor pasujący raczej do chłopców. Koncepcja ta i związane z nią „odwrócenie płciowości kolorów”, do którego miało dojść około lat 50., nie znalazły jednak przekonującego potwierdzenia w danych socjologicznych. Silne, odruchowe wręcz kojarzenie różu z kobiecością jest zatem najpewniej kulturowym zachwianiem, które poprzez szereg sprzężeń zwrotnych utrwaliło się w naszej świadomości. Nie bez powodu początki tej głębokiej polaryzacji datuje się na okres, w którym wiele kobiecych osobistości świata politycznego i kulturalnego (Mamie Eisenhower, Marilyn Monroe, Brigitte Bardot) ustanawiało trendy, notorycznie pojawiając się w różowych stylizacjach w pełni czerpiących ze skarbca nowo odkrywanych, trwalszych i jaskrawszych różowych pigmentów.

Czy różowa rewolucja modowa z połowy XX w. i rozprzestrzeniające się w ślad za nią ścisłe zespolenie archetypicznej kobiecości z kolorem różowym byłyby możliwe bez wyjątkowej biologii jego widzenia? Niespektralność różowego i związane z nią niuanse dotyczące sposobu, w jaki jest on przetwarzany w naszych mózgach, mogą leżeć u podstaw postrzeganej jaskrawości tego koloru, a co za tym idzie – jego atrakcyjności w sytua­cjach wymagających śmiałych, oszałamiających komunikatów. Nigdy się tego pewnie nie dowiemy; takie wzorce kulturowe mają to do siebie, że z czasem coraz trudniej je oddzielić od ich, często subtelnych, uwarunkowań biologicznych. Nie pozostaje nam więc nic innego, jak przyglądać się temu kulturowemu eksperymentowi. Kto wie? Może za kilka dekad różowo-błękitna polaryzacja zniknie zupełnie albo zastąpi ją inny, równie tajemniczy barwny kod? Pożyjemy, zobaczymy (na pewno!).

Drzewo bywało środkiem świata, osią łączącą ziemię z niebem, korzeniami sięgało w zaświaty. Gwarantowało ciągłość rodu, spajało społeczności. Pod nim rodzili się zarówno bogowie, jak i zupełnie ludzkie dzieci.

Wyobraź sobie drzewo tak wysokie, że nawet gdy zadzierasz głowę, nie widzisz jego wierzchołka – czubek ginie w chmurach, jakby oderwany od ziemi i jej spraw. Nie rośnie ono jak wszystkie inne drzewa: lipy, dęby czy brzozy. Jego konary nie sięgają nieba, lecz wrastają w najgłębsze zakamarki ziemi, do nieba zaś pną się korzenie. Ilu osób potrzeba, by zamknąć takie drzewo w uścisku? Całej wioski? Kilku wiosek? Cóż, tego drzewa nie można zmierzyć, tym razem szkiełko i oko się nie przydadzą. Można je ogarnąć wyłącznie wyobraźnią – to drzewo odwrócone, arbor inverso, będące jednym z przedstawień drzewa kosmicznego, jak sumeryjskie kiskanu symbolizujące nie tylko wszechświat, lecz także ludzki los.

Oś rzeczywistości

Niezliczone mity i legendy z różnych kręgów kulturowych opowiadają o drzewie kosmicznym. Tym, co łączy te opowieści, jest sposób przedstawienia arbor mundi, drzewa życia. Wyróżnia się ono nienaturalną wielkością i niezwykłym kształtem. Jak Yggdrasill – jesion opisywany w mitologii nordyckiej; aśwattha – figowiec, o którym wspomina hinduistyczna Bhagawadgita; czy znane z mitów sumeryjskich drzewo mes „wznoszące się nad wszystkimi krajami, jak wielki smok stojące w Eridu” (tłum. Krystyna Szarzyńska). W przedstawieniu drzewa kosmicznego ważne są detale, które wiele mówią o tym, jak nasi przodkowie opowiadali i porządkowali swój świat. Trzy potężne korzenie jesionu Yggdrasill wrastają w podziemia, gdzie znajduje się mroczne królestwo olbrzymów i piekło. Gałęzie sięgają górnego, boskiego świata. Obok jesionu ze źródła Mimira wybija woda o cudownych właściwościach, „nienapoczęta”, odświeżająca ciało i pomnażająca mądrość, ale pić ją mogą tylko najpotężniejsi, jak Odyn – jednooki bóg wojny, mądrości, poezji. W gałęziach mieszka orzeł, solarny ptak reprezentujący niebiański porządek, boski posłaniec, również psychopompos – przewodnik zmarłych prowadzący ich w zaświaty. Po pniu nieustannie wędruje wiewiórka Ratatosk, przenosząc wiadomości między orłem a wężem. Przy jesionie stoją jelenie uosabiające siły witalne i dzikość, które mogą być potrzebne, by zmierzyć się z wężem, chtoniczną istotą podgryzającą korzenie. Toczy się ciągła walka dobra ze złem. Gdyby orzeł okazał się za słaby, a wiewiórka zbyt powolna, gdyby Odyn oraz reszta boskiej świty odpuścili sobie bój i wąż nadgryzłby trzy korzenie, fundamenty świata mogłyby się zachwiać. Drzewo kosmiczne nie może runąć. Musi trwać poza czasem, wbrew prawom biologii i przemijaniu. To ono wyznacza wertykalny porządek świata, pionową oś, wokół której zorganizowana jest rzeczywistość.

Trzy poziomy kosmosu, jak wyjaśniają etnolodzy Joanna i Ryszard Tomiccy w Drzewie życia, to jeden z ważniejszych składników ludowej wizji świata. Tłumaczą: „Źródłem przekonania o trójstopniowości kosmosu było zmysłowe doświadczenie świata, którego dwie strefy pozostawały zawsze poza polem bezpośredniej penetracji człowieka”. Z kolei folklorysta prof. Piotr Kowalski w książce Kultura magiczna. Omen, przesąd, znaczenie wyjaśnia: „Drzewo Kosmiczne stanowi najczęściej spotykane imago mundi: to wyobrażenie o pełni Wszechświata spojonego przez centralnie usytuowany łącznik między różnymi sferami”.

Większość mitologii jest zgodna co do tego, że na początku czasu można było swobodnie przemieszczać się między sferami. Wędrowali bogowie, herosi, nawet ludzie byli niekiedy wpuszczani do rajskich przestrzeni. W tamtej rzeczywistości nie istniały podziały, klasyfikacje, czas i biologia, męskie i żeńskie. Dopiero później trzy sfery kosmosu na skutek upadku czy grzechu zostały rozdzielone, nastąpił kres rajskiej pełni, z bogami kontakt mog­li mieć już tylko wybrani, i to po spełnieniu licznych warunków. „Drzewo jednak w dalszym ciągu, ze względu na swoje podstawowe cechy, traktowane jest jako obiekt wszelkich mediacji dokonujących się między częściami świata” – podkreśla prof. Kowalski w Kulturze magicznej.

W działaniach obrzędowych, wymagających przywołania porządku sacrum, odtworzenia rzeczywistości in illo tempore, odwoływano się do mediacyjnych właś­ciwości drzewa. W codziennej praktyce szamani jakuccy również wykorzystywali wyobrażenie drzewa kosmicznego – by wejść w kontakt z duchami przodków, istotami nadludzkimi czy demonami. Pośrodku czumu stawiano drzewo symbolizujące święty modrzew aal luk mas sięgający korzeniami do podziemi oraz siedziby władcy demonów i zmarłych Arsan Duołaja, a koroną do najwyższego, dziewiątego nieba, gdzie rezyduje demiurg Kun Tangara. Wierzchołek wysuwano przez otwór, którym wydobywał się też dym z paleniska – podobnie jak drzewo wyznaczał on wertykalny porządek świata i był łącznikiem między trzema częściami kosmosu. Konstrukcja ta stanowiła swoi­stą drabinę umożliwiającą wędrówkę między światami. Wspinanie się po niej było nie tylko centralną częścią wielu obrzędów religijnych, lecz także popularnym motywem w bajkach i baśniach. Ich bohaterowie i bohaterki wędrowali po drzewie, pnączu fasoli, tęczy, słupie dymu czy wspinali się na świętą górę, by przekroczyć granicę i zaczerpnąć niebiańskiej mocy. Z podróży wracali odmienieni.

Środek świata

Jak opisać axis mundi? Może poprzez brak, pustkę, która powstaje, gdy człowiek traci swój środek świata, jedyny stały punkt odniesienia. Antropologiczne definicje nie są w stanie wyrazić tej pustki, zresztą opowieść nie jest wielkim zadaniem antropologii, ale literatury pięknej. W powieści Kamień na kamieniu Wiesława Myśliwskiego słowo „drzewo” pojawia się w ponad 500-stronicowej książce około 100 razy – w różnych kontekstach. Drzewa są częścią krajobrazu, rosną za oknem albo wzdłuż drogi, którą opisywane postacie pokonują każdego dnia. Dają owoce, cień oraz pewność, że świat jest taki, jaki powinien być. Są też drogowskazem, który pomaga nawigować w życiu. O jego braku dotkliwie przekonał się Drzazga, jeden z bohaterów powieści, kiedy wracał z Daszewa do domu. Droga mu się dłużyła, a dzień był gorący. Przysiadł pod akacją, chciał odpocząć w jej cieniu. Obok leżał pień innej akacji ściętej być może z obawy, że jej nadkruszone konary będą zagrażały ludziom. Patrzy: na pniu siedzi dziwna istota – z powrozem na szyi i rękoma skrępowanymi drutem kolczas­tym. „Nie wiecie, jak daleko stąd do Wólki? Ścięli mi drzewo, ziemia mnie odeszła i nie wiem, gdzie jestem” – żali się Drzaz­dze tajemniczy mężczyzna. Bez drzewa zaczął mylić kierunki, stracił orientację i swoją osobistą topografię. Będzie musiał stworzyć nową, ale to zajmie mu czas i nie wiadomo, czy ostatecznie się uda, czy w końcu dotrze do swojej Wólki.

Z kolei bohaterowie opowiadania Wielki festyn na budowie Juliana Kawalca opuścili swoje rodzinne wsie, znajome miejsca – las za domem, rzekę, widok z okna – i ruszyli do miast. Ich nawykłe do ciężkiej pracy ręce miały budować socjalistyczną ojczyznę z wielkiej płyty, a mocne nogi wydeptywać ścieżki społecznego awansu. Może myśleli, że to na chwilę, że niebawem wrócą i znowu będą żyć w swoich mikrokosmosach opartych na stabilnej, trójdzielnej wizji świata? Tworzenie nowego okazało się niszczeniem starego. Na placu budowy – niegdyś pełnym drzew, naturalnych siedlisk – teraz pośród pyłu, hałasujących maszyn zamierało życie. W tym jałowym świecie uchował się tylko jeden ptak. Jego obecność rozczuliła budowniczych. Postanowili, że się nim zaopiekują: posadzą dla niego drzewo, niech ptak znajdzie schronienie i namiastkę tego, co mu zabrano. Czy kierowała nimi wyłącznie troska o ptaka? Czy może sadząc drzewo pośrodku budowy, myśleli przede wszystkim o sobie?

Wznieśli na wysokich słupach specjalną konstrukcję, której daszek miał chronić drzewo przed upałem i pyłem. W każdej wolnej chwili podchodzili do niego, zachłannie wpatrywali się w zieleń. Podlewali obficie. To jedno drzewo było dla nich całym lasem. „Otaczali więc tę swoją kapliczkę po fajrancie i próbowali przeniknąć w głąb drzewa, aby dowiedzieć się, w jakim natężeniu trwa w nim życie”. Starali się stworzyć sobie zastępczy środek świata. Chcieli mieć punkt oparcia w tej jałowej przestrzeni. Wiedzieć, że nawet jeśli pomylą ścieżki, zejdą z drogi, zgubią kompas, to ono tam będzie – zielone i mocno wczepione korzeniami w ziemię. Jednak drzewo marniało w oczach. Coraz mniej było zieleni, coraz więcej żółtych refleksów. Czy dostawało za mało wody? Albo za dużo? A ptak? On też zgubił kolory i nawet nie próbował już wzbić się do lotu. A może żadnych drzew się nie przesadza, nie tylko tych starych? Może środka świata nie da się zbudować na pustyni?

Rozżaleni robotnicy pojechali wreszcie do sklepu o wiele obiecującej nazwie „Natura Trwała”. W asortymencie: murawa zielona przez cały rok, polana w belach do kupienia na metry, kwiaty, które nigdy nie więdną. Zainteresował ich zwłaszcza dział z wiecznie zielonymi drzewami odlanymi z plastiku. Wzięli jedno: w kształcie stożka, odporne na upał, łatwe do czyszczenia. Dobrali sztucznego ptaka. Zakupiony zestaw zamontowali na budowie. „Czy to nowe drzewo było w stanie poruszyć wyobraźnię budowniczych i przenieść ich myśli do miejsc rodzinnych, do lasów i pól dzieciństwa? Może i było w stanie, ale jeśli przenosiło, to równocześnie tak, jakby zdłużało odleg­łość do bujnej zieloności, jakby budowniczym jednocześnie uprzytamniało, jak bardzo daleko od tamtych zielonych krain odeszli”. Sztuczne drzewo stało się symulakrum środka świata.

Budowniczowie zapewne widzieli w obu drzewach samych siebie. Nie potrafili zapuścić korzeni w nowym miejscu. Julian Kawalec w swoim opowiadaniu – krótkim, a przy tym tak bogatym w tropy kulturowe – sięga po popularny, szczególnie w kulturze ludowej, motyw drzewa jako symbolu życia i cyklicznego odnawiania się sił witalnych. Antropolożka dr hab. Edyta B. Pietrzak w artykule Historyczne spojrzenie na mistyczne związki ludzi z drzewami podkreśla: „Wiara w pokrewieństwo między drzewem i człowiekiem od wieków była głęboko zakorzeniona w kulturze. Obydwoje stoją prosto na ziemi i rosną w górę do nieba, obydwoje wydają owoce, obydwoje umierają”. To poczucie pokrewieństwa przejawia się m.in. w tradycji sadzenia drzewa po narodzinach dziecka. Są to dąb, jesion, cedr – gdy na świat przychodzi chłopiec, a lipa, brzoza, jabłoń – jeśli urodzi się dziewczynka. Zwyczaj ten był – i często istnieje nadal – rozpowszechniony w różnych częściach świata, np. na melanezyjskim Archipelagu Bismarcka, gdzie narodziny upamiętniał orzech kokosowy.

Co ciekawe, jest to jeden ze zwyczajów, który przetrwał w Polsce do dziś, choć w nieco zmienionej formie. Akcję sadzenia drzew na pamiątkę narodzin organizują niektóre urzędy miasta. Dostarczają rodzicom sadzonki (na terenie osiedla zgodę na posadzenie „drzewa rodowego” należy uzyskać od wspólnoty mieszkaniowej lub… dewelopera). Oprócz rodzimych gatunków dostępne są inne, z odległych regionów, np. pochodzące z Ameryki Północnej tulipanowce amerykańskie, co można zinterpretować – nieco na wyrost i z przymrużeniem oka – jako otwarcie się naszej kultury na obce wpływy. Drzew nie sadzi się jak kiedyś, w prywatnej przestrzeni dostępnej dla ludzi złączonych więzami krwi: przed domem, w ogródku, za stodołą, lecz umieszcza się je w miejscach publicznych, na przecięciu szlaków, którymi codziennie podążają setki nieznających się osób. Wracając jednak do przeszłości – w zwyczaju sadzenia drzewa nie tylko upamiętnienie narodzin było ważne. Rodzina bacznie przyglądała się drzewu, a na podstawie jego wyglądu i tempa wzrostu przewidywała, jaka przyszłość czeka potomka lub potomkinię (los chłopców rozważano częściej niż dziewczynek). Uszkodzenia drzewa, np. na skutek uderzenia pioruna, traktowano jako zły znak: a nuż dziecku powinie się noga, poplączą ścieżki?

Strażnik rodziny

Posadził je dziadek, doglądał ojciec, teraz powinien zająć się nim syn. Drzewo uznawano za nośnik tradycji i symbol trwania. Ciekawej reinterpretacji tego motywu kulturowego dokonuje Jakub Małecki w powieści Rdza. Obok domu pradziadek Andrzeja Budzikiewicza zasadził topolę. Mężczyźni w rodzinie mieli dbać o drzewo i w stanie niepogorszonym przekazywać je swoim potomkom. Topola rozrastała się, zabierała coraz więcej przestrzeni, korzenie sięgały piwnicy, jakby chciały rozsadzić dom. Ojciec Andrzeja powtarzał, że „przy takim drzewie tuż obok śpi się lepiej, że żyje się lepiej, że człowiek się czuje bezpiecznie”. Taka była ich własna mitologia. Topola nadawała sens rodzinnemu mikrokosmosowi: „Andrzej siadał czasem oparty o kurnik i patrzył na czubek drzewa. Wydawało mu się wtedy, że wszystko jest na swoim miejscu i że wszystko będzie dobrze. Wiedział, czego chce od życia: chciał przejąć gospodarkę po rodzicach, dokupić kiedyś hektarów, rozbudować oborę, hodować dziesiątki świń. Będzie miał żonę i dużo, dużo dzieci. Ludzie go będą szanować, będą…”. A jednak, gdy przyjdzie jego czas, zanim umrze, poprosi syna o ścięcie topoli – by jego potomek nie musiał odgrywać cudzej roli, ale rozpisał własną.

Niełatwo jednak uwolnić się od rodzinnego drzewa. Nawet podcięcie gałęzi wymaga wielkiej odwagi, a co dopiero wbicie siekiery w gruby pień. Powieściowa topola jest jak członek rodziny, przytulona do ludzkiego życia, bacznie obserwująca, a nawet kontrolująca. „Ojciec zaczął mówić. Że to drzewo jest tu od zawsze. Że patrzy, ale nie tak, jak patrzą ludzie. […] To drzewo zna dotyk skóry twojego dziadka, pradziadka i prapradziadka, który je posadził”. Podobny zabieg stosuje Wiesław Myśliwski w powieści Kamień na kamieniu. Główny bohater Szymon próbuje skłonić swojego milczącego brata, by ten zaczął mówić. Niech powie chociaż kilka słów. „Nawet drzewa mówią, jak im dobrze się przysłuchać. I każde swoją mową, dąb dębową, buk bukową” – przekonuje go, bezskutecznie zresztą.

Czy drzewa nadal mówią? Albo inaczej: czy potrafimy je usłyszeć? Myśliwski pokazuje wieś, której już nie ma. Był świadkiem jej odchodzenia. Pisze o wielkim odczarowaniu. Że drzewo o rozłożystej koronie, grubym pniu i sękatych korzeniach, rosnące samotnie na polu, nie jest już obrazem świata i jego środkiem. Że ludzi i drzewa łączą teraz tylko relacje biznesowe mierzone liczbą i wartością kubików. Oczywiście nie chodzi tu o proste romantyzowanie kultury tradycyjnej. Owszem, jej przedstawiciele rzeczywiście mieli rozwiniętą umiejętność obserwacji przyrody. Z lektury opowieści ajtiologicznych, czyli wyjaśniających powstanie zjawisk przyrody, można wysnuć wniosek, że byli jej naprawdę ciekawi. Chcieli wiedzieć, dlaczego osika się trzęsie, rak chodzi tyłem, pies nie lubi kota, kamienie są twarde, pchła chce żyć w mieście, a mucha na wsi.

Zwyczaje związane z drzewami i zakaz ich wycinki wynikały z wiary, że są one miejscem boskiej epifanii. To m.in. z przekonania o pozytywnym wpływie drzew na życie człowieka wzięło się wiele leczniczych praktyk magicznych. Pisze o nich np. Kazimierz Moszyński w Kulturze ludowej Słowian. Chory zawieszał na drzewie ręczniki. Albo okrążał pień trzykrotnie. Rodzice kładli chore na suchoty dziecko pod krzakiem bzu. Ten magiczny akt wyrażał chęć pozbycia się dolegliwości oraz wiarę, że zdrowie i moc drzewa udzielą się cierpiącej osobie. Jednakże rytuały magiczne – co zaznacza Moszyński – często wiązały się z niszczeniem danego gatunku. Etnograf przytacza wypowiedź m.in. Władysława Orkana, pisarza pochodzącego z podhalańskiej wsi Poręba Wielka, w której ten bez lukru opisuje stosunek mieszkańca wsi do przyrody: „By prawdę rzec, nie ma on miłości do lasu. Już od dziecka pasący bydło przy lesie […] młode drzewka z pasją kaleczy, smołą płaczące najradniej podpala, we wnętrzu jodeł starych wypala kadłuby”.

Z mitów, baśni i podań wyłania się obraz człowieka, który patrzył na drzewa i żył z nimi. Potrafił słuchać buków, dębów, lip. A gdyby tak odzyskać tę umiejętność? Co byśmy usłyszeli? I czy byłoby to przyjemne dla naszych uszu?

Gdyby udało się wyeliminować wszystkie błędy świata, wziąć pod uwagę ogół okoliczności i przewidzieć wszelkie konsekwencje, nauka okazałaby się zbędna, a życie stałoby się nudne i powtarzalne. Bez pomyłek nie byłoby ewolucji ani różnorodności. Utknęlibyśmy w miejscu albo całkiem wyginęli.

Wyobraźmy sobie płytką, ustawioną pionowo gablotkę. Na wąskiej desce stanowiącej jej podstawę szczerzy się rząd przegródek. Każda wyodrębnia niewielki przedział, dzieląc deskę na kilkanaście równych części. Nad przegródkami rozciągają się rzędy drewnianych kołków wbitych w „plecy” gablotki tak, że tworzą wzór złożony z szeregów powtarzających się kwinkunksów: czterech kołków będących rogami kwadratu z piątym umieszczonym w jego centrum. Innymi słowy – każdy rząd jest przesunięty w stosunku do poprzedniego o połowę odległości między kołkami. Z przodu gablotę przykrywa szklana tafla, boki zaś są ograniczone drewnianymi deszczułkami. Tylko u samej góry, dokładnie na środku, znajduje się niewielki otwór z wetkniętym weń lejkiem.

Ten aparat nazywano „maszyną fasolową” (ang. bean machine) – powinniśmy więc przez otwór na górze wsypać do gablotki garść fasoli. Zamiast tego wrzucamy pokaźną porcję metalowych kuleczek. Z lejka wylewa się lśniący strumień, kulki uderzają o pierwsze drewniane kołki – i tu zaczyna się coś pozornie trudnego do wyjaśnienia. Kulki szybko rozlewają się po aparacie, słyszymy stukot, gdy obijają się o drewno. Istny chaos: uderzenia w kołki są losowe; zdaje się, że kulki skaczą po całej szerokości dziwnego urządzenia. Dotarłszy na sam dół, wpadają w jedną z przegródek. Nie, nie trafiają do nich przypadkowo, jak moglibyśmy się spodziewać, obserwując chaotyczne mrowie odbijających się drobin metalu. Po przesypaniu się przez aparat kulki tworzą na jego dnie uporządkowany wzór: najwięcej gromadzi się w centralnej części, a ich liczba stopniowo maleje w przegrodach coraz bardziej oddalonych od środka. Skrajne przedziały zawierają raptem kilka metalowych okruchów.

"Maszyna fasolowa", zdjęcie: Matemateca (IME USP)/Rodrigo.Argenton; CC-BY-SA 4.0
“Maszyna fasolowa”, zdjęcie: Matemateca (IME USP)/Rodrigo.Argenton; CC-BY-SA 4.0

Skąd to przedziwne drewniane urządzenie „wie”, jak rozdzielić wpadające do niego kulki, i to w tak spektakularnie regularny sposób? Gdybyśmy wsypali ich tysiące i jednocześnie dysponowali wersją aparatu z kilkudziesięcioma przegródkami, zaobserwowalibyśmy podobną sytuację. Nie tylko najwięcej kulek zebrałoby się na środku, lecz także ich poziom w kolejnych przedziałach utworzyłby znajomy harmonijny kształt – krzywą dzwonową, zwaną też rozkładem Gaussa. Już samo jej „wyłonienie się” z pozornie chaotycznego zamieszania jest rzeczą niezwykłą. U podstaw tej obserwacji leży jednak coś znacznie bardziej fundamentalnego.

Pozorny chaos

Za każdym razem, gdy metalowa kulka uderza w drewniany kołek, wydarzyć się mogą dwie rzeczy: odbije się w prawo lub w lewo. Jeśli wszystko zostało zmontowane precyzyjnie, żadne z odbić nie będzie „zafałszowane”: za każdym razem kulka ma taką samą szansę polecieć w każdą stronę – to zdarzenie zupełnie losowe. Złożenie wielu takich zdarzeń jest już jednak bardziej przewidywalne. Zachodzi stosunkowo małe prawdopodobieństwo, że jakaś kulka przeleci przez aparat, odbijając się zawsze w tym samym kierunku, i trafi do jednej ze skrajnych przegródek. Najpewniej doświadczy ona mniej więcej tyle samo odbić w prawo, co w lewo i na końcu wyląduje w jednym ze środkowych przedziałów. Magia? Skąd! Po prostu zbieg wielu przypadkowych „decyzji” każdej z kulek daje „wyśrodkowany” rezultat. Ma to dość ciekawe konsekwencje: gdyby przeciwne kierunki odbicia wartoś­ciować jako reprezentujące „sukces” oraz „porażkę”, poszczególne kulki mogłyby dokonywać losowego wyboru między kierunkiem prawidłowym a błędnym. Połączenie wielu poprawnych i złych decyzji średnio dałoby wynik neutralny, ale jednak zmienny, rozciągający się w prawo i w lewo od centrum. Moglibyśmy oczywiście próbować zachwiać losowością działania naszego aparatu, np. przechylając go lekko w prawo albo w lewo. Jak pewnie się domyślacie, finalnie układ na dnie będzie przesunięty w jedną stronę, lecz wciąż kulki nie zgrupują się wyłącznie w skrajnej przegródce. Przy każdym odbiciu kulki od kołka nadal będzie zachodziło ryzyko błędu i powstanie długi „ogon” przegródek wypełnionych coraz mniejszą liczbą kulek, ciągnący się daleko od kierunku przechylenia aparatu.

„Maszynę fasolową” wynalazł i wykorzystał w swoich badaniach Francis Galton, kuzyn Karola Darwina, brytyjski badacz i polimat przełomu XIX i XX w. Wśród niezliczonych tematów, jakimi się zajmował, znalazł się problem losowości oraz jej konsekwencji dla dziedziczenia cech ludzi czy zwierząt. Uczony skonstruował wyżej opisaną deskę Galtona, aby pokazać, że złożenie pozornie błędnych, chaotycznych decyzji może skutkować powstaniem czegoś uporządkowanego, widocznego dopiero na poziomie całej populacji ludzi czy zwierząt. Jego badania położyły podwaliny m.in. pod nowoczesną statystykę, gdzie jednym z najważniejszych celów jest analizowanie tego, jak mierzone obiekty czy osobniki różnią się od siebie i co te różnice znaczą w kontekście całej mierzonej grupy. Mroczniejszą stroną dorobku Galtona była jego głęboka wiara w społeczny sens eugeniki (zresztą to właśnie on zaproponował ten termin dla opisania polityki zmierzającej do promowania pożądanych kojarzeń u ludzi, utrwalających obecność „właściwych” cech u potomstwa).

Wróćmy jednak do błędu statystycznego. Pojawia się on zawsze wtedy, gdy duża populacja obiektów czy osobników zachowuje się w sposób mniej lub bardziej losowy. Nawet jeśli ich zachowaniem kierują przewidywalne zasady, sama liczba rozważanych obiektów generuje nieuchronną zmienność końcowego wyniku: błąd statystyczny. Rozmowa z dowolnym naukowcem zajmującym się nauką ścisłą – zwłaszcza gdy jest nią biologia – może budzić niepokojące podejrzenia, że ów badacz to tak naprawdę eksplorator błędów, analizator chaosu i nieprzewidywalności. W naukowych dyskusjach co rusz przewija się słowo „błąd”: wyjaśniają oni błędy, „poprawiają wyniki na błąd”, eliminują błędy z badanych wzorców. Nie za dużo tego błądzenia w aktywności, która raczej powinna cechować się pewnością i przenikliwością? Od razu wyjaśnijmy sobie jedno: nauka to sztuka poruszania się wśród błędów, a naukowiec to w zasadzie wykwalifikowany specjalista wyszkolony w ich tropieniu oraz katalogowaniu. Na filozofii konstruktywnego przesiewania wszechobecnej losowości i chaosu zbudowała zresztą swoje fundamenty jedna z obecnie najprężniej rozwijających się dziedzin, tzw. metanauka (ang. metascience). Ale po kolei.

Zbyt pochopne wnioski

Tak jak w przypadku aparatu Galtona nie mamy pojęcia, jaki proces kieruje zachowaniem kulek, zanim nie przepuścimy przez niego całego ich mrowia, tak w nauce niewiele możemy powiedzieć o ukrytej prawdzie rządzącej całą badaną rzeczywistością. Poruszamy się po omacku, możemy tylko dokonać jednostkowych, niedoskonałych pomiarów (czyli np. przeprowadzić skrupulatnie zaplanowany eksperyment), a następnie zastanowić się, jakie są szanse, że uzyskany wynik powstał w wyniku błędu, a jakie, że opisuje powszechną właściwość. Jeśli przez urządzenie Galtona przepuścimy raptem cztery kulki, istnieje duże prawdopodobieństwo, że spadną one do czterech różnych przegródek. Co więcej, chaotyczność takiego procesu sprawi, że nie wylądują dokładnie w czterech środkowych przedziałach. Powiedzmy, że znajdą się gdzieś w jednej trzeciej szerokości aparatu, po lewej stronie od jego środka. Czy to oznacza, że proces decydujący o odbijaniu się kulek nie jest „sprawiedliwy”, tzn. nie działa według zasady 50:50, kierującej losowo kulki w prawo lub w lewo, ale faworyzuje lewą stronę? Niekoniecznie. Gdybyśmy wyciągnęli taki wniosek – do czego jako naukowcy mamy pełne prawo – popełnilibyśmy spory błąd. Jest on tak ważny, że ma nawet swoją nazwę: to błąd pierwszego rodzaju. Może się przejawiać zbyt pochopnym zakomunikowaniem odkrycia („Deska Galtona działa asymetrycznie!”) w sytuacji, gdy w rzeczywistości dzieje się zupełnie inaczej. Nasz błąd miałby doniosłe skutki, bo nie dość, że zbyt szybko zakwalifikowalibyśmy wynik eksperymentu jako dowód na działanie takiego, a nie innego procesu, to jeszcze oparlibyśmy go na bardzo małej, żałosnej wręcz próbie zaledwie czterech kulek.

Czy przesypanie przez urządzenie, powiedzmy, tysiąca kulek w czymś pomoże? I tak, i nie. Uzyskamy znacznie większą pewność co do wyniku eksperymentu, zatem ogłaszając nasze odkrycie naukowe, popełnimy o wiele mniejszy błąd. Nigdy jednak nie wyeliminujemy go w całości. Nawet jeśli podejmiemy tytaniczny wysiłek przebadania miliona kulek, wciąż pozostaniemy w cieniu tego błędu. Zadaniem badaczy jest zdecydowanie o tym, w którym momencie jest on na tyle mało znaczący, a próba badawcza na tyle duża, że możemy się z tym pogodzić i uznać, że eksperyment stanowi godne zaufania źródło wiedzy o wybranym fragmencie rzeczywistości. Kiedy więc media trąbią o nowym odkryciu rewolucjonizującym jakąś dziedzinę, nie oznacza to, że naukowcy uzyskali stuprocentową pewność co do natury badanej rzeczy. Zwyczajnie (a może zupełnie niezwyczajnie?) stwierdzili oni, że wyciągając takie, a nie inne wnioski, pomylą się jedynie odrobinę. Nie powinniśmy też z tego powodu wpadać w panikę – w dziedzinach, od których zależy nasze zdrowie czy życie, granice akceptowalnego błędu są tak wyśrubowane, że czynią ów błąd prawie niemożliwym.

Buszujący w błędach

A co, jeśli powiem, że nawet w sytuacjach, kiedy poziom błędu statystycznego redukuje się do absolutnego minimum, pomyłka nadal czai się w danych, tyle że tym razem jest to błąd spodziewany, a nawet pożądany? Biologii z takim błędem akurat jest po drodze: w zasadzie wszystko, co badamy, może mieścić się w kategoriach „błędu”. Jest to dość niefortunne określenie – kalka językowa angielskiego słowa error, zwyczajowo stosowanego w podobnych przypadkach i nieoznaczającego wcale w takiej sytuacji „pomyłki”. Organizmy żywe bowiem nieustannie „popełniają błędy”, odskakując od jakiejś hipotetycznej normy. W biologii ewolucyjnej nazywamy to zmiennością – i jest to nasza ulubiona miara, według której oceniamy przydatność danego organizmu czy jego cechy do badań. Bez zmienności wszystko byłoby takie samo, wszystko też tak samo reagowałoby na czynniki zewnętrzne. Ewolucja zatrzymałaby się w mgnieniu oka, złożone z niezmiennych osobników populacje klonów albo w stu procentach przeżywałyby kolejne nudne, identyczne dni, albo całkowicie wymierały. Tej „błędnej zmienności” życia – jak czasami ją nazywamy – niejednokrotnie nie potrafimy nawet wyjaśnić. Wiemy, że stoją za nią geny, których jeszcze nie odkryliśmy, czynniki środowiskowe, których nie zbadaliśmy, i wszelkie inne okoliczności, których zmierzenie czy opisanie nigdy nie przyszłoby nam do głowy. To tu jest błąd pogrzebany. Każde dowolnie rewolucyjne odkrycie naukowe będzie nim obarczone. Polega on nie tyle na nieprecyzyjnym zmierzeniu jakiegoś parametru, ile na niemożności uwzględnienia wszystkich okoliczności mogących prowadzić do takiego, a nie innego rezultatu. Czy poruszamy się więc po omacku, a każda rewelacja naukowa to tylko efemeryczne osiągnięcie lokalnego laboratorium, konkretnej grupy badawczej, która trafiła szóstkę w totolotka, odkrywając coś, czego inni (z przyczyn losowych!) odkryć nie mogli?

Jeśli naukę potraktujemy jako sekwencję głośnych wystrzałów przerywanych długimi okresami ciszy, to owszem. Jednak ten uproszczony i – przyznajmy – dość pesymistyczny sposób jej postrzegania może rodzić spore wątpliwości. Gdzie między tymi pojedynczymi objawieniami z różnych dziedzin miałaby kryć się ogólna wiedza o świecie? Na takiej właś­nie frustracji i chęci wydestylowania czystej prawdy z chaotycznego zalewu wyników badań najrozmaitszej jakości wyros­ła nowa, fascynująca gałąź – metanauka. Naukowiec empirysta skupia się na cyzelowaniu metod i protokołów tak, by zminimalizować popełniany w trakcie eksperymentów błąd statystyczny. Metanaukowiec wskakuje na kolejny poziom: zbiera te pieczołowicie publikowane rezultaty i wyciąga z nich samą esencję, objawiając i wyjaśniając detale rzeczywistości niedostępne skrupulatnym empirystom. Metanauka jest zatem podejściem syntetycznym, dziedziną korzystającą z dostępnych badań, syntetyzującą je w ogólniejsze wzorce i odkrycia.

Od narodzin nowoczesnej metody naukowej na całym świecie opublikowano mnóstwo prac badawczych. Całe życie (i karierę) można by poświęcić na przekopywanie się przez ten ocean obserwacji i wyników, a i tak nie udałoby się zgłębić wszystkiego. Metanauka to jednak nie tylko mozolne przeglądanie istniejących badań. Pozwala ona również osiągnąć konsensus oraz wyeliminować nieuchronny – zwłaszcza w naukach biologicznych – „błąd” zmienności. Znosi klątwę sprawiającą, że powtarzając jakiś eksperyment biologiczny, często trudno otrzymać dokładnie taki sam wynik. Metanauka umie ten dodatkowy poziom chaotyczności okiełznać, wyjaśnić, niejednokrotnie nadać takiej zmienności nazwę i wskazać jej źródło. Często pozwala także zdemaskować nie do końca transparentne praktyki, np. publikowanie nastawione wyłącznie na wyniki rewolucyjne, przełomowe i szokujące, z pominięciem tych mniej doniosłych, a równie istotnych.

Demokratyzacja nauki oraz rosnące tempo dokonywania odkryć nieuchronnie przesuną akcenty i priorytety środowiska naukowego. Większą wagę będzie się przywiązywać do powtarzalności wyników badań i budowania naukowego konsensusu niż do przypominających fajerwerki, efektownych (i szybko gasnących) newsów naukowców doświadczalników. Rewolucja metanaukowa najpewniej okaże się mniej spektakularna niż oświeceniowa, której zawdzięczamy nowoczesną metodę badawczą. Być może jednak wzniesie naukę na nowy poziom, gdzie „błąd” nie tylko przestanie być odpadem, lecz także sam w sobie stanie się cennym materiałem badawczym. W końcu to właśnie w zmienności – tak chętnie wkładanej do jednego worka z innymi źródłami błędu – tkwi sedno wielu dziedzin nauki, zwłaszcza tych badających nas, ludzi. Fundamentalnie zmiennych, pod tak wieloma względami różnych od siebie, a jednocześnie podobnych i przewidywalnych.