Myślę, więc błądzę
i
rysunek: Marek Raczkowski
Wiedza i niewiedza

Myślę, więc błądzę

Daniel Ward
Czyta się 13 minut

Twierdzenie, że cudze opinie nie podlegają krytyce, wcale nie jest wyrazem szacunku. Przeciwnie – to przejaw dehumanizacji.

Załóżmy, że błędy zostałyby zniesione. Kim byłby człowiek, który nigdy się nie myli? Na to pytanie można udzielić dwóch całkowicie różnych odpowiedzi. Z jednej strony możemy pomyś­leć o nadczłowieku, istocie podobnej Bogu. Do takiej wizji odwołuje się wers z poe­matu O krytyce Aleksandra Pope’a: „Zbłądzić jest to rzecz ludzka, a Boska przebaczyć” [tłum. Ludwik Kamiński]. Bóg przebacza, ale sam nie jest w stanie popełnić błędu. Wydaje się, że wszechwiedza i nieskończona mądrość nieuchronnie wiążą się z nieomylnością.

Z drugiej strony może przyjść nam do głowy przeciwieństwo nadczłowieka – istota, która zasadniczo jest bezmyślna. W latach 90. komik Bill Hicks zarzucił mało bystrym widzom, że gapią się na niego jak „pies, któremu pokazano sztuczkę karcianą”. Porównanie przywołuje postać nieszczęsnego magika, który marnuje swój kunszt na bezrozumne stworzenie. Hicks po części wyśmiewał samego siebie – przecież tylko frajer podjąłby się tak bezsensownego zadania. W jego słowach jednak kryła się druzgocąca krytyka publiczności. Zarzucał jej bowiem głupotę, znacznie większą niż jego frajerstwo.

Przecież oglądamy magiczne sztuczki właśnie po to, aby nas przechytrzono. Ale żeby tak się stało, najpierw musimy z nich cokolwiek rozumieć, np. założyć, że magik rzeczywiście umieścił z powrotem w talii kart dziesiątkę kier. Przysłowiowy pies nie będzie się nad tym zastanawiał, bo kawałki tektury z symbolami nic dla niego nie znaczą. Dzięki temu nie pozwoli się oszukać. Hicks dał jasno do zrozumienia, że widzom – podobnie jak psu – brakuje bystrości, aby podążać za jego żartami, a więc by dać się nabrać. W tym kontekście zatem skłonność do popełniania błędów i przyjmowania fałszywych założeń raczej świadczy o naszej zdolności do myś­lenia, niż jej zaprzecza.

Informacja

Z ostatniej chwili! To ostatnia z Twoich pięciu treści dostępnych bezpłatnie w tym miesiącu. Słuchaj i czytaj bez ograniczeń – zapraszamy do prenumeraty cyfrowej!

Subskrybuj

Badacze układu wzrokowego człowieka również wskazują na związek między zdolnością do popełniania błędów a myśleniem. Spójrzmy na zamieszczony poniżej rysunek stworzony przez Edwarda Adelsona, neurologa z Massachusetts Institute of Technology. Przedstawia on obiekt rzucający cień na szachownicę. Pole B, znajdujące się w cieniu, wydaje się jaśniejsze niż pole A, w rzeczywistości jednak odcień szarości na obu z nich jest dokładnie taki sam.

Powstaje złudzenie optyczne, ponieważ mózg na podstawie wcześniejszych doświadczeń wyciąga wnioski na temat obiektów znajdujących się w cieniu i zgodnie z nimi interpretuje obraz, który widzimy. Wyobraźmy sobie, że patrzymy na prawdziwą szachownicę, a nie na ilustrację: mózg podpowiedziałby nam, że białe pola w cieniu są jaśniejsze niż czarne pola znajdujące się poza cieniem. Adelson komentuje: „W większości przypadków efekt iluzji świadczy o sukcesie, a nie o porażce naszego układu wzrokowego”. Fakt, że mózg od czasu do czasu się myli, stanowi dowód na to, że wykonuje skomplikowane czynności świadczące o inteligencji, a nie wyłącznie przyswaja spływające do niego dane zmysłowe.

Przeciwieństwem poglądu, że mąd­rzy ludzie mają prawo do błędów, jest przekonanie o ich nieomylności. Obecnie sporą popularnością cieszy się przeświadczenie, że powinniśmy traktować innych – a także siebie samych – jako właściwie niezdolnych do pomyłki w wielu kwestiach: od codziennych decyzji o tym, na co wydajemy pieniądze, po wybory ideologiczne. Nazywam tę postawę wiarą w „powszechną nieomylność” – powszechną, ponieważ z założenia dotyczy każdego z nas, a nie tylko pewnych autorytetów. Ten pogląd jest nam narzucany przez popularne idee wywodzące się z socjologii i ekonomii połowy XX w. Koncepcje te znajdują posłuch wśród przedstawicieli różnych opcji politycznych – od egalitarystów po wyznawców twardych ideałów wolnego rynku.

Koncepcja powszechnej nieomylności może wydawać się kusząca: jeśli uznamy osobiste przekonania i preferencje za rzeczy, które nie podlegają dyskusji czy krytyce, będziemy niejako zmuszeni szanować w równym stopniu wszystkie poglądy, a tym samym respektować godność każdego człowieka. W rzeczywistości jednak takie podejście do niczego nie doprowadzi. Co więcej, może odnieść przeciwny skutek. A to dlatego, że dopóki nie zaakceptujemy, iż dana osoba może się pomylić, nie potraktujemy jej jak myś­lącej. Dopiero kiedy przyznamy, że może popełniać błędy, będziemy mogli właściwie ocenić jej działania i zacząć konstruktywną dyskusję.

Wszyscy mają rację

Pojęcie „nieomylność” najczęściej kojarzy się z rzymskokatolickim dogmatem o nieomylności papieża. Ta forma nieomylności odnosi się – co oczywiste – wyłącznie do jednej osoby, ale jest też obwarowana innymi zastrzeżeniami. Katolicy mają prawo uznać, że papież się pomylił, jeśli chodzi o wybór stroju czy komentarz na temat bieżących wydarzeń. Dogmat o nieomylności zaczyna obowiązywać dopiero wówczas, kiedy powoła się on na swój autorytet, aby móc stanowić prawo dotyczące doktryny religijnej.

Z kolei nieomylność, na którą powołują się totalitarni władcy, nie jest ograniczona w żaden sposób. Najgorsi tyrani nie tylko żądają bezwzględnego posłuszeństwa, lecz także chcą być postrzegani jako niezdolni do popełnienia błędu w słowach i czynach. Dlatego stalinowscy specjaliści od propagandy fałszowali źród­ła historyczne, jeśli zaszła taka potrzeba, dosłownie wymazując ludzi z fotografii.

Powszechna nieomylność to nowoczes­na, demokratyczna wersja nieomylności przypisywanej przywódcom religijnym i dyktatorom. Choć ta dzisiejsza dotyczy każdego, to jednak – podobnie jak nieomylność papieska – ma pewne ograniczenia. Wszyscy zgodzimy się, że ludzie mogą popełniać błędy, gdy wyrażają swoje sądy o innych. Dopuszczamy możliwość, że np. lekarz może się czasem pomylić, diagnozując nasz stan zdrowia. Jednocześnie panuje przekonanie, że nie należy podważać czyjegoś gustu czy cudzych decyzji zakupowych.

Liberalizm od dawna podkreśla, że każdy z nas jest suwerenem – może samodzielnie stanowić zarówno w kwestii włas­nych preferencji politycznych, jak i wyborów konsumenckich czy religijnych. Doktryna, o której piszę, idzie o krok dalej: mówi, że każdy człowiek jest nie tylko niezależny, lecz także nieomylny w swoich upodobaniach.

Doprecyzujmy, na czym polega różnica. W zasadzie nieodłącznym elementem demokracji jest założenie, że działania rządu zależą – pośrednio lub bezpośrednio – od głosowania. Jednakże wcale to nie oznacza, że głosowanie kończy dyskusję nad obraną strategią. Polityczny liberalizm przecież nie wyklucza dalszej debaty ani nie uprawnia polityków do tego, aby prezentowali wyniki sondaży tak, jakby te same w sobie stanowiły argument przemawiający za danym stanowiskiem (tzw. argumentum ad populum). Takie podejście nabiera sensu dopiero przy założeniu, że istnieje powszechna nieomylność. Podobnie opinia, że muzyka i książki nie powinny podlegać cenzurze ze względów estetycznych (do czego zachęca liberalizm), to nie to samo, co przekonanie, że nikt nie powinien komentować cudzego gustu (co zakłada idea powszechnej nieomylności). Kwintesencją tej drugiej postawy jest przeświadczenie, że w świecie internetowych rankingów i „polubień” profesjonalna krytyka sztuki to przejaw snobizmu.

Pojęcie powszechnej nieomylności najprawdopodobniej wyrosło z relatywizmu kulturowego. Ten z kolei narodził się wraz z rozwojem antropologii jako zorganizowanej dyscypliny naukowej w XIX i na początku XX w. Zaczęto wtedy zdawać sobie sprawę z problemu etnocentryzmu – tendencji ludzi, w tym również antropologów, do interpretowania innych, nieznanych im kultur w odniesieniu do własnej i w rezultacie do wyciągania błędnych wniosków. Pionierzy nowoczesnej antropologii, m.in. Franz Boas czy William Graham Sumner zalecali remedium, którym powinna być dawka pokory. Obserwując zwyczaje matrymonialne Samoańczyków, trzeba je rozpatrywać – mówili – w kontekście samoańskiego społeczeństwa, a nie przez pryzmat zachodnich koncepcji małżeństwa. Ponadto należy unikać osądów moralnych, aby nie zaburzyć toku dokładnego, pozbawionego emocji badania. Te rozsądne środki ostrożności, uznawane obecnie za podstawowe aksjomaty tej dziedziny nauki, mają jednak charakter czysto metodologiczny. Opisują, jak należy prowadzić badania naukowe, ale nie mówią nic o świecie ani o tym, co jest dobre czy złe.

Relatywistyczna retoryka niekiedy szła o krok dalej. W 1934 r. amerykańska antropolożka Ruth Benedict stwierdziła: „Przestaliśmy już błędnie wywodzić moralność naszego miejsca i czasu z nieuniknionej konstrukcji ludzkiej natury. […] Uznajemy, że w każdym społeczeństwie moralność jest pojmowana inaczej i stanowi poręczne pojęcie odnoszące się do społecznie akceptowanych nawyków. Ludzkość zawsze wolała mówić, że coś jest »moralnie dobre« niż »nawykowe«. […] W perspektywie historycznej jednak obie te frazy znaczą dokładnie to samo”.

W połowie XX w., za sprawą deklaracji Benedict i jej kolegów, relatywistyczne twierdzenie, że moralność każdego społeczeństwa jest w takim samym stopniu dobra, weszło do szerokiego dyskursu. Stało się to, mimo że antropolodzy szybko zaczęli odżegnywać się od tak skrajnego stanowiska, ograniczając się do skromniejszych, czysto metodologicznych zaleceń o konieczności uwzględniania kontekstu kulturowego. (Jak w 2000 r. zauważył filozof John Tilley: „Pogląd, że relatywizm stanowi aksjomat antropologii, jest albo fałszywy, albo o 50 lat przestarzały”).

Relatywizm kulturowy prowadzi do oczywistej konkluzji: skoro słuszne w danym społeczeństwie jest to, co ono uznaje za słuszne, dlaczego nie pójść o krok dalej? Czemu nie przyjąć, że dla jednostki słuszne jest cokolwiek, co ona sama uzna za słuszne? I może kogoś to rozumowanie przekona – w końcu brzmi logicznie. W ten właśnie sposób można dojść do wnios­ku, że ludzie nie mylą się nigdy.

Twierdzenie, że nasze subiektywne przekonania należy traktować jako nieomylne, łatwo poddaje się krytyce. Niestety zwykle polega ona na – niemal odruchowym – stwierdzeniu, że zdanie niektórych ludzi powinno być traktowane poważniej ze względu na ich wykształcenie, inteligencję czy moralność. To kiepskie podejście. Z daleka pachnie szowinizmem. Grzeszy też wobec racjonalnego dyskursu, pozwalając, by argumenty ad hominem – odnoszące się do cech mówiącego – uprzedzały uważne wysłuchanie i ocenę przedstawionych dowodów.

Na relatywizm można zareagować w lepszy sposób: nie musimy ulegać naszej skłonności, by jak na zwierzęta społeczne przystało, ustawiać się w hierarchii. Zamiast tego można np. zauważyć, że nasze przekonania i postawy ewoluują. Według badania British Social Attitudes [badanie postaw społecznych Brytyjczyków – przyp. tłum.] w 1983 r. zaledwie 17% dorosłych respondentów twierdziło, że związki osób tej samej płci „wcale nie są złe”. W 2016 r. ten odsetek wzrósł do 64% – to ogromna różnica. Relatywiści nie do końca potrafią wyjaśnić takie zmiany. Skoro ludzie czasami – jakkolwiek rzadko – poddają się perswazji, to znaczy, że ich poglądy wynikają z czegoś więcej niż tylko z wewnętrznego przekonania.

Pokaż, na co wydajesz

Kolejny argument za powszechną nieomylnością wywodzi się z zupełnie innego źródła. Chodzi o koncepcję „ujawnionych preferencji”, kluczową dla współczesnej myśli ekonomicznej i stworzoną przez Paula Samuelsona, jednego z najważniejszych amerykańskich ekonomistów XX w. Teoria ta jest jeszcze bardziej radykalna: podczas gdy relatywizm sugeruje, by nie kwestionować cudzych wyborów, Samuelson przekonuje, że nie możemy podważać nawet własnych decyzji.

Jego teoria jest zakorzeniona w badaniach ekonomistów i politologów nad pojęciem „preferencji”. Od dawna uważa się bowiem, że dobrze funkcjonujące społeczeństwo powinno w jak największym stopniu zaspokajać pragnienia swoich członków. Tylko skąd wiemy, jak dane społeczeństwo sobie z tym radzi? W jaki sposób zmierzyć pragnienia?

W pierwszej połowie XX w. dominowała intelektualna moda na unikanie pytań o to, jak ludzie myślą i co czują. Zaglądanie do ludzkiego umysłu uważano za nienaukowe. Kwestie psychologiczne należało rozstrzygać, obserwując, jak jednostki reagują na bodźce, a nie spekulować na temat niewidocznych procesów mentalnych. Z czasem to podejście zaczęto nazywać behawioryzmem. Badacze mieli zajmować się zachowaniem człowieka, a nie dociekać, co dzieje się w jego głowie. A przecież nasze pragnienia i wybory są bezpośrednio powiązane właśnie z naszymi myślami i emocjami. Behawioryści, którzy zajmowali się ludzkimi preferencjami, stanęli w obliczu nie lada wyzwania.

Samuelson zaproponował rozwiązanie. A gdyby tak postawić znak równości między naszymi preferencjami a tym, na co wydajemy pieniądze? Załóżmy, że dam ci 100 dolarów. Jeżeli wydasz 30 dolarów na śniadanie w restauracji, 50 na parę nowych dżinsów, a pozostałe 20 na taksówkę do domu, dowiem się – w dokładnych proporcjach – czego chciałeś.

W 1948 r. Samuelson napisał: „Każdy człowiek ujawnia wzorzec swoich preferencji poprzez zachowania rynkowe”. Oczywiście możemy poprosić grupę ludzi, by wypełnili ankietę i określili w skali od 1 do 10, jak bardzo mają ochotę na steka. To jednak wiąże się z możliwością interpretacji (jaka jest różnica między oceną 7 i 8?) oraz prawdziwości zgromadzonych danych (jaką mamy gwarancję, że badani udzielą precyzyjnych odpowiedzi?). Zrównanie preferencji z decyzjami zakupowymi uwalnia nas od tych dylematów. Pokaż mi, na co wydajesz pieniądze, a poznam twoje prawdziwe pragnienia.

Ta koncepcja okazała się niezwykle noś­na. Jej siła tkwi w prostocie. Zakładamy, że każdy z nas ma pewne indywidualne preferencje, których całkowite zaspokojenie może maksymalnie zwiększyć nasze poczucie dobrobytu. Ekonomiści mogą przyporządkowywać wartości danym preferencjom i sprawdzać m.in., jak one wpływają na ceny towarów. Do tych obliczeń nie trzeba osądzać czyichś indywidualnych upodobań. Nawiasem mówiąc, z pewnością owej teorii nie zaszkodził fakt, że Samuelson napisał jeden z najważniejszych podręczników na ten temat. I przyznał nieskromnie: „Nie obchodzi mnie, kto stanowi prawa tego kraju ani kto opracowuje ważne traktaty, dopóki sam mogę pisać podręczniki do ekonomii”.

Jednak mam pewne wątpliwości odnośnie do koncepcji „ujawnionych preferencji”. Jeśli potraktujemy ją poważnie, odbierzemy sobie prawo do oceniania własnych decyzji.

Załóżmy, że właśnie wydałem 100 dolarów na nową mikrofalówkę. Wyjmuję ją z pudełka, zanoszę do kuchni i… okazuje się, że urządzenie nie mieści się tam, gdzie chciałem je postawić. Może nie zmierzyłem dobrze blatu, może zmyliły mnie wymiary podane na pudełku. Tak czy inaczej, nie jestem zadowolony, żałuję tego zakupu. Tymczasem zgodnie z teorią Samuelsona nie mam powodu do żalu. Kiedy rozstałem się ze 100 dolarami, ujawniłem tym samym swoje preferencje. Skoro ostatecznie okazało się, że preferuję mikrofalówkę, która nie pasuje do mojej kuchni – cóż, oznacza to, że w głębi serca właśnie tego chciałem.

Jeśli wybory zawsze ujawniają nasze prawdziwe preferencje, nie powinniśmy niczego żałować. A przecież żal stanowi część życia. Przytoczyłem historyjkę o mikrofalówce znajomemu ekonomiś­cie, wiernemu wyznawcy teorii Samuel­sona. Odpowiedział, że nasze preferencje mogą się zmieniać. Wczoraj chciałem kupić właśnie tę mikrofalówkę, a dziś wolę już inny model. Czy to właściwy opis sytuacji? Nie sądzę. Moim celem był zakup mikrofalówki, która zmieści się w mojej kuchni. To się nigdy się nie zmieniło. Gdyby ktoś mnie ostrzegł, że urządzenie, które planuję nabyć, jest za duże, zrezyg­nowałbym. Dotkliwa rozbieżność między pragnieniem a podjętym działaniem sprawia, że czuję rozczarowanie.

Dlaczego teoria, która nie pozwala ludziom żałować swoich decyzji, nie sprawdza się? Może ekonomia zakłada, że jes­teśmy bardziej racjonalni niż w rzeczywistości. Niektórzy twierdzą, że Samuel­sonowska teoria, według której ludzie chłodno kalkulują, jak zmaksymalizować swój dobrobyt, pomija sferę emocjonalną. Jesteśmy stworzeniami, którymi rządzą impulsy – takie jak miłość, strach czy nadzieja – a nie tylko kalkulacja.

Wydaje mi się jednak, że ten konkretny zarzut wynika z niezrozumienia. Ekonomista wyszedł z założenia, że zawsze jesteś­my racjonalni i dokonujemy rozsądnych, dobrze przemyślanych wyborów. Tymczasem w kontekście teorii o ujawnionych preferencjach bycie racjonalnym nie ma nic wspólnego z rozsądkiem. Gdybyście jednak wytknęli mojemu znajomemu, że teoria Samuelsona nie uwzględnia irracjonalnej natury człowieka, odpowiedziałby, że pojęcie „irracjonalność” nic nie znaczy. I do pewnego stopnia miałby rację. Współcześni ekonomiści uznają, że dla danej osoby racjonalne jest wszystko to, czego ona pragnie. Jeśli ktoś ma ochotę kupić kokainę, złą książkę albo za dużą mikrofalówkę, wszystkie te wybory należy uznać za racjonalne. Jeśli ktoś pragnie wydać pieniądze w ten sposób, to są właś­nie jego preferencje.

Errare humanum est

Współczesna teoria ekonomiczna wcale nie zakłada braku impulsywności ani nie faworyzuje szczęśliwców obdarzonych mądrością czy rozwagą. Daleko jej do tego. Ale uważa, że wszystkie potrzeby konsumentów są ważne, nawet jeśli oni pragną rzeczy szkodliwych czy takich, których kupna później żałują. Krótko mówiąc, u podstaw tej teorii leży założenie powszechnej nieomylności: żadna z naszych decyzji nie może być błędna – nieważne, czy wynika ona ze starannego namysłu i sprzyja naszym celom, czy wprost przeciwnie.

Wygląda na to, że najczęstsze zarzuty wobec doktryny ekonomicznej wynikają z naszego jej niezrozumienia. Okazuje się, że ekonomia traktuje nas jako istoty racjonalne – czyli kierujące się konkretnymi powodami. A właśnie te powody sprawiają, że jesteśmy podatni na błędy.

Za niemal każdą naszą decyzją – niezależnie od jej wagi – stoi spektrum przekonań, planów i celów. Zapewne kupiłem mikrofalówkę, ponieważ w przyszłości chciałbym rzadziej gotować. Dlaczego? Może wątpię, czy kiedykolwiek nauczę się robić to dobrze. Skąd taka myśl? Przypuśćmy, że uważam gotowanie za umiejętność, której ludzie powinni poświęcić sporo czasu. To z kolei może zależeć od mojej opinii na temat tego, jak ważna jest nauka nowych umiejętności… i tak dalej.

W świetle teorii ujawnionych preferencji te okoliczności nie mają żadnego znaczenia. Ważne jest zaspokojenie naszych upodobań, żeby kupić ten, a nie inny model, przyjąć tę, a nie inną pracę. W świecie nieomylnych ludzi liczy się tylko ostateczny wybór. Jednak to wśród pominiętych, niezrealizowanych preferencji znajdują się wszystkie nasze cele, ambicje i wartości – a więc sprawy, które najbardziej nas obchodzą.

Cele łączą się ściśle z możliwością popełnienia błędu. Zwykle tworzą zhierarchizowane systemy. Chciałbym mieć ten konkretny gadżet, ponieważ zużywa niewiele energii – to dla mnie ważne, bo będzie emitował mniej dwutlenku węgla, a ja uważam, że emisje szkodzą planecie. Każdy cel jest uzależniony od tego, że wspiera inny cel stojący wyżej w hierarchii. Jeśli okaże się, że urządzenie o niskim zużyciu energii z jakiegoś powodu nie wpływa na zmniejszenie emisji, uznam, że jego zakup był pomyłką.

Podobnie jest w przypadku naszego układu wzrokowego. Chociaż gromadzi on informacje na temat ilości światła docierającego do naszych oczu, jego ostateczny cel jest inny: ma nam dokładnie przedstawić otaczający świat. Dlatego mózg tak chętnie ignoruje niektóre dane dostarczane mu przez komórki siatkówki, jeśli kontekst wskazuje, że mogą one wprowadzić nas w błąd. Nawet gdy – jak przekonaliśmy się wcześ­niej – jesteśmy przez to podatni na iluzje optyczne.

Cel różni się od zwykłego impulsu – w przeciwieństwie do niego może sprawić, że twoje pozostałe preferencje staną się błędne. Na przykład twój impuls, żeby zostać dłużej na imprezie, nie będzie błędny tylko dlatego, że pojawi się drugi, konkurencyjny – aby wracać do domu. Pozostanie na imprezie jednak może okazać się błędem, jeśli za zamiarem pójścia wcześniej spać stoi cel: następnego dnia rano masz umówione spotkanie. Gdybyś­my nigdy nie podejmowali złych decyzji, kierowałyby nami nie żadne znaczące plany czy cele, a jedynie impulsy.

Co więcej, dzięki temu, że niektóre z naszych preferencji są uzależnione od innych osób – a zatem mogą ostatecznie okazać się błędne – jesteśmy w stanie przekonywać siebie nawzajem. Wyobraźmy sobie, że mamy wspólny cel: chcemy zmniejszyć liczbę wypadków drogowych. Możesz próbować przekonać mnie, że moja bezpośrednia preferencja w tej kwestii – głosowanie na konkretną partię, która obiecuje go zrealizować – jest błędna, ponieważ nie doprowadzi do jego osiągnięcia. Jeśli natomiast uznasz, że moja chęć zagłosowania na daną opcję polityczną stanowi niezbadany aspekt mojej tożsamości – to mój wybór i koniec dyskusji – stracisz możliwość perswazji. Pozostanie ci tylko połączyć siły z wystarczającą liczbą podobnie myślących osób, a potem w ponurym milczeniu przegłosować takich jak ja.

Idea powszechnej nieomylności tworzy iluzję, że ludzie są zasadniczo bezmyślni – wyznają dane poglądy czy wartości bez żadnego powodu albo przynajmniej z niezrozumiałych przyczyn. Mając takie założenie, nie da się dyskutować z cudzymi przekonaniami ani traktować ich poważnie. W czasach, w których coraz częś­ciej definiujemy tożsamość w kategoriach plemiennych, a każda grupa żyje we własnej bańce, nie możemy pozwolić, by ta iluzja zaburzyła szerszą perspektywę.

Błądzić jest rzeczą ludzką. Pomyłki, nieporozumienia, przejęzyczenia, chwilowe zaćmienia umysłu i wpadki należą do tkanki życia. Jednak popełniamy błędy właśnie dlatego, że jesteśmy myślącymi, inteligentnymi istotami o złożonych celach i szczerze wyznawanych wartościach. W przeciwnym razie nie moglibyśmy się mylić. Z pewnością żałujemy niejednej podjętej decyzji, ale to właśnie dzięki pomyłkom stajemy się mądrzejsi.

Pierwotnie tekst ukazał się w serwisie Aeon.co. Tytuł, lead i śródtytuły pochodzą od redakcji „Przekroju”.

Czytaj również:

Wielkie pismo
i
Mieczysław Wasilewski, rysunek z archiwum.
Edukacja

Wielkie pismo

Maciej Wesołowski

Mniej więcej wtedy, kiedy wymyślono koło, zrodził się też drugi, być może nawet jeszcze lepszy pomysł: że rzeczy można zapisywać.

Na początku był obrazek czy – jak to mówią badacze pisma – piktogram. Dłoń, drzewo, radło, oko, ptak, słońce, woda (oznaczały ją dwie fale, jedna nad drugą). Z pojedynczych znaczków składano proste rebusy: usta plus chleb równa się jedzenie. Dzięki piktogramom i rebusom łatwiej było handlować, kontrolować, liczyć. Z czasem jednak same piktogramy i rebusy przestały wystarczać. W drugiej połowie IV tysiąclecia p.n.e. w kraju Sumerów, żyjących w delcie Eufratu i Tygrysu (późniejsze tereny południowej Mezopotamii, a obecnie Iraku), zrodził się system klinów – znaków nieco podobnych do gwoździ lub litery T, które rysowano bądź żłobiono (albo po prostu wyciskano) trzcinowym rylcem w glinie. I tak kombinacja trzech pionowych i czterech poziomych „gwoździ” reprezentowała głowę, cztery ukośne oznaczały jęczmień, a jeśli ktoś chciał przedstawić chleb, to rył trzy „gwoździe” stojące na jeszcze jednym. Piśmiennicze symbole przekształcały się w coraz bardziej abstrakcyjne. Po kolejnych dwóch tysiącach lat, około 2800 r. p.n.e., można było już zapisać dźwięki ludzkiej mowy.

Czytaj dalej