Mrówka i ekonomista Mrówka i ekonomista
i
zdjęcie: Dr. Herbert A. Simon; Keystone Press/Alamy Stock Photo
Edukacja

Mrówka i ekonomista

Maciej Miłkowski
Czyta się 16 minut

Ludzie wcale nie są tak racjonalni, jak sądzą – twierdził badacz, którego odkrycia przyniosły mu Nagrodę Turinga za rozwój sztucznej inteligencji i Nobla z ekonomii. 

Po plaży, w pełnym słońcu, mozolnie wędruje mrówka. Jej trasa jest kręta i pozornie chao­tyczna. Co kryje się w jej maleńkim mózgu? System nawigacji? Mapa terenu? A może coś zupełnie innego? To pytanie frapowało Herberta A. Simona – naukowca, który odmienił nasze rozumienie ludzkiego umysłu i procesów podejmowania decyzji. Zauważył on, że zawiłość ścieżki mrówki nie musi odpowiadać jej procesom myślowym, lecz nierównościom terenu, po którym idzie. Odzwierciedla złożoność otoczenia.

Ta prosta obserwacja stała się fundamentem nowej teorii, która wpłynęła na rozwój tak różnych z pozoru dziedzin, jak ekonomia, psychologia czy informatyka. W wędrówce mrówki Simon dostrzegł klucz do ludzkiego procesu podejmowania decyzji. Tak jak ona nie planuje trasy z wyprzedzeniem, ale na bieżąco reaguje na przeszkody, tak i ludzie często decydują nie na podstawie pełnej analizy wszystkich możliwości, lecz dostępnych informacji i zdolności poznawczych.

To idea, którą badacz nazwał „ograniczoną racjonalnością”. Klasyczni ekonomiści zakładali, że ludzie zawsze podejmują optymalne decyzje, mając pełny dostęp do informacji i nieograniczone zdolności obliczeniowe. Simon pokazał, że rzeczywistość jest zupełnie inna.

Informacja

Z ostatniej chwili! To druga z Twoich pięciu treści dostępnych bezpłatnie w tym miesiącu. Słuchaj i czytaj bez ograniczeń – zapraszamy do prenumeraty cyfrowej!

Subskrybuj

Dlaczego często zadowalamy się czymś, co jest wystarczająco dobre, zamiast dążyć do perfekcji? Jak to możliwe, że czasem najprostsze rozwiązania okazują się najskuteczniejsze?

Intelektualny kameleon

Młody Herbert A. Simon stał przed tablicą w sali wykładowej Uniwersytetu w Chicago. Był rok 1936, a on – zaledwie 20-letni student – próbował wyjaś­nić skomplikowaną teorię ekonomiczną starszym kolegom. Jego oczy błyszczały, gdy rysował wykresy i zapisywał równania, łącząc ze sobą koncepcje z zakresu ekonomii, psychologii oraz matematyki. Nikt z obecnych nie przypuszczał wtedy, że stoi przed człowiekiem, który za kilka dekad odmieni oblicze nauki.

Przyszedł na świat 15 czerwca 1916 r. w Milwaukee, w stanie Wisconsin. Jego ojciec, Arthur, inżynier elektryk, był żydowskim imigrantem z Niemiec. Przekazał synowi zamiłowanie do logiki i precyzyjnego myślenia. Matka była pianistką, zaszczepiła w nim miłość do sztuki i twórczego rozwiązywania problemów. Młody Herbert pochłaniał książki z prędkością światła. Jednego dnia zagłębiał się w dzieła Darwina, by następnego studiować filozofię Platona. Ta wszechstronność i ciekawość świata miały wpływ na jego przyszłą karierę. W wieku 18 lat rozpoczął studia na Uniwersytecie w Chicago. Początkowo chciał zostać fizykiem, ale szybko odkrył, że jego prawdziwą pasją jest dążenie do zrozumienia ludzkiego zachowania i procesów decyzyjnych. Zaczął łączyć ekonomię z psychologią, tworząc podwaliny pod nauki behawioralne, a potem stał się prekursorem badań procesów poznawczych zwanych kognitywistyką.

Zdaniem Simona granice między dyscyplinami nauki są arbitralne. Natura nie wie, gdzie kończy się fizyka, a zaczyna chemia. Ta myśl stała się przewodnim motywem jego kariery. Simon był jak intelektualny kameleon, z łatwością poruszający się między różnymi dziedzinami nauki. W jednej chwili mógł dyskutować o teorii organizacji, by w następnej zagłębić się w arkana programowania komputerowego. A wszystko porządkował za pomocą modeli matematycznych. Nawet swoją autobiografię zatytułował Models of My Life [Modele mojego życia].

W 1949 r. zatrudnił się na Carnegie Mellon University (wtedy jeszcze Carnegie Institute of Technology), gdzie powstały jego najbardziej przełomowe prace łączące w spójną całość ekonomię, psychologię, informatykę i teorię organizacji. Niebawem, bo w 1951 r., miał dołączyć do analityków RAND Corporation. Kto nie czytał powieści szpiegowskich i nie oglądał filmów o zimnej wojnie, może tej nazwy nie kojarzyć. Ten stworzony niedługo wcześniej, w 1948 r., think tank to mózg Pentagonu. Każda podejmowana tam decyzja może wpłynąć na losy milionów. Simon był świadkiem tego, jak analitycy oceniają radzieckie zdolności nuklearne i jak stratedzy planują scenariusze konfliktów na całym globie. I co najważniejsze – dostrzegał, jak często popełniają proste, ludzkie błędy.

Praca w RAND miała też swoją ciemną stronę: Simon zdawał sobie sprawę, że jego badania mogły być wykorzystywane do planowania konfliktów zbrojnych – wojna w Wietnamie, która pochłonęła setki tysięcy istnień, opierała się na analizach tamtejszych badaczy. Opuścił RAND w 1954 r. (choć pozostał jego doradcą aż do 1978 r.) bogatszy o doświadczenia, które miały ukształtować jego najważniejsze teorie. Co więcej, właśnie tam wpadł na pomysł, jak modelować ludzkie procesy poznawcze przy użyciu komputerów.

Kolejne dekady przyniosły Simonowi światowe uznanie. W 1975 r. otrzymał Nagrodę Turinga – często nazywaną „informatyczną Nagrodą Nobla” – za wkład w rozwój sztucznej inteligencji. Trzy lata później Królewska Szwedzka Akademia Nauk przyznała mu Nagrodę Banku Szwecji im. Alfreda Nobla w dziedzinie ekonomii. Jego mowa noblowska łączyła idee z zakresu psychologii, informatyki i teorii organizacji. Ale nawet wtedy, u szczytu swojej sławy, Simon nie spoczął na laurach. Nauka to nie sprint, to maraton, a on dopiero się rozgrzewał.

Wystarczajaco dobrze

Arcymistrz szachowy siedzi naprzeciwko komputera, widzowie wstrzymują oddech. Czy ludzki umysł pokona maszynę? To rzeczywistość, którą Simon przewidział. Jednak zanim zagłębimy się w szachowe pojedynki ze sztuczną inteligencją, cofnijmy się do momentu, gdy naukowiec rzucił wyzwanie klasycznej ekonomii, w której dominował model homo oeconomicus, zakładający, że ludzie, zanim dokonają wyboru, analizują wszystkie możliwości, obliczają ich wartość i wybierają najlepszą z matematyczną precyzją. A przynajmniej powinni tak robić – inaczej postępują irracjonalnie.

Simon patrzył na tę koncepcję z niedowierzaniem. Modele modelami, każdy jest fałszywy, ale ten – jego zdaniem – nawet nie jest użyteczny. Większość realnych problemów nie poddaje się pełnej analizie: możliwych ścieżek jest po prostu zbyt wiele. Czasu zabraknie, nawet gdybyśmy żyli aż do zgaśnięcia Słońca. W zamian Simon zaproponował inną wizję rozumu: ludzie są racjonalni, lecz nie w pełni. Nazwał to „ograniczoną racjonalnością” (bounded rationality). Nasze wybory zależą od trzech czynników: dostępnych informacji, czasu na podjęcie decyzji oraz zdolności poznawczych. Dotyczy to nawet królewskiej gry – szachów – którą Simon się pasjonował. Obserwował, w jaki sposób arcymistrzowie planują zagrania podczas partii. Tradycyjna teoria ekonomiczna zakłada, że powinni wziąć pod uwagę każdy możliwy ruch i jego konsekwencje, jednak oni wcale tak nie postępują. Nawet najlepsi szachiści rozważają zaledwie kilka możliwych posunięć, szukając nie najlepszego, ale pierwszego, które wydaje się wystarczająco dobre.

Gra w szachy polega bowiem na poszukiwaniu rozwiązań problemu, jak wygrać. Już wtedy Simon przyrównywał umysł do wyszukiwarki, lecz nie stron internetowych (te pojawią się kilkadziesiąt lat później), tylko odpowiedzi na nasze pytania. To jak odnajdowanie igły w stogu siana. Zamiast przetrząsać cały stóg, bierzemy garść siana i sprawdzamy, czy jest w nim igła. Jeśli jej tam nie ma, bierzemy następną garść. W przypadku szachów stóg jest zbyt wielki, żeby dało się go przeszukać w całości. Obserwowanie gry arcymistrzów pozwala zrozumieć, w jaki sposób ludzie podejmują decyzje. Nawet eksperci nie są w stanie przeanalizować wszystkich możliwości. Stosują więc heurystyki – uproszczone reguły wnioskowania; omylne, ale szybkie i skuteczne. Widząc na ulicy ewidentnie podpitych mężczyzn o szerokich karkach, błyskawicznie stosujemy stereotyp i staramy się uniknąć niebezpieczeństwa. Możemy się mylić, równie dobrze mogli wyjść z klubu szachowego. Stereotypy bywają krzywdzące, lecz utrzymują się dlatego, że jednak nieraz się sprawdzają.

Co racjonalność ograniczona oznacza dla nas w codziennym życiu? Zamiast poszukiwać rozwiązań idealnych, powinniśmy decydować się na takie, które są wystarczająco dobre. Podobnie jak w szachach – nie musimy przewidywać każdego możliwego ruchu. Dość, że zrobimy krok we właściwym kierunku.

Teoria ograniczonej racjonalności zmieniła nasze postrzeganie podejmowania decyzji i otworzyła drzwi do nowych obszarów badań. Od ekonomii behawioralnej po sztuczną inteligencję, której podwaliny Simon osobiście tworzył.

Zmarnowana szansa

A co z naszym arcymistrzem, siedzącym naprzeciwko komputera? W 1957 r. Simon przepowiadał, że w ciągu 10 lat maszyny pokonają najlepszych szachistów, miał nadzieję, że odtworzą inteligentne procesy u człowieka. Pomylił się o niemal trzy dekady. Jednak to nie dlatego po zwycięstwie Deep Blue nad Kasparowem w 1996 r. naukowiec był głęboko rozczarowany. Komputer IBM grał bowiem nie na podstawie analiz strategii mistrzów szachowych, lecz opierał się na siłowych metodach przeszukiwania ogromnej liczby potencjalnych rozwiązań. Taki rodzaj sztucznej inteligencji według Simona był zmarnowaną szansą zarówno na zrozumienie nas samych, jak i na stworzenie programów, które mogłyby naprawdę twórczo rozwiązywać problemy.

Wśród pionierów sztucznej inteligencji Simon był krytykiem budowania monstrualnych centrów obliczeniowych i przetwarzania danych na wielką skalę. Z jego punktu widzenia dzisiejsze duże modele językowe działają czasem dobrze dlatego, że realizują heurystyki, które są skuteczne, a nie dlatego, że mają gigantyczne wymagania obliczeniowe. Jednak działania tych systemów nie spełnią oczekiwań, jeśli nie będziemy w stanie lepiej zrozumieć rządzących nimi heurystyk. Nietrudno więc zgadnąć, że Simon nie uwierzyłby w przepowiednie speców z Doliny Krzemowej, według których już wkrótce czeka nas idealna, nadludzka sztuczna inteligencja. Każda inteligencja jest ograniczona, a prawdziwa mądrość leży nie w perfekcji, ale w umiejętności radzenia sobie z ograniczeniami. Tylko taka byłaby naprawdę podobna do ludzkiej i – wbrew pozorom –  taką starają się budować współcześni informatycy. Nawet gdy mówią co innego.

Zadowolić się minimum

Pora na powrót do przeszłości. Amerykańskie biuro lat 50. XX w., panowie w garniturach, gęsto od dymu. Simon obserwuje, jak menedżer próbuje rozwiązać pozornie prosty problem: przydzielenie pracownikom biurek w nowym budynku. Tak właś­nie odkrywa satisficing, czyli ograniczenie się do minimum. Satisficing – brzmi osobliwie, redaktorzy chcieli Simonowi ten wyraz poprawiać w tekstach, mimo że używano go już w XV w. Najłatwiej wytłumaczyć satisfice jako zlepek dwóch wyrazów: satisfy (zadowalać) i suffice (wystarczać). Żeby je zrozumieć, wróćmy do przykładu z igłą w stogu siana. Tradycyjne podejście ekonomiczne zakłada, że aby znaleźć najostrzejszą igłę, należy przeszukać cały stóg – ale w rzeczywistości, gdy tylko znajdziemy dostatecznie ostrą igłę, przestajemy szukać. Na tym właśnie polega ograniczenie się do minimum – poszukiwanie rozwiązania, które jest wystarczająco dobre, zamiast dążenia do perfekcji.

Jak to się ma do przydziału biurek? Klasyczna teoria ekonomiczna sugerowałaby stworzenie skomplikowanego modelu matematycznego uwzględniającego preferencje każdego pracownika, relacje między działami, dostęp do światła dziennego i dziesiątki innych czynników. Tymczasem menedżer obserwowany przez Simona przeszedł się po biurze, porozmawiał z ludźmi i w ciągu godziny miał gotowy plan. Rozwiązanie nie było idealne, ale wystarczająco satysfakcjonujące, a co najważniejsze – szybkie i praktyczne.

Simon uważał, że racjonalność nie polega na poszukiwaniu tego, co teoretycznie najlepsze, lecz tego, co nas zadowoli. Zamiast godzinami porównywać ceny i cechy produktów, możemy wybrać pierwszy, który spełnia nasze oczekiwania i mieści się w budżecie. Ograniczenie się do minimum nie oznacza obniżania standardów. To raczej mądre zarządzanie naszymi zasobami: czasem, energią i uwagą. Kiedy ciągle szukamy ideału, nigdy nie jesteśmy w pełni zadowoleni. Idea ograniczonej racjonalności wywarła wpływ nie tylko na ekonomię i psychologię, lecz także na projektowanie systemów komputerowych i sztucznej inteligencji. Programiści zaczęli tworzyć algorytmy, które nie szukają idealnego rozwiązania, ale pierwszego wystarczająco dobrego – tak, jak robią to ludzie.

Ścieżka mrówki na plaży wygląda na skomplikowaną. Jej złożoność nie wynika jednak z przemyśleń owada, lecz z ukształtowania terenu. Innymi słowy, zachowanie mrówki jest efektem inter­akcji między jej prostymi regułami działania a złożonością środowiska. Nie musi mieć mapy plaży w głowie. Po prostu rea­guje na to, co napotyka na swojej drodze. Omija przeszkody, wspina się na górki, schodzi do dołków. Nie jest w tym wyjątkiem. Ludzie też często reagują na bezpośrednie bodźce, zamiast tworzyć skomplikowane plany. Tak jest na przykład z rea­gowaniem na topografię miasta podczas wycieczki rowerowej. Większość osób korzysta ze wskazówek nawigacji, zamiast odtwarzać trasę z pamięci. Wiele rozwiązań problemów wyłania się z naszej inter­akcji ze środowiskiem, a nie z dalekosiężnych i złożonych planów.

Simon nie poprzestał na teoretyzowaniu. Jego obserwacje znalazły praktyczne zastosowania. Ponieważ przestrzeń ogranicza nasze zachowania, to żeby zmienić zachowanie, często łatwiej zmienić swoje otoczenie. To pozwala wykorzystać sygnały z zewnątrz do sensowego kształtowania własnych nawyków. Redukowanie liczby możliwości wyboru ułatwi nam podejmowanie decyzji, np. zamiast  co tydzień tworzyć nową listę zakupów, można uzupełniać starą – po jakimś czasie będzie na niej prawie wszystko to, co jest nam potrzebne. Jednocześnie można organizować otoczenie tak, aby pożądane zachowania były jak najłatwiejsze. Czasem liczy się nie tylko to, co mamy w głowie, lecz także – gdzie ona jest.

Umysł, który zmienił świat

Pewnego jesiennego dnia w 1955 r. Herbert Simon siedział w swoim gabinecie na Carnegie Mellon University ze specjalistą w dziedzinie nauk komputerowych Allenem Newellem. Debatowali, jak nauczyć komputer udowadniać twierdzenia matematyczne. Wiedzieli, że stoją u progu czegoś wielkiego. I rzeczywiście: łącząc psychologię, informatykę i lingwistykę, Simon z Newellem zbudowali podstawy kognitywistyki – nowego podejścia do badania ludzkiego umysłu. Uważali, że on nie musi być jak czarna skrzynka. Według nich to skomplikowana maszyna, którą możemy zrozumieć i próbować odtworzyć schemat jej działania. W czasach, gdy psychologia była zdominowana przez behawioryzm i w laboratoriach badano najczęściej szczury oraz gołębie, a komputery były wielkości diplodoka i równie powolne, Simon odważył się marzyć o maszynach, które mogłyby myśleć podobnie jak ludzie.

Wraz z Newellem i programistą Cliffem Shawem stworzył program komputerowy o nazwie Logic Theorist – pierwszy na świecie wykorzystujący sztuczną inteligencję do rozwiązywania problemów na poziomie człowieka, ale w bardzo wąskiej dziedzinie. Bertrand Russell, jeden z ojców współczesnej logiki formalnej, był pod wrażeniem elegancji dowodów generowanych przez ten program.

Następny miał być „ogólny rozwiązywacz problemów” (General Problem Solver), będący modelem ludzkiego myś­lenia. Miał pokazać, jak ludzie planują i podejmują decyzje. Powstały w połowie lat 50. program okazał się klapą. Ogólne reguły upraszczania abstrakcyjnych zagadnień niezbyt pasowały do ludzkiej praktyki. Przez kolejne 20 lat Simon pracował nad łączeniem modeli komputerowych z ludzkim zachowaniem w wystarczająco dobry sposób. Największym wkładem naukowca w rozwój sztucznej inteligencji było połączenie jego teorii ograniczonej racjonalności z ideą uczenia maszynowego. Skoro ludzie nie są doskonałymi mechanizmami do podejmowania decyzji, dlaczego oczekujemy, że maszyny takie będą? Zamiast dążyć do powstania „idealnej” AI, Simon zaproponował tworzenie systemów, które podobnie jak ludzie mogą uczyć się na błędach i adaptować do nowych sytuacji. Ta koncepcja jest fundamentem nowoczesnego uczenia maszynowego. Dzisiejsze algorytmy AI, ćwiczone na wielkich zbiorach danych, są w pewnym sensie realizacją wizji Simona, chociaż w dużej mierze odbiegają od jego podstawowej zasady: mniej obliczeń, a więcej koncentracji na przedstawieniu problemu w sposób podlegający rozwiązaniom heurystycznym.

Ekonomiści w czasach przed Simonem wyobrażali sobie ludzi jako chodzące kalkulatory. Badacz wykazał, że zamiast planować każdy krok, raczej reagujemy na to, co spotykamy. Traderzy na Wall Stree­t­ zaczęli więc w swoich modelach rynkowych uwzględniać ludzkie ograniczenia. Co więcej, w latach 90. Simon ostro krytykował wiarę, że wolny rynek sam z siebie naprawi gospodarki w byłych krajach „demokracji ludowej” (a jej problemy znał dzięki swojemu nauczycielowi, polskiemu ekonomiście Oskarowi Langemu, który jako jeden z pierwszych negatywnie oceniał centralne planowanie). Zdaniem Simona kluczowe w skutecznych przekształceniach ustrojowych było działanie organizacji gospodarczych. Jednak chyba to w informatyce pozostawił po sobie największy ślad. Jego prace nad sztuczną inteligencją położyły podwaliny pod dzisiejsze systemy AI, których najmłodszym dzieckiem jest ChatGPT – chociaż może takim, którego naukowiec by nie lubił, bo zbyt oderwanym od modelowania procesów poznania.

Oczywiście Simon był też krytykowany. Optymistyczni zwolennicy AI spekulują, że ograniczenia poznawcze, o których mówił, w erze big data i zaawansowanych algorytmów mogą zostać przezwyciężone. Sceptycy z kolei twierdzą, że podejście Simona sprawdza się w przypadku dobrze postawionych problemów, takich jak gra w szachy, ale nie w obliczu pytań fundamentalnych, które są zbyt niejasne, by dało się je w prosty sposób sformalizować. Czy można łatwo sformalizować pytanie: „Jak żyć?”. Sam naukowiec przyznawał zresztą, że jego modele myślenia nie są modelami widzenia czy ruchu. W innych podejściach kognitywistycznych takie problemy – np. postrzegania szklanki lub jej chwytania – można formułować w postaci zrozumiałej dla komputera, natomiast jego modele opierały się na regułach – nie na równoległych sieciach neuronowych – a przez to gorzej nadawały się do opisu takich czynności.

Zrozumieć swój potencjał

Simon pokazał, że ograniczenia nie są naszą słabością. Wybieranie tego, co jest wystarczająco dobre, często przynosi lepszy rezultat niż pogoń za perfekcją. Od tej reguły są jednak wyjątki. Pokazały to dalsze badania nad automatycznym dowodzeniem twierdzeń matematycznych. Logic Theorist odszedł do lamusa. Heurystyki, szybkie i niedokładne, nie są potrzebne logikom do generowania twierdzeń przy użyciu komputera. Odkryto lepsze metody, równie szybkie, a przy okazji gwarantujące poprawny wynik.

Niemniej otoczenie kształtuje nasze decyzje bardziej, niż zdajemy sobie z tego sprawę. Podobnie jak mrówka na plaży reagujemy na to, co napotykamy na swojej drodze. Możemy starać się to zignorować, tak jak uczymy się nie zwracać uwagi na wszechobecne reklamy, ale nie zawsze się nam udaje. Nie bez powodu kasyna czy bary mają przyciemnione szyby. Chodzi o to, by uzależnieni – od alkoholu czy hazardu – tracili poczucie czasu. Jest jednak i druga strona medalu: złożone problemy nie zawsze wymagają skomplikowanych rozwiązań. Czasem proste reguły mogą prowadzić do niezwykle złożonych i adaptacyjnych zachowań.

Co ciekawe, dotyczy to też samego stawiania problemów. Często obraz jest wart tysiąca słów – na jego podstawie łatwiej nam zrozumieć, co się dzieje. Jak pokazywał Simon, warto eksperymentować z różnymi reprezentacjami problemów, np. na tablicy lub na papierze; nie zawsze najlepiej sprawdza się język. Nie bez powodu portrety pamięciowe się rysuje.

Simon pokazał nam, że zrozumienie ograniczeń jest kluczem do odkrycia naszego prawdziwego potencjału. Może więc – paradoksalnie – to właśnie ich akceptacja pozwoli nam je przekroczyć?

Czytaj również:

Roboty i ich psoty Roboty i ich psoty
i
Rycina z książki Josepha Racknitza z 1789 demaskującej sekrety działania maszyny do grania w szachy znanej jako „Turek”, Humboldt University Library, źródło: Wikimedia Commons
Wiedza i niewiedza

Roboty i ich psoty

Jessica Riskin

Dzieje maszyn naśladujących procesy inteligencji można liczyć nie w wiekach, ale tysiącleciach.

Jak długa jest historia robotyki i sztucznej inteligencji? Według wielu badaczy źródła tych dziedzin sięgają pierwszej połowy XX w. i należy ich szukać w pracach takich osób jak Alan Turing, który w latach 40. i 50. pisał o możliwości istnienia inteligentnych maszyn, czy Norbert Wiener, twórca cybernetyki, inżynier Instytutu Technologii w Massachusetts (MIT). Dyscypliny te mają jednak swoją prehistorię – tradycyjne maszyny naśladujące żywe, inteligentne procesy – sięgającą wieki wstecz, a w zależności od tego, jak liczyć, nawet tysiąclecia.

Czytaj dalej