Więcej niż metafora – Wielkie Pytania

Więcej niż metafora

Choć niektórzy będą się zżymać, nie da się ukryć, że ludzki mózg przypomina komputer. Służy bowiem do przetwarzania informacji.

Układ nerwowy można badać w różnych celach, nie tylko po to, aby się dowiedzieć, jak przebiegają procesy poznawcze, czy szerzej – psychiczne. Wynajęty przez spiskowców toksykolog może się interesować np., w jaki sposób najszybciej otruć Jamesa Bonda i zatrzymać pracę jego mózgu (inaczej Bond odpali specjalny gadżet, który…). Chociaż knucie spisków, by panować nad światem, jest ciekawsze i zapewne bardziej opłacalne, skupię się tutaj na wyjaśnianiu procesów psychicznych.
Od początku drugiej połowy XX wieku wykorzystuje się w tym celu modele obliczeniowe, czyli stosuje komputerowe symulacje. Typowe uzasadnienie tej praktyki badawczej jest proste: symulacje komputerowe pozwalają trafnie przewidywać i wyjaśniać procesy poznawcze, ponieważ mózg w rzeczywistości jest komputerem. Precyzyjniej należałoby to powiedzieć nieco inaczej: układ nerwowy służy do przetwarzania informacji. Pogląd ten nazywa się komputacjonizmem.
Komputacjonizm cały czas budzi gorące, niemal ideologiczne spory. Wiele z nich odżywa też w kontekście sztucznej inteligencji. Wskazuje się często, że mózg jest układem biologicznym, że nie przypomina typowego komputera z ładowanymi do pamięci programami, że zdrowego rozsądku nie udało się sztucznej inteligencji przechytrzyć… Filozoficzni straceńcy – i to nie byle kto, bo np. bardzo znany filozof amerykański John Searle – posuwają się do tezy, że komputery wręcz nie istnieją, bo przecież to, czy coś jest komputerem, jest jedynie kwestią dość swobodnej interpretacji rzeczywistości.
Podobnie twierdził, a nawet dowodził matematycznie Hilary Putnam, inny wybitny i zmarły w ubiegłym roku filozof. A sceptyk taki jak Saul Kripke doda: nie można być pewnym, czy komputery naprawdę są komputerami, czyli na pewno wykonują to, co zamierzył programista.
Nazywam tych filozofów „straceńcami”, bo przecież na pewno nie traktują poważnie takich poglądów. Searle zapewne nie pisze swoich tekstów, wpatrując się w ścianę w swoim gabinecie – chociaż twierdził, że można ją opisać poprawnie jako komputer wykonujący edytor tekstów WordStar. Kripke przypuszczalnie odrzuca wątpliwości, czy telefon komórkowy na pewno różni się od książki, która źle wykonuje oprogramowanie Android, kiedy próbuje przy jej pomocy zadzwonić. Wbrew pozorom te straceńcze argumenty trudno zbić, ale tutaj, zamiast się z nimi mierzyć, pokrótce zrekonstruuję powody, dla których komputacjonizm pozostaje i pozostanie bezkonkurencyjny w badaniach nad działaniem umysłu.
Cóż to jest poznanie?
Trudno powiedzieć, na czym polega specyficzny charakter procesów poznawczych – na przykład w odróżnieniu od procesów emocjonalnych czy regulacji temperatury ciała, za które również odpowiada mózg. Można by powiedzieć, że aby poznawać cokolwiek, trzeba myśleć. Myśli zaś muszą mieć jakąś treść. Jednak wtedy docieramy do trudnego pojęcia – treści – którego niektórzy badacze procesów poznawczych kijem nawet ruszać nie chcą. Co robić? Obniżmy wymagania. Jeśli nie chcą oni mówić o treści, to raczej nie zaprzeczą, że procesy poznawcze muszą polegać na odbiorze i przetwarzaniu informacji. Co prawda pojęcie informacji też jest trudne, ale rodzi mniej kontrowersji wśród kognitywistów czy filozofów umysłu.
O informacji w najprostszym, strukturalnym sensie można mówić wtedy, kiedy coś, a mianowicie nośnik informacji, może się zmienić – być co najmniej w dwóch stanach. Te zmiany muszą być rejestrowane przez inny układ – tylko wtedy czynią istotną różnicę. Jeśli są rejestrowane (przez jakiegokolwiek odbiorcę), to stany nośnika mogą nieść informacje. To minimalne pojęcie informacji: nie możemy jeszcze powiedzieć, o czym taka informacja jest i czy jest prawdziwa – ale informacje prawdziwe i o czymś są także strukturalne. Informacja strukturalna jest więc najmniejszym wspólnym mianownikiem wszystkich bardziej skomplikowanych ujęć informacji.
Połączmy więc obie kwestie: systemy poznawcze muszą tak oddziaływać ze swym otoczeniem, by odbierać zeń informacje, jeśli mają to otoczenie poznać. Jeśli zaś mają poznać swoje własne stany, to także muszą odebrać informacje, np. o położeniu głowy ze zmysłu równowagi. Te stany zaś nie wywołują od razu zmian w zachowaniu czy we wnioskowaniu: ilekroć patrzę na mój niewygodny fotel, nie mam tych samych wniosków („Pora kupić coś wygodnego!”). Raz myślę, żeby się nie potknąć, a innym razem, gdzie odłożyć na chwilę książkę. Aby coś takiego mogło się dziać, informacje muszą być przetwarzane, a więc w sposób regularny wywoływać zmiany w innych nośnikach informacji. Wtedy można mówić o przetwarzaniu informacji.
Od maszyny matematycznej do komputera
Pojęcie „komputer” w języku polskim zadomowiło się stosunkowo późno, zaczęto go używać wraz z upowszechnieniem się domowych komputerów w latach 80. XX wieku. Wcześniej mówiono o maszynach matematycznych, których jednak nie należy mylić z matematycznymi modelami działania komputerów (urządzeń).
Komputer jest więc urządzeniem – układem o swoistej organizacji, który realizuje obliczenia. Ma części, które oddziałują ze sobą – np. nośniki pamięci stałej. Powiemy, że komputer realizuje pewien model obliczeń tylko wtedy, kiedy jego działanie – a więc wszystko to, co można uzyskać z niego, obsługując go – poprawnie można przewidzieć i wyjaśnić w kategoriach tego modelu.
Wyobraźmy sobie, że Faust dostaje do analizy komputer Mefistofeles 2.0, którego funkcją jest, jak głosi instrukcja, „zawsze przeczyć”. Faust stawia hipotezę, którą opisuje jako pewien formalny model obliczeń, że po wprowadzeniu napisu „TAK” Mefistofeles wypluje napis „NIE”. Ba, nawet po wprowadzeniu napisu „NIE”, Mefistofeles cały czas odpowiada „NIE”. A to znaczy, że przewidywania modelu się sprawdzają. Ważne jest, żeby Mefistofeles 2.0 był urządzeniem, które ma funkcję realizacji takich obliczeń – tzn. nadano mu właśnie taką strukturę, aby obliczał to, a nie co innego. Wynik obliczeń powinien również być wykorzystywany do sterowania jakiegoś innego urządzenia (przez co będziemy rozumieć także wykorzystanie go przez użytkownika, na którego ten wynik jakoś wpłynie poznawczo).
Mamy też matematyczną teorię obliczeń, której fundament stanowią badania genialnego matematyka Alana Turinga (1912–1954). Opisany przez niego matematyczny model maszyny – zwany później na jego cześć „maszyną Turinga” – to formalizacja intuicyjnie stosowanego przez matematyków od wieków pojęcia „algorytm”. „Algorytm” rozumie się więc ściśle jako zapis operacji, które może zrealizować maszyna Turinga, posługująca się bardzo ograniczonym repertuarem operacji elementarnych. Odpowiadają one temu, co zupełnie mechanicznie zrobiłby rachmistrz posługujący się jedynie potencjalnie nieograniczoną ilością papieru, ołówkiem i gumką: zapisywałby symbol, zmazywał go, przesuwał się w lewo lub w prawo na kartce (czy taśmie). Turing pokazał, że może istnieć także maszyna uniwersalna: taka, która potrafi wykonać dowolne obliczenie dostępne dla wszystkich innych maszyn Turinga (z których każda realizuje jedynie zestaw z góry określonych operacji). I twierdził, że taka maszyna obliczy wszystko, co daje się efektywnie obliczyć – chociaż są i tacy, którzy twierdzą, że fizycznie możliwe są obliczenia funkcji nieobliczalnych przez maszynę Turinga. Są one zwane „funkcjami hiperobliczeniowymi”.
Wylano sporo atramentu na opisanie wszystkich warunków, które muszą spełnić fizyczne układy, aby zasługiwały na miano „komputer”, ale my możemy pozostać na dość ogólnym poziomie. Ważne jest więc, by fizyczny układ miał funkcję obliczania i właściwą strukturę. Ma zatem być mechanizmem służącym do obliczania zgodnie z jakimś matematycznym modelem obliczeń, a jego działania nie można prościej i bardziej elegancko wyjaśnić. I tak wiadro z wodą nie jest komputerem, gdyż poziom wody nie stanowi oczekiwanego wyniku, o ile użytkownik wiadra nie stosuje go do wykonywania obliczeń. Skąd to zastrzeżenie? Komputer może być hydrauliczny – w połowie XX wieku istniał chociażby model gospodarki keynesowskiej, zrealizowany jako skomplikowany wodny komputer MONIAC, a są też (nieco żartobliwe) prace teoretyczne pokazujące możliwość wykorzystania wiader z wodą do obliczania funkcji logicznych wspomagających rozpoznawanie wzorców przez sieci neuropodobne. Podobnie zwykły kamień polny nie jest komputerem, bo gdy leży na łące, nie wylicza żadnej prostej funkcji stałej (np. to, że leży na lewo od jabłonki, nie oznacza, że daje wynik „12”). To da się prościej wyjaśnić. Grawitacją.
Mózgi biologiczne i elektronowe
Skoro wiemy już w przybliżeniu, co to znaczy, że urządzenie fizyczne jest komputerem, przejdźmy do mózgów. Już u zarania drugiej połowy XX wieku zaczęto określać maszyny matematyczne mianem „mózgów elektronowych”. Wskazywano, że komputery rozwiązują problemy, których istoty nie da się z góry określić. Tak jak uniwersalna maszyna Turinga. Co więcej, możliwości maszyny biorą się z dużej ilości elementarnych operacji – tak jak możliwości mózgu biorą się z oddziaływań dużej ilości stosunkowo prostych neuronów. A jednocześnie wskazywano, że maszyny mogą posługiwać się opisami innych maszyn, przetwarzać symbole czy też informacje.
Mówiąc krótko, argumentacja ta odwołuje się do kilku cech mózgów: elastyczności czy też uniwersalności; złożoności, wynikającej z interakcji neuronów; oraz do przetwarzania informacji. Nawet jeśli komputery mają te cechy, to nie wystarczą one do ustalenia, czy mózg jest komputerem. Pominięto bowiem to, czy rzeczywiście mózg ma strukturę wewnętrzną odpowiadającą określonemu modelowi obliczeń i czy ta struktura została wyselekcjonowana – chociażby przez dobór naturalny – do realizacji zadań z zakresu przetwarzania informacji.
Dlaczego mózg miałby do tego służyć? Dlatego, że procesy poznawcze, w przeciwieństwie do procesów metabolicznych, nie polegają po prostu na dostarczaniu organizmowi energii. Przewidywanie przyszłych stanów otoczenia jest kluczowe dla przeżycia wszelkich organizmów, które mogą jakoś do tych przyszłych stanów się przygotować. Nie możemy wyjaśnić przygotowania się organizmów do stanów przyszłych – jeśli są zupełnie nowe – inaczej niż przez odwołanie do informacji mówiących o otoczeniu (zob. „Wszyscy jesteśmy jasnowidzami”, „TP” nr 46/2016).
To wskazuje nam, że informacyjne działanie mózgu może być istotnie biologiczną adaptacją, a więc zapewnia organizmowi lepsze przystosowanie do otoczenia i na przykład umożliwia zwierzętom lepsze planowanie ruchu. Dlatego często im lepsze planowanie ruchu, tym większy mózg. (Porównajmy mózg słonia z układem przetwarzania informacji u ruchomej rośliny, np. rosiczki).
Symulacje i spekulacje
Hipotezy o obliczeniowym charakterze mózgu inspirowały wiele spekulacji, których nie sposób było potwierdzić bezpośrednio metodami eksperymentalnymi. Jednak można było tworzyć symulacje komputerowe, dostarczające danych tak dokładnych, że nie dałoby się ich uzyskać z badań nad biologicznymi mózgami. I chociaż pierwsze obliczeniowe modele mózgu – a zaproponowali je pionierzy cybernetyki, Warren McCulloch i Walter Pitts, w 1943 r. – wydawać się mogą dzisiaj jedynie ciekawostką, to z czasem powstały coraz dokładniejsze modele działania zarówno pojedynczych neuronów, jak i całych ich zespołów.
I tak z jednej strony mamy coraz dokładniejsze badania elektrofizjologiczne nad mózgami zwierząt i ludzi. W laboratoriach hoduje się też kultury komórek nerwowych, badając ich działanie jako sieci neuronowych (służą one więc bezpośrednio jako komputery). Wyników eksperymentalnych jest coraz więcej – a do spektakularnych należą chociażby uhonorowane w 2014 r. Nagrodą Nobla odkrycia map poznawczych w mózgu szczura (John O’Keefe oraz May-Britt Moser i Edvard Moser). Mapy poznawcze są symulowane obliczeniowo, a jednocześnie rezultaty tych symulacji porównywane są z wynikami eksperymentalnych badań na zwierzętach. Rozpędu nabierają też badania anatomiczne – coraz dalej idą próby prześledzenia przebiegu całej sieci nerwowej u różnych organizmów (tzw. konektomu, mapy wszystkich połączeń neuronalnych). Znamy już konektom nicienia C. elegans, a także fragmenty konektomu muszki owocowej czy siatkówki i pierwszorzędowej kory wzrokowej u myszy.
Z drugiej strony, coraz dokładniejsze są same modele obliczeniowe – zarówno pojedynczych neuronów, jak i całego mózgu. Istnieją bardzo dokładne modele opisujące elektrofizjologiczne cechy pojedynczych neuronów, dzięki którym bada się np. pochodzenie fal mózgowych, które zarejestrować można elektroencefalografem. Istnieją też symulacje poznawcze, które w przybliżeniu opisują działanie całego mózgu. Największą i najbardziej udaną taką symulacją jest obecnie SPAUN – model mózgu opracowany w laboratorium kanadyjskiego profesora neuronauki i filozofa Chrisa Eliasmitha. SPAUN jest w stanie realizować wiele różnych zadań poznawczych, m.in. rozwiązywać testy na inteligencję, rozpoznawać pismo odręczne i uczyć się przez warunkowanie.
I właśnie dzięki temu, że w badaniach uwzględnia się zarówno modele komputerowe, jak i wyniki empiryczne, wczesne spekulacje cybernetyczne przedzierzgnęły się w systematyczne badania neuronauki obliczeniowej. Komputacjonizm jest nadal niesłychanie płodną hipotezą roboczą, a obalić go można tylko w jeden sposób: pokazując, że mózg w ogóle nie służy do przetwarzania informacji, w tym informacji o otoczeniu.
To jednak zadanie tylko dla straceńców. ©

MARCIN MIŁKOWSKI jest doktorem habilitowanym, profesorem nadzwyczajnym w Instytucie Filozofii i Socjologii PAN, autorem wielu publikacji naukowych, w tym książki „Explaining the Computational Mind” (MIT Press 2013), zajmuje się kognitywistyką i jej filozofią.

Skip to content