Nasz wewnętrzny kompas moralny – Wielkie Pytania

Nasz wewnętrzny kompas moralny

Oburzenie, wstręt, poczucie winy, pogarda – te i podobne im emocje funkcjonują jak nasz wewnętrzny kompas, który pozwala nam szybko podejmować decyzje moralne. Nie oznacza to jednak, że wskazówka tego kompasu zawsze wskazuje (największe) dobro.

Kiedy podejmowane przez nas decyzje są słuszne? Kiedy postępujemy „dobrze”? Filozofowie spierają się od dawna o „właściwą” teorię moralności. Choć w dziedzinie tej istnieje cała gama stanowisk, wyniki współczesnych badań każą zwrócić szczególną uwagę na dwa z nich. Pierwszym jest utylitaryzm, którego przedstawiciele, tacy jako Jeremy Bentham czy John Stewart Mill, twierdzili, że czyny dobre to te, które prowadzą do maksymalizacji szczęścia i przyjemności, zaś złe to te, których konsekwencją jest wzrost cierpień i przykrości. Według utylitarystów działanie, które określić można jako moralne, poprzedzone musi być odpowiednimi kalkulacjami, które pozwolą na podjęcie słusznej decyzji. Konkurencyjne stanowisko głosi, że wyposażeni jesteśmy w swoisty moralny kompas, który pozwala nam podejmować słuszne decyzje bez potrzeby obliczania zysków i strat. Kompasem tym są emocje. Choć źródeł tej tradycji szukać można już w starożytności, wśród filozofów moralnych jej najwybitniejszymi przedstawicielami byli David Hume i Adam Smith. Pierwszy z nich jest autorem intrygującego zdania: „rozum jest i winien być tylko niewolnikiem uczuć”. Czy jest tak rzeczywiście?

Przyjrzyjmy się hipotetycznej historyjce, zaczerpniętej ze słynnego eseju o wymownym tytule: Emocjonalny pies i jego racjonalny ogon, autorstwa psychologa społecznego i badacza moralności Jonathana Haidta z New York University:

Julia i Marek są rodzeństwem, oboje studiują. Razem wyjechali na wakacje do Francji. Pewnej nocy zostają sami w domku na plaży. Po namyśle uznali, że mogliby spróbować uprawiać wspólnie seks. Zarówno dla Julii, jak i Marka byłoby to nowe doświadczenie. Dla pewności zastosowali podwójną antykoncepcję – Julia połknęła pigułkę, Marek założył prezerwatywę. Obojgu bardzo się to spodobało, ale postanowili, że nigdy więcej tego nie powtórzą, a ta noc stanie się ich wspólnych sekretem, który ostatecznie poprawił relacje między nimi, bardzo ich do siebie zbliżył.

Lektura tego passusu nieuchronnie prowadzi do pytania: czy Julia i Marek postąpili słusznie? Większość pytanych bez namysłu odpowie, że rodzeństwo dopuściło się nagannego czynu. Haidt zauważa, że ludzie są wyjątkowo zgodni w potępianiu kazirodztwa niezależnie od poglądów religijnych, wykształcenia, pochodzenia oraz wartości wychowawczych, którymi kierowali się ich rodzice. Okazuje się jednak, że trudno uzasadnić im swój „wyrok”. Trudno jest podać racjonalne argumenty, pozwalające potępić kazirodczy stosunek seksualny: nie można oprzeć się na tym, że Julia może zajść w ciążę, ponieważ rodzeństwo stosowało (podwójną) antykoncepcję; zdarzenie nie zniszczyło relacji pomiędzy rodzeństwem (wręcz przeciwnie), ani Julia ani Marek nie doznali uszczerbku psychicznego, na dodatek wiemy, że zdarzenie było jednorazowe.

Zdaniem Haidta tym, co prowadzi do negatywnej oceny, nie są racje rozumowe, ale oparty na emocjach „kompas moralny”. Historyjka ta wyzwala w nas bardzo silne „oburzenie”. Jest to emocja, którą przeżywamy dosłownie całym ciałem (czujemy ją w trzewiach, jak mawia neurobiolog Antonio Damasio), co prowadzi do automatycznego i szybkiego wydania osądu czy podjęcia działania. Emocje moralne, takie jak oburzenie, pogarda czy poczucie winy, nie są efektem wychowania czy też przynależności kulturowej, ale zostały „zaprogramowane” w trakcie długiej ewolucji Homo sapiens. Nie oznacza to jednak, że warunkowany emocjami osąd nie może zostać wzmocniony np. przez przekonania religijne, kalkulacje zysków i strat, czy wpojony w nas system wartości. Tego typu uzasadnienia są jednak tylko ogonem, którym merda emocjonalny pies – jakim w większości wypadków okazuje się być nasz mózg. Czy jednak musi być tak zawsze? Innymi słowy, czy naszym poczuciem moralności nieuchronnie sterują emocje?

W poszukiwaniu większego dobra

Czasem moralna ocena sytuacji czy też pojęcie decyzji są jednak znacznie trudniejsze niż po przeczytaniu historyjki o Marku i Julii. Od dawna filozofowie interesują się dylematami moralnymi, czyli sytuacjami, w których decydent doświadcza trudnego do przezwyciężenia konfliktu wartości. Ostatnio do filozofów dołączyli także psychologowie, neuronaukowcy i kognitywiści (najsłynniejszymi są Joshua Greene z Uniwersytetu Harvarda oraz Giuseppe Di Pellegrino z Uniwersytetu w Bolonii). Korzystając z nowoczesnych technik neuroobrazowania (np. fMRI, czyli funkcjonalnego rezonansu magnetycznego) próbują oni zidentyfikować struktury mózgu aktywne podczas „rozwiązywania” danego problemu społecznego czy moralnego. Problemy przedstawiane są zazwyczaj w formie dylematów, w których osoba badana ma odpowiedzieć po prostu TAK lub NIE. Do badań wykorzystuje się zarówno dylematy analizowane od dawna przez filozofów, zaczerpnięte z literatury pięknej, jak i historyjki opracowane specjalnie przez badaczy, które mają na celu eksperymentalne sprawdzeni pewnych hipotez.

Dylematy mogą przypominać położenie Antygony, tytułowej bohaterki tragedii Sofoklesa, która wbrew zakazowi Kreona, dokonuje pochówku Polinejkesa, uznanego przez władcę za winnego zdrady. Czy Antygona postąpiła słusznie przedkładając jedną wartość (więź rodzinną, sankcjonowaną na dodatek nakazami religijnymi) nad inną (rację stanu)? Dylematy moralne mogą przybierać również postać konfliktu toczącego się w ramach jednej, zazwyczaj doniosłej, wartości. Czy powinniśmy poświęcić życie jednej osoby by uratować życie kilku? Oto słynny, a może nawet najsłynniejszy, przykład:

Na jednym torze znajduje się jedna osoba, na sąsiednim – pięć. W oddali nadjeżdża pociąg. Osoby znajdujące się na torach nie widzą pociągu ani nie mogą zejść z torów. Jeżeli pociąg wpadnie na nich, wszyscy zginą (odpowiednio: jedna osoba lub pięć osób).

Dylemat ten rozważany jest zazwyczaj w dwóch, różniących się od siebie wersjach. Pierwsza z nich to dylemat wagonika (ang. Trolley Dillema):

Obserwujesz z bezpiecznej odległości pociąg oraz osoby znajdujące się na torach (powiedzmy robotników). Nie możesz zatrzymać pociągu ani ostrzec osób na torach. Możesz za to użyć dźwigni, w wyniku czego pociąg wjedzie na drugi tor. Jeśli tego nie zrobisz, pociąg uderzy w grupę pięciu osób (zabijając wszystkie). Jeśli pociągniesz za dźwignię, pociąg rozjedzie jedną osobę, znajdującą się na sąsiednim torze. Na co się decydujesz?

Z kolei druga wersja, nazywana dylematem kładki (ang. Footbridge Dillemma) jest następująca:

Znajdujesz się na mostku nad torami. Nie jesteś tam sam – nieopodal znajduje się nieznany Ci, przypadkowy przechodzień postawnej postury. Nadjeżdżający pociąg za moment rozjedzie pięć osób. Możesz je uratować wyłącznie w jeden sposób: zrzucając z mostku postawnego przechodnia. Nadjeżdżający pociąg nieuchronnie go uśmierci, ale wyhamuje na jego ciele i nie rozjedzie stojącej dalej piątki. Co robisz?

Choć skutki decyzji w obydwu sytuacjach są identyczne (ginie albo jedna osoba albo pięć), w dylemacie wagonika większość ludzi opowiada się za użyciem dźwigni, dzięki czemu pociąg uśmierca jedną osobę zamiast pięciu. Z kolei w dylemacie mostka zdecydowana mniejszość osób decyduje się na zepchnięcie postawnego przechodnia, by uratować pięć innych osób. Dodajmy, że na tendencje te nie wpływa znacząco ani wykształcenie, ani religijność, ani pochodzenie badanych osób. Skąd biorą się więc takie rozbieżności?

Najbardziej przekonujące – i niemal powszechnie akceptowane przez uczonych – wyjaśnienie tej zagadki głosi, że dylematy wagonika i mostka różnią się przede wszystkim pod względem rodzaju zaangażowania decydenta. Pierwszy z nich nie wymaga zaangażowania osobistego, podczas gdy drugi już tak. Czym innym jest bowiem pociągnięcie dźwigni, w celu skierowania wagonika na inny tor, a czym innym jest własnoręczne wepchnięcie kogoś pod koła rozpędzonej lokomotywy. Brak osobistego zaangażowania sprzyja utylitarnym, „zimnym kalkulacjom”. Właśnie dlatego w dylemacie wagonika większość ludzi okazuje się uczniami Milla i Benthama. Z kolei wyobrażenie sobie własnoręcznego zepchnięcia człowieka pod pociąg (w dylemacie kładki) wywołuje emocje moralne, które przytłumiają kalkulację zysków i strat. Rozum faktycznie okazuje się wówczas niewolnikiem uczuć, jak pisał Hume.

Neuroobrazowanie moralności

Co ciekawe, wyjaśnienie to zyskało w ostatnich latach poważną podbudowę empiryczną. Wspomniane już badania neuroobrazowania wskazują na aktywność dwóch struktur przedczołowych w sytuacji rozwiązywania dylematów moralnych: grzbietowo-bocznej kory przedczołowej (dorso-lateral prefrontal cortex, w skrócie: dlPFC) oraz brzuszno-przyśrodkowej kory przedczołowej (ventro-medial prefrontal cortex, vmPFC). Pierwsza z tych struktur kojarzona jest zazwyczaj z racjonalnym działaniem, procesami pamięciowymi oraz obliczaniem korzyści. W badaniach przeprowadzonych m.in. przez Greene’a obserwowano aktywację dlPFC, gdy badana osoba miała rozstrzygnąć dylemat wymagający mniejszego zaangażowania osobistego (przestawienie zwrotnicy). Z kolei wzmożona aktywność vmPFC, o której wiadomo, że jest jedną ze struktur mózgowych odpowiedzialnych za emocje, zarejestrowana została w dylematach o dużym zaangażowaniu osobistym (własnoręczne zepchnięcie pod koła pędzącego pociągu).

Wiemy już, że „serce” i „rozum” (afekt i poznanie) wchodzą ze sobą w rozmaite interakcje podczas rozwiązywania dylematów moralnych. Świadczy o tym jeszcze jeden ciekawy eksperyment przeprowadzony przez Daniela Kahnemana i Amosa Tversky’ego. Uczeni przedstawili członkom dwóch badanych grup następującą sytuację: „Wyobraź sobie, że twój kraj przygotowuje się na wybuch epidemii, która może zabić 600 osób. Masz do wyboru dwa plany”. Pierwszej grupie przedstawiono takie ewentualności: „Jeśli wcielony w życie zostanie plan (A), to uda się uratować 200 osób. Jeśli wcielony w życie zostanie plan (B), prawdopodobieństwo, że wszystkie 600 osób zostanie uratowanych wynosi 1/3, natomiast prawdopodobieństwa, że nie uda się uratować nikogo wynosi 2/3. Który wybierzesz plan?”. Druga grupa otrzymała natomiast informacje, że: „Jeśli wcielony w życie zostanie plan (C), to umrze 400 osób. W przypadku realizacji planu (D), prawdopodobieństwo, że przeżyją wszyscy z 600 osób wynosi 1/3, natomiast prawdopodobieństwo, że zginą wszyscy, wynosi 2/3”.

Jeśli chodzi o pierwszą grupę badanych, aż 72% wybrało plan (A), z kolei w drugiej grupie tylko 22% badanych wybrało plan (C). Łatwo zauważyć, że skutki wyborów planów (A) i (C) są identyczne (przeżyje 200 osób, zginie 400), zresztą tak samo jak identyczne są skutki planów (B) i (D). Jedyna różnica  polega na sposobie przedstawienia informacji: w planach (A) i (B), akcentowane jest to, ile osób uda się na pewno uratować (wybieramy więc „pewniaka”), natomiast w planach (C) i (D) akcent pada na liczbę ofiar (wolimy więc „zaryzykować”). Eksperyment Kahnemana i Tversky’ego wskazuje na bardzo ciekawą kwestię: nasza skłonność do kalkulacji lub kierowania się emocjami zależna jest w dużej mierze od sposobu w jaki dany problem decyzyjny został ujęty. Zjawisko to nazwane zostało „efektem obramowania”.

Przy okazji warto wspomnieć, że efekt obramowania prowadzi do poważnego kłopotu przed którym stoją neuronaukowcy: nigdy nie wiadomo czy znajdująca się wewnątrz skanera osoba, która ma rozwiązać dylemat kolejki lub mostka, w rzeczywistości zachowałaby się zgodnie z udzieloną odpowiedzią. Sam sposób sformułowania problemu może determinować odpowiedź udzieloną podczas eksperymentu. Co więcej, rzeczywistość jest zwykle znacznie bardziej skomplikowana – na naszą decyzję wpływają przeróżne okoliczności, których nie sposób przewidzieć projektując eksperyment. Stąd też trafny wydaje się apel Patricii Churchland z Uniwersytetu Kalifornijskiego w San Diego o zjednoczenie sił filozofów, psychologów i badaczy mózgu w staraniach o coraz większą trafność ekologiczną eksperymentalnych badań nad moralnością. Być może lepszym rozwiązaniem pytanie badanych, czy oddaliby znaleziony portfel, a nie czy zrzuciliby przechodnia z mostu.

Dwa systemy

Na koniec zastanówmy się, czy mechanizmy kierujące rozstrzyganiem dylematów moralnych są specyficzne na tle innych procesów umysłowych. Jak już pisaliśmy, rozwiązywaniu dylematów wymagających zaangażowania osobistego towarzyszy aktywność innych struktur mózgowych niż w przypadku dylematów, które takiego zaangażowania nie wymagają. Te pierwsze (np. dylemat wagonika) rozwiązywane są na drodze kalkulacji i zazwyczaj wymagają dłuższego zastanowienia, zaś drugie angażują nasze emocje moralne. Niemal natychmiast wiemy, że zepchnięcie kogoś z kładki pod koła pociągu jest niedopuszczalne, nawet jeśli stawką jest uratowanie kilku istnień. Innymi słowy: czasem okazujemy się utylitarystami, a czasem polegamy na „moralnym kompasie”.

O sytuacjach tych pomyśleć można w szerszej perspektywie. W swojej błyskotliwej i pouczającej książce Pułapki myślenia Daniel Kahneman przekonuje, że nasz umysł jest „zaprogramowany” na pracę w dwóch trybach: szybkim i wolnym. Warunkowane są one działaniem dwóch systemów, które autor określa po prostu jako System 1 i System 2. Pierwszy z nich działa szybko, z przybliżoną dokładnością (czego skutkiem są liczne błędy poznawczej, jakim ulegamy na co dzień) i nieświadomie. Drugi z kolei działa wolno, precyzyjnie i świadomie. Pierwszy z systemów ma jeszcze jedną ważną cechę: działa domyślnie. Z takim „domyślnym” działaniem mamy do czynienia, rozstrzygając dylematy wymagające dużego zaangażowania osobistego. Czy jednak, gdybyśmy znaleźli się rzeczywiście w takiej sytuacji postąpilibyśmy „zgodnie z tym jak nas zaprogramowano”? Nie wiadomo. Kahneman przekonuje nas, że System 2 może czasem zapanować nad Systemem 1. Skoro pięć razy pod rząd wypadła reszka, wydaje się, że za szóstym razem „musi” wreszcie wypaść orzeł. Tak podpowiada nam „zdrowy rozsądek”, czyli System 1. Do akcji wkroczyć może jednak System 2: możemy wziąć pod uwagę matematyczną wiedzę na temat prawdopodobieństwa dla niezależnych od siebie zdarzeń. Wówczas zdamy sobie sprawę, że prawdopodobieństwo wypadnięcia reszki za szóstym razem jest takie samo, jak prawdopodobieństwo wylosowania orła. Pomimo badań neuronaukowych, nie wiadomo do końca, który z tych dwóch systemów dojdzie do głosu w konkretnej sytuacji społecznej i moralnej.

Przywołane przez nas badania nie sugerują bowiem, jak powinniśmy się zachowywać w danej sytuacji ani nie pozwalają ostatecznie przewidzieć, jak się w niej zachowamy. Wyjaśniają za to jak wygląda mechanizm podejmowania decyzji moralnej, czyli odpowiadają na pytanie, dlaczego dylematy etyczne są prawdziwymi dylematami. Neuronaukowcy nie wyręczają etyków w opracowywaniu kodeksów moralnych – jedynie im pomagają, wyjaśniając ludzką naturę.

Mateusz Hohol

Skip to content