Jesteśmy skomplikowani. Rozmowa z prof. Michałem Kosińskim – Wielkie Pytania

Jesteśmy skomplikowani. Rozmowa z prof. Michałem Kosińskim

Możemy już mówić o zjawiskach psychicznych u sztucznej inteligencji. Algorytmy mają uprzedzenia i stereotypy albo zachowania, które w przypadku człowieka nazwalibyśmy emocjami. Bywają też gadatliwe.

ŁUKASZ KWIATEK: Zaskoczyło mnie, że udostępnia Pan publicznie swój kalendarz. Nie wierzy Pan w moc algorytmów, które nas śledzą w internecie, czy już się Pan poddał?
MICHAŁ KOSIŃSKI: Algorytmy, które śledzą nasze zachowanie, najczęściej ułatwiają nam życie. I nie ma od nich odwrotu. Trudno wyobrazić sobie, żebyśmy przestali korzystać z map Google’a czy wyszukiwarek i systemów rekomendacyjnych w internecie. A wszystkie te technologie opierają się na naszych danych i bez nich nie mogą funkcjonować.

Ale kalendarz? Dostaje Pan reklamy restauracji w porze obiadowej albo maile z pobliskiej kawiarni po zakończeniu wykładu?
Oczywiście. Dostaję też reklamy, które świetnie odpowiadają temu, czym jestem aktualnie zainteresowany. Nie ma co się dziwić – to są komercyjne technologie i są wykorzystywane po to, żeby na nas zarobić. Zajmuję się badaniem tych technologii po to, by zrozumieć i opisać wynikające z nich zagrożenia. Ale nie mam wątpliwości, że w 99 proc. przypadków one ułatwiają i przedłużają nam życie. Ten sam algorytm, który może wyczuć, czym jesteśmy w danej chwili zainteresowani, i zaserwować nam reklamę, która nam najskuteczniej opróżni portfel, może być wykorzystany do tego, by pomóc nam zdiagnozować chorobę czy znaleźć optymalną dla nas pracę.

Wyglądam według Pana bardziej na liberała czy konserwatystę?
Człowiekowi to nie tak łatwo ocenić, jednak algorytmy do rozpoznawania twarzy radzą sobie z takim zadaniem. Potrafią nas nie tylko zidentyfikować na wielu różnych zdjęciach, zrobionych na przestrzeni lat, przy różnej pogodzie i z różnych kątów. Są też w stanie, niestety, określić nasze bardzo intymne cechy – takie jak poglądy polityczne czy orientację seksualną.

Jakim cudem?
Często nie będziemy rozumieli, jak algorytmy osiągają swoje cele – bo robią to zwykle w sposób, który dla nas nie jest intuicyjny albo jest na tyle zaawansowany, że może być niezrozumiały. Dobry przykład to algorytm szachowy. Nie tylko nie jesteśmy w stanie z nim wygrać, ale nawet nie jesteśmy w stanie wszystkich strategii tego algorytmu zrozumieć. Podobnie nie jesteśmy w stanie zrozumieć, jak działają nowoczesne algorytmy generujące język czy właśnie rozpoznające twarze.

Tylko że w szachach to problem czysto obliczeniowy. Mamy skomplikowaną pozycję, którą algorytm potrafi ocenić głębiej, umie przeprowadzić bardziej kompleksowe analizy najlepszych posunięć. Z wyczytywaniem poglądów politycznych czy orientacji seksualnej z cech twarzy sytuacja jest przecież inna.
Absolutnie nie – to też skomplikowana sytuacja obliczeniowa. Zachowanie człowieka nie bierze się z magii czy jakiegoś małego homunkulusa, który siedzi w tyle głowy i pociąga za sznurki. Nasze zachowanie, nasze poglądy czy preferencje, nasza osobowość, nasze wartości oparte są na chemii, „elektryce” i fizyce zwojów neuronowych, które mamy w głowach. Ludzie to bardzo skomplikowane, ale jednak maszyny, więc nasze zachowanie jest w dużej mierze przewidywalne. Jeśli komuś się to wydaje science fiction, to proszę pamiętać, że praca psychologa polega na tym, by zanalizować przeszłe zachowanie człowieka i postarać się przewidzieć przyszłe – tak jak w przypadku systemu rekomendacji Netfliksa czy Amazona. Czy dana osoba będzie miała problemy z depresją? Czy sprawdzi się na danym stanowisku? Jaki film będzie chciała obejrzeć? To wszystko są zadania predykcyjne. Okazuje się, że dzisiaj algorytmy komputerowe, tak samo jak w szachach, potrafią przeskoczyć poziom osiągalny dla psychologa.

Nie znamy szczegółów działania tego algorytmu oceniającego twarze, ale wiemy, że to działanie opiera się na intuicyjnej zasadzie. Jeżeli weźmiemy twarz jakiegoś człowieka i porównamy ją z twarzami liberałów i konserwatystów, to okazuje się, że liberałowie są troszkę bardziej podobni do innych liberałów, a konserwatyści – do innych konserwatystów. To bardzo małe różnice – ale nowoczesne algorytmy są wspaniałe w wykrywaniu małych różnic. I są w stanie dzięki temu z dokładnością do 70-80 proc. zakwalifikować poglądy polityczne człowieka tylko na podstawie zdjęcia jego twarzy.

Opisał Pan ten wynik dwa lata temu w „Scientific Reports”. Dalej nie mieści mi się to w głowie. W przeprowadzonym przez Pana badaniu algorytm korzystał wyłącznie ze zdjęć twarzy? Nie zerkał przypadkiem na to, że ktoś pozuje z amerykańską flagą, z bronią albo z partnerem tej samej płci?
Zdarzało się, że ktoś źle wytrenował algorytm i pomylił się w ocenie tego, co faktycznie robi – ponieważ dane treningowe były błędnie dobrane. Jeśli damy algorytmowi np. zdjęcia smutnych, poważnych ludzi z policyjnych archiwów oraz uśmiechnięte selfie z mediów społecznościowych, a potem każemy mu zakwalifikować osoby na zdjęciach jako przestępców lub porządnych obywateli, to algorytm nauczy się odróżniać pomiędzy tymi rodzajami zdjęć i nieuśmiechających się ludzi uzna za przestępców. Ale nie znaczy to, że jeśli dobrze sformułujemy zadanie, to ten algorytm by sobie z nim nie poradził. Jeśli na zdjęciu jest informacja o tendencjach, preferencjach czy wartościach danej osoby – że nawet człowiek mógłby z niewielką dokładnością to zadanie wykonać – algorytm też sobie z nim poradzi, bo po prostu ma nad nami dużą przewagę.

Ludzie są w stanie ocenić, czy ktoś jest konserwatystą, czy liberałem, choć robimy to z dokładnością niewiele większą niż 50 proc., czyli taką, którą byśmy mieli przy ocenie losowej. Ale ten wynik pojawia się konsekwentnie w wielu badaniach. Nawet jeśli dokładność w ocenach ludzi jest niska, to potwierdza, że na zdjęciu jakiś sygnał musi być zawarty.

Mnie się to nie wydaje kontrowersyjne. Wiadomo, że konserwatyści mają inne podejście do mody. Inaczej spędzają wolny czas – słońce czy mróz będą inaczej wpływały na ich skórę. Liberałowie i konserwatyści mają też trochę inną kulturę, inne podejście do tego, czy na zdjęciu warto się uśmiechać, jak trzymać głowę, czy się ogolić, jak dużo makijażu nałożyć na twarz… Wszystkie te czynniki będą, choć w małym stopniu, różnicować liberałów i konserwatystów. Dla człowieka takie niewielkie sygnały mogą być niewidoczne – ale nie dla algorytmu.

Jak Pańskie badania postrzegają klasyczni psychologowie? Czy nie patrzą podejrzliwie na każdego, kto twierdzi, że jest psychologiem, ale nie stosuje kwestionariuszy i nie mierzy czasów reakcji na różne bodźce?
Ale ja jestem bardzo klasycznym psychologiem. Mam z psychologii doktorat, magisterium z psychometrii, drugie z psychologii osobowości. Spędziłem dużą część mojej kariery z kwestionariuszami i zegarkiem w ręku. Są to wspaniałe narzędzia, z których warto korzystać – i do dzisiaj to robię. Jednak to, że są inne źródła sygnału, które można wykorzystać, aby dowiedzieć się czegoś o człowieku, nie jest wcale wielką kontrowersją. Psychologowie zaczęli w ten sposób, że obserwowali zachowanie ludzi w naturalnym środowisku, często chodząc za obiektami badawczymi z małym notatnikiem i długopisem. Ale proszę sobie wyobrazić spędzenie dnia czy dwóch z gościem w białym kitlu, który za panem ­siedzi i zapisuje wszystko, co pan robi. Nasze zachowanie nie będzie wtedy w pełni naturalne. Poza tym takie metody są drogie.

Dzisiejsza technologia spowodowała, że jesteśmy otoczeni czujnikami, które zapisują nasz każdy krok, naszą komunikację z innymi, o której idziemy do łóżka i z kim do tego łóżka idziemy, nasze zachowania w pracy… To jasne, że taki zbiór danych może być wykorzystany do lepszego zrozumienia danej osoby.

Czyli nie ma konfliktu między naukowcami od algorytmów i big data a klasycznymi badaczami?
Różnice w nauce oczywiście są – i dobrze. To wtedy, gdy w nauce nie ma konfliktów czy różnic zdań, należy się zastanawiać, czy nie osiedliśmy na laurach, dlaczego nie kwestionujemy poglądów wypracowanych w poprzednich pokoleniach. Z wykorzystaniem śladów cyfrowych do przewidywania zachowania było podobnie jak z wieloma nowymi koncepcjami w dziejach nauki. Zaczyna się od odrzucania i pukania się w czoło, a wkrótce dochodzimy do powszechnego przekonania, że to było zupełnie oczywiste i każdy to wie. Kilka lat temu wykorzystanie w psychologii takich algorytmów jak te, o których rozmawialiśmy, było kontrowersyjne. Dzisiaj już nie jest.

Trzeba pamiętać, że różne metody badawcze mają zastosowanie w różnych kontekstach. Metody, które ja stosuję, też mają swoje ograniczenia i są problematyczne – w swoich pracach także o tym piszę. Ale tak właśnie działa nauka – w oparciu o wiele niedoskonałych metod, które wdrażane są przez wielu niedoskonałych naukowców, jesteśmy w stanie przyjmować wiele różnych perspektyw i jakoś tę wiedzę powoli rozwijać.

Ciekawi mnie, czy rozkwit metod związanych z algorytmami jest spowodowany kryzysem, który dotknął psychologię – zwłaszcza psychologię społeczną. Upadają całe teorie, wyników wielu badań opisywanych w podręcznikach nie udaje się potwierdzić w kolejnych eksperymentach.
Nie mówiłbym o kryzysie – to naturalny proces samooczyszczania się psychologii. To raczej na te dyscypliny naukowe, w których do podobnych zjawisk nie dochodzi, należy patrzeć podejrzliwie. Jest wielu wspaniałych naukowców – takich jak Daniel Kahneman – którzy, gdy okazało się, że są w błędzie, potrafili się do tego przyznać i nie robili dramatu ze zmiany poglądów. Są oczywiście i tacy uczeni, nie tylko w psychologii, którzy będą bronili słabych teorii. To problem całej nauki, która działa tak, że naukowcy nagradzani są za tworzenie nowych teorii. W efekcie mamy tych teorii zbyt wiele.

Myślałem więc, że będzie Pan bardziej złośliwy w stosunku do kolegów, którzy nie korzystają z algorytmów. Wykazał Pan niedawno dzięki sztucznej inteligencji, że osoby żyjące w długich związkach nie upodabniają się z twarzy do partnerów, w co wcześniej wierzyło wielu badaczy. Gdy czyta się o sukcesach metod używanych przez Pana, to tradycyjna psychologia może się wydawać trochę zacofana.
Nie zgadzam się. Jeśli chodzi nam o badanie zachowania milionów ludzi korzystających z mediów społecznościowych, trudno byłoby to robić tradycyjną metodą kwestionariuszową czy zapraszając ich do laboratoriów. Ale jest oczywiście wiele rzeczy, których na Facebooku nie zaobserwujemy. Nie zapominajmy też o tym, że mamy za sobą przeszło sto lat rozwoju klasycznej psychologii. Wiele z tych najbardziej oczywistych badań laboratoryjnych zostało już wykonanych. A środowisko cyfrowe, badania wykorzystujące media społecznościowe czy telefony komórkowe to nowe rzeczy. W którą stronę się nie spojrzy, jest coś nowego, ciekawego, czego ktoś nigdy wcześniej nie robił ze śladami cyfrowymi. Może się wydawać, że nowe metody rozwiązują problemy, których metody tradycyjne nie mogą rozwiązać. Wynika to jednak tylko z historycznej kolejności. Badania laboratoryjne rozwiązały już sto lat temu wiele problemów, których badania w mediach społecznościowych do dzisiaj by nie mogły rozwiązać.

Tylko gdy porównujemy nowe metody oparte na algorytmach i te tradycyjne badania kwestionariuszowe czy laboratoryjne, to różnica nie dotyczy jedynie kosztów i ilości gromadzonych danych. Ważniejsze, że gdy ktoś rozmawia z psychologiem o sobie albo wypełnia kwestionariusz, to niekoniecznie powie prawdę. Ślady cyfrowe nie kłamią?
W jakimś stopniu też fałszują nasz obraz. Swoim wizerunkiem sterujemy zarówno podczas rozmowy z psychologiem, jak i spędzając czas w sieci. Zresztą w internecie możemy zachowywać się inaczej niż w kontakcie z żywym człowiekiem, więc jedne i drugie badania dotyczyć mogą innych zjawisk i zachowań.

Ale mnie w ostatnich latach nawet bardziej niż psychologia człowieka zainteresowała psychologia sztucznej inteligencji. Okazuje się, iż algorytmy uczenia maszynowego zrobiły się na tyle skomplikowane, że można dzisiaj mówić o czymś przypominającym zjawiska psychologiczne. Algorytmy mają uprzedzenia, stereotypy, zachowania, które w przypadku człowieka nazwalibyśmy emocjami. ­Algorytm może zmienić swoje działanie w interakcji ze środowiskiem. Można w ich przypadku mówić o teorii umysłu, może nawet osobowości. Sieci neuronowe odpowiedzialne za generowanie języka mają różne tendencje behawioralne – niektóre z nich są bardziej gadatliwe, inne mniej, część jest bardziej skłonna, by żartować, inna mniej. Te cechy na przestrzeni czasu i w wielu interakcjach są bardzo stabilne – co przypomina cechy osobowości człowieka.

Skąd te cechy psychologiczne biorą się u algorytmów?
Nie mamy jeszcze pełnej odpowiedzi. Z jednej strony algorytmy trenowane są na danych tworzonych przez człowieka. I jeśli w tych danych zawarte są nasze uprzedzenia, to algorytm może się ich nauczyć.

Z drugiej strony jest też tak, że nasze psychologiczne zachowania wynikają z samych właściwości sieci neuronowych, a niekoniecznie z naszej kultury czy edukacji. Przykładem jest zjawisko torowania semantycznego. Jeśli zapytam kogoś, co pije krowa, często odpowie, że mleko – a przecież tylko cielaki piją mleko. Obecność słów „krowa” i „pije” spowodowała aktywowanie sieci semantycznych w naszym mózgu, które obejmują słowo „mleko” – i stąd to słowo automatycznie się pojawia. Wiemy już dzisiaj trochę o neuronalnych aspektach tego zjawiska. Okazuje się, że to po prostu cecha sieci neuronowych, wynikająca z ich konstrukcji. I jeśli trenuje się sztuczne sieci neuronowe, by uczyły się języka, to one zachowują się w bardzo podobny sposób jak nasz mózg. Gdy sztuczna sieć usłyszy słowo „krowa”, neurony połączone ze słowem „mleko” też się zaczynają aktywować. Część mechanizmów psychologicznych u algorytmów może nie być więc kwestią uczenia się z danych.

Ale to nie jest tak, że algorytmy będą uprzedzone do psów – wolą kotki, bo te wydają im się bardziej miękkie i słodko wyglądają na zdjęciach?
Może dojść do takiej sytuacji. Procesy ewolucyjne, które stworzyły nasz mózg i nasze środowisko, opierają się na sprzężeniach zwrotnych. Może się więc okazać, że obecność różnych uprzedzeń jest cechą naturalną samych tych procesów, a nie tylko dla ludzkich umysłów. Wyobraźmy sobie algorytm, który ma szukać ludziom pracy. I że w środowisku są dwie grupy osób tak samo zdolnych do wykonywania tej samej pracy. Ale któregoś dnia algorytm zupełnie losowo zatrudni 100 osób więcej z grupy A niż z grupy B. W przyszłości ten algorytm będzie patrzył na dane archiwalne i uzna, że jest więcej ludzi typu A wykonujących tę robotę – więc pewnie to oni bardziej się do niej nadają. W efekcie może się zmienić charakter tej pracy i charakter środowiska, w którym ona się odbywa. Może wręcz dojść do sytuacji, kiedy faktycznie grupa A będzie lepiej tę pracę wykonywała.

Badania z wykorzystaniem śladów cyfrowych mówią coś głębokiego o człowieku? Czy to nowa prawda, którą odkrywamy o sobie?
Nie jest to rewolucja, ale możemy mówić o postępie, pewnie coraz szybszym.

W przeszłości skupialiśmy się na teoriach. Były eleganckie, ale miały ograniczone możliwości przewidywania przyszłego zachowania. Dzisiaj większy nacisk kładzie się na modele przewidujące zachowanie, które są mniej teoretyczne. Moim zdaniem nie jest to duży problem – zamiast tworzyć teorie, które są eleganckie i mają coś wyjaśniać, ale niewiele przewidują, powinniśmy się skupić na modelach jak najskuteczniej przewidujących, by potem dopiero zastanawiać się, jak taki model przekuć w teorię. Mamy więc dzisiaj lepszą możliwość przewidywania przyszłego zachowania, ale nie idzie to często w parze ze wzrostem zrozumienia tego zachowania. Można powiedzieć, że to model czy komputer rozumie, a nie człowiek czy operator takiego modelu.

Trzeba też pamiętać, że model bardziej skomplikowany jest zwykle lepszy w przewidywaniu przyszłości niż model prosty. Zbliżamy się chyba do końca ery, w której wskazywaliśmy dwa czy trzy czynniki połączone w prosty sposób. Uważano np., że jeśli ktoś jest smutny, ale zacznie się uśmiechać, to wkrótce faktycznie poprawi się mu humor. Dziś wiemy, że takie proste teorie nie są poprawne.

O takich teoriach myślałem pytając, czy Pańskie badania pokazują głęboką wiedzę o człowieku. Z badań prowadzonych w paradygmacie ucieleśnionego poznania, dzisiaj często krytykowanych, mogliśmy się dowiedzieć np., że gdy widzimy cudzy uśmiech, to aktywujemy te same mięśnie i struktury neuronalne jak w chwili, gdy sami się uśmiechamy. Te aktywacje na widok emocji innych są nieco słabsze, ale i tak miałyby świadczyć o tym, że jesteśmy powiązani ze sobą, a nasze relacje społeczne są głęboko wyryte w naszych mózgach. Pan z kolei pokazuje, że mamy wypisane na twarzy poglądy polityczne i że wystarczy kilkanaście lajków zostawionych na Facebooku, by nas na wiele sposobów sklasyfikować. Zastanawia mnie, co to znaczy – że jesteśmy bardzo złożonymi maszynami czy raczej prostymi?
Jesteśmy bardzo skomplikowani. Okazuje się, że różne nasze strony są bardziej powiązane, niż nam się to wydaje. Być może mówimy o subtelnych powiązaniach, ale rzeczywistość z takich subtelnych zjawisk się składa. Sądzę, że z zastosowaniem big data w psychologii jest trochę jak z mikroskopem w biologii. Słonia czy konia łatwo biologowi opisać bez dodatkowych narzędzi. Ale by stwierdzić, jak bakterie czy wirusy wpływają na zachowanie i zdrowie ludzi i ssaków, to już potrzebny jest mikroskop. By stwierdzić, że udział w działaniach wojennych powoduje stres i traumę, też nie potrzeba specjalnych narzędzi. Ale by ustalić, jak reklama w internecie czy gra komputerowa, w którą człowiek grał dwadzieścia lat temu, wpływa na jego zachowanie, potrzebne już są algorytmy i wielkie bazy danych.

Ciekaw jestem tylko, czy jesteśmy wystarczająco skomplikowani, byśmy to nasze skomplikowanie mogli zrozumieć. A może jednak musimy to zostawić algorytmom? ©℗

PROFESOR MICHAŁ KOSIŃSKI pracuje na Uniwersytecie Stanforda. Bada zachowanie ludzi z wykorzystaniem nowoczesnych narzędzi – algorytmów uczenia maszynowego i big data. Wykazał m.in., że ślady cyfrowe zostawiane przez użytkowników Facebooka pozwalają dokładnie przewidzieć wiele ich prywatnych cech, takich jak wiek, płeć, orientację seksualną, pochodzenie etniczne, poglądy polityczne i religijne, poziom inteligencji czy zadowolenia z życia. Jako jeden z pierwszych ostrzegał przed możliwością wykorzystania tak zdobytych informacji do manipulowania odbiorcami reklam politycznych.

Dofinansowano z programu „Społeczna odpowiedzialność nauki” Ministra Nauki i Szkolnictwa Wyższego w ramach projektu „Otwarta Nauka w Centrum Kopernika”.

Skip to content