Historia pewnej nierówności – Wielkie Pytania

Historia pewnej nierówności

Ponad 80 lat temu Albert Einstein i Niels Bohr spierali się o naturę rzeczywistości. Według najnowszych kwantowych eksperymentów wizja Bohra jest bardziej adekwatna, jeśli tylko... fizycy mają wolną wolę.

Mechanika kwantowa krystalizowała się stopniowo. Choć jej matematyczny formalizm, czyli sposób wyliczania wyników eksperymentów, został przez fizyków opanowany dość szybko, to natura obiektów kwantowych, czyli „małych” – takich jak atomy czy fotony – pozostaje przedmiotem kontrowersji do dzisiaj.

Filozoficzne preludium

W latach 30. rozgorzała słynna debata pomiędzy Albertem Einsteinem a tzw. szkołą kopenhaską, reprezentowaną w szczególności przez Nielsa Bohra. W swej istocie był to spór filozoficzny o naturę „fizycznej rzeczywistości”, czyli wizji świata kreślonej przez nowożytną fizykę.

Einstein utrzymywał, że jeśli bez oddziaływania z układem potrafimy z pewnością przewidzieć wartość jakiejś wielkości fizycznej, to istnieje element rzeczywistości, któremu owa wielkość odpowiada. Przykładowo, nie musimy oświetlać pomarańczy, żeby wiedzieć, że ma ona z pewnością kolor pomarańczowy – jest to jej inherentna własność. Można powiedzieć, że zdaniem Einsteina kwantowe cząstki są jak pomarańcze – mają określone indywidualne własności, zanim je zbadamy. Ponieważ mechanika kwantowa potrafi przewidzieć niektóre wyniki tylko z pewnym prawdopodobieństwem, a nie z pewnością, to nie może ona – uważał Einstein – być uznana za teorię zupełną, czyli zdolną adekwatnie odwzorować każdy element fizycznej rzeczywistości.

Bohr oponował, posiłkując się zasadą nieoznaczoności Wernera Heisenberga, twierdząc, że każdy pomiar wielkości fizycznej jest inwazyjny – mierząc, zawsze zaburzamy mierzony układ. W konsekwencji tego pewne wielkości – takie jak np. położenie i pęd cząstki – należy uznać za komplementarne, czyli takie, których nie da się równocześnie zmierzyć, a nawet równocześnie przypisać im jednoznacznie wartości liczbowych. Bohr stwierdził, iż ten pozornie paradoksalny fakt pokazuje jedynie, że Einsteinowska koncepcja „fizycznej rzeczywistości” jest nieadekwatna do opisu mikroświata. Zakładała ona bowiem zadekretowanie wyników pomiarów przed ich wykonaniem, podczas gdy w mechanice kwantowej cechy cząstek ,,aktualizują się” dopiero w momencie pomiaru.

Obaj uczeni zgadzali się w pełni co do skuteczności mechaniki kwantowej do opisu zjawisk mikroświata. W końcu jednym z prekursorów tej teorii był właśnie Einstein, który już w 1905 r. zastosował koncepcję „kwantów światła” [niem. Licht- quanten] do opisu tzw. efektu fotoelektrycznego. Krytykując mechanikę kwantową, Einstein twierdził jedynie, iż jest ona przybliżeniem jakiejś lepszej teorii, zgodnej z klasycznym rozumieniem fizycznej rzeczywistości. Bohr zaś utrzymywał, że jeśli zjawiska kwantowe wydają się paradoksalne z punktu widzenia „naturalnej filozofii”, to… tym gorzej dla filozofii.

Debata Einstein–Bohr toczyła się zatem nie tyle w obszarze fizyki, co raczej filozofii fizyki. O ile jednak kwestia istnienia obiektywnych własności pojedynczych cząstek wydawała się problemem czysto akademickim, o tyle układ dwóch cząstek kwantowych wprawiał naukowców w zakłopotanie. W słynnym artykule z 1935 r. Einstein, we współpracy z Borisem Podolskym i Nathanem Rosenem, pokazał, że jeśli dwie cząstki kiedyś ze sobą oddziałały, to mechanika kwantowa mówi, iż pomiar jakiejś własności jednej z nich natychmiast ustala wartość tejże wielkości u jej partnera. Einstein określił to mianem „upiornego oddziaływania na odległość”, które stało – w jego mniemaniu – w sprzeczności z zasadami teorii względności (ponieważ, jak się wydawało, wymagałoby to przekazu informacji z prędkością większą od prędkości światła). Z kolei Bohr i Erwin Schrödinger argumentowali, że dwie cząstki kwantowe, które oddziałały, należy postrzegać jako jeden nielokalny układ, który zachowuje się jak jeden obiekt, mimo że jego składniki są bardzo daleko od siebie. Nie przekonało to sceptyków, choć za sprawą Schrödingera „upiorne oddziaływanie na odległość” zyskało mniej dramatyczną nazwę „splątania kwantowego”.

Twierdzenie o teoriach

Choć przykład wymyślony przez Einsteina i współpracowników był określany mianem „paradoksu EPR”, fizycy praktycy nauczyli się z nim żyć. Mechanika kwantowa działała doskonale, a nikomu nie udało się opracować lepszej teorii, zgodnej z Einsteinowską wizją, w której własności cząstek byłyby zdeterminowane przed pomiarem. Co więcej, sprzeczność zasad kwantowych z teorią względności okazała się pozorna – nie można bowiem używać kwantowego splątania do przesyłania informacji z prędkością nadświetlną. Mariaż mechaniki kwantowej ze szczególną teorią względności doprowadził zaś do powstania bardzo trudnej, ale niezwykle skutecznej, kwantowej teorii pola, którą na co dzień posługują się całe zastępy teoretyków pracujących w CERN-ie. Problemy interpretacyjne kwantowego splątania zostały zatem na powrót przesunięte do sfery filozofii.

Po blisko trzech dekadach kwestia splątania kwantowego nieoczekiwanie powróciła na grunt fizyki. W 1964 r. John Bell wyraził koncepcję EPR w postaci prostej nierówności, którą dawało się skonfrontować z doświadczeniem.

Wyobraźmy sobie eksperyment jako zadawanie pytań układowi fizycznemu. Możemy np. spytać foton, jaki ma kolor, a on odpowiada, załamując się odpowiednio na pryzmacie. Z tej perspektywy własność cząstki to odpowiedź na dane pytanie, która jest określona jeszcze przed samym pomiarem. Pomarańcza – by pozostać przy tym samym przykładzie – zawsze jest pomarańczowa, zanim zadamy jej pytanie o kolor, oświetlając ją. Jeśli cząstki kwantowe są jak pomarańcze, to wciąż – nawet jeżeli są w stanie splątanym – mają określone indywidualne własności, zanim je zbadamy. Owe cechy kwantowych indywiduów powinna opisywać jakaś teoria, której mechanika kwantowa – potrafiąca przewidzieć wyniki tylko z pewnym prawdopodobieństwem – jest jedynie przybliżeniem.

Wyobraźmy sobie dwoje eksperymentatorów – Alicję i Boba – zamkniętych w odległych laboratoriach. Teraz weźmy źródło emitujące parę cząstek splątanych, z których jedna leci do Alicji, a druga do Boba. Eksperymentatorzy zadają cząstkom po jednym z zestawu pytań, to znaczy przeprowadzają pewien pomiar, którego wynik skrzętnie zapisują. Cząstki odpowiadają tylko „tak” lub „nie”. Alicja i Bob muszą zadawać różne pytania wielu cząstkom w nadziei, że uda się uchwycić jakąś prawidłowość.

Tabelki pytanie–odpowiedź dla każdego z obserwatorów nie są specjalnie interesujące, wyglądają na kompletnie losowe (i takie w istocie są!). Ciekawie zaczyna się robić, kiedy Alicja i Bob się spotykają i porównają swoje zapiski. Okaże się, że jeśli, przykładowo, pytali swoje elektrony, czy mają „spin do góry” (spin to pewna własność elektronów), to jeśli cząstka Alicji odpowiedziała „tak”, to ta u Boba zawsze mówiła „nie”. Powiemy zatem, że wyniki ich pomiarów są skorelowane. Z drugiej strony, jeśli Alicja pytała o „spin do góry”, a Bob o „spin w prawo”, to odpowiedzi nie będą w żaden sposób powiązane.

Aby uchwycić te prawidłowości, można posłużyć się tzw. funkcją korelacji, która zależy od pytań postawionych przez Alicję oraz Boba. Bell rozumował następująco: załóżmy, że wyniki pomiarów zależą, oprócz od zadawanego pytania, od jakiejś zmiennej, nad którą nie mamy żadnej kontroli. Ten „ukryty parametr”, determinujący własności cząstek, pochodziłby od owej hipotetycznej fundamentalnej teorii, antycypowanej przez Einsteina, dla której mechanika kwantowa byłaby jedynie przybliżeniem. Wówczas funkcję korelacji można prosto wyliczyć na gruncie klasycznej teorii prawdopodobieństwa. Bell pokazał, iż w tym przypadku pewna kombinacja funkcji korelacji (oznaczmy ją przez „D”) nie może być większa od 2 dla żadnego zestawu pytań Alicji oraz Boba. Okazuje się jednak, że dla pewnych zestawów pytań mechanika kwantowa przewiduje większą wartość D – dokładnie 2√2, czyli ok. 2,83.

Innymi słowy, jeżeli lecące cząstki miałyby zawczasu przygotowane odpowiedzi na zadawane im pytania, to liczba D nie mogłaby przekraczać 2. Ponieważ jednak okazuje się, że D jest znacząco większe od 2, to oznacza, że cząstki nie mogą mieć własności zdeterminowanych przed pomiarem przez żadną teorię. Muszą nabywać je w sposób niezdeterminowany swoją przeszłością – czyli losowy.

Twierdzenie Bella – jak każde twierdzenie matematyczne – jest oparte na pewnych założeniach.

Po pierwsze, pomiary Alicji i Boba muszą zachodzić prawie równocześnie. Innymi słowy, Alicja nie powinna mieć żadnej szansy na wysłanie Bobowi wyniku swojego pomiaru, zanim Bob nie zada swojego pytania – i vice versa. Wówczas bowiem eksperymentatorzy mogliby się dogadywać „poza konkursem”. Ponieważ, zgodnie ze szczególną teorią względności – możemy przesyłać wiadomości co najwyżej z prędkością światła, Bob musi wykonać pomiar na tyle szybko, aby nie zdążył do niego dolecieć ewentualny sygnał świetlny, wysłany przez Alicję po dokonaniu przez nią pomiaru.

Po drugie, urządzenia rejestrujące odpowiedzi cząstek powinny być wystarczająco wydajne. Szybko zauważono bowiem, że jeśli będziemy wyłapywać mniej niż 87 proc. wysłanych cząstek, to uzyskaną „nadwyżkę korelacji” można złożyć na karb naszej niewiedzy o tych, których nie zmierzyliśmy.

Po trzecie wreszcie, pytania zadawane przez Alicję i Boba muszą być w pełni losowe i niezależne od siebie. Oznacza to, w szczególności, że musimy wykluczyć możliwość komunikacji pomiędzy laboratoriami nie tylko w momencie pomiaru, ale również w chwili ustalania pytań. Bo jeśli Alicja z Bobem umówiliby się wcześniej, o co będą pytać, to silne korelacje między odpowiedziami nie byłyby niczym zaskakującym. Frapujący jest fakt, iż eksperymentatorzy wcale nie muszą być świadomi zmowy – ktoś lub coś (np. jakiś złośliwy kartezjański demon) mógł im przecież „poustawiać” urządzenia.

Jeśli zakładamy zatem, że pytania Alicji i Boba faktycznie są nieskorelowane, to znaczy, że muszą oni nie tylko mieć „uczciwe” urządzenia, ale również posiadać wolną wolę wyboru pytania!

Nierówności na Ziemi i w niebie

Teoretyczny wynik badań Bella należało skonfrontować z eksperymentem. Jego oryginalną nierówność ulepszyli pięć lat później John Clauser, Michael Horne, Abner Shimony i Richard Holt, czyniąc ją bardziej adekwatną do realiów laboratoryjnych. Stąd czasem mowa o „nierówności Bell–CHSH”.

Pierwsze doświadczenia przeprowadzono już w latach 70. Rzeczywiście świadczyły one przeciw intuicji Einsteina, jednak ani warunek równoczesności pomiarów, ani czułości detekcji nie został spełniony.

Krokiem milowym na drodze do pełnego „testu Bella” był eksperyment przeprowadzony przez Alaina Aspecta i współpracowników w 1982 r. Użyli oni par splątanych fotonów oraz superszybkich polaryzatorów, uruchamianych dopiero, gdy cząstki były już w locie. Dzięki temu oba pomiary zachodziły nieomal równocześnie, a „Alicja” i „Bob” nie mogli sobie potajemnie przesyłać wyników. Jednak użyte polaryzatory były zaprogramowane – a zatem ich ustawienia nie były w pełni losowe. Przełomowy, jak na owe czasy, eksperyment Francuzów udało się poprawić w 1998 r. zespołowi z Wiednia kierowanemu przez Antona Zeilingera. Pytania zadawane przez „Alicję” i „Boba” były tym razem wybierane przez kwantowy generator liczb losowych. Pomimo tego, nie udało się podówczas w pełni wyeliminować możliwości „pozakonkursowej” komunikacji między laboratoriami. W kolejnej wersji, w 2010 r., wiedeńczycy przenieśli się do bardzo spektakularnej scenerii: pary splątanych fotonów były generowane na kanaryjskiej wyspie La Palma. Jeden z nich był mierzony nieopodal, podczas gdy drugi leciał na Teneryfę. Użycie szybkich polaryzatorów oraz kwantowych generatorów liczb losowych zapewniało, że komunikacja „poza konkursem” nie była możliwa.

Otwarta pozostawała jednak wciąż kwestia czułości detektorów. Wymóg wyłapywania przynajmniej 87 proc. strumienia cząstek był nie lada wyzwaniem w latach 70. ubiegłego wieku. Tak wydajne detektory udało się zbudować dopiero w XXI w. W 2001 r. zespół kierowany przez późniejszego laureata Nagrody Nobla Davida Winelanda wykorzystał takowe urządzenie do przeprowadzenia testu Bella. Tu również nie było niespodzianki, a mechanika kwantowa triumfowała. Sęk jednak w tym, iż eksperyment Winelanda wykorzystywał jony, którymi trudno się manipuluje, i nie udało się zagwarantować pierwszego założenia – o niemożności komunikacji. Detektory fotonowe o wydajności przekraczającej 90 proc. powstały dopiero dekadę później, a w 2013 r. dwa zespoły, kierowane przez Zeilingera oraz Paula Kwiata z Illinois, niezależnie od siebie potwierdziły łamanie nierówności Bella w przyrodzie.

Dwa lata później wszystkie trzy elementy powiązano w jedną całość w trzech autonomicznych zespołach. W Delft pod kierunkiem Ronalda Hansona użyto kryształków diamentu specjalnie ,,zanieczyszczonych” azotem. Tymczasem wiedeńczycy na czele z Zeilingerem, a także zespół Lyndena Shalma z Boulder w Colorado użyli fotonów i ultraczułych detektorów. Wyniki nie pozostawiały wątpliwości – żadna teoria „ukrytych zmiennych” nie może wyjaśnić kwantowych korelacji. Kilka miesięcy później Alain Aspect opublikował na łamach „Physics” artykuł o wymownym tytule ,,Zakończenie kwantowego sporu Einsteina z Bohrem” (ang. „Closing the Door on Einstein and Bohr’s Quantum Debate”).

W 2017 r. chiński zespół kierowany przez Jan-Wei Pana, ucznia Zeilingera, zaobserwował łamanie nierówności Bella przy użyciu par splątanych fotonów emitowanych z satelity na orbicie, a kwantowe technologie coraz odważniej wkraczają w przestrzeń kosmiczną. Sami zaś wiedeńczycy również postanowili odwołać się do kosmosu, aby odeprzeć argumenty o tym, że może urządzenia do losowania są wadliwe (bądź też specjalnie ustawione). W ich fascynującym zeszłorocznym eksperymencie to fotony pochodzące z dwóch odległych gwiazd „zadawały pytania” w eksperymencie na Ziemi. Nierówność Bella została oczywiście złamana. To oznacza, że jeśli ktoś (lub coś) uknuł(o) intrygę, by nam mydlić oczy, musiał(o) to zrobić ponad 600 lat temu – przed Gutenbergiem i tym bardziej przed drukiem „Principiów” Newtona.

Filozoficzna koda

Dzisiaj ludzie chętniej wierzą internautom niż fizykom i ich fotonom z gwiazd. Tym tropem poszli w 2016 r. autorzy Wielkiego Testu Bella (ang. The BIG Bell Test), w którym to 100 tys. użytkowników internetu generowało ciągi zer i jedynek wedle własnego widzimisię. Na podstawie ich zachcianek 15 laboratoriów na całym świecie zadało pytania cząstkom splątanym. I znów, mechanika kwantowa zatriumfowała.

Ciekawą uwagę dotyczącą tego testu poczynił brytyjski fizyk Lucien Hardy. Zauważył bowiem, że użyta metoda nie daje szans na spełnienie założeń testu Bella związanych z szybkością wykonywania eksperymentu ze względu na zbyt długi czas reakcji między podjęciem decyzji w ludzkim mózgu a jej motorycznym rezultatem – np. wciśnięciem klawisza komputera. Hardy zaproponował znaczącą poprawkę – nowy eksperyment miałby bazować na sygnałach EEG, używanych na co dzień w medycynie do diagnostyki móz- gu, a także zadbać o przestrzenne rozdzielenie grup osób zaangażowanych w eksperyment.

W tym momencie czytelnik ma prawo nabrać podejrzeń, że cała ta historia z mechaniką kwantową jest jakimś piramidalnym błędnym kołem. Oto bowiem, żeby uznać, że pewne zjawiska w świecie zachodzą w sposób kompletnie losowy, musimy założyć, że… pewne zjawiska w świecie zachodzą w sposób kompletnie losowy. Chcąc wykazać kwantowy indeterminizm, musimy odwołać się do jakiegoś „źródła losowości” – czy to w zasadzie nieoznaczoności Heisenberga, czy to w kosmosie, czy też w naszych mózgach. Fizycy są zatem niczym baron Münchhausen, który rzekomo sam siebie wyciągnął za włosy z mokradła.

Fizycy, chcąc pozostać wiernymi metodologii właściwej ich dziedzinie, patrzą jednak na całą sprawę zupełnie inaczej. Silne korelacje pomiędzy cząstkami splątanymi są faktem naukowym, dowiedzionym niezależnie w wielu eksperymentach – i ten fakt domaga się wyjaśnienia. Najlepszym, jakim dysponujemy, jest mechanika kwantowa – z całym jej bagażem filozoficznym.

Pytanie, jakie natomiast mogą zadać fizycy, to: jak bardzo losowe muszą być ustawienia urządzeń pomiarowych, by zachodziło przewidziane przez mechanikę kwantową łamanie nierówności Bella?

Pytanie to postawiono dopiero niedawno (w 2012 r.) i okazało się, w wyniku badań teoretycznych prowadzonych w Zurychu, Barcelonie i Gdańsku, że – co zaskakujące – potrzeba jedynie bardzo słabej nieprzewidywalności, albo jak kto woli: wolnej woli. Wystarczyłaby tu jedynie moneta, której zachowania nikt i nic we wszechświecie nie może przewidzieć z prawdopodobieństwem większym niż 99 proc. (rzucając nią wielokrotnie i próbując przewidzieć wynik, każdy użytkownik lub automat zrobi błąd średnio raz na sto rzutów). Nie wiemy, czy takie źródła istnieją w przyrodzie (być może ludzki mózg ma w sobie właśnie jakąś dozę nieprzewidywalności tego typu, także na poziomie decyzyjnym). Jeśli jednak istnieje choćby jedno, i to dowolnie słabe takie źródło, wówczas możemy pokazać, że nierówność Bella jest łamana, a nawet, co więcej, wykorzystać ją do generowania losowości maksymalnej – czyli 50 proc. na 50 proc.

Fenomen kwantowego splątania – niezwykle silnych korelacji między odległymi cząstkami – jest niezrozumiały na gruncie naszej potocznej intuicji wywodzącej się ze świata makroskopowego, którego doświadczamy na co dzień. Einstein był przeświadczony, że ów brak zrozumienia jest chwilowy i wynika po prostu z niedoskonałości naszego opisu fundamentalnych praw fizyki. W świetle najnowszych badań taki pogląd filozoficzny, choć niewykluczony, staje się coraz trudniejszy do przyjęcia.

Wydaje się, że przyroda stawia nas przed wyrazistą alternatywą. Albo cały świat, z nami samymi, jest całkowicie zdeterminowany, a wszelka rzekoma losowość zdarzeń jest jedynie złudzeniem fundowanym nam przez jakiegoś kartezjańskiego demona, albo też mamy, choćby nawet bardzo słabiutką, ,,rozrzedzoną” wolną wolę, a obserwując świat, fizycznie go zmieniamy i potrafimy poprzez mechanikę kwantową doprowadzić do zdarzeń zupełnie nieprzewidywalnych. Tertium non datur. ©

MICHAŁ ECKSTEIN jest doktorem matematyki i fizykiem.

PAWEŁ HORODECKI jest profesorem fizyki.

Obaj autorzy pracują w Krajowym Centrum Informatyki Kwantowej w Gdańsku.

Skip to content