Godziny, których nie widzimy
Mężczyzna siedzący naprzeciwko Marka Kowalczyka w warszawskiej poradni leczenia uzależnień miał się dobrze. Sam tak mówił, tydzień po tygodniu, ze spokojną pewnością kogoś, kto cztery miesiące po zaprzestaniu picia zaczął ufać własnej stabilności. „Śpię w porządku. Stres do opanowania." Kontakt wzrokowy pewny, afekt adekwatny. Według wszystkich miar dostępnych w tym małym gabinecie — relacji słownej, obserwacji klinicznej, więzi terapeutycznej — Tomasz był historią sukcesu w toku.
A jednak coś niepokoiło Kowalczyka, psychologa z dwunastoletnim doświadczeniem w leczeniu zaburzeń związanych z używaniem alkoholu. Nazwijmy to intuicją kliniczną — tym nieuchwytnym wyczuciem wykształconym przez tysiące godzin siedzenia z ludźmi w różnych stadiach zdrowienia i załamania. „Nie potrafiłem wskazać niczego konkretnego," wspomina. „Mówił wszystko, co trzeba. Ale było w tym jakieś spłaszczenie, jakby czytał ze scenariusza, który sam sobie wbił do głowy jako prawdę."
Oto fundamentalny dylemat cotygodniowej psychoterapii: 167-godzinna luka. Pacjent przychodzi, mówi przez pięćdziesiąt minut i znika z powrotem w życie, które terapeuta może jedynie przybliżać przez retrospektywną autorelację. Co dzieje się w tych niewidocznych godzinach — przebudzenia o drugiej w nocy, pełzająca drażliwość, głód, który narasta i opada, zanim zdąży być nazwany — pozostaje w znacznej mierze nieprzeniknione. Pacjenci nie kłamią, właściwie. Robią to, co ludzie: konstruują spójne narracje, które wygładzają postrzępione krawędzie przeżywanego doświadczenia.
Idea ciągłego monitorowania w zdrowiu psychicznym niesie dla wielu europejskich terapeutów niepokojące skojarzenia. W Polsce szczególnie, gdzie aparat inwigilacji ery komunistycznej pozostawił głębokie blizny kulturowe, koncepcja śledzenia ruchów i stanów fizjologicznych pacjentów może brzmieć mniej jak innowacja, a bardziej jak wtargnięcie. Niemieccy koledzy, ukształtowani przez własne historyczne wrażliwości i surowe wymogi Bundesdatenschutzgesetz, wyrażają podobną nieufność. Gdy Kowalczyk po raz pierwszy zetknął się z platformami cyfrowych biomarkerów — systemami syntetyzującymi dane z urządzeń noszonych, krótkich codziennych meldunków i podsumowań klinicznych generowanych przez AI — jego sceptycyzm był odruchowy. „Pierwsza myśl była taka: to inwigilacja przebrana za opiekę. Moi pacjenci uciekli z jednego systemu nadzoru. Czemu miałbym zapraszać ich do kolejnego?"
Rozróżnienie, które w końcu przeprowadził, dotyczyło inwigilacji narzuconej i przejrzystości wybranej. Ten niepokój ustąpił dopiero, gdy mógł to wyraźnie przedstawić jako opcjonalne, ograniczone czasowo i w pełni odwracalne — coś, co pacjent kontroluje, a nie coś, co mu się robi. Tomasz zgodził się na próbę: jego Apple Watch miał pasywnie śledzić architekturę snu i zmienność rytmu serca; dwa razy dziennie miał wypełniać trzydziestosekundowe meldunki o nastroju i głodzie na telefonie; co dwa tygodnie miał wypełniać kwestionariusze PHQ-9 i GAD-7. Dane miały pozostać zaszyfrowane na serwerach w UE, pod polską jurysdykcją ochrony danych, możliwe do usunięcia w każdej chwili. „Bardziej przypominało to pamiętnik niż kamerę monitoringu," powiedział później Tomasz. „Tyle że ten pamiętnik pokazywał wzorce, których bym nie zauważył albo zbagatelizował."
To, co wyłoniło się w piątym i szóstym tygodniu, było obrazem uderzająco rozbieżnym z relacjami słownymi Tomasza. Jego sen, który bagatelizował jako „niezbyt dobry, ale normalny jak u mnie," wykazywał poważną fragmentację: sen głęboki spadł z osiemnastu do dziewięciu procent całkowitego czasu snu; przebudzenia wzrosły z jednego-dwóch do trzech-czterech na noc. Zmienność rytmu serca — miara elastyczności autonomicznego układu nerwowego z pojawiającymi się dowodami w badaniach nad uzależnieniami, choć wyniki pozostają niejednoznaczne — systematycznie spadała. Średnia dzienna liczba kroków spadła z około ośmiu tysięcy do czterech tysięcy osiemset, czterdziestoprocentowa redukcja sugerująca wycofanie społeczne. A krótkie meldunki o głodzie alkoholowym, które składał, ujawniły cztery skoki w jednym tygodniu przy linii bazowej zero do jednego. Jego dwukrotne dzienne oceny nastroju spadły z 7,4 do 6,2 na dziesięć.
Warto zauważyć, że te pomiary były przybliżeniami, nie ostateczną prawdą. Konsumenckie urządzenia noszone wnioskują o fazach snu, a nie mierzą ich bezpośrednio; HRV podlega wpływowi kofeiny, drobnych chorób i wysiłku fizycznego; liczba kroków spada z powodów, które nie mają nic wspólnego z nastrojem czy ryzykiem nawrotu. System był użyteczny nie dlatego, że był idealnie dokładny, lecz dlatego, że dostarczał spójne, interpretowalne trendy, które terapeuta i pacjent mogli omawiać w kontekście.
Tomasz nie kłamał Kowalczykowi. Nie kłamał nawet samemu sobie, właściwie. Po prostu nie połączył faktów. „Myślałem, że głód nie ma znaczenia, bo nie piłem," powiedział później. „Nie zdawałem sobie sprawy, że mi coś mówi."
Rozmowa, która nastąpiła na szóstej sesji, stanowiła punkt zwrotny — nie dlatego, że technologia zastąpiła osąd kliniczny, ale dlatego, że dała osądowi coś konkretnego do obrobienia. Przed sesją Kowalczyk przejrzał dwuminutowe podsumowanie wygenerowane przez AI, które syntetyzowało dane z tygodnia: zmianę Wskaźnika Stabilności, najważniejsze oznaczone anomalie, trendy EMA i cele przeniesione z poprzedniej sesji. Czas przygotowania spadł z około piętnastu minut przeglądania rozproszonych notatek do około dziewięćdziesięciu sekund skoncentrowanego przeglądu.
Zamiast zwykłego otwarcia („Jak minął tydzień?") Kowalczyk zaczął od konkretu: „Widzę, że pański sen był naprawdę rozregulowany przez ostatnie dwa tygodnie — cztery, pięć przebudzeń na noc. I widzę, że zgłosił pan głód cztery razy, w tym raz o drugiej w nocy w czwartek. Co się dzieje?"
Zaskoczenie Tomasza było wyraźne. „Nie zdawałem sobie sprawy, że to aż tak źle." To, co nastąpiło, było prawdziwą eksploracją, a nie zrytualizowanym meldunkiem: stres w pracy narastał od tygodni, wywołując zaburzenia snu, które karmiły wyczerpanie, które aktywowało ścieżki głodu, które — jak mu się wydawało — opanował. Wzorzec był jaśniejszy z perspektywy czasu — jak to zwykle bywa — ale perspektywa czasu jest właśnie tym, co zwykle dostarcza autorelacja. Dane biomarkerowe oferowały coś bliższego rozpoznawaniu wzorców w czasie rzeczywistym.
Metaanaliza Lamberta i Shimokawa z 2011 roku w Psychotherapy (N > 6000 w wielu badaniach) wykazała, że systemy informacji zwrotnej poprawiają wyniki z wielkością efektu około d = 0,25, 95% CI [0,17, 0,33] — znaczące, ale skromne, mniej więcej równoważne dodaniu kilku punktów procentowych do wskaźników zdrowienia. Korzyści nie wynikają z algorytmicznego objawienia, lecz z czegoś prostszego: uwidaczniania niewidocznego, tworzenia okazji do rozmów, które inaczej mogłyby nigdy nie nastąpić.
Prawdziwy sprawdzian nadszedł w ósmym tygodniu. System śledził coś, co nazywał „Wskaźnikiem Stabilności" — złożoną metrykę obliczaną z kroczących odchyleń HRV, snu, aktywności i samooceny nastroju względem osobistej linii bazowej Tomasza. Jego wskaźnik spadł z 78 (umiarkowana stabilność) do 44 (poniżej progu 50, który sygnalizował kruchość zdrowienia). HRV gwałtownie spadło przez trzy dni. Architektura snu pogorszyła się. Wzorce aktywności sugerowały izolację. System wygenerował alert: zalecana konsultacja.
Kowalczyk skontaktował się między sesjami, co odbiegało od jego zwykłej praktyki. „Pańska wiadomość mnie zatrzymała," powiedział później Tomasz. „Planowałem napić się w piątek." Kowalczyk jest ostrożny w ocenie wagi tego stwierdzenia. Czy plan przerodziłby się w działanie, nie wiadomo, ale alert stworzył wcześniejszy punkt kontaktu niż pozwalał jego zwykły cotygodniowy rytm — według jego szacunków interwencja nastąpiła mniej więcej dwa do trzech razy wcześniej niż pozwoliłyby tradycyjne cotygodniowe spotkania.
Ale biomarkery czasem się myliły — a raczej miały rację w sposób, który nie obejmował pełnego obrazu klinicznego. W dwunastym tygodniu dane Tomasza wyglądały doskonale: HRV w górę, sen stabilny, Wskaźnik Stabilności komfortowo na poziomie 81. A jednak zgłosił zwiększony lęk na sesji. Algorytm widział równowagę fizjologiczną; nie mógł zobaczyć, że jego partnerka właśnie ogłosiła ciążę, przynosząc radość skomplikowaną stresem, nadzieję przyćmioną lękiem przed nawrotem podczas ogromnej zmiany, która nadchodziła. „Liczby mówiły, że jest w porządku," zauważa Kowalczyk. „Liczby mierzyły nie to, co trzeba. Stabilność fizjologiczna nie oznacza łatwości psychicznej — kontekst ma znaczenie. Algorytm sygnalizuje; ty interpretujesz."
System zawoził w sposób zarówno przewidywalny, jak i pouczający. Niektórzy pacjenci Kowalczyka — szczególnie ci z lękiem o zdrowie — stawali się obsesyjnie skupieni na własnych metrykach, interpretując normalne wahania HRV jako oznaki zbliżającego się załamania. Inni uznali codzienne meldunki za uciążliwe, ich zgodność słabła w ciągu tygodni. Pacjenci z terenów wiejskich z zawodnym łączem internetowym mieli trudności z synchronizacją danych. A kulturowy opór, który Kowalczyk początkowo odczuwał, okazał się powszechny wśród kolegów, z których wielu patrzyło na całe przedsięwzięcie z nieufnością, której nie mogła złagodzić żadna ilość zgodności z RODO.
Technologia wymagała też czegoś nieoczekiwanego: edukacji. Zmienność rytmu serca nie jest intuicyjną metryką; interpretacja jej wahań wymaga przeszkolenia, którego większość programów nauczania psychoterapii nie zapewnia. Dane o architekturze snu są podobnie nieprzeniknione bez kontekstu. „To nie jest podłącz i działaj," zauważa. „To nowa umiejętność kliniczna, a jak każda umiejętność, wymaga czasu na rozwinięcie i można ją wykonywać źle." Podsumowania sesji generowane przez AI zmniejszyły jego obciążenie dokumentacyjne o około trzydzieści procent, ale wciąż edytował każdy szkic ręcznie — algorytm potrafił organizować; nie potrafił oceniać.
Sześć miesięcy później Tomasz pozostaje abstynentny. Monitorowanie według niego uczyniło jego stany wewnętrzne czytelnymi w sposób, jakiego autorelacja nigdy nie potrafiła: „Nie mogłem zaprzeczać danym. Kiedy zobaczyłem wykresy snu, musiałem potraktować stres poważnie." Praktyka Kowalczyka subtelnie się zmieniła. Nie otwiera już sesji łagodnym pytaniem, które zaprasza do łagodnych odpowiedzi. Zamiast tego przychodzi z konkretami: „Widzę, że sen był ciężki we wtorek — co się stało?" Rytualne piętnaście minut nadrabiania skompresowało się w ukierunkowaną, opartą na wzorcach eksplorację.
Ale pozostaje ostrożny wobec narracji, którą właśnie opowiedział — zgrabnej historii o technologii oświetlającej prawdę i zapobiegającej katastrofie. „Jest wersja, w której maszyny stają się autorytetem, a terapeuta staje się technikiem," mówi. „To byłaby katastrofa." To, co uznał za użyteczne, jest czymś skromniejszym: biomarkery jako otwieracze rozmów, podsumowania AI jako narzędzia przygotowania, alerty jako zaproszenia do baczniejszej uwagi. Relacja terapeutyczna pozostaje nadrzędna. Algorytmy służą osądowi; go nie zastępują.
Ostatecznie to, co pasywne monitorowanie ujawniło o Tomaszu, nie było żadną tajemną prawdą ukrytą przed wzrokiem. To był wzorzec, który przeżywał, ale nie widział — ten sam wzorzec, który mógłby zauważyć każdy uważny obserwator, mając wystarczająco dużo danych i czasu. Wkład technologii był po prostu taki: obserwowała 167 godzin, których Kowalczyk nie mógł obserwować, i raportowała bez zniekształceń pamięci czy wygładzania narracji. Dane miały własne ograniczenia — szum, sporadyczne nieścisłości — ale pokazywały trendy, których żaden z nich nie potrafił wcześniej wyartykułować. Czy ten wkład jest wart ryzyk — pełzającej inwigilacji, obsesji na punkcie metryk, algorytmicznego autorytetu wypierającego mądrość kliniczną — pozostaje pytaniem otwartym. Ale dla jednego pacjenta w jednej warszawskiej poradni, widzianego wyraźniej niż pozwalałyby same cotygodniowe sesje, to miało znaczenie. Czasem to wystarczy, by uzasadnić eksperyment.