POLITYKA

Wtorek, 17 października 2017

Polityka - nr 10 (12) z dnia 2017-10-04; Niezbędnik Inteligenta. 2/2017. Postczłowiek; s. 72-75

Medycyna przyszłości

Tomasz Witkowski

Na wirtualnej kozetce

Czy sztuczna inteligencja zastąpi psychoterapeutów?

Kiedy pochodząca z Islandii Yrsa Sverrisdottir przeprowadziła się do Wielkiej Brytanii, aby rozpocząć studia na University of Oxford, jej nordycka uroda, podkreślona przez promieniście jasne włosy, sprawiała, że wszyscy zwracali na nią uwagę. Ale jej osobiste relacje się rozsypywały. W tym złym czasie dotarła do niej wiadomość o śmierci obojga rodziców. Na szczęście, kiedy poczuła, że traci kontrolę nad swoim życiem, spotkała Fjolę Helgadottir, twórczynię programu terapeutycznego, która namówiła ją na wypróbowanie Artificial Intelligence – Therapy.

Program przez pierwszych kilka dni prowadził wyczerpujące interaktywne przesłuchanie. Na początku zbierał podstawowe dane osobowe, ale później zaczęły się głębsze i trudniejsze pytania, analiza kilku ostatnich miesięcy, podczas której algorytm zmuszał Yrsę do badania i identyfikacji niepokojących myśli. Ostatecznie zdiagnozował lęk społeczny i przejął rolę pełnoprawnego terapeuty, prowadząc Yrsę przez reżim rzeczywistych ćwiczeń, które doprowadziły ją do odzyskania kontroli nad sobą.

Czy ta historia pokazuje, że w przyszłości sztuczna inteligencja zastąpi psychoterapeutów? Aby odpowiedzieć na to pytanie, trzeba poznać wiele niewiadomych. Czy człowiek dysponuje technologią, która będzie w stanie wykonywać pracę o stopniu złożoności takim, jaki charakteryzuje czynności psychoterapeutów? Czy psychoterapia jest na tyle spójnym procesem, że da się przełożyć ją na język maszyn? Czy terapeuci pozwolą sztucznej inteligencji na zajęcie ich miejsca, a pacjenci powierzą maszynom swoje zdrowie psychiczne?

Algorytm jest pierwszy

Psychoterapia składa się z dwóch głównych etapów – diagnozy i interwencji terapeutycznej. Pierwsze próby wykorzystywania matematyki i maszyn dla potrzeb diagnozy i terapii pojawiły się już w latach 20. XX w., kiedy opublikowano artykuły zawierające logiczną argumentację na rzecz zastąpienia diagnozy stawianej przez człowieka (klinicystę, lekarza) diagnozą stawianą na podstawie obliczeń statystycznych. Poważniejsza dyskusja rozpoczęła się na początku lat 40., a przyczynkiem do niej były prace amerykańskiego psychologa Theodore’a R. Sarbina, który wykazywał przewagę metod statystycznych (aktuarialnych) nad diagnozą kliniczną. Podsumowując swój artykuł z 1943 r., stwierdził wprost: „Jako uzupełnienie przewidywań aktuarialnych prognozy kliniczne nie wnoszą nic”.

Problematyką trafności obu rodzajów diagnoz zainteresował się, bardzo młody jeszcze wówczas, przyszły prezes American Psychological Association – Paul Meehl. Poruszał ten temat wielokrotnie w serii swoich wykładów, spisanych i wydanych w 1954 r. w postaci monografii.

Dzisiaj stanowisko zwolenników metody aktuarialnej wspierają przeglądy badań i metaanalizy, które niezmiennie ukazują jej przewagę nad nieustrukturyzowanymi diagnozami stawianymi przez praktyków. Wraz z rozwojem technologii dystans nieustannie się pogłębia. Mimo to w XXI w. psycholog chętniej wykorzystuje do diagnozy bezwartościowe, niemal stuletnie atramentowe plamy Rorschacha niż algorytm komputerowy, a lekarz bardziej polega na własnym ograniczonym doświadczeniu klinicznym niż potężnych bazach danych, które komputer jest w stanie przeszukać w ciągu kilku sekund. Niechęć psychologów i lekarzy do stosowania zaawansowanych technologii, poza tym, że codziennie tysiącom pacjentów odbiera możliwość uzyskania szybszej i precyzyjniejszej diagnozy, a co za tym idzie lepiej dopasowanego sposobu interwencji, ma jeszcze dodatkowe konsekwencje: uniemożliwia doskonalenie tych narzędzi tym, którzy chcieliby je rozwijać. Samouczące się algorytmy i sieci neuronowe tym szybciej mogą być doskonalone, im większe mają bazy danych, im więcej trafnych informacji zwrotnych im udzielono. Aby mogły dobrze funkcjonować – trzeba je nakarmić danymi. Tymczasem ludzie niechętni tym maszynom nie są zainteresowani ich karmieniem, a nawet gromadzeniem danych, które mogłyby stać się dla nich pokarmem. Stawia to przed pionierami rozwijającymi sztuczną inteligencję przeszkody, które pokonują z największym trudem.

Wymownym tego przykładem była sytuacja, w jakiej znaleźli się badacze próbujący przewidzieć podejmowanie prób samobójczych przez hospitalizowanych wcześniej psychiatrycznie żołnierzy armii Stanów Zjednoczonych. Zespół psychologa Ronalda C. Kesslera postanowił wypracować algorytm wykrywający czynniki ryzyka. Największą trudnością, przed jaką stanęli naukowcy, była ograniczona liczba danych. Dysponowali zaledwie 68 dobrze opisanymi przypadkami, okazało się bowiem, że elektroniczny zapis danych medycznych armii USA nie zawierał pola, gdzie pracownicy służby zdrowia musieliby rejestrować próby samobójcze, a cała dokumentacja kliniczna była niekompletna. A jednak, pomimo szczątkowych danych algorytm i tak okazał się skuteczniejszy od ludzi, którzy w tym względzie ponieśli totalną klęskę, bo tylko tak można nazwać wyniki metaanalizy, której celem było zebranie wniosków z 50 lat badań mających na celu identyfikację czynników wpływających na decyzję o samobójstwie. Analiza przeprowadzona przez zespół Josepha C. Franklina wykazała, że nauka nie potrafi przewidzieć przyszłych myśli i zachowań samobójczych lepiej niż ktoś, kto zgaduje w przypadkowy sposób. Jego zdaniem „ekspert zajmujący się samobójstwami po przeprowadzeniu pogłębionej analizy czynników ryzyka mógłby przewidzieć wystąpienie u pacjenta przyszłych myśli i zachowań samobójczych z taką samą dokładnością, jak ktoś bez jakiejkolwiek wiedzy o pacjencie na podstawie rzutu monetą”.

Tymczasem sztuczna inteligencja nie tylko lepiej przewiduje akty samobójcze, lecz także potrafi diagnozować depresję na podstawie obserwacji mimiki twarzy, ...

[pełna treść dostępna dla abonentów Polityki Cyfrowej]