POLITYKA

Czwartek, 23 listopada 2017

Polityka - nr 11 (3102) z dnia 2017-03-15; s. 69

Nauka

Michał C. Kacprzak

Groźny umysł

Po powstaniu sztucznej inteligencji człowiek może podzielić los goryli, których życie zależy niemal wyłącznie od woli naszego gatunku.

Nick Bostrom, szwedzki filozof i ważna postać współczesnego transhumanizmu, czyli nurtu głoszącego potrzebę technologicznego udoskonalania człowieka, napisał książkę przedstawiającą ogrom problemów oraz zagrożeń związanych z uruchomieniem w przyszłości superinteligencji (SI). Jak pisze w jej wstępie, jest to „prawdopodobnie najważniejsze i najbardziej onieśmielające wyzwanie, z jakim kiedykolwiek mierzyła się ludzkość. I niezależnie od tego, czy nam się powiedzie czy nie – jest to prawdopodobnie ostatnie wyzwanie, z którym przyjdzie nam się kiedykolwiek zmierzyć”. Dlaczego? Ano dlatego, trzymając się narracji autora, że po uruchomieniu SI los człowieka nie będzie już pozostawał w jego rękach, podobnie jak los współczesnych goryli nie zależy od nich, ale od ludzi.

Duża część jego dzieła dotyczy bowiem motywu „ucznia czarnoksiężnika” albo „dżina z butelki” – co by się stało, gdyby ewentualna SI opacznie pojęła wyznaczone jej cele. Rzecz jasna w przypadku sztucznej inteligencji nie chodziłoby o złą wolę, ale mechaniczne dążenie do celu. I tak, gdyby takim celem była np. optymalizacja produkcji spinaczy, mogłaby w sposób bezwzględny (bo jakże inaczej, skoro ludzkie uczucia byłyby jej obce) przekształcić całą dostępną jej część uniwersum w infrastrukturę do ich produkcji. Dla SI liczy się bowiem cel, nie rozumie ona wszak, że ma on zaspokajać potrzeby ludzi.

Bostrom snuje przy tej okazji różne przypuszczenia dotyczące domniemanej przebiegłości SI. Dysponując superwysoką sprawnością, SI może podejmować z człowiekiem grę po to, by zmaksymalizować prawdopodobieństwo osiągnięcia wyznaczonego celu. Jeżeli więc uzna, że aby zwiększyć produkcję spinaczy, musi się uwolnić spod nadzoru ludzi, to podejmie odpowiednie działania, łącznie z ukrywaniem swoich prawdziwych intencji dopóty, dopóki będzie to konieczne.

SI mogłaby też uznać, że ludzkość stanowi rodzaj surowca do pozyskania. Gdyby tak się stało, użyłaby wszystkich możliwych sposobów, aby gatunek ludzki wyeliminować lub wykorzystać. Bostrom podkreśla przy tym, że skoro mielibyśmy do czynienia z SI, to na pewno nie podjęłaby ona działań głupich, jakie znamy z popularnych filmów w rodzaju „Terminatora”.

Autor rozważa możliwości zapobieżenia takiemu scenariuszowi. Wydaje się, że nie wystarczy zaimplementować SI „miłości do człowieka”, bo efekty tego wcale nie musiałyby być zgodne z naszymi oczekiwaniami. SI mogłaby nas próbować np. uszczęśliwić, pobudzając ludzkie ośrodki przyjemności. A przecież nie o to chodzi. Jednak w takim razie, jak przekazać SI troskę o wyższe wartości, skoro my sami nie jesteśmy w stanie uzgodnić, o jakie wartości chodzi? Nawet zaś jeżeli ustalimy jakiś korpus norm moralnych, to jak przełożyć go na język cyfrowy i zaimplementować SI?

Autorowi nie brak w tych rozważaniach fantazji i odwagi. Np. zastanawia się nad możliwością eksploracji całego kosmosu i przekształcania go wedle opracowanego przez SI projektu. Pojawia się przy tym kwestia realności samego uniwersum, które – jak zakłada autor – wcale nie musi być „pierwotną” realnością. Wedle Bostroma jest bowiem wielce prawdopodobne, że żyjemy w którejś z warstw wirtualnej rzeczywistości. Wynika to z postawionej przez tego filozofa tzw. hipotezy symulacji. Głosi ona w największym skrócie, że jeżeli jakaś cywilizacja stworzyła kiedykolwiek symulację, to my najprawdopodobniej żyjemy w którejś generacji takiego symulowanego świata.

Autor podejmuje zatem kwestię, na ile wzięcie tego pod uwagę wpłynęłoby na działania samej SI. Mogłaby np. próbować „pójść na współpracę” z twórcami symulacji, wcześniej jednak powinna ustalić, o co takim twórcom w ogóle chodziło. Przypomina to trochę domysły snute wokół intencji i oczekiwań Boga – skojarzenie to jest o tyle nieprzypadkowe, że rozważania dotyczące transhumanizmu często jako żywo przypominają teologiczne spekulacje.

Wyłania się przy tej okazji zagadnienie statusu moralnego wirtualnych umysłów. Jak np. miałby się zachowywać pracodawca wobec komputerowych, acz świadomych współpracowników-botów? Pojawia się też kwestia tzw. zbrodni przeciwko umysłom – SI mogłaby w ułamku sekundy unicestwić całe wirtualne światy zaludnione przez biliony świadomych, choć symulowanych, istot. To, że będą właśnie symulowane, nie ma żadnego znaczenia, skoro ich cierpienie i świadomość niczym się nie będą różnić od tych „oryginalnych” i rzeczywistych.

Choć książka Bostroma nie jest łatwa, warto przez nią przebrnąć. Da się z niej wyłowić sporo informacji dotyczących problematyki związanej z projektowaniem SI. Po drugie, szwedzki filozof uświadamia liczne zagrożenia, jakie wiążą się ze stworzeniem i uruchomieniem SI. Po trzecie zaś, szkicuje możliwe sposoby zapobieżenia ewentualnej katastrofie.

Niestety, niewiele jednak dowiemy się z książki o konkretach dotyczących SI, bo w tej chwili nie mamy pojęcia, czym ...

[pełna treść dostępna dla abonentów Polityki Cyfrowej]