POLITYKA

Poniedziałek, 25 czerwca 2018

Polityka - nr 11 (11) z dnia 2015-09-09; Niezbędnik Inteligenta. Wielkie teorie i odkrycia naukowe; s. 83-87

Epoka przełomów

Mateusz Hohol

Metafory umysłu

Umysł, by stać się przedmiotem badań prowadzonych na wzór nauk przyrodniczych, musiał czekać do narodzin psychologii eksperymentalnej w XIX w. Ale dyscyplina ta nie odpowiedziała na kluczowe pytanie: czym on jest? Takie ambicje ma kognitywistyka.

Filozofowie, próbując analizować naturę umysłu, korzystali z metafor. Strategia była prosta: aby przybliżyć, czym jest coś, czego jeszcze nie rozumiemy, trzeba porównać to do czegoś dobrze znanego. Na przykład Gottfried Wilhelm Leibniz porównywał umysł do młyna, twierdząc jednak, że zrozumienie jego skomplikowanego mechanizmu nie powie nam, jak powstaje psychika. Poszczególne przejawy umysłu również ujmowane były w sposób metaforyczny. Platon uważał, że myślenie jest rozmową duszy z samą sobą. W innym miejscu myślenie porównywał do widzenia oczyma duszy. Średniowieczni filozofowie pisali o pamięci, wykorzystując metaforę księgi, alchemicy zaś woleli metaforę światła.

Nawet w XX w. uczeni nie zrezygnowali z metafor. Zygmunt Freud, twórca psychoanalizy (czytaj też na s. 54), porównywał umysł do układu hydraulicznego, w którym nadmierne ciśnienie jest przyczyną zaburzeń psychicznych. Neurofizjolog sir Charles Scott Sherrington, który w 1932 r. dostał Nagrodę Nobla za odkrycia „dotyczące funkcji neuronów”, porównywał z kolei umysł do centrali telefonicznej. W latach 50. XX w., gdy powstały pierwsze maszyny liczące, zawrotną karierę zrobiła metafora umysłu jako komputera. I właśnie ona została wykorzystana w nowej dyscyplinie naukowej – kognitywistyce, która w końcu miała udzielić odpowiedzi na pytania o naturę naszego myślenia i poznania.

Przełomowy rok

Anglojęzyczną nazwę dyscypliny cognitive science przyjęło się w języku polskim oddawać zaproponowanym przez filozofa i logika Jerzego Perzanowskiego neologizmem „kognitywistyka” lub bardziej dosłownie jako „nauka o poznaniu”. Współcześnie rozumie się przez nią interdyscyplinarny projekt, realizowany na pograniczu dziedzin takich jak: psychologia, neuronauka, informatyka, antropologia, językoznawstwo i filozofia. Celem kognitywistów jest zarówno zrozumienie elementarnych procesów poznawczych, takich jak np. percepcja, pamięć czy uwaga, jak również odkrycie mózgowych mechanizmów świadomości, emocji, podejmowania decyzji, rozumienia i posługiwania się językiem, a nawet wydawania sądów estetycznych i moralnych. Kognitywiści często podejmują klasyczne problemy filozoficzne, próbując rozwiązać je za pomocą wiedzy o działaniu mózgu. Takim dyskutowanym żywo zagadnieniem jest np. wolna wola. W związku z tak dużą rozpiętością tematyczną przedstawiciele kognitywistyki często dookreślają swoje podstawowe zainteresowania, nazywając się neurokognitywistami, informatykami kognitywnymi czy neurofilozofami.

W zależności od przedmiotu zainteresowania i podstawowego wykształcenia kognitywiści wykorzystują różne metody – należą do nich: symulacje i modele komputerowe, eksperymenty psychologiczne i neuronaukowe, porównania różnych języków i kultur, a także filozoficzne dociekania, w których opierają się na obecnym stanie wiedzy naukowej. Sceptyk może łatwo zarzucić współczesnej kognitywistyce metodologiczny anarchizm albo przynajmniej eklektyzm – przecież dyscypliny, na pograniczu których powstała, posługują się swoistymi metodami, wypracowały różne języki, a często zupełnie inaczej podchodzą do tych samych zjawisk. Jednak u swych początków kognitywistyka była dyscypliną zdecydowanie bardziej jednorodną, choć cele i ambicje, które jej przyświecały, nie były wcale skromniejsze.

Początki kognitywistyki wiążą się z rozwojem informatyki i rozbudzonymi przez nią nadziejami. Choć, jak każda nauka, ewoluowała stopniowo, za symboliczny moment jej powstania uznaje się 11 września 1956 r., kiedy w Massachusetts Institute of Technology (MIT) odbyło się seminarium z udziałem twórcy teorii informacji Claude’a Shannona, autorów pierwszych programów sztucznej inteligencji Allena Newella i Herberta Simona, lingwisty Noama Chomsky’ego, który na wiele lat wyznaczył bieg tej dyscypliny, oraz psychologa eksperymentalnego George’a Millera. Dwie dekady później ostatni z nich stwierdził, że umocniło się wówczas „silne przekonanie, bardziej intuicyjne niż racjonalne, że psychologia eksperymentalna, lingwistyka teoretyczna i komputerowa symulacja procesów poznawczych to kawałki większej całości”. 11 września 1956 r. to jego zdaniem „dzień, w którym kognitywistyka wyskoczyła z łona cybernetyki i stała się szanowanym, interdyscyplinarnym przedsięwzięciem realizowanym na swój własny rachunek”.

Rok 1956 był dla kognitywistyki także czasem wymiernych efektów. George Miller opublikował wówczas słynny artykuł „The Magical Number Seven, Plus or Minus Two” (Magiczna liczba siedem, plus/minus dwa), w którym zaprezentował dane eksperymentalne na temat ograniczeń pamięci krótkotrwałej. (Dziś wiemy, że jej pojemność jest jeszcze mniejsza; zależy ona od charakterystyki zapamiętywanego materiału, ale ogólnie wynosi zaledwie około czterech elementów). W tym samym roku zostały ukończone dwa pierwsze praktyczne projekty „sztucznej inteligencji” – sam termin został zresztą wprowadzony również w tym czasie przez informatyka Johna McCarthy’ego.

Allen Newell i Herbert Simon, wspólnie z Cliffem Shawem, napisali program „Logic Theoretist”, mający naśladować rozwiązywanie problemów przez człowieka. Programowi udało się dowieść kilkudziesięciu twierdzeń, które Alfred North Whitehead i Bertrand Russell zawarli w klasycznym traktacie logicznym „Principia Mathematica”. Co więcej, program ...

[pełna treść dostępna dla abonentów Polityki Cyfrowej]