POLITYKA

Czwartek, 23 listopada 2017

Polityka - nr 24 (3013) z dnia 2015-06-10; s. 32-33

Społeczeństwo

Katarzyna Szymielewicz

Prawda ekranu

Ministerstwo Pracy i Polityki Społecznej w ramach innowacji walczy z bezrobociem za pomocą komputerowego algorytmu.

Nowy system został oparty na słusznych przesłankach: nie każdy, kto formalnie zarejestrował się w urzędzie pracy, potrzebuje tego samego wsparcia. Niektórzy nie szukają niczego poza ubezpieczeniem zdrowotnym. Inni potrzebują, w pierwszej kolejności, szkolenia czy dotowanego stażu, ponieważ wypadli z rynku pracy. Wreszcie, są też tacy, którzy mogą i chcą podjąć pracę od ręki. Rozróżnienie tych potrzeb i odpowiednie dopasowanie oferty, jaką może zaproponować bezrobotnemu urząd pracy, ma sens. Problem zaczyna się w praktyce: kto i na jakiej podstawie powinien tego rozróżnienia dokonać?

Ministerstwo Pracy i Polityki Społecznej postawiło na dane i profilujący algorytm. Urzędnicy zostali wyposażeni w podręcznik ze szczegółowymi wytycznymi, jak przeprowadzić wywiad i zebrać potrzebne informacje, oraz program komputerowy, który na tej podstawie podpowiada, do której kategorii należy zaliczyć konkretnego człowieka.

Z podręcznika przygotowanego przez ministerstwo dla przeprowadzających wywiad urzędników wynika, że do trzeciej kategorii (najgorzej rokującej z perspektywy zatrudnienia) powinny trafiać w szczególności osoby, które pracują w tzw. szarej strefie, zamieszkałe w miejscowościach „niekorzystnie ulokowanych względem rynku pracy”, sprawujące stałą opiekę (np. nad niepełnosprawnymi dziećmi), kobiety wychowujące dzieci i prowadzące gospodarstwo domowe, osoby samotne, bez wsparcia w rodzinie, które borykają się z niepełnosprawnością. Jeśli w trakcie wywiadu bezrobotny ujawni jedną z tych cech, algorytm – jak można przypuszczać – zasugeruje przyporządkowanie do trzeciej kategorii. Tak ustrukturyzowany wywiad pomija szczególne okoliczności i charakterystykę konkretnej osoby – np. świetnie zorganizowane samotne matki i niepełnosprawnych, którzy nie będą mieli problemu z kontaktem z pracodawcą. Uwzględnienie takich okoliczności mogłoby prowadzić do zupełnie innych wniosków.

Na efekty eksperymentu nie trzeba było długo czekać: parę tygodni po wdrożeniu nowego systemu do Fundacji Panoptykon zaczęły napływać listy od osób bezrobotnych, które poczuły się zdyskryminowane lub dotkliwie niezrozumiane przez profilujący algorytm, oraz od samych urzędników, którzy widząc, jak ich praca ze świadczenia pomocy zmienia się w bezduszną taśmę, zdecydowali się to ujawnić.

Eksperyment masowy

Algorytmy przeczesujące rzeczywistość społeczną to nie jest polski wynalazek. Pionierami są Amerykanie. National Security Agency od lat codziennie gromadziło dane telekomunikacyjne – lokalizację, połączenia telefoniczne i internetowe, łącznie z treścią rozmów, esemesów i maili ok. 4 mld ludzi. To, co były analityk amerykańskiego wywiadu i znany w Stanach sygnalista William Binney nazywa „porażką masowej inwigilacji”, powraca teraz w amerykańskiej debacie publicznej. Właśnie wygasł kontrowersyjny Patriot Act – prawo przyjęte po zamachach z 11 września 2001 r., które na długie lata usankcjonowało masową inwigilację, jednak w powszechnym odczuciu nie zapewniło bezpieczeństwa. W gorącej atmosferze Kongres i Senat debatują, jak uregulować działania służb specjalnych, by zwiększyć ich skuteczność, jednocześnie szanując konstytucyjne wartości.

Tymczasem parę tygodni temu amerykańskiej policji w ostatniej chwili udało się powstrzymać zamach terrorystyczny podczas zawodów karykaturzystów w Teksasie. Operacja była możliwa nie za sprawą informacji wywiadowczych, ale dzięki ostrzeżeniu, które dwa dni wcześniej wysłała do policji grupa hakerów spod szyldu Anonymous. Na podstawie dostępnych w internecie danych i prostej analizy sieciowej byli w stanie przewidzieć wydarzenie, które przeoczyły zagubione w danych, przerośnięte agencje wywiadowcze.

Najbardziej spektakularną porażką analityczną służb był udany zamach na World Trade Center w 2001 r. Właśnie to wydarzenie, któremu zdaniem Williama Binneya też można było zapobiec, skłoniło go do przejścia na pozycję krytyka systemu. „Aby gromadzenie miało sens, jeden pracownik musiałby skontrolować dziennie 200 tys. osób”tłumaczy Binney. „Przywaleni danymi funkcjonariusze zarzucili analizę kierunkową – jedyną, która może wykryć rzeczywiste zagrożenia – na rzecz prostego przeszukiwania baz danych po słowach kluczowych. To daje mnóstwo nic nieznaczących »trafień« zamiast wiedzy o istotnych powiązaniach między danymi”.

Binney ma solidne podstawy, by oceniać, jak służby wykorzystują zbierane dane – ten genialny matematyk pracujący dla amerykańskiej NSA wymyślił program służący do analizy metadanych (informacji o tym, kto, z kim, skąd i kiedy nawiązał połączenie) o kryptonimie Thin Thread. Poruszony bezradnością amerykańskich służb w przewidywaniu ważnych wydarzeń – np. agresji na Czechosłowację w 1968 r. – przez wiele lat, z własnej inicjatywy, szukał sposobu na usprawnienie ich zdolności analitycznych. Jednak kiedy go już znalazł i przekuł w konkretny program, dowiedział się, że na taką innowację nie ma zapotrzebowania. Pragmatyczny interes służb specjalnych leży bowiem w ogromnych kontraktach na informatyczną infrastrukturę i w zbieraniu haków na politycznych przeciwników. Stworzony przez Binneya program odrzucono jako zbyt tani i niepozwalający gromadzić danych „na wszelki wypadek”.

Algorytm na człowieka

W Polsce nie ma sygnalistów, którzy – jak Binney czy Edward Snowden – znając od kuchni zasady działania służb specjalnych, zdecydowaliby się ujawnić niebezpieczne absurdy lub nadużycia. Nie wiemy zatem, czy i nasze ...

[pełna treść dostępna dla abonentów Polityki Cyfrowej]