AI wsadza ludzi do więzienia – ludzka weryfikacja nadal jest niezbędna

Czy AI może naprawdę przewidzieć przyszłe przestępstwa? Kontrowersje wokół algorytmów ryzyka i systemów rozpoznawania twarzy w wymiarze sprawiedliwości.

AI jest skutecznym narzędziem, które zwielokrotnia nasze możliwości i sugeruje optymalne rozwiązania. Ale musimy pamiętać, że to tylko narzędzie. Oznacza to, że ostateczną decyzję o samym jego użyciu, ale też sposobie tego użycia, powinien podjąć człowiek.

A z tym bywa różnie.

Ostatnio świat obiegły wiadomości o przypadkach błędnego zastosowania AI przez amerykański resort sprawiedliwości.

Stany Zjednoczone – przepełnione areszty

Stany Zjednoczone zmagają się z problemem dużej liczby obywateli objętych różnymi formami nadzoru penitencjarnego. W 2016 roku dotyczyło to prawie 7 milionów Amerykanów. To sprawia, że pojawia się  presja, aby zmniejszyć liczbę więźniów, oczywiście bez stwarzania ryzyka wzrostu przestępczości. To z kolei doprowadziło do pojawienia się pomysłu, by organy ścigania używały zautomatyzowanych narzędzi, w tym systemów rozpoznawania twarzy. Wykorzystują je, by sprawniej identyfikować podejrzanych.

Praktyki te prawie od razu spotkały się z krytyką. Pytano o to, czy faktycznie poprawiają bezpieczeństwo, czy też utrwalają istniejące nierówności?

AI – problemy z systemami rozpoznawania twarzy i algorytmami ryzyka

Badacze i obrońcy praw obywatelskich wielokrotnie wykazywali, że systemy rozpoznawania twarzy zawodzą w przypadku osób o ciemniejszej karnacji – zdarzało się, że system mylił członków kongresu ze skazanymi przestępcami. Dodatkowo błędy algorytmów bywały zwielokrotniane przez złą jakość danych. Nierzadko zdjęcia wykorzystywane do analizy były niskiej rozdzielczości lub wykonane w słabych warunkach oświetleniowych. Wszystko to prowadziło do niesłusznych zatrzymań.

Po aresztowaniu wprowadzane jest najbardziej kontrowersyjne narzędzie – algorytmy oceny ryzyka przestępczego. Badają one profil oskarżonego i przewidują tzw. wynik recydywy – czyli pojedynczą liczbę określającą prawdopodobieństwo, że dana osoba ponownie popełni przestępstwo. Sędzia uwzględnia ten wynik przy podejmowaniu decyzji, które mogą określić, czy dana osoba powinna zostać osadzona w więzieniu przed rozprawą i jak surowy powinna dostać wyrok.

Logika używania takich narzędzi opiera się na tym, że jeśli możesz dokładnie przewidzieć zachowanie przestępcy, możesz lepiej zaplanować, czy przeznaczyć środki na resocjalizację, czy na kary więzienia. Teoretycznie zmniejsza to również uprzedzenia, ponieważ sędziowie podejmują decyzje na podstawie rekomendacji opartych na danych, a nie na intuicji.

Historia (de)generuje algorytm

Ale tutaj pojawia się problem.

Rekomendacje generuje algorytm trenowany na historycznych statystycznych danych o przestępczości. Tworzy on wzorce – korelacje statystyczne, które nie wiążą przyczyn ze skutkami. Jeśli na przykład algorytm odkryje, że niski dochód koreluje z wysokim wskaźnikiem recydywy to go podwyższy. Niezależnie od tego, czy  pomiędzy niskim dochodem a ryzykiem popełnienia kolejnego przestępstwa występuje faktyczna kauzacja. To przecież jedynie informacja, że w konkretnym czasie wystąpiły razem dwa zjawiska: niski dochód i wzrost przestępczości. Nie oznacza to, że jedno spowodowało drugie. Niestety narzędzia do oceny ryzyka przekształcają korelacje w pozorne związki przyczynowe.

To powoduje, że populacje, które historycznie były nieproporcjonalnie często atakowane przez organy ścigania – jak mniejszości i społeczności o niskich dochodach – są narażone na wysokie oceny prawdopodobieństwa recydywy. W rezultacie otrzymujemy błędne koło: algorytm zamiast zapobiegać, wzmacnia i utrwala zakorzenione uprzedzenia.

AI  – tak czy nie? – debata trwa

Na szczęście debata nad tymi narzędziami wciąż trwa. W 2018 roku w Stanach Zjednoczonych ponad 100 organizacji zajmujących się prawami obywatelskimi podpisało oświadczenie wzywające do zaprzestania stosowania oceny ryzyka. W odpowiedzi niektóre sądy i władze stanowe zaproponowały im współpracę nad poprawą sytuacji przepełnionych więzień i aresztów. 

Marbre Stahly-Butts z organizacji Law for Black Lives powiedziała: „Ocena ryzyka oparta na danych to sposób na oczyszczenie i zalegalizowanie opresyjnych systemów”. Dodała również: „Nie jesteśmy ryzykiem. Jesteśmy potrzebami”.

A jak to wygląda w Europie?

Brytyjski rząd planuje umożliwić policji dostęp do bazy danych zawierającej zdjęcia 50 milionów posiadaczy prawa jazdy. Brytyjczycy traktują to jako naruszenie swojej prywatności, więc protestują.

Unia Europejska rozważała udostępnienie zdjęć z rejestrów praw jazdy państw członkowskich w bazie danych Prüm do walki z przestępczością. Propozycja ta jednak została wycofana na początku tego roku. Uznano ją za nieproporcjonalne naruszenie prywatności.

Autor

Adam Jędrusyna

Fan nowych technologii i historii. Z natury stoik i minimalista.

Podziel się

Może Cię zainteresować