Aresztowania przez błąd sztucznej inteligencji. Ciężko oszacować skalę pomyłek

Aresztowania przez błąd sztucznej inteligencji. Ciężko oszacować skalę pomyłek

Dodano: 
Sztuczna inteligencja. Zdj. ilustracyjne
Sztuczna inteligencja. Zdj. ilustracyjne Źródło: Unsplash / Aidin Geranrekab
W wyniku błędu sztucznej inteligencji policja zatrzymała niewłaściwe osoby. Naukowcy ostrzegają.

W wyniku błędu sztucznej inteligencji policja zatrzymała co najmniej ośmiu Amerykanów. Jak przekazał dziennik "Washington Post" osoby te zostały mylnie zidentyfikowane przez oprogramowanie rozpoznawania twarzy.

Dziennik przeanalizował dane z policyjnych raportów, akt sądowych oraz rozmów z funkcjonariuszami, prokuratorami i adwokatami. Redakcja zaznaczyła, że prawdopodobnie udało się w ten sposób uwidocznić jedynie fragment problemu. Otóż prokuratorzy rzadko informują społeczeństwo o wykorzystaniu narzędzi sztucznej inteligencji, a obowiązek ujawnienia takich działań istnieje jedynie w siedmiu stanach. Całkowitą liczbę przypadków niesłusznych zatrzymań wynikających z błędnych analiz AI trudno zatem określić – zauważył "Washington Post".

Proceduralne zaniedbania prowadzące do niesłusznych zatrzymań

Według ustaleń gazety, w ośmiu znanych przypadkach, gdzie doszło do niesłusznych aresztowań, policja bazowała na identyfikacji twarzy wykonanej przez systemy AI, pomijając przy tym co najmniej jedno kluczowe działanie śledcze. Gdyby przeprowadzono weryfikację alibi, porównano znaki szczególne lub sprawdzono dowody DNA bądź odciski palców, te osiem osób mogłoby zostać wykluczonych z kręgu podejrzanych jeszcze przed zatrzymaniem.

W sześciu z tych przypadków funkcjonariusze nie zweryfikowali alibi podejrzanych, a w dwóch zignorowano dowody przeczące postawionym założeniom – nawet tak istotne, jak ślady DNA czy odciski palców, które wskazywały na innego możliwego sprawcę. W pięciu sytuacjach policja nie zgromadziła kluczowych dowodów. Gazeta podała przykład zatrzymania mężczyzny podejrzewanego o zrealizowanie w banku fałszywego czeku na dużą kwotę. Po identyfikacji przez system AI funkcjonariusze dokonali aresztowania, lecz nie sprawdzili nawet kont bankowych zatrzymanego.

Trzykrotnie zignorowano cechy fizyczne podejrzanych, które nie zgadzały się z rozpoznaniem dokonanym przez AI. Przykładem jest przypadek kobiety w zaawansowanej ciąży, która została aresztowana za kradzież samochodu, mimo że ani monitoring, ani świadkowie nie wskazywali na ciężarną jako sprawczynię przestępstwa. W sześciu przypadkach policja pominęła weryfikację zeznań świadków. W jednym z nich tożsamość podejrzanego o kradzież drogiego zegarka potwierdził pracownik ochrony, który w momencie zdarzenia nie przebywał w sklepie.

Ograniczenia technologii rozpoznawania twarzy

"WP" zwrócił uwagę, że oprogramowanie do identyfikacji twarzy osiąga niemal perfekcyjną skuteczność w warunkach laboratoryjnych, przy użyciu wyraźnych zdjęć porównawczych. Jednak, jak podkreśliła Katie Kinsey, naukowiec z wydziału prawa uniwersytetu w Nowym Jorku, dotychczas nie przeprowadzono niezależnych testów weryfikujących skuteczność tej technologii w przypadku niewyraźnych nagrań z monitoringu. W efekcie trudno oszacować, jak często system popełnia błędy przy rozpoznawaniu twarzy.

Co więcej, naukowcy wykazali, że osoby korzystające z narzędzi AI mogą ulegać tzw. efektowi automatyzmu, czyli tendencji do bezkrytycznego akceptowania wyników przedstawianych przez system. W badaniach przeprowadzonych przez neurobiologów z University College of London uczestnicy wybierali jako najbardziej podobne do wzoru te odciski palców, które komputer wskazał im w pierwszej kolejności. "Zaufanie do technologii uniemożliwiło im prawidłowe oszacowanie podobieństw" – podkreśliła redakcja.

Czytaj też:
Jakie decyzje podejmuje sztuczna inteligencja w grach wojennych? Niepokojący wynik badania
Czytaj też:
Sztuczna inteligencja. Duża inwestycja Microsoftu w Azji

Źródło: PAP / Washington Post
Czytaj także