Policja w hrabstwie Essex testowała system monitorowania twarzy w czasie rzeczywistym, który na podstawie sztucznej inteligencji miał typować osoby potencjalnie niebezpieczne. System LFR został jednak tymczasowo wstrzymany, bo wykrywał za dużo osób czarnoskórych, a za mało osób o innym kolorze skóry. Wobec takiej sytuacji zakomunikowano, że algorytm systemu trzeba poprawić w taki sposób, aby wyeliminować "ryzyko stronniczości wobec jakiejkolwiek grupy społecznej".
System monitorowania potencjalnie niebezpiecznych wstrzymany – AI wykrywała za dużo czarnoskórych
Kamery zamontowane są na furgonetkach typu van i mają za zadanie identyfikować osoby znajdujące się na listach obserwacyjnych, jeśli znajdą się w ich zasięgu. Pod koniec ubiegłego roku z systemu korzystało trzynaście jednostek policyjnych. Jeszcze niedawno – w styczniu – minister spraw wewnętrznych w styczniu zapowiadał, że liczba furgonetek LFR wzrośnie z 10 do 50.
Policja w Essex poinformowała jednak, że decyzja o wstrzymaniu stosowania kamer do rozpoznawania twarzy na żywo zapadła z powodu "potencjalnego błędu we wskaźniku pozytywnej identyfikacji". Algorytm miał zostać "zaktualizowany" a problem rozwiązany. Przedsięwzięcie niebawem znów ruszy.
Policja w Essex tłumaczy. "Poprawiają" algorytm
Jak pisze "Sky News", system LFR przetestowali naukowcy z Uniwersytetu Cambridge. Wyszło im, że system poprawnie zidentyfikował około połowę osób znajdujących się na liście obserwowanych i że "niezwykle rzadko" zdarzało się, aby ktoś został oznaczony, jeśli nie znajdował się na liście.
Badanie wykazało, że "statystycznie istotnie bardziej prawdopodobne" było prawidłowe rozpoznanie osób czarnoskórych niż innych grup etnicznych. "Bardziej prawdopodobne" było również rozpoznanie mężczyzn niż kobiet. Naukowcy podnieśli zatem wątpliwości, stawiając pytania o uczciwość monitoringu.
Policja z Essex poinformowała "Sky News", że badanie było jednym z dwóch przez nią zleconych. Drugie sprawdzenie nie wykazało żadnych rzekomych stronniczości. Mimo to policja wstrzymała prace, aby "nawiązać współpracę z dostawcą oprogramowania algorytmicznego" w celu uaktualnienia systemu.
Czytaj też:
"Tak czy nie?". W brytyjskim parlamencie dyskutują o prawie szariatuCzytaj też:
Brytyjska prokuratura zagroziła karaniem za niewłaściwe retweety
