Ansigtsgenkendelsesalgoritme forårsaget forkert anholdelse

Del denne historie!
image_pdfimage_print
Denne historie afslører, hvorfor Amazon, IBM og Microsoft har trukket sig ud af ansigtsgenkendelsesbranchen for at aflede en vis kritik over racistisk skævhed. I dette tilfælde spikrer algoritmen den forkerte sorte mand for en forbrydelse, han ikke begik. ⁃ TN Editor

En torsdag eftermiddag i januar var Robert Julian-Borchak Williams på sit kontor hos et bilforsyningsfirma, da han fik et opkald fra Detroit-politidepartementet, hvor han bad ham komme til stationen for at blive arresteret. Han troede først, at det var en sjov.

En times tid senere, da han trak ind i sin indkørsel i en stille underafdeling i Farmington Hills, Mich., Trak en politibil bagud og blokerede for ham. To officerer kom ud og boede Mr. Williams på hans græsplæne foran hans kone og to små døtre, som var forvirrede. Politiet ville ikke sige, hvorfor han blev arresteret, og kun vise ham et stykke papir med sit foto og ordene "forbrydelsesretter" og "larceny."

Hans kone, Melissa, spurgte, hvor han blev taget med. ”Google det,” minder hun om en officer, der svarede.

Politiet kørte Mr. Williams til et interneringscenter. Han fik taget sit krusskud, fingeraftryk og DNA og blev holdt natten over. Omkring middag på fredag ​​tog to detektiver ham med til et forhørrum og lagde tre papirstykker på bordet med forsiden nedad.

”Hvornår er sidste gang du gik til en Shinola-butik?” spurgte en af ​​detektiverne i Mr. Williams erindring. Shinola er en eksklusiv butik, der sælger ure, cykler og lædervarer i det trendy Midtown-kvarter Detroit. Hr. Williams sagde, at han og hans kone havde tjekket det ud, da butikken først åbnede i 2014.

Detektiv vendte det første stykke papir om. Det var et stillbillede fra en overvågningsvideo, der viser en tunge mand, klædt i sort og iført en rød St. Louis Cardinals hætte, der stod foran en urskærm. Fem ure, værd $ 3,800, blev butiksløftet.

"Er det dig?" spurgte detektiv.

Det andet stykke papir var en nærbillede. Billedet var sløret, men det var tydeligvis ikke Mr. Williams. Han tog billedet op og holdt det ved siden af ​​sit ansigt.

”Nej, dette er ikke mig,” sagde Mr. Williams. ”Tror du, at alle sorte mænd ser ens ud?”

Mr. Williams vidste, at han ikke havde begået den pågældende forbrydelse. Hvad han ikke kunne have vidst, da han sad i forhørrummet, er, at hans sag kan være den første kendte beretning om, at en amerikaner uretmæssigt blev arresteret på baggrund af en fejlbehæftet kamp fra en ansigtsgenkendelsesalgoritme, ifølge eksperter på teknologi og loven .

Et defekt system

En landsdækkende debat raser om racisme i retshåndhævelse. Overalt i landet protesterer millioner ikke kun handlinger fra de enkelte officerer, men partiskhed i de systemer, der bruges til at overvåge samfund og identificere mennesker til retsforfølgning.

Ansigtsgenkendelsessystemer er blevet brugt af politistyrkerne til mere end to årtier. Seneste undersøgelser af MIT og National Institute of Standards and Technology, eller NIST, har fundet, at selv om teknologien fungerer relativt godt på hvide mænd, er resultaterne mindre nøjagtige for andre demografier, delvis på grund af en mangel på mangfoldighed i de billeder, der bruges til at udvikle de underliggende databaser.

Sidste år, under en offentlig høring om brugen af ansigtsgenkendelse i Detroit, var en assisterende politichef blandt dem, der rejste bekymring. "På spørgsmålet om falske positiver - det er helt faktuelt, og det er veldokumenteret," sagde James White. "Så det angår mig som en afroamerikansk mand."

Denne måned, Amazonmicrosoft og IBM meddelte, at de ville stoppe eller pause deres tilbud om ansigtsgenkendelse til retshåndhævelse. Bevægelserne var stort set symbolsk, da virksomhederne ikke er store aktører i branchen. Teknologipolitiafdelingerne bruges leveres af virksomheder, der ikke er husholdningsnavne, såsom Vigilant Solutions, Cognitec, NEC, Rank One Computing og Clearview AI.

Læs hele historien her ...

Tilmeld
Underretning af
gæst
2 Kommentarer
Ældste
Nyeste Mest afstemt
Inline feedbacks
Se alle kommentarer
DawnieR

Glem sorte mennesker …… Jeg tager et veluddannet gæt om, at dette ALDRIG vil fungere for asiaterne heller !!

dP_Ted

Det var nødt til at ske. Hvad der får mig er, at den person, computeren vælger, undertiden ser en anelse anderledes ud end den faktiske person, men det er, hvad computeren siger, der går. smh