Politi overalt i USA træner kriminelle forudsigelser af AI'er på forfalskede data

Wikimedia Commons
Del denne historie!
image_pdfimage_print
Hele det strafferetlige system i hele Amerika bliver ødelagt af det åbenlyse misbrug af AI-teknologi. Politiet er ikke uvidende, når de søger de resultater, de ønsker, i stedet for de objektive fakta om en sag. Dette kan sammenlignes med det falske videnskabssamfund for global opvarmning. ⁃ TN Editor

I maj 2010, bedt om en række høje profilerede skandaler, bad borgmesteren i New Orleans det amerikanske justitsministerium om at undersøge byens politidepartement (NOPD). Ti måneder senere tilbød DOJ det blærende analyse: NOPD havde i perioden med sin gennemgang fra 2005 og fremover gentagne gange overtrådt forfatnings- og føderal lovgivning.

Den brugte overdreven kraft og uforholdsmæssigt over for sorte beboere; målrettede raceminoriteter, ikke-engelsktalende og LGBTQ-individer; og undlod at tackle vold mod kvinder. Problemerne, sagde assisterende retsadvokat Thomas Perez på det tidspunkt var "seriøs, vidtrækkende, systemisk og dybt forankret inden for kulturens afdeling."

På trods af de foruroligende fund gik byen ind i en hemmeligt partnerskab kun et år senere hos data-mining-firmaet Palantir for at installere et forudsigeligt politisystem. Systemet brugte historiske data, herunder arrestordre og elektroniske politirapporter, til at forudsige kriminalitet og hjælpe med at forme strategier for offentlig sikkerhed i henhold til selskab og sort byregering materialer. Disse materialer antydede på intet tidspunkt nogen indsats for at rense eller ændre dataene for at tackle de overtrædelser, der blev afsløret af DOJ. Efter al sandsynlighed blev de beskadigede data ført direkte ind i systemet, hvilket styrker afdelingens diskriminerende praksis.

Forudsigelige politiets algoritmer bliver almindelig praksis i byer overalt i USA. Selvom manglende gennemsigtighed gør det nøjagtigt at fastlægge nøjagtige statistikker, er PredPol, en førende leverandør, prale af at det hjælper med at "beskytte" 1 hos 33 amerikanere. Softwaren udråbes ofte som en måde at hjælpe tyndt strakte politiafdelinger med at træffe mere effektive, datadrevne beslutninger.

Men ny forskning antyder, at det ikke kun er New Orleans, der har trænet disse systemer med "beskidte data." papir frigivet i dag, for at blive offentliggjort i NYU Law Review, fandt forskere ved AI Now Institute, et forskningscenter, der studerer den sociale virkning af kunstig intelligens, problemet gennemgribende blandt de jurisdiktioner, det studerede. Dette har betydelige konsekvenser for effektiviteten af ​​forudsigelig politiarbejde og andre algoritmer anvendt i det strafferetssystem.

”Dit system er kun så godt som de data, du bruger til at træne det på,” siger Kate Crawford, medstifter og meddirektør for AI Now og en forfatter til undersøgelsen. ”Hvis dataene i sig selv er ukorrekte, vil det medføre, at flere politiressourcer bliver fokuseret på de samme overvågede og ofte racemæssige målgrupper. Så hvad du har gjort, er faktisk en type teknisk vask, hvor mennesker, der bruger disse systemer, antager, at de på en eller anden måde er mere neutrale eller objektive, men faktisk har de indgroet en form for utraditionelhed eller ulovlighed. ”

Forskerne undersøgte 13-jurisdiktioner med fokus på dem, der har brugt forudsigelige politisystemer og været genstand for en regeringsopdraget undersøgelse. Det sidstnævnte krav sikrede, at politimetoderne havde juridisk verificerbar dokumentation. I ni af jurisdiktionerne fandt de stærke bevis for, at systemerne var blevet trænet i "beskidte data."

Problemet var ikke kun data skævne af uforholdsmæssig målretning mod mindretal som i New Orleans. I nogle tilfælde havde politiafdelingerne en kultur med bevidst manipulering eller forfalskning af data under intenst politisk pres for at nedbringe officielle kriminalitetsrater. I New York, for eksempel for at kunstigt udtømme kriminalitetsstatistik, bad kommandantførere regelmæssigt ofrene i forbrydelsesscener om ikke at indgive klager. Nogle politifolk plantede endda stoffer på uskyldige mennesker for at imødekomme deres kvoter for anholdelser. I moderne forudsigelige politisystemer, der er afhængige af maskinlæring til at forudsige kriminalitet, bliver de ødelagte datapunkter legitime prediktorer.

Læs hele historien her ...

Deltag i vores mailingliste!


Tilmeld
Underretning af
gæst
2 Kommentarer
Ældste
Nyeste Mest afstemt
Inline feedbacks
Se alle kommentarer
Tom S

GIGO! Affald ind; Affald ud!