Politi overalt i USA træner kriminelle forudsigelser af AI'er på forfalskede data

Wikimedia Commons
Del denne historie!
Hele det strafferetlige system i hele Amerika bliver ødelagt af det åbenlyse misbrug af AI-teknologi. Politiet er ikke uvidende, når de søger de resultater, de ønsker, i stedet for de objektive fakta i en sag. Dette kan sammenlignes med det falske videnskabelige samfund om global opvarmning. ⁃ TN Editor

I maj 2010, bedt om en række høje profilerede skandaler, bad borgmesteren i New Orleans det amerikanske justitsministerium om at undersøge byens politidepartement (NOPD). Ti måneder senere tilbød DOJ det blærende analyse: NOPD havde i perioden med sin gennemgang fra 2005 og fremover gentagne gange overtrådt forfatnings- og føderal lovgivning.

Den brugte overdreven kraft og uforholdsmæssigt over for sorte beboere; målrettede raceminoriteter, ikke-engelsktalende og LGBTQ-individer; og undlod at tackle vold mod kvinder. Problemerne, sagde assisterende retsadvokat Thomas Perez på det tidspunkt var "seriøs, vidtrækkende, systemisk og dybt forankret inden for kulturens afdeling."

På trods af de foruroligende fund gik byen ind i en hemmeligt partnerskab kun et år senere hos data-mining-firmaet Palantir for at installere et forudsigeligt politisystem. Systemet brugte historiske data, herunder arrestordre og elektroniske politirapporter, til at forudsige kriminalitet og hjælpe med at forme strategier for offentlig sikkerhed i henhold til selskab   byregering materialer. Disse materialer antydede på intet tidspunkt nogen indsats for at rense eller ændre dataene for at tackle de overtrædelser, der blev afsløret af DOJ. Efter al sandsynlighed blev de beskadigede data ført direkte ind i systemet, hvilket styrker afdelingens diskriminerende praksis.

Forudsigelige politiets algoritmer bliver almindelig praksis i byer overalt i USA. Selvom manglende gennemsigtighed gør det nøjagtigt at fastlægge nøjagtige statistikker, er PredPol, en førende leverandør, prale af at det hjælper med at "beskytte" 1 hos 33 amerikanere. Softwaren udråbes ofte som en måde at hjælpe tyndt strakte politiafdelinger med at træffe mere effektive, datadrevne beslutninger.

Men ny forskning antyder, at det ikke kun er New Orleans, der har trænet disse systemer med "beskidte data." papir frigivet i dag, der skal offentliggøres i NYU Law Review, fandt forskere ved AI Now Institute, et forskningscenter, der studerer den sociale indvirkning af kunstig intelligens, at problemet var udbredt blandt de jurisdiktioner, det studerede. Dette har væsentlige konsekvenser for effektiviteten af ​​forudsigelig politistyring og andre algoritmer, der anvendes i det strafferetlige system.

”Dit system er kun så godt som de data, du bruger til at træne det på,” siger Kate Crawford, medstifter og meddirektør for AI Now og en forfatter til undersøgelsen. ”Hvis dataene i sig selv er ukorrekte, vil det medføre, at flere politiressourcer bliver fokuseret på de samme overvågede og ofte racemæssige målgrupper. Så hvad du har gjort, er faktisk en type teknisk vask, hvor mennesker, der bruger disse systemer, antager, at de på en eller anden måde er mere neutrale eller objektive, men faktisk har de indgroet en form for utraditionelhed eller ulovlighed. ”

Forskerne undersøgte 13-jurisdiktioner med fokus på dem, der har brugt forudsigelige politisystemer og været genstand for en regeringsopdraget undersøgelse. Det sidstnævnte krav sikrede, at politimetoderne havde juridisk verificerbar dokumentation. I ni af jurisdiktionerne fandt de stærke bevis for, at systemerne var blevet trænet i "beskidte data."

Problemet var ikke kun data skævne af uforholdsmæssig målretning mod mindretal som i New Orleans. I nogle tilfælde havde politiafdelingerne en kultur med bevidst manipulering eller forfalskning af data under intenst politisk pres for at nedbringe officielle kriminalitetsrater. I New York, for eksempel for at kunstigt udtømme kriminalitetsstatistik, bad kommandantførere regelmæssigt ofrene i forbrydelsesscener om ikke at indgive klager. Nogle politifolk plantede endda stoffer på uskyldige mennesker for at imødekomme deres kvoter for anholdelser. I moderne forudsigelige politisystemer, der er afhængige af maskinlæring til at forudsige kriminalitet, bliver de ødelagte datapunkter legitime prediktorer.

Læs hele historien her ...

Tilmeld
Underretning af
gæst

2 Kommentarer
Ældste
Nyeste Mest afstemt
Inline feedbacks
Se alle kommentarer
Tom S

GIGO! Affald ind; Affald ud!