Den stigende tidevand af algoritmer, der kører verden

Mind kontrolYoutube
Del denne historie!

Technocrats har allerede oprettet nok algoritmer til at styre verden, men det har næppe ridset overfladen. I sidste ende vil videnskabeligt diktatur kontrollere stort set alt.  TN Editor

Når du søger online efter et nyt par sko, vælger en film, der skal streame på Netflix eller ansøger om et billån, har en algoritme sandsynligvis sit ord at sige om resultatet.

De komplekse matematiske formler spiller en voksende rolle i alle samfundslag: fra at opdage hudkræft til at foreslå nye Facebook-venner, beslutte, hvem der får et job, hvordan politiets ressourcer udnyttes, hvem der får forsikring til hvilken pris, eller hvem der har en ” ingen flyve-liste.

Algoritmer bruges - eksperimentelt - til at skrive nyhedsartikler fra rådata, mens Donald Trumps præsidentkampagne blev hjulpet af adfærdsmarkedsførere, der brugte en algoritme til at finde de højeste koncentrationer af "overtalelige vælgere".

Men mens sådanne automatiserede værktøjer kan indsprøjte et mål for objektivitet i tidligere subjektive beslutninger, er frygt stigende over manglen på gennemsigtighedsalgoritmer kan medføre, med et stigende pres for at anvende etiske standarder eller "ansvarlighed".

Dataforsker Cathy O'Neil advarer om "blindt tillid til" formler for at bestemme et retfærdigt resultat.

”Algoritmer er ikke i sagens natur retfærdige, fordi den person, der bygger modellen, definerer succes,” sagde hun.

Forstærkende ulemper

O'Neil hævder, at mens nogle algoritmer kan være nyttige, kan andre være skumle. I sin bog fra 2016, "Weapons of Math Destruction", citerer hun nogle foruroligende eksempler i USA:

  • Offentlige skoler i Washington DC i 2010 fyrede mere end 200 lærere - inklusive flere respekterede instruktører - baseret på scoringer i en algoritmisk formel, der evaluerede præstation.
  • En mand diagnosticeret med bipolar lidelse blev afvist for ansættelse hos syv store detailhandlere, efter at en tredjeparts “personlighedstest” anså ham for høj risiko baseret på dens algoritmiske klassificering.
  • Mange jurisdiktioner bruger "forudsigende politistyring" til at flytte ressourcer til sandsynlige "hot spots". O'Neill siger, at afhængigt af hvordan data indføres i systemet, kan dette føre til opdagelse af flere mindre forbrydelser og en "feedback-loop", som stigmatiserer fattige samfund.
  • Nogle domstole er afhængige af computerrangerede formler for at bestemme fængselsstraffe og prøveløsladelse, hvilket kan diskriminere mindretal ved at tage højde for "risikofaktorer" såsom deres kvarterer og deres familie eller familie til forbrydelser.
  • I finansverdenen "skraber" mæglere data fra online og andre kilder på nye måder til at træffe beslutninger om kredit eller forsikring. Dette forstærker for ofte fordomme over for de dårligt stillede, hævder O'Neil.

Hendes fund blev gentaget i en rapport fra Det Hvide Hus sidste år, der advarede om, at algoritmiske systemer "ikke er ufejlbare - de er afhængige af de ufuldkomne input, logik, sandsynlighed og mennesker, der designer dem."

Rapporten bemærkede, at datasystemer ideelt kan hjælpe med at udrydde menneskelig bias, men advarede mod algoritmer, der "systematisk forringer visse grupper."

Læs hele historien her ...

Tilmeld
Underretning af
gæst
0 Kommentarer
Inline feedbacks
Se alle kommentarer