Forskere finder ud af, at AI-programmer lærer raciale og kønsfordelinger

Wikipedia Commons
Del denne historie!

Et AI-program, der lærer af, hvad mennesker kender og skriver om, ville naturligvis hente alle de partier og regne ud, at de er normale. Grundlæggende indebærer dette, at de negative aspekter af menneskelig adfærd simpelthen vil blive overført til kunstig intelligens.  TN Editor

Et kunstigt intelligensværktøj, der har revolutioneret computerens evne til at fortolke sprog i det daglige, har vist sig at have slående køns- og racevilkår.

Resultaterne rejser spektret af eksisterende sociale uligheder og fordomme, der styrkes på nye og uforudsigelige måder, da et stigende antal beslutninger, der påvirker vores hverdag, afskrives til automatiske.

I de sidste par år er programmer som Google Translate til at tolke sprog forbedret dramatisk. Disse gevinster har været takket være nye maskinlæringsteknikker og tilgængeligheden af ​​store mængder online tekstdata, som algoritmerne kan trænes på.

Efterhånden som maskiner kommer tættere på at tilegne sig menneskelige lignende sprogfærdigheder, absorberer de også de dybt indgroede partier, der er skjult inden for sprogbrugets mønstre, afslører den nyeste forskning.

Joanna Bryson, en computer videnskabsmand ved University of Bath og en medforfatter, sagde: ”Mange mennesker siger, at dette viser, at AI er fordømt. Nej. Dette viser, at vi er fordomme, og at AI lærer det. ”

[the_ad id = "11018 ″]

Men Bryson advarede om, at AI har potentialet til at forstærke eksisterende forudindtrængninger, fordi algoritmer, i modsætning til mennesker, muligvis kan udveksles for bevidst at modvirke indlærte forspændinger. ”En fare ville være, hvis du havde et AI-system, der ikke havde en eksplicit del, der var drevet af moralske ideer, det ville være dårligt,” sagde hun.

Forskningen, offentliggjort i tidsskriftet Videnskab, fokuserer på et maskinindlæringsværktøj kendt som "word embedding", som allerede transformerer den måde, computere fortolker tale og tekst på. Nogle hævder, at det naturlige næste trin for teknologien kan involvere maskiner, der udvikler menneskelignende evner såsom sund fornuft og logik.

”En væsentlig årsag til, at vi valgte at studere ordindlejringer, er, at de har været fantastisk succesfulde i de sidste par år med at hjælpe computere med at give mening om sproget,” sagde Arvind Narayanan, en datalogi ved Princeton University og papirets seniorforfatter.

Fremgangsmåden, der allerede bruges i websøgning og maskinoversættelse, fungerer ved at opbygge en matematisk repræsentation af sprog, hvor betydningen af ​​et ord er destilleret til en række tal (kendt som en ordvektor) baseret på hvilke andre ord vises ofte ved siden af. Måske overraskende synes denne rent statistiske tilgang at fange den rige kulturelle og sociale kontekst af, hvad et ord betyder på den måde, at en ordbordsdefinition ikke ville være i stand til.

Læs hele historien her ...

Tilmeld
Underretning af
gæst

1 Kommentar
Ældste
Nyeste Mest afstemt
Inline feedbacks
Se alle kommentarer
Nigel

Fordomme er en del af den menneskelige tilstand - vi samarbejder med mennesker, der ligner os, vi samler i grupper, der er ligesom os selv og holder vores synspunkter, vi ser med mistanke de, der ikke er og ikke gør - det er vores evolutionære vej. Dette er et andet spaltningspunkt identificeret af dette teknokrati - det er en fornærmelse en spænding placeret på selve stoffet i, hvem vi er. At nægte os vores forskelle og at nægte at tillade os at fejre dem er i strid med vores natur, får os til dyb nød og til at sigte mod det, som... Læs mere "