AI kan hader dig uden menneskelig input

Del denne historie!
Flere nylige undersøgelser har vist, at dyb læring AI kan udvikle bias ligesom mennesker gør. Problemet er, at AI er helt ugyldig for menneskelige følelser og modellerer en Schizoid personlighedsforstyrrelse. ⁃ TN Editor

Hvad hvis en robot beslutter, at den hader dig?

Det kan virke som et fjollet spørgsmål, men ifølge forskning kræver det at udvikle fordommer over for andre ikke et højt niveau af kognitiv evne og kan let udstilles af robotter og andre kunstigt intelligente maskiner.

Undersøgelsen, udført af datalogi og psykologeksperter fra Cardiff University og MIT, afslørede, at grupper af autonome maskiner kunne demonstrere fordomme ved blot at identificere, kopiere og lære adfærd fra hinanden. Resultaterne blev offentliggjort i tidsskriftet Natur.

Robotter er i stand til at danne fordomme, der ligner mennesker.

In en pressemeddelelseforklarede forskerteamet, at selvom det ser ud til, at det kræves menneskelig kognition at danne meninger og stereotype andre, ser det ud til, at det ikke er tilfældet. Fordomme ser ikke ud til at være et menneskespecifikt fænomen.

Nogle typer computeralgoritmer har allerede udvist fordomme som racisme og sexisme, som maskinerne lærer af offentlige registre og andre data genereret af mennesker. I to forrige forekomster af AI, der udviser sådanne fordomme, Microsoft chatbots Tay og Zo blev lukket ned, efter at folk lærte dem at tippe racistiske og sexistiske bemærkninger på sociale medier.

Det betyder, at robotter kunne være lige så hadefulde som mennesker kan være. Og da de er tusinder af gange smartere end os, kan du forestille dig fremtiden, hvis de udvikler en bias mod menneskeheden?

Intet menneskeligt input er påkrævet.

Vejledning fra mennesker er ikke nødvendig for, at robotter skal lære at kunne ikke lide visse mennesker.

Denne undersøgelse viste imidlertid, at AI ikke har brug for provokation og inspiration fra trold for at få den til at udvise fordomme: Den er i stand til at danne dem alle af sig selv.

For at udføre forskningen oprettede teamet computersimuleringer af, hvordan fordomsfulde individer kan danne en gruppe og interagere med hinanden. De skabte et spil "give and take", hvor hver AI-bot tog en beslutning om, hvorvidt de skulle donere til en anden person i deres egen arbejdsgruppe eller en anden gruppe. Beslutningerne blev truffet på grundlag af den enkeltes omdømme og deres doneringsstrategi, herunder deres niveauer af fordomme over for enkeltpersoner i eksterne grupper.

Efterhånden som spillet skred frem, og en supercomputer opstod tusinder af simuleringer, begyndte hver enkelt at lære nye strategier ved at kopiere andre, enten inden for deres egen gruppe eller hele befolkningen.

Medforfatter til undersøgelsen Professor Roger Whitaker fra Cardiff Universitys kriminalitets- og sikkerhedsforskningsinstitut og School for Computer Science and Informatics, sagde af fundene:

Ved at køre disse simuleringer tusinder og tusinder af gange begynder vi at få en forståelse af, hvordan fordomme udvikler sig, og de forhold, der fremmer eller hindrer det.

Resultaterne involverer individer, der opdaterer deres fordomsniveauer ved fortrinsvis at kopiere dem, der får en højere kortfristet udbetaling, hvilket betyder, at disse beslutninger kræver ikke nødvendigvis avancerede kognitive evner.

Det er muligt, at autonome maskiner med evnen til at identificere sig med forskelsbehandling og kopiere andre i fremtiden kunne være modtagelige for skadelige fænomener, som vi ser i den menneskelige befolkning.

Mange af de AI-udviklinger, vi ser, involverer autonomi og selvkontrol, hvilket betyder, at opførsel af enheder også påvirkes af andre omkring dem. Køretøjer og Internettet af tingene er to nylige eksempler. Vores undersøgelse giver en teoretisk indsigt, hvor simulerede agenter periodisk opfordrer andre til en slags ressource. (kilde)

Autonomi og selvkontrol. Er det ikke, hvad der skete i Terminator-franchisen?

Musk tilføjet, "Med kunstig intelligens kalder vi dæmonen."

Læs hele historien her ...

Tilmeld
Underretning af
gæst
1 Kommentar
Ældste
Nyeste Mest afstemt
Inline feedbacks
Se alle kommentarer