Facebook opretter specialetisk team for at undersøge bias i AI-software

Del denne historie!
image_pdfimage_print
AI-programmer arver deres skabers fordomme. Således indeholder de censurprogrammer, som Facebook har oprettet, allerede frøene fra technocrat tænkning og etik. Er de samme mennesker i stand til at undersøge deres egne kreationer? ⁃ TN Editor

Mere end nogensinde, Facebook er under pres for at bevise, at dens algoritmer implementeres ansvarligt.

Onsdag, på sin F8-udviklerkonference, afslørede virksomheden, at det har dannet et specielt team og udviklet diskret software for at sikre, at dens kunstige intelligenssystemer træffer beslutninger så etisk som muligt uden forudindtaster.

Facebook, ligesom andre store tech virksomheder med produkter, der bruges af store og forskellige grupper af mennesker, er mere dybt integrerende AI i sine tjenester. Facebook sagde i denne uge, at det vil begynde at tilbyde at oversætte beskeder, som folk modtager via Messenger-appen. Oversættelsessystemer skal først trænes i data, og etisk push kan hjælpe med at sikre, at Facebooks systemer læres at give retfærdige oversættelser.

 "Vi ser tilbage og vi vil sige, 'Det er fantastisk, at vi var i stand til at være proaktive med at komme foran disse spørgsmål og forstå, før vi lancerer ting, hvad der er retfærdighed for et givet produkt for en demografisk gruppe,'" Isabel Kloumann , en forsker på Facebook, fortalte CNBC. Hun nægtede at sige, hvor mange mennesker der er på holdet.

Facebook sagde, at disse bestræbelser ikke er resultatet af nogen ændringer, der har fundet sted i de syv uger, siden det blev afsløret, at dataanalysefirma Cambridge Analytica misbrugt personlige data om det sociale netværks brugere inden valget i 2016. Men det er klart, at den offentlige stemning over for Facebook er blevet dramatisk negativ for sent, så meget, at CEO Mark Zuckerberg var nødt til at sidde i timevis med kongresforhør i sidste måned.

Hver meddelelse er nu under et mikroskop.

Facebook stoppede ikke med at danne et bestyrelse, der fokuserede på AI-etik, som Axon (tidligere Taser) gjorde det i sidste uge. Men bevægelserne stemmer overens med en bredere anerkendelse fra industrien om, at AI-forskere skal arbejde for at gøre deres systemer inkluderende. Alfabetets DeepMind AI-gruppe dannede en etik og samfundsteam sidste år. Inden da, Microsofts forskningsorganisation oprettede en Fairness Accountability Transparency and Ethics-gruppe.

AI's felt har haft sin andel af forlegenheder, ligesom da Google Fotos blev fundet for tre år siden kategorisering af sorte mennesker som gorillaer.

Sidste år udviklede Kloumanns team et stykke software kaldet Fairness Flow, som siden er blevet integreret i Facebooks meget anvendte FBLearner Flow intern software til lettere at træne og køre AI-systemer. Softwaren analyserer dataene under hensyntagen til deres format og producerer derefter en rapport, der opsummerer dem.

Kloumann sagde, at hun har arbejdet med emnet for retfærdighed, siden hun kom til Facebook i 2016, netop da folk i teknologibranchen begyndte at tale om det mere åbent, og da samfundsmæssige bekymringer dukkede op om AI's magt.

Læs hele historien her ...

 

Tilmeld
Underretning af
gæst
0 Kommentarer
Inline feedbacks
Se alle kommentarer