Ex-Google Engineer: 'Killer Robots' kunne starte krig

Når regeringer styrker AI-våbenkapløbet for at dirigere autonome robotter med en 'licens til at dræbe', stiger risikoen for forfærdelige fejl også, inklusive muligheden for at starte en robotkrig. ⁃ TN Editor

En ny generation af autonome våben eller "killerrobotter" kunne ved et uheld starte en krig eller forårsage massedrydsfald, en tidligere top google softwareingeniør har advaret.

Laura Nolan, der trak sig fra Google sidste år i protest mod at blive sendt til at arbejde på et projekt for at forbedre dramatisk Amerikanske militær droneteknologi har opfordret til, at alle AI-dræbningsmaskiner, der ikke betjenes af mennesker, forbydes.

Nolan sagde, at morderobotter, der ikke ledes af menneskelig fjernbetjening, bør forbydes af den samme type international traktat, der forbød kemiske våben.

I modsætning til droner, der kontrolleres af militære hold, ofte tusinder af kilometer væk fra, hvor det flyvende våben bliver udsat, sagde Nolan, at mordereroboterne har potentialet til at gøre ”katastrofale ting, som de ikke oprindeligt var programmeret til”.

Der er intet, der antyder, at Google er involveret i udviklingen af ​​autonome våbensystemer. Sidste måned drøftede et FN-panel af regeringseksperter autonome våben og fandt, at Google undgår AI til brug i våbensystemer og deltager i bedste praksis.

Nolan, der er tilsluttet Kampagne at stoppe Killer Robots og har orienteret FN-diplomater i New York og Genève om farerne ved autonome våben, sagde: ”Sandsynligheden for en katastrofe står i forhold til, hvor mange af disse maskiner, der vil være i et bestemt område på én gang. Hvad du ser på er mulige grusomheder og ulovlige drab, selv under krigslover, især hvis hundreder eller tusinder af disse maskiner er indsat.

”Der kan være store uheld, fordi disse ting vil begynde at opføre sig på uventede måder. Derfor skal ethvert avanceret våbensystem underkastes meningsfuld menneskelig kontrol, ellers skal de forbydes, fordi de er alt for uforudsigelige og farlige. ”

Google rekrutterede Nolan, en datalogi fra Trinity College Dublin, til at arbejde på Project Maven i 2017, efter at hun havde været ansat i tech-giganten i fire år og blev en af ​​de største softwareingeniører i Irland.

Hun sagde, at hun blev "mere og mere etisk bekymret" over sin rolle i Maven-programmet, der blev udtænkt for at hjælpe det amerikanske forsvarsministerium med at drastisk fremskynde drone-videogenkendelsesteknologi.

I stedet for at bruge et stort antal militære operativer til at spole gennem timer og timer med drone-videofilmoptagelser af potentielle fjendens mål, blev Nolan og andre bedt om at opbygge et system, hvor AI-maskiner kunne differentiere mennesker og genstande i en uendelig hurtigere hastighed.

Google lod Project Maven-kontrakten bortfalde i marts i år efter mere end 3,000 af dets ansatte underskrev en andragende i protest mod virksomhedens engagement.

”Som ingeniør på stedet-pålidelighed var min ekspertise hos Google at sikre, at vores systemer og infrastrukturer blev vedligeholdt, og det var, hvad jeg skulle hjælpe Maven med. Selvom jeg ikke var direkte involveret i at fremskynde genkendelsen af ​​videooptagelser, indså jeg, at jeg stadig var en del af drabskæden; at dette i sidste ende ville føre til, at flere mennesker blev målrettet og dræbt af det amerikanske militær på steder som Afghanistan. ”

Selvom hun trak sig tilbage over Project Maven, har Nolan forudsagt, at autonome våben, der udvikles, udgør en langt større risiko for den menneskelige race end fjernstyrede droner.

Hun redegjorde for, hvordan eksterne kræfter spænder fra skiftende vejrsystemer til maskiner, der ikke er i stand til at udarbejde kompleks menneskelig adfærd, kan kaste dræberobotter ud af banen med muligvis fatale konsekvenser.

”Du kunne have et scenarie, hvor autonome våben, der er blevet sendt ud for at udføre et job, konfronterer uventede radarsignaler i et område, de søger; der kunne være vejr, der ikke blev taget med i dens software, eller de støder på en gruppe bevæbnede mænd, der ser ud til at være oprørske fjender, men som faktisk er ude med kanoner på jagt efter mad. Maskinen har ikke den skelnen eller den sunde fornuft, som den menneskelige berøring har.

”Den anden uhyggelige ting ved disse autonome krigssystemer er, at du kun virkelig kan teste dem ved at placere dem i en rigtig kampzone. Måske sker der med russerne i øjeblikket i Syrien, hvem ved det? Det, vi ved, er, at Rusland i FN har modsat sig enhver traktat, for ikke at tale om forbud mod disse våben i øvrigt.

”Hvis du tester en maskine, der tager sine egne beslutninger om verden omkring den, skal den være i realtid. Hvordan træner du desuden et system, der udelukkende kører på software, hvordan man opdager subtil menneskelig adfærd eller skelner forskellen mellem jægere og oprørere? Hvordan skiller dræbermaskinen derude på egen hånd, der skifter mellem den 18-årige kampmann og den 18-årige, der jager efter kaniner? ”

Læs hele historien her ...