Verden skal handle hurtigt for at afværge en fremtid, hvor autonome robotter med kunstig intelligens strejfer om slagmarkerne, og dræber mennesker, forskere og våbeneksperter advarede på en elitesamling i de schweiziske alper.
Der skal aftales regler for at forhindre udvikling af sådanne våben, sagde de på et møde mellem milliardærer, videnskabsfolk og politiske ledere i det snedækkede skisportssted Davos i januar i januar.
Angela Kane, den tyske FNs højtstående repræsentant for nedrustningsanliggender fra 2012-2015, sagde, at verden havde været langsom med at træffe forebyggende foranstaltninger for at beskytte menneskeheden mod den dødelige teknologi.
”Det kan være for sent,” fortalte hun en debat i Davos.
”Der er mange lande og mange repræsentanter i det internationale samfund, der virkelig ikke forstår, hvad der er involveret. Denne udvikling er noget, der er begrænset til et bestemt antal avancerede lande, ”sagde Kane.
Implementeringen af autonome våben ville repræsentere en farlig ny æra i krigføring, sagde forskere.
”Vi taler ikke om droner, hvor en menneskelig pilot styrer dronen,” sagde Stuart Russell, professor i datalogi ved University of California, Berkeley.
”Vi taler om autonome våben, hvilket betyder, at der ikke er nogen bag det. AI: våben med kunstig intelligens, ”fortalte han et forum i Davos. "Meget præcist, våben, der kan lokalisere og angribe mål uden menneskelig indblanding."
Russell sagde, at han ikke forudså en dag, hvor robotter kæmper krigen for mennesker, og i slutningen af dagen siger den ene side: "OK, du vandt, så du kan have alle vores kvinder."
Men nogle af 1,000-videnskabs- og teknologiledere, inklusive den britiske fysiker Stephen Hawking, sagde i et åbent brev i juli sidste år, at udviklingen af våben med en grad af selvstændig beslutningstagningskapacitet kunne være mulig inden for år og ikke årtier.
De opfordrede til et forbud mod stødende autonome våben, der er uden for meningsfuld menneskelig kontrol, og advarede om, at verden risikerede at glide ind i et kunstigt intelligensvåbenløb og hæve alarm over risikoen for, at sådanne våben falder i hænderne på voldelige ekstremister.
Problemet er kulturelt og ikke teknologisk.
Hvis vi kondolerer mord som en løsning på udfordringer fra dem, der tænker anderledes end vores måde, gør det noget, hvordan vi deltager i drabet?