Stop Killer Robots, før det er for sent, fortæller forskere til Davos Forum

Del denne historie!
image_pdfimage_print

TN-note: Det globale elitemøde i Davos får en æresbevisning fra forskere, der er bange for, at mordere robotter tænder på menneskeheden, eller i det mindste fører til en slags våbenløb, undtagen for mordrobotudvikling.

Verden skal handle hurtigt for at afværge en fremtid, hvor autonome robotter med kunstig intelligens strejfer om slagmarkerne, og dræber mennesker, forskere og våbeneksperter advarede på en elitesamling i de schweiziske alper.

Der skal aftales regler for at forhindre udvikling af sådanne våben, sagde de på et møde mellem milliardærer, videnskabsfolk og politiske ledere i det snedækkede skisportssted Davos i januar i januar.

Angela Kane, den tyske FNs højtstående repræsentant for nedrustningsanliggender fra 2012-2015, sagde, at verden havde været langsom med at træffe forebyggende foranstaltninger for at beskytte menneskeheden mod den dødelige teknologi.

”Det kan være for sent,” fortalte hun en debat i Davos.

”Der er mange lande og mange repræsentanter i det internationale samfund, der virkelig ikke forstår, hvad der er involveret. Denne udvikling er noget, der er begrænset til et vist antal avancerede lande, ”sagde Kane.

Implementeringen af ​​autonome våben ville repræsentere en farlig ny æra i krigføring, sagde forskere.

”Vi taler ikke om droner, hvor en menneskelig pilot kontrollerer dronen,” sagde Stuart Russell, professor i datalogi ved University of California, Berkeley.

”Vi taler om autonome våben, hvilket betyder, at der ikke er nogen bag det. AI: kunstig intelligensvåben, ”fortalte han et forum i Davos. ”Meget præcist våben, der kan lokalisere og angribe mål uden menneskelig indblanding.”

Russell sagde, at han ikke forudså en dag, hvor robotter kæmper for krigene for mennesker, og i slutningen af ​​dagen siger den ene side: ”OK, du vandt, så du kan få alle vores kvinder.”

Men nogle af 1,000-videnskabs- og teknologiledere, inklusive den britiske fysiker Stephen Hawking, sagde i et åbent brev i juli sidste år, at udviklingen af ​​våben med en grad af selvstændig beslutningstagningskapacitet kunne være mulig inden for år og ikke årtier.

De opfordrede til et forbud mod stødende autonome våben, der er uden for meningsfuld menneskelig kontrol, og advarede om, at verden risikerede at glide ind i et kunstigt intelligensvåbenløb og hæve alarm over risikoen for, at sådanne våben falder i hænderne på voldelige ekstremister.

Læs hele historien her ...

Deltag i vores mailingliste!


Tilmeld
Underretning af
gæst
1 Kommentar
Ældste
Nyeste Mest afstemt
Inline feedbacks
Se alle kommentarer
FreeOregon

Problemet er kulturelt og ikke teknologisk.

Hvis vi kondolerer mord som en løsning på udfordringer fra dem, der tænker anderledes end vores måde, gør det noget, hvordan vi deltager i drabet?