Elon Musk fører 116 AI-eksperter, der opfordrer til direkte forbud mod mordererobotter

kampagne for at stoppe killerrobotter
Del denne historie!
image_pdfimage_print

Ved Musk og venner noget, vi ikke ved? Appellen om at forbyde dræberrobotter indebærer, at de allerede er ved at blive bygget. Teknokrater bygger, fordi de kan, ikke fordi de nogensinde har spurgt, hvorfor de skal bygge noget.  TN Editor

Nogle af verdens førende pionerer inden for robotik og kunstig intelligens opfordrer til Forenede Nationer at forbyde udvikling og brug af mordererobotter.

Teslas Elon Musk og Googles Mustafa Suleyman leder en gruppe 116-specialister fra hele 26-lande, der opfordrer til forbud mod autonome våben.

FN har for nylig stemt for at indlede formelle drøftelser om sådanne våben, der inkluderer droner, tanke og automatiserede maskingevær. På baggrund af dette har gruppen af ​​stiftere af AI og robotvirksomheder sendt et åbent brev til FN, der opfordrer til det for at forhindre våbenløbet, der i øjeblikket er i gang for dræberrobotter.

I deres brev advarer grundlæggerne revisionskonferencen for konventionen om konventionelle våben, som dette våbenrace truer med at indlede den "tredje revolution i krigsførelse" efter kruttesprængning og atomvåben.

Grundlæggerne skrev: ”Når først dødelige autonome våben er udviklet, vil de bevæbnede konflikter kunne bekæmpes i en større skala end nogensinde og til tider hurtigere end mennesker kan forstå. Dette kan være terrorvåben, våben, som despersoner og terrorister bruger mod uskyldige befolkninger, og våben, der er hacket for at opføre sig på uønskede måder.

”Vi har ikke længe til at handle. Når denne Pandoras kasse er åbnet, vil det være svært at lukke. ”

Eksperter har tidligere advaret om, at AI-teknologien har nået et punkt, hvor installationen af ​​autonome våben er mulig inden for år snarere end årtier. Mens AI kan bruges til at gøre slagmarken til et mere sikkert sted for militært personel, frygter eksperter, at fornærmende våben, der opererer på egen hånd, vil sænke tærsklen for at gå i kamp og resultere i større tab af menneskeliv.

Brevet, der blev lanceret ved åbningen af ​​den internationale fælleskonference om kunstig intelligens (IJCAI) i Melbourne mandag, har opbakning fra høje profilerede figurer inden for robotikområdet og understreger kraftigt behovet for hurtig handling, efter at FN blev tvunget til at udsætte et møde, der skulle starte mandag for at gennemgå spørgsmålet.

Grundlæggerne opfordrer til, at ”moralt forkerte” dødelige autonome våbensystemer tilføjes til listen over våben, der er forbudt i henhold til FN's konvention om visse konventionelle våben (CCW), der bringes i kraft i 1983, som inkluderer kemiske og forsætligt blændende laservåben.

Læs hele historien her ...

Tilmeld
Underretning af
gæst
0 Kommentarer
Inline feedbacks
Se alle kommentarer