Når det drejer sig om at beslutte at dræbe et menneske i en krigstid, skal en maskine træffe den beslutning eller skal et andet menneske være?
Spørgsmålet er et moralsk spørgsmål, bragt på forgrunden af teknikkerne og incitamenterne i moderne teknologi. Det er et spørgsmål, hvis anvendelsesområde falder firkantet under international lovgivning, og som nationer har drøftet i årevis. Alligevel er det også et kollektivt handlingsproblem, der kræver ikke kun stater, men også virksomheder og arbejdstagere i virksomheder at indgå en aftale om at give afkald på en opfattet fordel. Faren er ikke så meget ved at fremstille et våben, men ved at fremstille et våben, der kan vælge mål uafhængigt af den menneskelige ansvarlige, der indleder dets handling.
I en maj 8-rapport af Pax - en nonprofit med det eksplicitte mål at beskytte civile mod vold, reducere væbnede konflikter og opbygge en retfærdig fred - ser forfatterne på den eksisterende tilstand af kunstig intelligens inden for våben og opfordrer nationer, virksomheder og arbejdere til at tænke om, hvordan man forhindrer et AI-våbenløb, i stedet for at tænke over, hvordan man vinder et. Uden korrigerende handling advarer rapporten, kan status quo føre alle deltagere i en situation uden gevinst, med enhver fordel opnået ved at udvikle et autonomt våben midlertidigt og begrænset.
”Vi ser dette nye AI-våbenløb, og vi tror, hvis der ikke sker noget, at det er en stor trussel mod menneskeheden,” sagde Frank Slijper, en af forfatterne om rapporten. ”Der er et vindue af muligheder for at stoppe et AI våbenløb i at ske. Stater bør forsøge at forhindre en AI-våbenkamp og arbejde mod international regulering. I mellemtiden har virksomheder og forskningsinstitutter et stort ansvar selv for at sikre, at dette arbejde i AI og beslægtede felter ikke bidrager til potentielle dødbringende autonome våben. ”
Rapporten er skrevet med et specifikt øje mod de syv førende AI-kræfter. Disse inkluderer de fem faste medlemmer af FNs sikkerhedsråd: Kina, Frankrig, Rusland, Det Forenede Kongerige og De Forenede Stater. Derudover redegør rapporten for den kunstige intelligensundersøgelse fra Israel og Sydkorea, begge lande, hvis geografiske og politiske holdninger har tilskyndet til udviklingen af militær AI.
”Vi identificerede de vigtigste aktører med hensyn til brug og forsknings- og udviklingsindsats for både AI og militær brug af AI i stadig mere autonome våben. Jeg kunne ikke tænke på nogen, nogen stat, vi ville have gået glip af fra disse syv, ”siger Slijper. ”Selvfølgelig er der altid et nummer otte og tallet ni.”
For hver dækket AI-magt undersøger rapporten tilstanden af AI, AI's rolle i militæret, og hvad der er kendt for samarbejde mellem AI-udviklere i den private sektor eller universiteter og militæret. Med lande som De Forenede Stater, hvor militære AI-programmer er navngivet, kan der styres politikker, og der er kendt debatter om forholdet mellem kommerciel AI og militær brug, beskrives rapporten, som processen. Grundligheden af forskningen bruges til at understrege Pax 'eksplicit aktivistiske mission, skønt den også giver en værdifuld undersøgelse af AI's tilstand i verden.
Som rapporten opretholder, er denne rolle af AI i våben ikke blot et spørgsmål for regeringer. Det er et spørgsmål til de personer, der er ansvarlige for virksomheder, og et spørgsmål til arbejderne, der opretter AI for virksomheder.
”Meget af det har at gøre med den temmelig unikke karakter af AI-infunderet våbensteknologi,” siger Slijper. ”Traditionelt arbejdede mange af de virksomheder, der nu arbejder med AI, ud fra et rent civilt perspektiv for at gøre godt og hjælpe menneskeheden. Disse virksomheder var ikke traditionelt militære producenter eller dominerende leverandører til militæret. Hvis du arbejder for et våbenfirma, ved du, hvad du arbejder for. ”
I USA er der blevet udtrykt modstand mod at bidrage til Pentagon-kontrakter fra arbejdere i teknologisektoren. Efter Google-medarbejderes skrig efter at have lært om virksomhedens forpligtelse til Projekt Maven, der udviklede en drone-footage-behandlings-AI til militæret, blev selskabets ledelse enige om at solnedgang projektet. (Project Maven administreres nu af Peter Thiel-støttet Andruil.)
Microsoft har også oplevet arbejdstager modstand til militær brug af det augmented reality-værktøj HoloLens, hvor nogle arbejdere skrev et brev om, at sensorer og behandling af headsettet i Pentagon's hænder gjorde det farligt tæt på en våbenkomponent. Arbejderne bemærkede specifikt, at de havde bygget HoloLens ”At hjælpe med at lære folk, hvordan man udfører kirurgi eller spiller klaver, at skubbe grænserne for spil og til at forbinde med Mars Rover,” alt sammen er det langt fra at hjælpe militæret i trusselidentifikation på patrulje.
”Og jeg tror, det er for mange mennesker, der arbejder i teknologisektoren ganske foruroligende, at mens virksomheden oprindeligt hovedsageligt eller kun arbejdede med civile applikationer af denne teknologi, nu ser de mere og mere, at disse teknologier også blev brugt til militær projekter eller endda dødbringende våben, ”sagde Slijper.
Slijper peger på protokollen om blinde våben som en måde, hvorpå det internationale samfund regulerede en teknologi med både civile og militære applikationer for at sikre, at dens anvendelse var omfattet af krigens love.
Nå, Duh. I det mindste er der skubbet tilbage af medarbejderne, når de har bekræftet, at de blev brugt. Men virkelig, tænk over det. Du arbejder på AI-komponenter til kendte regeringsstyrede og finansierede organisationer, og du tror ikke, at bundlinjen er at udnytte den teknologi til krigsmaskinen? VÆKNING, BØRN! De giver ikke finansiering, fordi de er pæne. Hele regerings- / militær- / efterretningskompleksets historie, og hvad de finansierer, glanses over og glemmes af dem, der ikke ønsker at se.