Eksperter: Det eneste forsvar mod dræber AI udvikler det ikke

Del denne historie!
image_pdfimage_print
Uden for kontrol er morder AI i krigføring uundgåelig, fordi det vil blive for kompliceret til menneskelig styring og kontrol. Det eneste virkelige svar er at ikke udvikle det i første omgang. ⁃ TN Editor

En nylig analyse af krigføringens fremtid indikerer, at lande, der fortsætter med at udvikle AI til militær brug, risikerer at miste kontrollen over slagmarken. Dem, der ikke risikerer udryddelse. Uanset om du er for eller imod AI våbenløb: det sker. Her er hvad det betyder, ifølge en trio af eksperter.

Forskere fra ASRC Federal, et privat firma, der yder støtte til efterretnings- og forsvarssamfundene, og University of Maryland offentliggjorde for nylig et papir på pre-print server arXivdiskuterer de potentielle konsekvenser af at integrere AI-systemer i moderne krigsførelse.

Papiret - læs her - fokuserer på de nærmeste fremtidige konsekvenser for AI våbenløbet under den antagelse, at AI vil ikke på en eller anden måde køre amok eller overtagelse. I det væsentlige er det et kort, nøgternt og skræmmende blik på, hvordan al denne forskellige maskinlæringsteknologi vil spille ud baseret på analyse af aktuelle banebrydende militære AI-teknologier og forudsagt integration i skala.

Papiret begynder med en advarsel om forestående katastrofe og forklarer, at der næsten helt sikkert vil være en "normal ulykke", der vedrører AI - en forventet hændelse af en art og rækkevidde, som vi ikke kan forudsige. Grundlæggende vil verdens militærer bryde nogle civile æg, der gør AI-våben race-omelet:

Undersøgelse af dette felt begyndte med ulykker som Three Mile Island, men AI-teknologier udgør lignende risici. At finde og udnytte disse svagheder til at fremkalde mangelfuld opførsel vil blive et permanent træk i den militære strategi.

Hvis du tænker på mordererobotter, der dukker det ud i vores byer, mens civile løber efter et husly, tager du ikke fejl - men robotter som en proxy for soldater er ikke menneskehedens største bekymring, når det kommer til AI-krigføring. Denne artikel diskuterer, hvad der sker, når vi når det punkt, hvor det bliver tydeligt, at mennesker holder maskiner tilbage i krigføring.

Ifølge forskerne er problemet ikke et, vi kan ramme ind som godt og ondt. Selvfølgelig er det let at sige, at vi ikke bør tillade, at robotter myrder mennesker med autonomi, men det er ikke, hvordan fremtidens beslutningsproces vil arbejde.

Forskerne beskriver det som en glat hældning:

Hvis AI-systemer er effektive, ville pres for at øge niveauet for bistand til krigsmanden være uundgåelig. Fortsat succes ville betyde, at man gradvist skubber mennesket ud af løkken, først til en tilsynsrolle og derefter til sidst rollen som en "dræbte operatør", der overvåger en lov, der altid er aktiveret.

LOVER, eller dødbringende autonome våbensystemer, skaler næsten øjeblikkeligt ud over menneskers evne til at arbejde med computere og maskiner - og sandsynligvis før, end de fleste tror. Hånd til hånd kamp mellem maskiner, for eksempel, vil være helt autonom af nødvendighed:

Efterhånden som AI bliver mere i stand til reflekterende og integrerende tænkning, bliver den menneskelige komponent nødt til at blive fjernet helt, efterhånden som hastigheden og dimensionaliteten bliver uforståelig, selv redegør for kognitiv hjælp.

Og til sidst vil den taktik og lydhørhed, der kræves for at handle slag med AI, være helt ud over menneskets kendskab:

Givet et slagrum så overvældende, at mennesker ikke manuelt kan engagere sig i systemet, vil den menneskelige rolle være begrænset til post-hoc retsmedicinsk analyse, når fjendtlighederne er ophørt, eller der er underskrevet traktater.

Hvis dette lyder lidt dystre, er det fordi det er. Som Importer AI'er Jack Clark påpeger, "Dette er et hurtigt papir, der fastlægger bekymringerne ved AI + -krig fra et samfund, som vi ikke ofte hører fra: mennesker, der arbejder som direkte leverandører af regerings-teknologi."

Det kan være i alles interesse at være nøje opmærksom på, hvordan både akademikere og regeringen fortsætter med at ramme problemet fremover.

Læs hele historien her ...

Deltag i vores mailingliste!


Tilmeld
Underretning af
gæst
2 Kommentarer
Ældste
Nyeste Mest afstemt
Inline feedbacks
Se alle kommentarer
Elle

Det forundrer mig altid, hvordan en 'undersøgelse' skal udføres for at 'bestemme' sandsynligheden for den / de meget åbenlyse handling (er), der skal komme. Nå, DUH! på AI-fronten, drenge. Minder mig om, at jeg blev inviteret til middag af kona til et marketingfirmas administrerende direktør. Jeg definerer ham som sådan, fordi det er alt, hvad han talte om. Under måltidet fortsatte han og om sit selskab, ad nauseum for resten af ​​os. Da han endelig nåede udbetalingen. Han fortalte bordet, at hans 'fantastiske' firma havde fået $ 4 millioner for at finde ud af, hvorfor folk valgte en... Læs mere "