Kunstig intelligens våben race er uundgåelig, men kan det kontrolleres?

Del denne historie!

World Economic Forum forstår, at AI har udløst et internationalt våbenkapløb, men resultatet er stadig uklart. Fra et teknokratisk sind er AI løsningen på alle menneskers samfundsmæssige og personlige problemer.  TN Editor

Maskinerne stiger og underkaster menneskeheden. Det er en science fiction trope, der er næsten lige så gammel som maskiner selv. Dommedagsscenarierne spundet omkring dette tema er så outlandish - som Matrix, hvor menneskeskabt kunstig intelligens tilslutter mennesker til en simuleret virkelighed for at høste energi fra deres kroppe - det er vanskeligt at visualisere dem som alvorlige trusler.

I mellemtiden fortsætter kunstigt intelligente systemer med at udvikle tempo. Selvkørende biler begynder at dele vores veje; lommestore enheder svarer på vores forespørgsler og administrerer vores tidsplaner i realtid; algoritmer slå os på Go; robotter bliver bedre til at rejse sig, når de vælter. Det er indlysende, hvordan udvikling af disse teknologier vil gavne menneskeheden. Men så - begynder ikke alle de dystopiske sci-fi-historier på denne måde?

Enhver diskussion om det dystopiske potentiale ved AI risikerer at gravitere mod en af ​​to ekstremer. Man er alt for troværdig skræmmende. Siri er selvfølgelig ikke ved at transmogrifisere til morderisk HAL fra 2001: A Space Odyssey. Men det andet ekstreme er lige så farligt - selvtilfredshed med, at vi ikke behøver at tænke over disse spørgsmål, fordi menneskehedstruende AI er årtier eller mere væk.

Det er sandt, at den kunstige "superintelligens", der er elsket af sci-fi, kan være mange årtier i fremtiden, hvis det overhovedet er muligt. Imidlertid a nylig undersøgelse af førende AI-forskere udført af TechEmergence fundet en lang række bekymringer omkring sikkerhedsfarerne ved AI i en meget mere realistisk 20-års tidsramme - inklusive nedbrydning af det finansielle system, da algoritmer interagerer uventet, og potentialet for AI til at hjælpe ondsindede aktører med at optimere bioteknologiske våben.

Disse eksempler viser, hvordan den fjerde industrielle revolution ved siden af ​​teknologiske fremskridt på mange fronter lover en hurtig og massiv demokratisering af kapaciteten til at skabe kaos i meget stor skala. På den mørke side af den ”dybe web”, hvor information er skjult for søgemaskiner, findes der allerede destruktive værktøjer på tværs af en række nye teknologier, fra 3D-trykte våben til fissilt materiale og udstyr til genteknologi i hjemmelaboratorier. I begge tilfælde forværrer AI muligheden for skade.

Overvej en anden mulighed, der er nævnt i TechEmergence-undersøgelsen. Hvis vi kombinerer en pistol, en quadrocopter-drone, et højopløsnings-kamera og en ansigtsgenkendelsesalgoritme, som ikke behøver at være meget mere avanceret end strøm bedst i klassen, kunne vi i teorien lave en maskine, vi kan programmere til at flyve over skarer, søge særlige ansigter og myrde mål på syne.

En sådan enhed kræver ingen superintelligens. Det kan tænkes at bruge nuværende, ”smalle” AI, der endnu ikke kan foretage den slags kreative spring af forståelse på tværs af forskellige domæner, som mennesker kan. Når "kunstig generel intelligens", eller AGI, udvikles - som det synes sandsynligt før eller senere - vil det øge både de potentielle fordele ved AI og i ord af Jeff Goddell, dets sikkerhedsrisici, "at tvinge en ny type regnskab med den teknologiske genie".

Men der tænkes ikke nok på AI's våbenbare potentiale. Som Wendell Wallach siger det: ”At navigere fremtiden for teknologiske muligheder er en farlig satsning,” observerer han. ”Det begynder med at lære at stille de rigtige spørgsmål - spørgsmål, der afslører falden i passivitet, og vigtigere af alt, hvilke gange der er tilgængelige for at planlægge et kursus til en sikker havn.

Ikke-spredning udfordringer

Fremtrædende lærde inklusive Stuart Russell har udstedt en opfordring til handling at undgå ”potentielle faldgruber” i udviklingen af ​​AI, der har været Backed af førende teknologer, herunder Elon Musk, Demis Hassabis, Steve Wozniak og Bill Gates. Et højt profileret faldgrube kunne være ”dødbringende autonome våbensystemer” (LAWS) - eller, mere almindeligt, ”killerrobotter”. Teknologiske fremskridt inden for robotteknologi og digital overførsel af sikkerhed har allerede ændret krigføringens grundlæggende paradigme. Ifølge til Christopher Coker ”Det 21-århundredes teknologi ændrer vores forståelse af krig på dybt foruroligende måder.” Fuldt udviklede LOVER vil sandsynligvis omdanne den moderne krigsførelse så dramatisk som kruttet og atomvåben.

FNs Menneskerettighedsråd har opfordrede til et moratorium om videreudviklingen af ​​LOVER, mens andre aktivistgrupper og kampagner har forfægtet et fuldt forbud, der tegner en analogi med kemiske og biologiske våben, som det internationale samfund betragter som ud over det blotte. For tredje år i træk mødtes De Forenede Nationers medlemsstater i sidste måned for at diskutere opfordringen til et forbud, og hvordan man kan sikre, at enhver videreudvikling af lovgivningen forbliver inden for international humanitær lov. Når banebrydende våbenteknologi ikke længere er begrænset til nogle få store militærer, bliver ikke-spredningstiltag meget vanskeligere.

Debatten kompliceres af det faktum, at definitioner forbliver bundet i forvirring. Platforme, såsom droner, forveksles ofte med våben, der kan indlæses på platforme. Ideen om systemer, der bliver bedt om at udføre snævert definerede opgaver, såsom at identificere og eliminere pansrede køretøjer, der bevæger sig i et specifikt geografisk område, adskilles ikke altid fra ideen om, at systemer får et skønsmæssigt omfang til at fortolke mere generelle missioner, såsom "win krigen" .

Læs hele historien her ...

Tilmeld
Underretning af
gæst

0 Kommentarer
Inline feedbacks
Se alle kommentarer