Trin 1: Brug AI til at foretage ikke-detekterbare ændringer af udendørs fotos. Trin 2: Slip dem ud i open source-verdenen og nyd kaoset.
Bekymringer for dybe forfalskninger—Maskin-manipulerede videoer af berømtheder og verdensledere, der påstås at sige eller gøre ting, som de virkelig ikke gjorde - er malerisk sammenlignet med en ny trussel: doktrerede billeder af jorden selv.
Kina er den anerkendte leder inden for anvendelse af en ny teknik kaldet generative adversarial netværk til at narre computere til at se objekter i landskaber eller i satellitbilleder, der ikke er der, siger Todd Myers, automatiseringsleder og Chief Information Officer på kontoret for teknologidirektøren hos National Geospatial-Intelligence Agency.
”Kineserne ligger langt foran os. Dette er ikke klassificeret info, ”sagde Myers torsdag ved det andet årlige Genius-maskiner topmødet, vært af Forsvar En Nextgov. ”Kineserne har allerede designet; de gør det allerede lige nu ved hjælp af GAN'er - som er generative modsætningsnetværk - til at manipulere scener og pixels for at skabe ting af uærlige grunde. ”
For eksempel, sagde Myers, kan en modstander narre dine computerassisterede billedanalytikere til at rapportere, at en bro krydser en vigtig flod på et givet tidspunkt.
”Så fra et taktisk perspektiv eller missionsplanlægning træner du dine kræfter til at gå en bestemt rute, mod en bro, men den er ikke der. Så venter en stor overraskelse på dig, ”sagde han.
Fornavn beskrevet i 2014, GAN'er repræsenterer en stor udvikling i den måde neurale netværk lærer at se og genkende objekter og endda opdage sandhed fra fiktion.
Sig, at du beder dit konventionelle neurale netværk om at finde ud af, hvilke objekter der er hvad i satellitbilleder. Netværket opdeler billedet i flere stykker eller pixelklynger, beregner, hvordan disse brudte stykker relaterer til hinanden, og træffer derefter en beslutning om, hvad det endelige produkt er, eller om fotos er ægte eller doktreret. Det hele er baseret på oplevelsen af at se på masser af satellitbilleder.
GAN'er vender denne proces ved at sætte to netværk mod hinanden - derav ordet “modstanderskab.” Et konventionelt netværk kan måske sige, “Tilstedeværelsen af x, y og z i disse pixelklynger betyder, at dette er et billede af en kat.” Men et GAN-netværk kan måske sige, “Dette er et billede af en kat, så x, y og z skal være til stede. Hvad er x, y og z, og hvordan forholder de sig? ”Det modsatte netværk lærer, hvordan man konstruerer eller genererer x, y og z på en måde, der overbeviser det første neurale netværk eller diskriminerende om, at der er noget der når det måske ikke er tilfældet.
Mange forskere har fundet, at GAN'er er nyttige til at opdage objekter og sortere gyldige billeder fra falske billeder. I 2017 brugte kinesiske lærde GANer at identificere veje, broer og andre funktioner i satellitfotos.
Bekymringen, som AI-teknologer fortalt Kvarts Ur sidste år er, at den samme teknik, der kan skelne ægte broer fra falske, også kan hjælpe med at skabe falske broer, som AI ikke kan fortælle fra den rigtige ting.
Myers bekymrer sig om, at når verden kommer til at stole mere og mere på open source-billeder for at forstå det fysiske terræn, kunne bare en håndfuld sagkyndigt manipulerede datasæt, der er indtastet i open source-billedforsyningslinjen skabe ødelæggelse. ”Glem [forsvarsministeriet] og [efterretningsfællesskabet]. Forestil dig, at Google Maps infiltreres med det målrettet? Og forestil dig fem år fra nu, hvor Tesla [selvkørende] semis er der ude at dirigere ting? ”sagde han.
Når det kommer til dybe falske videoer af mennesker, biometriske indikatorer som puls og tale kan besejre den falske effekt. Men forfalsket landskab er ikke sårbart over for de samme teknikker.