Yoshua Bengio, en canadisk computerforsker, der hjalp med at pionere teknikkerne, der ligger til grund for meget af den aktuelle spænding omkring kunstig intelligens, er bekymret over Kinas brug af AI til overvågning og politisk kontrol.
Bengio, der også er medstifter af det Montreal-baserede AI-softwarevirksomhed Element AI, sagde, at han var bekymret over den teknologi, han hjalp med til at skabe, der blev brugt til at kontrollere folks adfærd og påvirke deres sind.
”Dette er Big Brother-scenariet fra 1984,” sagde han i et interview. "Jeg synes, det bliver mere og mere skræmmende."
Bengio, professor ved University of Montreal, betragtes som en af de tre ”gudfædre” inden for dyb læring sammen med Yann LeCun og Geoff Hinton. Det er en teknologi, der bruger neurale netværk - en slags software løst baseret på aspekter af den menneskelige hjerne - til at forudsige baseret på data. Det er ansvarligt for nylige fremskridt inden for ansigtsgenkendelse, naturlig sprogbehandling, oversættelse og anbefalingsalgoritmer.
Dyb læring kræver en stor mængde data for at give eksempler, man kan lære - men Kina med sin enorme befolkning og system med statsoptegnelser har meget af det.
Den kinesiske regering er begyndt at bruge lukkede kredsløbskameraer og ansigtsgenkendelse til at overvåge, hvad dens borgere gør offentligt, fra jaywalking til at engagere sig i politisk uenighed. Det har også oprettet en National Credit Information Sharing Platform, der bruges til at sortliste jernbane- og flypassagerer for "antisocial" opførsel og overvejer at udvide anvendelsen af dette system til andre situationer.
”Brug af dit ansigt til at spore dig skal være stærkt reguleret,” sagde Bengio.
Bengio er ikke alene om sin bekymring over Kinas brugssager til AI. Milliardær George Soros brugte for nylig en tale på World Economic Forum den X. 24 for at fremhæve de risici, landets brug af AI udgør for borgerlige frihedsrettigheder og mindretalsrettigheder.
I modsætning til nogle ligemænd har Bengio, der leder Montreal Institute for Learning Algorithms (Mila), modstå fristelsen til at arbejde for et stort, reklamedrevet teknologiselskab. Han sagde, at ansvarlig udvikling af AI muligvis kræver, at nogle store teknologiselskaber ændrer måden, de fungerer på.
Mængden af data, som store teknologiske virksomheder kontrollerer, er også et problem. Han sagde, at oprettelsen af datatillids - nonprofit-enheder eller juridiske rammer, hvorunder folk ejer deres data og kun tillader, at de bruges til bestemte formål - kan være en løsning. Hvis en tillid indeholdt tilstrækkelige data, kunne den forhandle bedre vilkår med store teknologivirksomheder, der havde brug for det, sagde han torsdag under en samtale på Amnesty International UK's kontor i London.