I april 2021 frigav Europa-Kommissionen (EF) sin længe ventede Lov om kunstig intelligens, et omfattende lovforslag, der klassificerer AI -applikationer under forskellige kategorier af risici. Blandt de identificerede højrisikoapplikationer blev fjerntliggende biometriske systemer, som omfatter ansigtsgenkendelsesteknologi (FRT), udpeget som særligt bekymrende. Deres indsættelse, især inden for retshåndhævelse, kan føre til krænkelser af menneskerettighederne, hvis der ikke findes robuste styringsmekanismer.
Lovhåndhævelse og ansigtsgenkendelse teknologi
På tværs af jurisdiktioner er politikere i stigende grad klar over både de muligheder og risici, der er forbundet med lovhåndhævelseens brug af FRT. Her refererer ansigtsgenkendelse til processen med (mulig) genkendelse af en person ved at sammenligne et sondebillede (fotos eller film/stillbilleder af mistænkte eller interesserede) med ansigtsbilleder af kriminelle og forsvundne personer, der er gemt i en eller flere referencedatabaser med fremskynde en politiundersøgelse.
På den ene side har FRT potentiale til at hjælpe med at løse, stoppe og forhindre forbrydelser og bringe gerningsmænd for retten. Mere specifikt kan det være nyttigt til forskellige former for efterforskninger, herunder at finde identiteten af en ATM -bedragerisk forbryder, lede efter en terrorist i det offentlige rum, bekæmpe overgreb mod børn eller endda finde savnede personer. På den anden side, tidlig erfaring viser, at uden ordentligt tilsyn kan FRT resultere i krænkelser af menneskerettigheder og skade borgerne.
I denne sammenhæng synes det svært at finde den rigtige balance. Politikere kan undersøge forskellige muligheder lige fra et rent forbud til indførelse af yderligere ansvarlighedsmekanismer for at begrænse risikoen for ulovlige anholdelser. I USA er byer som f.eks San Francisco, Oakland Boston har forbudt offentlige myndigheders brug af FRT, mens staterne i Washington, Virginia Massachusetts har indført lovgivning til regulering af dets anvendelse. I andre regioner spiller domstolsafgørelser en vigtig rolle i udformningen af den politiske dagsorden. Den britiske appelret afgjorde ulovlig indsættelse af FRT af South Wales Police at identificere eftersøgte personer ved bestemte begivenheder og offentlige steder, hvor kriminalitet blev anset for sandsynligt at forekomme.
På et mere globalt plan, Den Forenede Nationers kontor for Højkommissær for Menneskerettigheder (OHCHR) den seneste rapport om retten til privatliv i den digitale tidsalder anbefaler regeringer at standse brugen af fjernbiometrisk genkendelse i offentlige rum i realtid, indtil de kan vise, at der ikke er væsentlige problemer med nøjagtighed eller diskriminerende virkninger. Det tyder også på, at disse AI -systemer skal overholde robuste privatlivs- og databeskyttelsesstandarder.
Ansigtsgenkendelsesteknologi kræver en robust styrende struktur
På trods af denne vigtige udvikling erkender de fleste regeringer rundt om i verden potentialet i ansigtsgenkendelsessystemer for national sikkerhed og sikkerhed, men kæmper stadig med udfordringerne ved at regulere FRT, fordi afgørende overvejelser stort set er blevet overset. Hvis vi skulle godkende proportionel brug af FRT til legitime politimål, hvilket tilsynsorgan bør have ansvaret for at vurdere, om retshåndhævende aktiviteter overholder menneskerettighederne og følge potentielle klager fra borgerne? Hvordan kan vi opretholde et højt ydelsesniveau for de implementerede FRT -løsninger? Hvilke indkøbsprocesser bør være på plads for retshåndhævende myndigheder?
For at løse disse udfordringer har World Economic Forum - i partnerskab med International Criminal Police Organization (INTERPOL), Center for Kunstig Intelligens og Robotik fra FN's Interregional Crime and Justice Research Institute (UNICRI) og det nederlandske politi - frigivet en hvidt papir, der introducerer en styringsrammer struktureret omkring to kritiske komponenter:
- Et sæt handlingsprincipper, der definerer, hvad der er ansvarlig brug af ansigtsgenkendelse til retshåndhævelsesundersøgelser ved at dække alle relevante politiske overvejelser;
- Et selvvurderingsspørgeskema, der beskriver de krav, som retshåndhævende myndigheder skal overholde for at sikre overholdelse af handlingsprincipperne.
Som sådan repræsenterer dette initiativ det mest omfattende politiske svar på de risici, der er forbundet med FRT for retshåndhævelsesundersøgelser, ledet af et globalt og multistakeholder -fællesskab.
Alt godt og godt, men da retshåndhævelse fungerer under politikernes retningslinjer, i betragtning af den korruption i regeringen, vi ser rundt om i verden i dag, er jeg skeptisk, at teknologien vil blive brugt korrekt. Irriter den forkerte politiker og afslut med uretmæssigt fængsel eller værre, død. Beklager, men det skulle artikuleres.
Det kræver en "Robust styrende struktur"? .. den type regering, der ikke støder sammen om at stjæle valg ?; den regeringstype, der ikke ødelægger økonomien og pålægger et giftigt stik for at slavebinde sine borgere og tjene enorme beløb ?; en regering, der ikke arbejder sammen med Kina og CDC for at finansiere gevinster ved funktionseksperimenter, der bragte os til dette punkt? Ikke den slags regering, naturligvis. Desværre er det den type regering, som Amerika har, og er den allersidste institution, du vil stole på for at beskytte individuelle rettigheder og friheder. Schwab lever... Læs mere "
Som nogen engang sagde, er der ingen virkelighed, hvor sådan noget ikke vil blive frygteligt misbrugt
Total misbrug af teknologi og misbrug af grundlæggende menneskerettigheder. wef skal straks rives ned på enhver mulig måde.
Organisationer som denne skal seriøst bare fortsætte kollektivt med at tage sig af og lade folk være i fred.
Her er en perfekt opsummering af, hvorfor vi er vidne til al denne vanvid,. . .
Den store "Hvorfor" i den vestlige verden
Trist, men giv det videre.
Hæng fast i dine vanvittige COVID -ansigtsbleer. De kan vise sig at være gode til noget.
Hvorfor sidder medlemmerne af World Economic Forum ikke i fængsel og ser på straf for Nürnberg -overtrædelser og massemord?
[…] I mellemtiden… WEF skaber rammer for 'ansvarlig' ansigtsgenkendelse […]