En uafhængig ekspertgruppe, der har til opgave at rådgive Europa-Kommissionen at informere dets lovgivningsmæssige respons på kunstig intelligens - at understøtte EU-lovgiveres erklærede mål om at sikre, at AI-udviklingen er "menneskelig centreret" - har offentliggjort sin politik og investeringsanbefalinger.
Dette følger tidligere etiske retningslinjer for "pålidelig AI", udarbejdet af High Level Expert Group (HLEG) for AI tilbage i april, da Kommissionen også opfordrede deltagerne til at teste udkastet til regler.
AI HLEGs fulde politikanbefalinger omfatter et meget detaljeret 50-sidedokument - som kan downloades fra dette webside. Det gruppen, der blev oprettet i juni 2018, består af en blanding af industrielle AI-eksperter, repræsentanter for borgerlige samfund, politiske rådgivere og politikvindere, akademikere og juridiske eksperter.
Dokumentet inkluderer advarsler om brugen af AI til masseovervågning og score af EU-borgere, f.eks Kinas sociale kredit system, med gruppen, der opfordrer til et direkte forbud mod "AI-aktiveret masseskala score af enkeltpersoner". Det opfordrer også regeringerne til at forpligte sig til ikke at engagere sig i tæthedsovervågning af befolkninger med henblik på national sikkerhed. (Så måske er det lige så godt, at Det Forenede Kongerige har stemt for at forlade EU i betragtning af svingende statsovervågningsbeføjelser den blev vedtaget i slutningen af 2016.)
”Selvom der kan være en stærk fristelse for regeringer til at” sikre samfundet ”ved at opbygge et gennemgribende overvågningssystem baseret på AI-systemer, ville dette være ekstremt farligt, hvis det skubbes til ekstreme niveauer,” skriver HLEG. ”Regeringerne bør forpligte sig til ikke at engagere sig i masseovervågning af enkeltpersoner og kun at installere og anskaffe pålidelige AI-systemer, der er designet til at respektere loven og de grundlæggende rettigheder, tilpasset etiske principper og socio-teknisk robuste.”
Gruppen opfordrer også til, at kommerciel overvågning af enkeltpersoner og samfund "modvirkes" - hvilket antyder, at EU reagerer på styrken og potentialet for misbrug af AI-teknologier bør omfatte at sikre, at online folksporing er "strengt i overensstemmelse med de grundlæggende rettigheder, såsom privatliv ”, Inklusive (gruppen specificerer), når det drejer sig om 'gratis' tjenester (omend med et let advarsel om behovet for at overveje, hvordan forretningsmodeller påvirkes).
Sidste uge fyrede den britiske databeskyttelsesvagthold et endnu mere specifikt skud på tværs af buerne i online adfærdsannonceindustrien - advarer om, at adtechs massebehandling af webbrugernes personlige data til målretning af annoncer overholder ikke EU's personlige standarder. Branchen fik at vide, at dens rettighedsovertrædende praksis skal ændre sig, selvom Informationskommissærens kontor ikke er ved at nedbringe hammeren endnu. Men reformadvarslen var klar.
Da EU-politikere arbejder på at skabe en lovgivningsramme, der respekterer rettigheder for AI, og som søger at styre de næste ti år + med banebrydende teknologiudvikling i regionen, ser den bredere opmærksomhed og kontrol, der trækker digital praksis og forretningsmodeller, ud til at føre en oprydning af problematiske digitale fremgangsmåder, der har været i stand til at sprede sig under ingen eller meget let berøringsregulering, før nu.
HLEG opfordrer også til støtte til udvikling af mekanismer til beskyttelse af personoplysninger og for enkeltpersoner til at "kontrollere og blive bemyndiget af deres data" - som de hævder ville tage fat på "nogle aspekter af kravene til pålidelig AI".
”Værktøjer skal udvikles for at tilvejebringe en teknologisk implementering af GDPR og udvikle bevarelse af privatlivets fred / beskyttelse af personlige oplysninger ved at designe tekniske metoder til at forklare kriterier, årsagssammenhæng i behandling af personoplysninger af AI-systemer (såsom fødereret maskinlæring),” skriver de.
”Støtte teknologisk udvikling af anonymisering og krypteringsteknikker og udvikle standarder for sikker dataudveksling baseret på kontrol af personoplysninger. Fremme uddannelse af offentligheden i forvaltning af personoplysninger, herunder individenes bevidsthed om og empowerment i AI-personlige databaserede beslutningsprocesser. Opret teknologiløsninger, der giver enkeltpersoner information og kontrol over, hvordan deres data bruges, for eksempel til forskning, om samtykkehåndtering og gennemsigtighed på tværs af europæiske grænser, samt eventuelle forbedringer og resultater, der er kommet herfra, og udvikle standarder for sikre dataudveksling baseret på kontrol af personoplysninger. ”