Kunne et program opdage potentielle terrorister ved at læse deres ansigtsudtryk og adfærd? Dette var hypotesen, der blev testet af den amerikanske transportsikkerhedsadministration (TSA) i 2003, da den begyndte at teste et nyt overvågningsprogram kaldet Screening of Passengers by Observation Techniques-programmet eller kort for kort.
Mens de udviklede programmet konsulterede de Paul Ekman, emeritus-professor i psykologi ved University of California, San Francisco. Ti år tidligere havde Ekman udviklet en metode til at identificere minutts ansigtsudtryk og kortlægge dem til tilsvarende følelser. Denne metode blev brugt til at uddanne "adfærdsdetekteringsansvarlige" til at scanne ansigter for tegn på bedrag.
Men da programmet blev rullet ud i 2007, var det besat med problemer. Officerer var henviser passagerer til forhør mere eller mindre tilfældigt, og det lille antal arrestationer, der opstod, var på anklager, der ikke var relateret til terrorisme. Endnu mere bekymrende var det faktum, at programmet angiveligt var anvendte for at retfærdiggøre racemæssig profilering.
Ekman forsøgte at fjerne sig fra Spot og hævdede, at hans metode blev forkert anvendt. Men andre antydede, at programmets fiasko skyldtes en forældet videnskabelig teori, der understøttede Ekmans metode; nemlig at følelser kan trækkes objektivt gennem analyse af ansigtet.
I de senere år er teknologiselskaber begyndt at bruge Ekmans metode til at træne algoritmer til at opdage følelser fra ansigtsudtryk. Nogle udviklere hævder, at automatiske følelsesdetekteringssystemer ikke kun vil være bedre end mennesker til at opdage ægte følelser ved at analysere ansigtet, men at disse algoritmer vil blive afstemt til vores inderste følelser, hvilket i høj grad forbedrer interaktionen med vores enheder.
Men mange eksperter, der studerer følelsesvidenskaben, er bekymrede over, at disse algoritmer endnu en gang vil mislykkes og træffer beslutninger i høj grad om vores liv, der er baseret på forkert videnskab.
Teknologi til følelsesdetektering kræver to teknikker: computervision, til nøjagtigt at identificere ansigtsudtryk og maskinlæringsalgoritmer for at analysere og fortolke det følelsesmæssige indhold af disse ansigtsegenskaber.
Typisk anvender det andet trin en teknik kaldet supervised learning, en proces, hvormed en algoritme trænes til at genkende ting, den har set før. Den grundlæggende idé er, at hvis du viser algoritmen tusinder og tusinder af billeder af glade ansigter med mærket “glad”, når det ser et nyt billede af et lykkeligt ansigt, igen vil det identificere det som “lykkeligt”.
En kandidatstuderende, Rana el Kaliouby, var en af de første mennesker, der begyndte at eksperimentere med denne tilgang. I 2001, efter at hun flyttede fra Egypten til Cambridge University for at gennemføre en ph.d. i datalogi, fandt hun, at hun tilbragte mere tid med sin computer end med andre mennesker. Hun regnede med, at hvis hun kunne lære computeren at genkende og reagere på hendes følelsesmæssige tilstand, ville hendes tid tilbragt langt væk fra familie og venner være mindre ensom.
Kaliouby dedikerede resten af sine doktorgradsstudier til at arbejde på dette problem og udviklede til sidst et udstyr, der hjalp børn med Asperger syndrom med at læse og reagere på ansigtsudtryk. Hun kaldte det ”følelsesmæssigt høreapparat”.
I 2006 sluttede Kaliouby sig til Affective Computing-lab ved Massachusetts Institute of Technology, hvor hun sammen med laboratoriets direktør, Rosalind Picard, fortsatte med at forbedre og forfine teknologien. Så i 2009, de medstifter en opstart kaldet Affectiva, den første virksomhed, der markedsfører "kunstig følelsesmæssig intelligens".
Den største terrorist er regeringen
Hvor ansigtsscanning for dem?