Forskere: Data og AI kan fortælle, hvem der lyver

University of Rochester fotos / J. Adam Fenster
Del denne historie!
image_pdfimage_print
Når AI-ansigtsanalysealgoritmer spreder sig, vil de blive implementeret i enhver tænkelig anvendelse og omstændighed. Imidlertid vil sådan software aldrig 'certificeres' som 100% effektiv, hvilket skaber socialt kaos, når beskyldningerne flyver. Technocrat-videnskabsmænd, der opfinder det her, har ikke noget syn på etik eller samfundsmæssige implikationer. ⁃ TN Editor

En person svirrer i en lang række ved en lufthavns sikkerhedsport. Er personen simpelthen nervøs for ventetiden?

Eller er dette en passager, der har noget uhyggeligt at skjule?

Selv højtuddannede sikkerhedsofficerer i Transport Security Administration (TSA) lufthavne har stadig svært ved at fortælle, om nogen lyver eller fortæller sandheden - på trods af de milliarder af dollars og års studier, der er blevet afsat til emnet.

Nu bruger University of Rochester forskere datavidenskab og en online crowddsourcing-ramme kaldet ADDR (Automated Dyadic Data Recorder) for at fremme vores forståelse af bedrag baseret på ansigts- og verbale signaler.

De håber også på at minimere tilfælde af racemæssig og etnisk profilering, som TSA-kritikere hævder at opstår, når passagerer trækkes til side under agenturets program Screening of Passengers by Observation Techniques (SPOT).

”Grundlæggende er vores system som Skype på steroider,” siger Tay Sen, en ph.d.-studerende på laboratoriet Ehsan Hoque, en lektor i Datalogi. Sen samarbejdede tæt med Karmul Hasan, en anden ph.d.-studerende i gruppen, om to papirer i IEEE automatiseret ansigts- og gestegenkendelse og Forløb fra ACM om interaktiv, mobil, bærbar og ubiquituøs teknologi. Papirerne beskriver rammerne, som laboratoriet har brugt til at skabe det største offentligt tilgængelige bedrag med data hidtil - og hvorfor nogle smil er mere bedragere end andre.

Spil afslører sandheden bag et smil

Sådan fungerer ADDR: To personer tilmelder sig Amazon Mechanical Turk, den store internetmarked, der matcher folk til opgaver, som computere i øjeblikket ikke er i stand til at udføre. En video tildeler en person til at være beskrivende og den anden til at være forhør.

Beskriveren vises derefter et billede og instrueres i at huske så mange af detaljerne som muligt. Computeren instruerer beskriveren til enten at lyve eller fortælle sandheden om, hvad de lige har set. Spørgeren, der ikke har været opmærksom på instruktionerne til beskriveren, stiller derefter beskriveren et sæt grundlæggende spørgsmål, der ikke er relevante for billedet. Dette gøres for at fange individuelle adfærdsforskelle, som kan bruges til at udvikle en "personlig model." De rutinemæssige spørgsmål inkluderer "hvad har du båret i går?" - for at provokere en mental tilstand, der er relevant for at hente en hukommelse - og "hvad er 14 gange 4? ”- for at provokere en mental tilstand, der er relevant for den analytiske hukommelse.

”Mange gange har folk en tendens til at se en bestemt måde ud eller vise en slags ansigtsudtryk, når de husker ting,” sagde Sen. ”Og når de får et beregningsspørgsmål, har de en anden form for ansigtsudtryk.”

Det er også spørgsmål, som vidnet ikke har noget incitament til at lyve om, og som giver en basislinje for den enkeltes ”normale” svar, når han svarer ærligt.

Og selvfølgelig er der spørgsmål om selve billedet, som vidnet giver enten et sandt eller uærligt svar.

Hele udvekslingen optages på en separat video til senere analyse.

1 millioner ansigter

En fordel ved denne crowddsourcing-tilgang er, at den giver forskere mulighed for at udnytte en langt større pulje af forskningsdeltagere - og indsamle data langt hurtigere - end der ville ske, hvis deltagerne skulle bringes ind i et laboratorium, siger Hoque. Det at have ikke et standardiseret og konsistent datasæt med pålidelig grundlæggende sandhed har været det største tilbageslag for bedrageriforskning, siger han. Med ADDR-rammen indsamlede forskerne 1.3 millioner rammer af ansigtsudtryk fra 151 par individer, der spiller spillet, i løbet af et par ugers indsats. Mere dataindsamling er i gang i laboratoriet.

Datavidenskab gør det muligt for forskerne hurtigt at analysere alle disse data på nye måder. For eksempel brugte de automatiseret ansigtsfunktionsanalysesoftware til at identificere, hvilke handlingsenheder der blev brugt i en given ramme og til at tildele en numerisk vægt til hver.

Forskerne brugte derefter en uovervåget klyngeteknik - en maskinlæringsmetode, der automatisk kan finde mønstre uden at blive tildelt nogen forudbestemte etiketter eller kategorier.

Det fortalte os, at der dybest set var fem slags smilrelaterede 'ansigter', som folk lavede, når de svarede på spørgsmål, ”sagde Sen. Den, der hyppigt blev forbundet med at lyve, var en højintensiv version af det såkaldte Duchenne-smil, der involverede både kind / øje- og mundmuskler. Dette er i overensstemmelse med "Duping Delight" -teorien om, at "når du narrer nogen, har du en tendens til at glæde dig over det," forklarede Sen.

Mere forundrende var opdagelsen af, at ærlige vidner ofte ville samle deres øjne, men slet ikke smile med deres mund. ”Da vi gik tilbage og afspilte videoerne igen, fandt vi, at dette ofte skete, når folk forsøgte at huske, hvad der var i et billede,” sagde Sen. ”Dette viste, at de koncentrerede sig og forsøgte at huske ærligt.”

Læs hele historien her ...

Deltag i vores mailingliste!


Tilmeld
Underretning af
gæst
1 Kommentar
Ældste
Nyeste Mest afstemt
Inline feedbacks
Se alle kommentarer
Tomsen

I just wonder how people can live a life completely without content, only on illusions.
If AI Facial can tell who is lying, why havent they tried this off on Al Gore, Obama, Bush, and 9/11 long time ago?
The answer is AI is based on false premises, why the outcome off course also must be false