Det er ingen gennemsnitlig bedrift for en computer at identificere en persons ansigt i dagslys. Processen indebærer nøjagtigt at måle et fotografi - øjenstørrelse, afstand fra næse til mund osv. - Justering af afstande i tre dimensioner og søgning i en database efter et match. Men for at gøre det om natten, når alt hvad du har, er termiske billeder med langt lavere opløsning, brugte Army Research Lab en teknik, der gør det muligt for software at efterligne den menneskelige hjerne.
Vores hjerner ”ser” ved at ekstrapolere et billede fra en relativt lille mængde sansedata, filtreret gennem øjet. Det hjernen bruger flere gange mere neuronal masse at konstruere billeder fra visuelle data, end øjet ikke indsamler dataene.
Hærens forskere så en parallel med termiske billeder. Sådanne billeder viser, hvilke dele af ansigtet er varmere og køligere, men generelt indeholder færre datapunkter end et sammenligneligt optisk billede fra et kamera, hvilket gør det svært at vælge forskellige funktioner. Så de oprettede et indviklet neuralt netværk, eller CNN, en dyb læringsmetode, der bruger specifikke noder, der ligner hjernens, og indstiller den til at udlede ansigter fra begrænsede data.
Metoden, som forskerne bruger, bryder et termisk billede af et ansigt i bestemte regioner og sammenligner dem derefter med et optisk billede af det samme ansigt. Netværket estimerer, hvor nøglefunktioner er i det termiske billede i forhold til det konventionelle billede. Netværkets endelige produkt er noget som en politiskitse - ikke et perfekt match, men med nok overlapning i nøglepunkter til at skabe en højsikkerhedsmatch.
I en papir offentliggjort af IEEE Vinterkonference om anvendelser af computervision, skriver forskerne, ”Vi var i stand til at producere yderst diskriminerende repræsentationer. På trods af at det syntetiserede billede ikke producerer en fotorealistisk tekstur, var den opnåede verifikationsydelse bedre end både baseline og nyere tilgange, når man matchede de syntetiserede ansigter med synligt ansigt. ”