Mens AI-systemer kan matche mange menneskelige evner, tager de 10 gange længere tid at lære. Ved at kopiere den måde hjernen fungerer på har Google DeepMind nu bygget en maskine, der lukker kløften.
Intelligente maskiner har mennesker i deres seværdigheder. Deep-learning-maskiner har allerede overmenneskelige færdigheder, når det kommer til opgaver som ansigtsgenkendelse, videospil og endda det gamle kinesiske spil Go. Så det er let at tro, at mennesker allerede er overgået.
Men ikke så hurtigt. Intelligente maskiner ligger stadig bagud på mennesker i et afgørende præstationsområde: den hastighed, hvormed de lærer. Når det gælder mestring af klassiske videospil, tager de bedste deep-learning-maskiner for eksempel 200 timers spil for at nå de samme færdighedsniveauer, som mennesker opnår på bare to timer.
Så computerforskere ville meget gerne have en måde at fremskynde den hastighed, som maskinerne lærer.
I dag hævder Alexander Pritzel og venner hos Googles DeepMind-datterselskab i London at have gjort netop det. Disse fyre har bygget en dyb læringsmaskine, der er i stand til hurtigt at samle nye oplevelser og derefter handle på dem. Resultatet er en maskine, der lærer markant hurtigere end andre og har potentialet til at matche mennesker i en ikke alt for fjern fremtid.
Først lidt baggrund. Deep learning bruger lag af neurale netværk til at se efter mønstre i data. Når et enkelt lag opdager et mønster, det genkender, sender det denne information til det næste lag, der ser efter mønstre i dette signal, og så videre.
Så i ansigtsgenkendelse ser det ene lag muligvis efter kanter i et billede, det næste lag til cirkulære kantermønstre (den slags, som øjne og munder fremstiller), og det næste efter trekantede mønstre som dem, der er lavet af to øjne og en mund. Når alt dette sker, er den endelige output en indikation af, at et ansigt er blevet plettet.
Djævelen er selvfølgelig i detaljerne. Der er forskellige systemer for feedback, så systemet kan lære ved at justere forskellige interne parametre, såsom styrken af forbindelserne mellem lag. Disse parametre skal ændres langsomt, da en stor ændring i et lag kan katastrofalt påvirke læring i de efterfølgende lag. Derfor har dybe neurale netværk brug for så meget træning, og hvorfor det tager så lang tid.
Pritzel og co har tackle dette problem med en teknik, de kalder neurale episodisk kontrol. ”Neural episodisk kontrol demonstrerer dramatiske forbedringer i læringshastigheden i en lang række miljøer,” siger de. ”Kritisk set er vores agent i stand til hurtigt at låse fast på meget vellykkede strategier, så snart de opleves, i stedet for at vente på mange optimeringstrin.”
Den grundlæggende idé bag DeepMinds tilgang er at kopiere den måde, mennesker og dyr lærer hurtigt på. Den generelle konsensus er, at mennesker kan tackle situationer på to forskellige måder. Hvis situationen er kendt, har vores hjerner allerede dannet en model for den, som de bruger til at finde ud af, hvordan de bedst kan opføre sig. Dette bruger en del af hjernen kaldet præfrontal cortex.
Se også Googles nye AI bliver smartere takket være en arbejdshukommelse