UC Berkeley-forskere har udviklet en robotlæringsteknologi, der gør det muligt for robotter at forestille sig fremtiden for deres handlinger, så de kan finde ud af, hvordan de kan manipulere objekter, de aldrig har stødt på før. I fremtiden kunne denne teknologi hjælpe selvkørende biler med at forudse fremtidige begivenheder på vejen og producere mere intelligente robotassistenter i hjem, men den oprindelige prototype fokuserer på at lære enkle manuelle færdigheder helt fra autonomt spil.
Ved hjælp af denne teknologi, kaldet visuel fremsyn, kan robotterne forudsige, hvad deres kameraer vil se, hvis de udfører en bestemt række af bevægelser. Disse robotimaginationer er stadig relativt enkle i øjeblikket - forudsigelser, der kun er sket nogle sekunder ind i fremtiden - men de er nok til, at roboten kan finde ud af, hvordan man flytter objekter rundt på et bord uden at forstyrre hindringer. Af afgørende betydning kan roboten lære at udføre disse opgaver uden hjælp fra mennesker eller forudgående viden om fysik, dets miljø eller hvad objekterne er. Det skyldes, at den visuelle fantasi læres helt fra bunden af uovervåget og uovervåget efterforskning, hvor roboten leger med genstande på et bord. Efter denne spillefase bygger roboten en forudsigelig verdensmodel og kan bruge denne model til at manipulere nye objekter, som den ikke har set før.
"På samme måde som vi kan forestille os, hvordan vores handlinger vil bevæge objekterne i vores miljø, kan denne metode sætte en robot i stand til at visualisere, hvordan forskellige opførsler vil påvirke verdenen omkring den," sagde Sergey Levine, adjunkt i Berkeleys Institut for Elektroteknik og Computervidenskab, hvis laboratorium udviklede teknologien. ”Dette kan muliggøre intelligent planlægning af yderst fleksible færdigheder i komplekse virkelige situationer.”
[the_ad id = "11018 ″]
Forskerteamet vil udføre en demonstration af den visuelle teknik for fremtidssyn på Konference om neurale informationsbehandlingssystemer i Long Beach, Californien, december 5.
Kernen i dette system er en dyb læringsteknologi baseret på indviklet tilbagevendende video-forudsigelse, eller dynamisk neurale advektion (DNA). DNA-baserede modeller forudsiger, hvordan pixels i et billede vil bevæge sig fra den ene ramme til den næste baseret på robotens handlinger. De seneste forbedringer af denne klasse af modeller såvel som kraftigt forbedrede planlægningsmuligheder har gjort det muligt for robotkontrol baseret på video-forudsigelse at udføre stadig mere komplekse opgaver, såsom at glide legetøj omkring forhindringer og omplacere flere objekter.