We zeggen veel met onze handen. Als we met onze handen bewegen als we spreken, lijken we minder robotachtig – en dat geldt ook voor robots. Onderzoekers hebben robots handgebaren aangeleerd door ze urenlang naar YouTube-video’s te laten kijken.

Het steam van Youngwoo Yoon van het Koreaanse onderzoeksinstituut ETRI trainde een machinelearningsysteem om handgebaren aan te passen aan verschillende woorden en zinnen. Ze lieten het systeem 52 uur aan TED Talks zien uit 1295 video’s op YouTube. Vervolgens hebben ze de software getest in een robot.

Socioloog over zelfmoordpreventie: ‘Probeer iemand met suïcidale gedachten uit het dal te helpen’
LEES OOK

Socioloog over zelfmoordpreventie: ‘Probeer iemand met suïcidale gedachten uit het dal te helpen’

Socioloog Diana van Bergen en haar collega’s hebben een beurs van 9 ton gekregen voor een zelfmoordpreventieproject. ‘We weten dat er in de direct ...

Tijdsbesparing

Sommige robots, zoals Pepper of RoboThespian, bewegen hun handen als ze praten, maar deze handgebaren worden meestal geprogrammeerd door mensen – en dat kost tijd. Het repertoire is in dat geval beperkt tot de gebaren die de ontwerpers de robot hebben gegeven, waardoor hij al snel in herhaling valt.

Om dit te voorkomen laten de onderzoekers hun software eigen gebaren leren door mensen te zien spreken. Uit elk frame in de video’s haalden ze de houding van de spreker – inclusief de positie van het hoofd, de nek, de schouders en de armen – en brachten ze deze informatie in verband met wat de spreker op dat moment zei.

Menselijker

Het resulterende systeem was in staat om gebaren te genereren voor woorden en zinnen van iedere lengte. De gebaren bestonden onder meer uit een gebogen arm om aan te geven dat iets vastgehouden wordt, open armen om inclusiviteit aan te duiden en wijzende gebaren voor ‘jij’ en ‘ik’.

Om het systeem te testen rekruteerden de onderzoekers 46 proefpersonen tussen 23 en 70 jaar oud, met het Engels als moedertaal of bekwame sprekers van het Engels als tweede taal. De proefpersonen waren afkomstig van de crowdsourcingsite Amazon Mechanical Turk.

De deelnemers beoordeelden de aangeleerde gebaren als menselijker, vriendelijker en beter passend bij de gesproken woorden dan de gebaren die gegenereerd werden op reeds bestaande manieren. Voordat de robotgebaren volledig overtuigend zijn is er echter nog een lange weg te gaan. Het team is van plan de handbewegingen in de toekomst te personaliseren, zodat robots niet allemaal dezelfde gebaren gebruiken.