Nijmegen (NL) – Slimme spraakherkenners laten zich niet langer van de wijs brengen door variaties in de menselijke uitspraak.


Automatische spraakherkenners verstaan niet altijd wat iemand zegt door de wisselende manier waarop mensen woorden uitspreken. Dit zorgt voor problemen bij de training van het programma. De computer deelt een spraaksignaal op en kent de delen toe aan losse klankeenheden. Door een afwijkende uitspraak gaat dat soms verkeerd. De klankmodellen van het programma raken dan vervuild met informatie die bij andere klankeenheden hoort. Tijdens de daadwerkelijke spraakherkenning komt daar nog eens bij dat een afwijkend gesproken signaal niet goed overeenstemt met de standaard klankenlijst van de herkenner.
Promovendus Judith Kessens pakte de problemen aan door de spraakherkenner te voeden met kennis over de diverse manieren waarop mensen woorden uitspreken. Daartoe genereerde ze automatisch allerlei uitspraakvarianten die voldoen aan de fonologische regels van het Nederlands. Daarna koppelde ze deze varianten aan de bijbehorende spraaksignalen. Een spraakherkenner maakt met deze extra kennis beduidend minder fouten.

Mirjam Leunissen