Een kunstmatig intelligent systeem dat bestaat uit levende menselijke hersencellen heeft op basis van honderden geluidsfragmenten geleerd de stem van een individu te herkennen.

Klompjes menselijke hersencellen gekoppeld aan een computer kunnen een zeer basale vorm van spraakherkenning uitvoeren. Wetenschappers hopen dat dergelijke systemen in de toekomst veel minder energie zullen verbruiken dan siliciumchips.

Hersenorganoïden zijn klompjes zenuwcellen die ontstaan door stamcellen onder bepaalde omstandigheden te kweken. ‘Het zijn net minihersenen’, zegt informaticus Feng Guo van de Indiana University Bloomington in de Verenigde Staten.

Kunnen we ooit praten met Poekie?
LEES OOK

Kunnen we ooit praten met Poekie?

Met behulp van AI slagen onderzoekers er steeds beter in dierengeluiden te ontcijferen. Kunnen we ooit echt met onze hond of kat babbelen?

Guo’s onderzoeksteam ontwikkelde met dergelijke organoïden een AI-systeem dat bekendstaat als ‘Brainoware’. Eerder dit jaar gebruikten de onderzoekers het systeem al om bepaalde wiskundige vergelijkingen op te lossen.

Micro-elektrode

Het duurt twee tot drie maanden om de hersenorganoïden te kweken. Ze zijn een paar millimeter breed en bestaan uit pakweg 100 miljoen zenuwcellen. Menselijke hersenen bevatten ongeveer 100 miljard zenuwcellen – duizend keer zoveel.

De onderzoekers plaatsten de organoïden op een micro-elektrode. Die stuurt elektrische signalen naar de organoïden en meet wanneer zenuwcellen in reactie hierop aanslaan.

Voor de spraakherkenningstaak trainden de onderzoekers Brainoware met 240 geluidsfragmenten van acht mensen die Japanse klinkers uitspreken. De fragmenten werden naar de organoïden gestuurd als reeksen van signalen die in ruimtelijke patronen waren gerangschikt.

Adaptief leren

Het systeem moest de stem van een individu leren herkennen. De eerste reacties van de organoïden hadden een nauwkeurigheid van ongeveer 30 tot 40 procent, aldus Guo. Na twee dagen training steeg hun nauwkeurigheid naar 70 tot 80 procent.

‘We noemen dit adaptief leren’, zegt Guo. Wanneer de organoïden werden blootgesteld aan een medicijn dat de vorming van nieuwe verbindingen tussen zenuwcellen tegenhield, trad er geen verbetering op.

De training bestond simpelweg uit het herhalen van de geluidsfragmenten. Er was geen enkele vorm van feedback die de organoïden vertelde of ze het goed of fout hadden, zegt Guo. Dit staat in AI-onderzoek bekend als unsupervised learning (leren zonder toezicht).

Verlengen

Conventionele AI kampt met twee grote uitdagingen, zegt Guo. De eerste is het hoge energieverbruik. De tweede is dat siliciumchips beperkingen kennen, zoals de scheiding tussen de opslag en verwerking van informatie. Systemen die bestaan uit levende zenuwcellen kunnen deze obstakels omzeilen.

Brainoware identificeert alleen wie er spreekt, niet wat er gezegd wordt. ‘De resultaten zijn niet echt veelbelovend vanuit het oogpunt van spraakherkenning’, zegt Guo.

AI-onderzoeker Titouan Parcollet van de Universiteit van Cambridge, die werkt aan conventionele spraakherkenning, sluit echter niet uit dat biocomputing op de lange termijn een belangrijke rol gaat spelen in dit veld. ‘Maar wat betreft specifieke en gerichte taken zijn de huidige deep learning-modellen nog wel veel beter dan wat voor brein dan ook’, zegt hij.

Volgens Guo is momenteel nog een groot probleem dat zijn team de organoïden slechts één of twee maanden in stand kan houden. Die termijn proberen de onderzoekers nu te verlengen. ‘Als we de rekenkracht van organoïden willen inzetten, moeten we deze beperkingen echt aanpakken’, zegt Guo.