Hoe blinde mensen net als vleermuizen kunnen ‘zien’ door middel van klikgeluiden

Sommige blinde mensen maken net als vleermuizen gebruik van een techniek die echolocatie heet. Wanneer zij klikgeluiden maken met hun mond kunnen ze hun omgeving in kaart brengen.

Hoewel Daniel Kish blind is, kan hij dankzij zijn echolocatie gewoon fietsen. Beeld: Thatcher Cook 

Hoewel veel blinde mensen passief gebruik maken van echo’s om hun omgeving te verkennen, maakt slechts een enkeling daar ook zelf geluiden voor. Een van hen is Daniel Kish. Hij is zelfs zo goed in echolocatie dat hij een schets van een kamer kan maken nadat hij mondklikkend door een kamer is gelopen. Hij kan op zijn kliks zelfs zo goed navigeren dat hij kan mountainbiken langs onbekende routes. ‘Blinde kinderen zouden gebruik moeten kunnen maken van echolocatie, net als ik’, stelt hij.

Eerder onderzoek had aangetoond dat menselijke echolocatie hersengebieden activeert die mensen die kunnen zien gebruiken wanneer ze iets bekijken. Kish, die bijna vanaf zijn geboorte blind is, denkt dat zijn ervaring erg vergelijkbaar is met het zien van beelden. ‘Het is geen berekening. Dit is een echt tastbare ervaring van een beeld als een ruimtelijke representatie; hier zijn muren, hier zijn de hoeken, hier zijn voorwerpen aanwezig.’

In het meest recente onderzoek voerde Lora Thaler van de Britse Universiteit van Durham samen met haar team een eerste diepgaande akoestische analyse uit op de mondklikken. Zij werkten daarvoor samen met Kish en twee andere blinde mensen uit Nederland en Oostenrijk die echolocatie gebruiken.

De juiste klik

De kliks bleken een vorm van geluidsgolven die worden uitgezonden in kegel met een straal van 60 graden. Ter vergelijking: bij normale spraak is dat 120 tot 180 graden. De kliks zijn dus meer gefocust. Zonder dat ze het doorhadden, hadden de echolokalisatoren dus zelf uitgevogeld hoe ze het geluid moesten ‘richten’ naar de plek van bestemming.

De frequentie van de kliks varieerde van 2 tot 4 kilohertz, een hogere toon dan spraak. Volgens Thaler helpt dit misschien om het geluid goed gefocust te houden. De kliks duurden ook erg kort (3 milliseconden) wat misschien voorkomt dat het uitgezonden geluid overlapt met zijn echo.

Met behulp van dit onderzoek, heeft het team synthetische kliks gegenereerd die ze in de toekomstig onderzoek kunnen gebruiken. ‘We kunnen met een computer duizend keer klikken naar een object en ontdekken hoe je daaruit de vorm kunt bepalen’, zegt Thaler. Dat kun je niet van een persoon vragen.

‘Dit onderzoek is een goed begintpunt om de kliks te doorgronden’, zegt Andrew Kolarik van de Universiteit van Londen. ‘Er is redelijk wat debat over wat het beste echolokalisatiesignaal is. Nu moeten we proberen te ontdekken welke klik in verschillende omstandigheden het beste werkt.”

Mensen soms beter in echolocatie

Een beter begrip van hoe Kish en de anderen echolocatie toepassen kan helpen om anderen met zichtverlies ook deze techniek aan te leren. Het werk kan ook leiden tot verbeterde versies van de sonar die gebruikt wordt in zelfrijdende auto’s, vertelt Thaler. ‘Huidige sonarsystemen kunnen ons vertellen hoe ver weg bepaalde objecten staan en hoe groot ze zijn, maar onthullen misschien niet wat ze zijn. Menselijke gebruikers van echolocatie kunnen dat soms beter.’

Mis niet langer het laatste wetenschapsnieuws en meld je nu gratis aan voor de nieuwsbrief van New Scientist.

Lees verder:

1 Reactie

  • serge jaspers

    | Beantwoorden

    Naast echo maken ze ook gebruik van galm om een ruimte ‘in kaart te brengen’.

Plaats een reactie