In mei is er voor het eerst iemand omgekomen bij een ongeluk met een zelfrijdende auto. Dat maakte de NHTSA, de Amerikaanse toezichthouder voor de veiligheid op snelwegen, gisteren bekend.

Tesla's automatische piloot zag een vrachtwagen over het hoofd
Tesla’s automatische piloot zag een afslaande vrachtwagen over het hoofd

De Tesla van het slachtoffer reed op automatische piloot toen hij op een vrachtwagen botste. Het ongeluk leidt tot twijfels over de veiligheid van de technologie, maar volgens experts moeten we het kind niet meteen met het badwater weggooien.

Joshua Brown knalde op een snelweg in de Amerikaanse staat Florida tegen een afslaande vrachtwagen. De sensoren van de Tesla hadden de auto moeten afremmen, maar konden de witte truck niet van de heldere hemel onderscheiden.

AI-assistent kan 113-hulpverlening ondersteunen
LEES OOK

AI-assistent kan 113-hulpverlening ondersteunen

Dataspecialist Salim Salmi maakte een AI-tool die 113-hulpverleners ondersteunt.

Tesla zegt in een persbericht dat het om een tragisch ongeluk gaat, maar dat het ook het eerste dodelijke ongeluk betreft na meer dan 210 miljoen kilometer rijden op de automatische piloot. Het bedrijf maakt een vergelijking met het conventionele rijden, waarbij in de VS gemiddeld een dode op elke 150 miljoen kilometer valt.

Semi-autonoom

Tesla benadrukt dat de automatische piloot zich nog in de testfase bevindt. Bovendien is het systeem slechts semi-autonoom: ook als de auto stuurt, is de chauffeur verantwoordelijk.

‘Hoe meer we de automatische piloot testen en de software op zeldzame voorvallen trainen, des te kleiner wordt de kans op ongelukken’, aldus de verklaring van het bedrijf.

Het ongeluk zal de discussie rondom het testen van semi-autonome voertuigen door consumenten aanwakkeren, zegt Hussein Dia of Swinburne University of Technology in Australië. Maar volgens Dia moeten we dit ongeluk niet als een aanklacht tegen volledig autonome voertuigen beschouwen. Die zullen namelijk nog vele jaren op zich laten wachten.

Gill Pratt, voorzitter van Toyota’s kunstmatige-intelligentieprogramma, zegt dat het Japanse autobedrijf een andere insteek wil nemen. Toyota zou de controle nooit volledig uit handen van de bestuurder willen nemen. In plaats daarvan moet de besturingssoftware op de achtergrond aanstaan en bij menselijke fouten ingrijpen.

Oplawaai

Het Tesla-ongeluk zou het vertrouwen van de consument een oplawaai kunnen geven, maar het is onwaarschijnlijk dat het ongeluk de ontwikkeling van zelfbesturende auto’s vertragen zal, zegt Dia.

’Menselijke fouten zijn de oorzaak van zo’n 70 tot 90 procent van de auto-ongelukken. Het is dus juist verstandig die gevaarlijke component weg te halen’, zegt hij. ‘Maar ondanks dat zelfrijdende auto’s minder ongelukken zullen veroorzaken dan dat wij, is het onvermijdelijk dat er fouten gemaakt worden.’

Mike Regan van de the University of New South Wales in Australië is het daarmee eens. ‘We weten van automatiseringprogramma’s in de luchtvaart al dat ook automaten feilbaar zijn.’

‘Ik hoop dat autofabrikanten, wetgevers en onderzoekers als ik kunnen veel van dit ongeluk leren en voorkomen dat zoiets nog eens gebeurt’, zegt Regan. ‘Want uiteindelijk zullen zelfrijdende voertuigen veel veiliger zijn dan de auto’s waarin we nu rijden.’

Altijd op de hoogte blijven van het laatste wetenschapsnieuws? Meld je nu aan voor de New Scientist nieuwsbrief.

Wanneer sturen we niet meer zelf? Dat lees je in 5 vragen over zelf rijdende auto’s via Blendle (€ 0,89)