Het is 2035. Het leven is gemakkelijker dan ooit. Voor alle vervelende klusjes hebben we robots gebouwd. Ze zien er net uit als mensen (da’s wel zo gezellig), maar daarbij doen ze zonder klagen de was, poetsen ze het toilet, en laten ze de hond uit. Het idee dat de robots in opstand kunnen komen, lachen we weg. Onze robotmaatjes zijn immers geprogrammeerd drie essentiële wetten te volgen:

AI-assistent kan 113-hulpverlening ondersteunen
LEES OOK

AI-assistent kan 113-hulpverlening ondersteunen

Dataspecialist Salim Salmi maakte een AI-tool die 113-hulpverleners ondersteunt.

Wet 1. Een robot mag nooit een mens kwaad doen.
Wet 2. Een robot moet altijd de opdrachten van een mens opvolgen, behalve als wet 1 daarbij in het beding komt.
Wet 3. Een robot moet zijn eigen bestaan beschermen, behalve als dat wet 1 of 2 schendt.

Filmposter van I, Robot
Filmposter van I, Robot

Met dit toekomstbeeld begint de beroemde actiefilm I, Robot. Natuurlijk gaat het in de film al snel fout. De robots komen ondanks hun wetten in opstand. Misschien komt dat omdat de wetten niet de juiste waren? Pim Haselager, een Nederlandse filosoof en expert op het gebied van kunstmatige intelligentie, zou de robots namelijk een heel andere programmering meegeven.

Haselager sprak afgelopen week bij het TEDx-evenement van de Radboud universiteit Nijmegen. Daar boog hij zich over de vraag of we een robot kunnen vertrouwen. Zullen ze ooit de wereld overnemen? Nee, meent Haselager, want we zijn niet in staat een robot te bouwen die zijn eigen doel bepaalt. Het echte gevaar komt van buitenaf. Iemand anders zou je robot kunnen gebruiken op een manier waar hij niet voor geprogrammeerd is. Neem Roomba, de stofzuigerbot. De makers van Roomba hadden nooit bedacht dat een kat tijdens het stofzuigen op Roomba zou gaan zitten, om vervolgens de hond aan te vallen. Benieuwd naar deze ingenieuze kat? Je vindt de beelden in Haselagers bovenstaande Talk.

Ofwel, het echte gevaar zijn de externe factoren die we niet kunnen voorspellen. En de enige manier om dat gevaar in te perken, is door de robot ‘bewust’ te maken van zijn eigen kunnen. Een robot die twijfelt of zijn actie wel gaat lukken – dat is een robot die je volop kunt vertrouwen.