De ontwikkelingen in de kunstmatige intelligentie (AI) volgen elkaar in razend tempo op. Wetenschapsjournalist Bennie Mols beschrijft in het boek Slim, slimmer, slimst, het nieuwe Pocket Science-deel, wat de verschillen en overeenkomsten tussen menselijke en kunstmatige intelligentie zijn. In deze voorpublicatie: moeten we bang zijn dat kunstmatige intelligentie de mensheid bedreigt?
Stel dat een AI-systeem als enige doel heeft om zoveel mogelijk paperclips te maken. Als dat het enige doel is, zijn mensen een sta-in-de-weg. Mensen kunnen immers besluiten om het systeem te saboteren en dan zou het minder of zelfs geen paperclips maken. Bovendien kan het menselijke lichamen prima als grondstof gebruiken om nog meer paperclips van te maken. Kortom, de toekomst waarnaar dit AI-systeem gaat streven, is er een waarin mensen opgeofferd worden voor het maken van paperclips.
De Zweedse filosoof Nick Bostrom beschreef dit gedachte-experiment in 2003. Het illustreert volgens hem dat AI een existentieel risico voor de mensheid kan vormen zodra het slim genoeg is geworden.
Zijn gedachte-experiment heeft veel discussie opgeleverd. Sommigen vinden het paperclipvoorbeeld volkomen onrealistisch, anderen vinden dat we het scenario, hoe onwaarschijnlijk ook, serieus moeten nemen omdat de consequenties zo groot kunnen zijn.
‘Pijn werkt verschillend bij mannen en vrouwen’
Mannen en vrouwen ervaren pijn op een verschillende manier. Artsen moeten zich hier meer van bewust zijn, stelt Esmeralda Blaney Davidson.
Singulariteit
De Amerikaanse uitvinder en futurist Ray Kurzweil schatte in 2005 in zijn boek The Singularity is Near op basis van de steeds toenemende rekenkracht van computers dat rond 2045 de mens compleet door kunstmatig intelligente machines is overvleugeld. Dat magische moment noemt hij de Singulariteit. In 2014 zei natuurkundige Stephen Hawking over AI: ‘De ontwikkeling van kunstmatige intelligentie kan het einde betekenen van de mensheid.’
Hoe realistisch zijn dit soort ideeën? Vanuit filosofisch oogpunt is het belangrijk te bedenken dat er geen enkele reden is waarom AI niet ooit superintelligent zou kunnen worden op alle mogelijke cognitieve terreinen. Ons eigen brein bewijst dat intelligentie uit zuiver materiële informatieverwerking kan ontstaan. Maar er is een groot verschil tussen theorie en praktijk. In theorie kan morgen de wereldvrede uitbreken. In theorie kan de mens morgen met 99 procent van de lichtsnelheid door het heelal reizen. Beide zijn echter even onwaarschijnlijk.
Mensachtige AI
Laten we eens kijken welke reuzenstappen AI zou moeten maken voordat ze de mens in zijn bestaan zou bedreigen. Allereerst moet de mens erin slagen om mensachtige AI te bouwen. Dat moment is nog ver weg. Er zijn nog talloze cognitieve vaardigheden waarin de mens veel beter is dan de machine en waarvoor het vakgebied van de AI nog geen oplossing heeft. Zo is AI heel slecht in redeneren over oorzaak en gevolg, begrijpen wat iemand denkt en voelt, bepalen welke informatie relevant is, en iets dat het in één situatie heeft geleerd, generaliseren naar andere situaties. Niemand weet op dit moment welke route het snelst leidt tot mensachtige AI, maar laat ik één mogelijke route schetsen, zoals beschreven door cognitiewetenschapper Gary Marcus en hoogleraar informatica Ernest Davis in hun boek Rebooting AI – Building AI we can trust.
Zij stellen voor om eerst de twee hoofdstromingen in de AI – machinaal leren en machinaal redeneren – te combineren. Dat is al een ongelofelijk moeilijke opgave, waaraan pas recent is begonnen. Vervolgens zouden we die combinatie moeten aanvullen met een mix aan nog te ontwikkelen nieuwe AI-instrumenten. Net als mensen zullen ook machines een aantal aangeboren vaardigheden moeten hebben: een basaal begrip van tijd, ruimte en causaliteit. Daarmee kunnen ze een intuïtief psychologisch en natuurkundig begrip ontwikkelen. Wat gaat er in andere mensen om? Hoe gedragen voorwerpen zich onder invloed van de zwaartekracht?
Daarnaast moeten machines leren redeneren met onzekere informatie. Al deze vaardigheden moeten machines verbinden met het waarnemen van de omgeving, het manipuleren ervan, en natuurlijk met taal. Dat stelt ze in staat om net als mensen cognitieve modellen van de wereld op te bouwen. Met zo’n totaalpakket kunnen machines op een flexibele, mensachtige manier een heleboel verschillende vaardigheden leren.
Superintelligent
Als het is gelukt om mensachtige AI te bouwen, zou AI vervolgens moeten begrijpen hoe ze werkt. Dat is nodig om zichzelf te kunnen verbeteren. Daarna zou AI erin moeten slagen om zichzelf superintelligent te maken en ook nog eens de wil moeten ontwikkelen om mensen kwaad te doen. Dan zou de superintelligente AI ook nog zelf aan haar energie moeten zien te komen. En ten slotte zou de mens de stekker niet meer uit deze AI moeten kunnen trekken. Bij elke stap hoort een heel kleine kans. De totale kans dat AI de mens zou gaan bedreigen is dan een vermenigvuldiging van al die kleine kansen die bij elk stapje horen en dat wordt dan een nog veel kleinere kans.
Superintelligente AI die een existentiële bedreiging gaat vormen voor de mens, is dus mogelijk, maar buitengewoon onwaarschijnlijk. En als er superintelligente AI zal ontstaan, zien we dat lang van tevoren aankomen, juist omdat daar nog zoveel fundamentele doorbraken voor nodig zijn. We kunnen ruim op tijd maatregelen treffen: in de AI-technologie zelf, in onze omgang ermee, in wet- en regelgeving, en in internationale verdragen (vergelijkbaar met verdragen die het gebruik van biologische en chemische wapens verbieden, of specifieke technologieën zoals laserwapens).
AI hoeft niet superintelligent te zijn, hoeft niet op mensen te lijken en hoeft geen bewustzijn te hebben. AI-systemen moeten gewoon slimme, nuttige assistenten zijn die bepaalde problemen beter en sneller oplossen dan mensen dat kunnen. We staan voor grote maatschappelijke uitdagingen – geopolitieke spanningen, klimaatverandering, energietransitie, digitale transitie, migratie, globalisering – en om die op te lossen, hebben we AI keihard nodig.