Direct naar artikelinhoud
Opinie

Als wij maar geen mieren worden in de ogen van de robots

Stijn Bruers.Beeld Tim Dirven

Stijn Bruers is moraalfilosoof, auteur van Morele illusies en medeoprichter van Effectief Altruïsme Vlaanderen

Eind 2017 werd het computerprogramma AlphaZero kampioen in schaken, shogi en go, en dat door zelf te leren, binnen één dag, zonder brute rekenkracht en zonder menselijke input (behalve natuurlijk de spelregels). AlphaZero bedacht verrassend nieuwe, 'buitenaardse' spelstrategieën om te winnen. Dit is een historische zet in de race naar algemene artificiële superintelligentie: machines die een bovenmenselijk vermogen hebben om hun doelen te bereiken in een breed scala van situaties. Artificiële intelligentie of AI gaat ons de komende decennia voor de grootste uitdagingen plaatsen.

Om te beginnen is er een uitdaging voor de rechtsleer. De robot Sophia van Hanson Robotics kreeg vorig jaar als eerste robot het staatsburgerschap (in Saudi-Arabië). Nu buigt ook het Europees Parlement zich over de vraag of intelligente robots een rechtspersoonlijke status krijgen. Wie is aansprakelijk als een zelflerende robot schade veroorzaakt? Wie betaalt dan de schadevergoeding? De softwareprogrammeur? De eigenaar? De robot zelf? Het is zoals met kinderen die zelf leren en daardoor minder voorspelbaar zijn.

Een tweede uitdaging, voor de defensiepolitiek: wat als die robots in verkeerde handen terechtkomen? Onlangs waarschuwde de ondernemer Elon Musk nog voor 'killer robots'. Denk aan een zwerm explosieve drones die zoals steekvliegen perfect op hun doelwit afgaan. Na de nucleaire, chemische en biologische wapens krijgen we nu de autonome wapens die zelf beslissingen nemen. Cruciaal is dan ook een sterkere mondiale samenwerking om een AI-wapenwedloop te vermijden en autonome wapens te verbieden.

Een derde uitdaging is er voor de psychologie. Hoe gaan we weten wanneer een robot een bewustzijn heeft ontwikkeld? Het is niet ondenkbaar dat robots ooit persoonlijke gevoelens kunnen ervaren. Stel dat we de hersenen van een mens zouden simuleren in software, krijgt die computer dan een bewustzijn? Als een pijnervaring wordt gesimuleerd op hardware die een miljoen keer sneller is dan onze hersenen, wordt er dan een miljoen keer meer pijn ervaren? Als dergelijke voelende simulaties of bewuste machines net zoals dieren geen persoonsstatus krijgen, dan zal het leed op aarde enorm toenemen, net zoals gebeurde met dieren in de veeteelt.

Ook onze economie staat voor een uitdaging: AI-machines zoals zelfrijdende vrachtwagens maken talrijke jobs overbodig. Hoe gaan we de massale werkloosheid opvangen? Hoe gaan we de inkomensongelijkheid beperken als de softwareontwikkelaars de productiecapaciteit van onze economie in handen krijgen? We gaan alvast ons belastingstelsel drastisch moeten herzien (een personenbelasting voor robots?) en nadenken over een universeel basisinkomen.

De eerste superintelligente computer kan ons maar beter goedgezind zijn, maar hoe zorgen we daarvoor? Hoe programmeren we de gewenste morele regels?

De grootste uitdaging is er voor de moraalfilosofen. Als opwarmer zijn er de zelfrijdende wagens: welke beslissingen moeten die wagens nemen als ze worden geconfronteerd met morele dilemma's? Het kind doodrijden of snel uitwijken en zo de passagiers in gevaar brengen? Maar artificiële intelligentie stelt de moraalfilosofie voor een fundamenteler probleem. Als we ooit superintelligente machines ontwikkelen, hoe zorgen we er dan voor dat hun doelen in overeenstemming zijn met onze waarden en dat ze correct rekening houden met onze belangen? 

Dat geprogrammeerd krijgen in een moreel algoritme is geen kleine uitdaging, zeker niet wanneer artificiële intelligentie zichzelf modificeert en de morele algoritmes die we voorlopig al hebben bedacht onverwachte en ongewenste neveneffecten hebben. Door AI hebben moraalfilosofen letterlijk een deadline: voordat we superintelligentie creëren, moeten we de moeilijkste vraagstukken in de moraalfilosofie hebben opgelost, want anders riskeren we een catastrofale ramp die zelfs ons voortbestaan bedreigt.

Superintelligente machines denken veel sneller en verwerken veel meer data dan wij. Daar kunnen wij niet tegenop. Ons menselijk verstand verhoudt zich tot een superintelligente robot zoals een chimpanseebrein zich verhoudt tot het onze. Die artificiële superintelligentie is gewoon te slim voor ons. Kennis is macht. Wie slimmer is, heeft meer macht. Superintelligente robots zijn dus machtiger dan wij en zouden ons kunnen onderdrukken, net zoals wij met onze hogere intelligentie andere dieren onderdrukken. Maar zelfs als die machines geen kwade bedoelingen hebben, moeten we beletten dat die machines ons aanzien zoals wij mieren aanzien. Als wij buiten willen spelen, letten we niet op de mieren in het gras. De eerste superintelligente computer kan ons dus maar beter goedgezind zijn, maar hoe zorgen we daarvoor? Hoe programmeren we de gewenste morele regels?

De ontwikkeling op vlak van AI-veiligheid moet sneller gaan dan de vooruitgang op het vlak van AI-vermogen

Veilige AI zal de belangrijkste technologie zijn om het welzijn op aarde te verhogen. De potentiële voordelen zijn niet te onderschatten. Maar ook de risico's niet. Wat we nodig hebben, is een zogenaamde differentiële vooruitgang: de ontwikkeling op vlak van AI-veiligheid moet sneller gaan dan de vooruitgang op het vlak van AI-vermogen. En meer algemeen: de vooruitgang op het vlak van internationale samenwerking, institutionele besluitvorming en moreel denken moet sneller gaan dan die van de technologie.