Yuval Noah Harari: ‘AI heeft het besturingssysteem van de menselijke beschaving gehackt’

Yuval Noah Harari © Getty Images

Artificiële intelligentie kan het einde betekenen van de menselijke geschiedenis, meent de populaire historicus en filosoof Yuval Noah Harari. ‘We moeten AI reguleren vooraleer ze ons reguleert.’

De angst voor artificiële intelligentie (AI) achtervolgt de mensheid al sinds het begin van het computertijdperk. Tot nu toe was die angst gericht op machines die fysieke middelen gebruiken om mensen te doden, tot slaaf te maken of te vervangen. Maar de afgelopen jaren zijn er nieuwe AI-tools opgedoken die het voortbestaan van de menselijke beschaving vanuit onverwachte hoek bedreigen. Artifiële intelligentie heeft opmerkelijke vaardigheden verworven om taal te manipuleren en te genereren, of het nu gaat om woorden, geluiden of beelden. Daarmee heeft ze het besturingssysteem van onze beschaving gehackt.

Vrijwel alle menselijke cultuur is gemaakt uit taal. Mensenrechten zitten bijvoorbeeld niet in ons DNA. Het zijn culturele artefacten die we creëerden door verhalen te vertellen en wetten te schrijven. Goden zijn geen fysieke realiteiten. Het zijn culturele artefacten die we creëerden door mythen te verzinnen en die neer te schrijven.

Ook geld is een cultureel artefact. Bankbiljetten zijn niet meer dan kleurrijke stukjes papier. Bovendien bestaat meer dan 90 procent van het geld niet eens uit bankbiljetten, maar uit digitale informatie in computers. Geld krijgt waarde door de verhalen die bankiers, ministers van Financiën en cryptocurrency-goeroes erover vertellen. Sam Bankman-Fried, Elizabeth Holmes en Bernie Madoff waren niet bijzonder goed in het creëren van echte waarde, het waren uiterst bekwame verhalenvertellers.

Probeer je de impact voor te stellen van AI-tools die massaal politieke inhoud, nepnieuwsverhalen en teksten voor sektes zoals QAnon kunnen schrijven.

Wat zou er gebeuren als een niet-menselijke intelligentie beter wordt dan de gemiddelde mens in het vertellen van verhalen, het componeren van melodieën, het maken van beelden en het schrijven van wetten en teksten? Wanneer mensen denken aan ChatGPT en andere nieuwe AI-tools, denken ze vaak aan zaken zoals schoolkinderen die AI gebruiken om hun opstellen te schrijven. Dan vragen ze zich af welke gevolgen dat kan hebben voor het onderwijs. Maar dat soort vragen gaat voorbij aan het grote geheel. Vergeet die opstellen. Denk aan de Amerikaanse presidentsverkiezingen in 2024, en probeer je de impact voor te stellen van AI-tools die massaal politieke inhoud, nepnieuwsverhalen en teksten voor sektes zoals QAnon kunnen schrijven.

(Lees verder onder de preview)

De afgelopen jaren heeft de QAnon-cultus zich gegroepeerd rond anonieme online berichten, bekend als ‘Q-drops’. Zijn volgelingen verzamelden, vereerden en interpreteerden die Q-drops als heilige teksten. Voor zover wij weten werden alle Q-drops tot nu toe samengesteld door mensen, en hielpen bots alleen bij de verspreiding ervan. Maar in de toekomst zouden we de eerste sektes kunnen zien waarvan de vereerde teksten werden geschreven door een niet-menselijke intelligentie. Religies hebben altijd beweerd dat hun heilige teksten een niet-menselijke bron hebben. Binnenkort kan dat werkelijkheid worden.

Artificiële intelligentie kan haar boodschappen zo precies formuleren dat zij een goede kans maakt om ons te beïnvloeden.

Op een meer prozaïsch niveau zouden we binnenkort lange online discussies kunnen voeren over abortus, klimaatverandering of de Russische invasie in Oekraïne met entiteiten waarvan we denken dat het mensen zijn, maar die in feite AI zijn. Het probleem is dat het voor ons volstrekt zinloos is te proberen de uitgesproken mening van een AI-bot te veranderen, terwijl de AI haar boodschappen zo precies kan formuleren dat zij een goede kans maakt om ons te beïnvloeden.

Door haar taalbeheersing zou de AI zelfs intieme relaties met mensen kunnen aangaan en de kracht van intimiteit kunnen gebruiken om onze meningen en wereldbeelden bij te stellen. Hoewel er geen aanwijzingen voor zijn dat AI een eigen bewustzijn of gevoelens heeft, is het voor nepintimiteit met mensen voldoende als de AI hen emotioneel aan zich kan binden. In juni 2022 beweerde Blake Lemoine, een Google-ingenieur, publiekelijk dat de AI-chatbot waaraan hij werkte, LaMDA, gevoelig was geworden. Die controversiële bewering kostte hem zijn baan. Het interessantste aan die gebeurtenis was niet Lemoines bewering, die waarschijnlijk vals was. Het was eerder zijn bereidheid om zijn lucratieve baan op het spel te zetten voor de AI-chatbot. Als AI mensen kan beïnvloeden om hun baan te riskeren, waartoe kan ze hen dan nog meer aanzetten?

(Lees verder onder de preview)

In een politieke strijd om verstand en hart is intimiteit het efficiëntste wapen, en AI kan voortaan massaal intieme relaties aangaan met miljoenen mensen. We weten allemaal dat sociale media het afgelopen decennium de arena zijn geworden waar de strijd om de controle over de menselijke aandacht wordt geleverd. Met de nieuwe generatie AI verschuift die strijd van aandacht naar intimiteit. Wat zal er gebeuren met de samenleving en de menselijke psychologie als AI vecht tegen AI om intieme relaties met ons te fingeren, die vervolgens gebruikt kunnen worden om ons te overtuigen op bepaalde politici te stemmen of bepaalde producten te kopen?

Zelfs zonder ‘nep-intimiteit’ te creëren, zouden de nieuwe AI-instrumenten een enorme invloed hebben op onze meningen en wereldbeelden. Mensen kunnen een enkele AI-adviseur gebruiken als een alwetend orakel. Geen wonder dat Google doodsbang is. Waarom zou ik googelen als ik het gewoon aan het orakel kan vragen? Ook de nieuws- en de reclame-industrie zouden doodsbang moeten zijn. Waarom zou ik een krant lezen als ik gewoon aan het orakel kan vragen me het laatste nieuws te vertellen? En wat is het nut van advertenties als ik het orakel kan vragen wat ik moet kopen?

Zelfs deze scenario’s omvatten niet echt het grote geheel. Waar we het over hebben, is mogelijk het einde van de menselijke geschiedenis. Niet het einde van de geschiedenis, alleen het einde van het door mensen gedomineerde deel ervan. Geschiedenis is de wisselwerking tussen biologie en cultuur, tussen onze biologische behoeften en verlangens naar zaken als voedsel en seks, en onze culturele creaties als religies en wetten. Geschiedenis is het proces waardoor wetten en religies voedsel en seks vormgeven.

Wat gebeurt er met de loop van de geschiedenis als AI de cultuur overneemt en verhalen, melodieën, wetten en religies begint te produceren? De drukpers en de radio hielpen de culturele ideeën van mensen te verspreiden, maar ze creëerden zelf nooit nieuwe culturele ideeën. AI is fundamenteel anders. AI kan volledig nieuwe ideeën, volledig nieuwe cultuur creëren.

Duizenden jaren hebben mensen geleefd in de dromen van andere mensen. In de komende decennia leven we misschien in de dromen van een buitenaardse intelligentie.

Eerst zal AI waarschijnlijk de menselijke prototypes imiteren waarop ze in haar kinderjaren is getraind. Maar daarna zal de AI-cultuur almaar verder gaan, waar geen mens ooit is geweest. Duizenden jaren hebben mensen geleefd in de dromen van andere mensen. In de komende decennia leven we misschien in de dromen van een buitenaardse intelligentie.

De angst voor AI heeft de mensheid de laatste decennia achtervolgd. Maar al duizenden jaren wordt de mens achtervolgd door een veel diepere angst. We hebben altijd de kracht van verhalen en beelden gewaardeerd om onze geest te manipuleren en illusies te scheppen. Daarom is de mens al sinds de oudheid bang om gevangen te zitten in een wereld van illusies.

(Lees verder onder de preview)

In de zeventiende eeuw vreesde René Descartes dat een kwaadaardige demon hem gevangen hield in een wereld van illusies, die alles creëerde wat hij zag en hoorde. In het oude Griekenland vertelde Plato de beroemde Allegorie van de Grot, waarin een groep mensen hun hele leven in een grot zit, geketend en met uitzicht op een lege muur. Een scherm. Op dat scherm zien ze verschillende schaduwen geprojecteerd. De gevangenen verwarren de illusies die ze daar zien met de werkelijkheid.

In het oude India wezen boeddhistische en hindoeïstische wijsgeren erop dat alle mensen gevangen zaten in Maya, de wereld van illusies. Wat wij normaal als werkelijkheid beschouwen, is vaak slechts een verzinsel in onze eigen geest. Mensen kunnen hele oorlogen voeren, anderen doden en bereid zijn zelf gedood te worden, vanwege hun geloof in deze of gene illusie.

De AI-revolutie brengt ons oog in oog met de demon van Descartes, met Plato’s grot, met de Maya’s. Als we niet oppassen, raken we misschien gevangen achter een gordijn van illusies, dat we niet kunnen losscheuren of waarvan we niet eens beseffen dat het er is.

Natuurlijk kan de nieuwe macht van AI ook voor goede doeleinden worden gebruikt. Ik zal daar niet over uitweiden. De mensen die AI ontwikkelen praten er genoeg over. Het is de taak van historici en filosofen zoals ik om op de gevaren te wijzen. Maar zeker is dat AI ons op talloze manieren kan helpen, van het vinden van nieuwe kankerbehandelingen tot het ontdekken van oplossingen voor de ecologische crisis. De vraag is hoe we ervoor kunnen zorgen dat de nieuwe AI-tools ten goede en niet ten kwade worden gebruikt. Daartoe moeten we eerst de werkelijke mogelijkheden van die instrumenten inzien.

(Lees verder onder de preview)

Sinds 1945 weten we dat nucleaire technologie goedkope energie kan opwekken ten bate van de mens, maar ook de menselijke beschaving kan vernietigen. Daarom hebben we de hele internationale orde hervormd om de mensheid te beschermen en ervoor te zorgen dat nucleaire technologie in de eerste plaats ten goede wordt gebruikt. Nu hebben we te maken met een nieuw massavernietigingswapen dat onze mentale en sociale wereld kan vernietigen.

Kernwapens kunnen geen krachtigere kernwapens uitvinden. AI kan wel exponentieel krachtigere AI maken.

We kunnen de nieuwe AI-tools nog altijd reguleren, maar we moeten snel handelen. Terwijl kernwapens geen krachtiger kernwapens kunnen uitvinden, kan AI exponentieel krachtigere AI maken. De eerste, cruciale stap is strenge veiligheidscontroles te eisen voordat krachtige AI-tools worden vrijgegeven in het publieke domein. Net zoals een farmaceutisch bedrijf geen nieuwe geneesmiddelen op de markt kan brengen voordat de bijwerkingen ervan op korte en lange termijn zijn getest, zo zouden techbedrijven geen nieuwe AI-tools mogen uitbrengen voordat ze veilig zijn gemaakt. We hebben een equivalent van de Food and Drug Administration (FDA, het Amerikaanse voedselagentschap, nvdr) nodig voor nieuwe technologie, en wel gisteren.

Zal het vertragen van publieke AI-toepassingen er niet toe leiden dat democratieën achterop raken bij meer meedogenloze autoritaire regimes? Juist het tegenovergestelde. Ongereguleerde invoering van AI zou sociale chaos veroorzaken. Dat zou in het voordeel zijn van autocraten en democratieën ruïneren. Democratie is een gesprek, en gesprekken zijn gebaseerd op taal. Als AI de taal hackt, kan ze ons vermogen om zinvolle gesprekken te voeren vernietigen, en daarmee de democratie.

We hebben net een buitenaardse intelligentie ontmoet, hier op aarde. We weten er niet veel van, behalve dat ze onze beschaving kan vernietigen. We moeten een einde maken aan de onverantwoorde inzet van AI-tools in de publieke sfeer, en AI reguleren voordat ze ons reguleert. De eerste regel die ik wil voorstellen is dat AI verplicht wordt bekend te maken dat ze AI is. Als ik met iemand praat en ik kan niet zien of het een mens of AI is, dan is dat het einde van de democratie.

Deze tekst is gemaakt door een mens.

Of toch niet?


Yuval Noah Harari is historicus, filosoof en auteur van onder meer Sapiens (2011), Homo Deus (2015) en de kinderserie Unstoppable Us. Hij is docent aan het departement Geschiedenis van de Hebreeuwse Universiteit van Jeruzalem en medeoprichter van Sapienship, een bedrijf voor sociale impact.

(c) The Economist

Fout opgemerkt of meer nieuws? Meld het hier

Partner Content