Juriste en filosofe Nathalie Smuha: ‘Met de AI Act wil Europa zijn mensen en zijn democratie beschermen’

Elisa Hulstaert
Elisa Hulstaert Redacteur

Het Europees Parlement heeft zijn versie van de Artificial Intelligence Act goedgekeurd. De Europese Unie wil zo als eerste mondiale speler uitpakken met een regelgevend kader voor artificiële intelligentie (AI). ‘Er staat veel op het spel. Dit gaat om veiligheid, mensenrechten, democratie, rechtsstaat en milieu’, zegt onderzoekster Nathalie Smuha.

‘Europa is toonaangevend wat de regulering van AI-systemen betreft en zal dat ook blijven.’ Met die woorden opende Europees Parlementsvoorzitter Roberta Metsola woensdagmiddag de persconferentie over de zopas door een ruime meerderheid goedgekeurde AI Act.

Nathalie Smuha, die de juridische en ethische implicaties van AI onderzoekt aan de KU Leuven en de Universiteit van Chicago, ziet dat Europa met de nieuwe wet een statement maakt. ‘Met de AI Act wil Europa zijn mensen en zijn democratie beschermen.’

De nieuwe regels worden in het leven geroepen om de burgers van de Europese Unie te beschermen tegen de risico’s van kunstmatige intelligentie.

‘Er staat veel op het spel’, zegt Smuha. ‘In het geval van robots of zelfrijdende wagens kan het gaan over onze fysieke veiligheid. Maar AI kan ook onze mensenrechten aantasten door te discrimineren op basis van huidskleur of gender, of door ons recht op privacy te ondermijnen. AI-systemen kunnen manipulatief zijn en zo een gevaar vormen voor onze democratie en onze rechtsstaat. Ze kunnen desinformatie genereren. En omdat ze zo veel rekenkracht nodig hebben, vormen ze ook een bedreiging voor het klimaat.’

Wildgroei

Smuha, die in maart via een open brief nog opriep tot snellere en strengere regulering van AI, ziet in de goedgekeurde AI Act alvast grote verbeteringen ten opzichte van de tekst die oorspronkelijk op tafel lag.

In 2021 stelde de Europese Commissie immers al een wetsontwerp voor, maar de lancering van de razend populaire ChatGPT en de daaropvolgende wildgroei aan generatieve AI-modellen stuurden de Europese wetgevers opnieuw naar de ontwerptafel.

In de oorspronkelijke versie van de AI Act werd een onderscheid gemaakt tussen vier risicocategorieën, gaande van minimaal (AI die bijvoorbeeld bepaalt of een e-mail spam is) tot onaanvaardbaar (zoals AI die burgers een score geeft voor hun gedrag en hen daarop rangschikt).

Voor elke categorie gelden andere regels. AI-modellen die een minimaal risico in zich dragen worden vrij toegestaan, AI-modellen met een hoog risico worden onderworpen aan strenge voorwaarden of zelfs verboden.

Hoogrisicosystemen

Voor de nieuwe generatieve AI-modellen werd nu nog een aparte categorie gecreëerd. Ontwikkelaars moeten transparant communiceren over welke data gebruikt werden bij het trainen van het model, moeten vermijden dat generatieve taalmodellen illegale inhoud produceren en nadrukkelijk vermelden dat teksten met behulp van AI tot stand zijn gekomen.

‘Het voorstel dat het Europees Parlement aangenomen heeft, geeft alvast een sterkere bescherming voor de burger, en dat is een goede zaak’, zegt Smuha. ‘Toch zijn er ook nog wat kwetsbaarheden. Zo moeten de ontwikkelaars van AI-systemen zélf nagaan of ze voldoen aan de voorwaarden die bepalen onder welke categorie ze vallen. Pas daarna volgt eventueel een controle. Voor sommige hoogrisicosystemen is dat minder problematisch dan voor andere.’

Een ander punt dat ongetwijfeld nog voer voor discussie zal vormen, is de realtime gezichtsherkenning. Daarbij worden mensen in de openbare ruimte continu gefilmd en wordt hun gezicht met behulp van AI gelinkt aan databanken met foto’s van mensen die een misdrijf gepleegd hebben.

‘Momenteel wordt dat door de goedgekeurde tekst verboden’, zegt Smuha. ‘Het is duidelijk dat het Parlement op dat gebied veel bescherming wil, maar de Raad is doorgaans wat conservatiever van aard. Dat zou kunnen betekenen dat de Raad politiediensten toegang wil geven tot zulke systemen. Bij de volgende stappen om de wet definitief aan te nemen, zal dit punt ongetwijfeld weer op tafel komen te liggen.’

400 miljoen consumenten

Zullen grote Amerikaanse techbedrijven hun AI-systemen afstemmen op de AI Act, of laten ze de Europese Unie in de toekomst liever links liggen? Bard, de AI-chatbot van Google, is sinds een maand in 180 landen beschikbaar, maar nog nergens in de Europese Unie – al ligt dat volgens Google-topman Sundar Pichai aan ‘een combinatie van factoren’ en dus niet noodzakelijk aan regelgeving.

Toch lijkt ‘regelneef Europa’ soms in zijn eigen staart te bijten: in april blokkeerde de Italiaanse privacywaakhond ChatGPT omdat OpenAI zijn gebruikers onvoldoende informeert over de data die het Amerikaanse bedrijf verzamelt, en geen rechtsgrondslag ziet voor de massale verzameling en opslag van persoonlijke gegevens.

‘Bepaalde AI-systemen zullen inderdaad niet langer op de Europese markt gebruikt worden, maar als de wet goed in elkaar zit, zijn dat systemen die we hier hoe dan ook niet willen’, zegt Smuha. ‘Bovendien is wat zulke bedrijven zeggen soms niet meer dan een dreigement in een poging om de wetgeving af te zwakken. We mogen niet vergeten dat Europa een sterke markt heeft, die meer dan 400 miljoen consumenten telt. Als bedrijven die markt willen bedienen, zullen ze zich aan onze regels moeten houden.’

Anticiperen

Maar voor het zover is, is het wachten of de tekst zoals die nu voorligt, overeind zal blijven. Vrijwel meteen na de goedkeuring door het parlement begonnen de onderhandelingen met de afzonderlijke lidstaten.

De Europese Commissie wil dit jaar nog een volledig akkoord over de wet bereiken, maar daarna zal het nog twee jaar duren voor de regels effectief in werking treden. Dat wordt dus mikken op eind 2025, al vermoedt Smuha dat het eerder 2026 wordt.

‘Daarom gaan er stemmen op om bedrijven te vragen om zich alvast op vrijwillige basis aan de richtlijnen te houden’, weet Smuha.

‘Bovendien bestaat het risico dat er over een paar jaar, wanneer de wet in werking treedt, weer nieuwe ontwikkelingen komen die uiteraard niet zijn opgenomen in de AI Act. Het is belangrijk om de scope van de wet zo breed mogelijk te houden en niet te focussen op de technologie die achter de AI-systemen zit, maar op de risico’s die aan zulke modellen verbonden zijn. We moeten inzetten op transparantie en de definitie van AI zo breed mogelijk houden. Hoe meer je vernauwt, hoe minder je kunt anticiperen op toekomstige systemen.’

Fout opgemerkt of meer nieuws? Meld het hier

Partner Content