AI – Het moet eerst misgaan voor we weten wat het risico met AI is


We moeten beter doorgronden hoe AI-modellen werken, zegt Marietje Schaake, onderzoekster aan de universiteit van Stanford. “De nieuwste AI-modellen zijn een levensgroot, ongezien experiment.”

Dominique Deckmyn – De Standaard


Ze was amper dertig toen ze in 2009 Europarlementslid werd voor D66, maar ze had er toen al een opvallende diplomatieke carrière op zitten.

In 2019 verliet ze de Europese politiek. Vandaag weegt Marietje Schaake als onderzoekster aan de universiteit van Stanford steeds meer op het debat over technologiewetgeving, een van de thema’s waar ze zich in het Europees Parlement al sterk op profileerde.

Vooral AI heeft nu haar aandacht.

“Ik heb met grote verbazing en teleurstelling gekeken naar de verkiezingscampagne in Nederland”, vertelt ze.

“Het is gewoon niet over technologie of kunstmatige intelligentie gegaan. Niet.

“Terwijl het impact zal hebben op:

  • De nationale veiligheid
  • Het onderwijs
  • De zorg
  • De werkgelegenheid,
  • De primaire taken van de overheid.

“Het raakt aan alles, maar er wordt niet over gesproken.”

Wie is Marietje Schaake?

  • Geboren en opgegroeid in Leiden

  • Europarlementslid voor D66 (2009 – 2019)

  • International Policy Director bij het Cyber Policy Center aan Stanford

  • International Policy Fellow bij het HAI (Institute for Human-Centered Artificial Intelligence)

  • Columnist voor Financial Times en NRC

Marietje Schaake spreekt en schrijft er wel over.

Vanuit de VS adviseerde zij de Europese instellingen bij het tot stand komen van de AI Act, een flinke brok Europese regulering waarover Europa in december een akkoord bereikte.

“Dat was heel bijzonder voor mij,” zegt de 45-jarige Schaake, “want ik kwam met mijn Stanford-collega’s op mijn oude werkplek, en het was een mooie ronde cirkel.

“Dat is precies een van de redenen waarom ik naar Stanford ben gegaan: wij kunnen op cruciale punten impact hebben op de wetgeving. Niet alleen in de EU, ook in Azië en Afrika, en bij de Verenigde Naties.

“Op een bepaalde manier is mijn wereld alleen maar groter geworden sinds ik het Europees Parlement heb verlaten.

“Ik krijg nu telefoons van over de hele wereld: ‘Kun je met ons meedenken, want wij worstelen hiermee als wetgevers.’”

© Jan Rosseel

Technologiebedrijven hebben altijd graag volgehouden dat ze best niet te snel of te veel worden gereguleerd. Daar had Schaake nooit geduld voor.

“We horen dat opnieuw als het over kunstmatige intelligentie gaat”, zegt ze.

“Vaak klinkt het: ‘Het is te ingewikkeld.’ Politici begrijpen het niet. Politici willen te snel gaan. ‘Laat de innovatie de ruimte’, nog zo’n lobbykreet. Anderzijds wordt links en rechts gewaarschuwd voor allerlei risico’s.

“Afgelopen week was ik in Singapore voor een conferentie over AI én in New York voor de eerste fysieke bijeenkomst van de adviesraad voor de secretaris-generaal van de VN, op het gebied van AI-governance.

“Ook in Singapore was er een aantal mensen dat oprecht denkt dat AI tot het einde van de mensheid kan leiden.

“Nu vind ik dat zelf nogal bombastisch, maar het zijn wel mensen die verstand van technologie hebben.

“Die grote risico’s moeten we dus op zijn minst serieus nemen. Dan kun je niet zeggen: we moeten deze technologie alle ruimte geven.”

Schaake vindt het zorgwekkend dat AI-bedrijven als OpenAI, Google en Anthropic in een strijd gewikkeld zijn om hun AI-modellen door zo veel mogelijk mensen te laten gebruiken.

“Als zo’n model door ons allemaal wordt gebruikt, hebben ze weer nieuwe data om mee te trainen. Dat is een levensgroot experiment. Dat heb ik op die manier nog nooit gezien.”

Die bedrijven dringen zelf aan op wetgeving, zeggen ze graag. Maar ze hebben wel een specifiek idee in hun hoofd over hoe die wetgeving eruit moet zien.

Marietje Schaake: “Wat opvalt, is de vreemde verhouding tussen Amerikaanse wetgevers en AI-leiders.

“Het Congres kan inmiddels het bloed van Mark Zuckerberg drinken, maar Sam Altman (ceo van OpenAI) wordt opgevoerd als iemand aan wie je advies kunt vragen over hoe je AI zou moeten kaderen in de wet. En dat is natuurlijk gek.

“We vragen toch ook niet aan Esso: ‘Goh, hoe moeten wij het milieuprobleem oplossen?’ Nee, aan oliebedrijven zeggen we: ‘Wij stellen de kaders, en jullie hebben je daar aan te houden.’”

Hoe zou u die rare situatie duiden?

“Ik denk dat bedrijven zich op een slimme manier positioneren. Ze kiezen de vlucht naar voren door te zeggen: wij omarmen de wetgeving. Maar dan hebben ze een specifieke invulling van die wetten voor ogen: meestal precies datgene waar hun bedrijf geen last van zou hebben.”

“Ze geven ook de indruk dat het land met de technologie in handen een enorm voordeel heeft. Dat de Amerikaanse regering er dus profijt van zal hebben. Terwijl ik denk dat we dat nog maar moeten zien.

“De grootste problemen met slimme apparaten en sociale media hebben zich juist in de Verenigde Staten voltrokken.

“We hebben in Amerika de bestorming van het Capitool gezien, en de kans is groot dat de volgende president van de VS iemand is die – met dank aan sociale media – kan blijven verkondigen dat de vorige verkiezingen oneerlijk zijn verlopen.

“Er is van alles aan de hand met jongeren en hun mentale welzijn door sociale media.

“Buitenlandse mogendheden buiten spanningen in de samenleving uit, ook raciale spanningen.

“Het is nog maar de vraag of degene die de technologie het hardst omarmt niet ook de prijs zal betalen voor de kwetsbaarheden die zich zullen manifesteren.”

AI Act

Na dagen- en nachtenlang vergaderen, ligt er nu toch een Europese AI Act voor. Een eerbaar compromis?

“Er is nu kennelijk voor iedereen een acceptabel akkoord, maar er moeten nog heel wat technische plooien worden gladgestreken. We kunnen de onderhandelde tekst pas in januari zien. Ik ben heel benieuwd naar die details, voor ik een eindoordeel vel.”

In de laatste rechte lijn veranderde Frankrijk van richting door op zo weinig mogelijk regels aan te dringen. Wat moeten we daarvan denken?

“Frankrijk stond het vaakst buiten de meerderheid. Met name dankzij het Franse bedrijf Mistral, dat heel hard heeft gelobbyd.

“Dat is bijzonder omdat het tegen de Franse norm ingaat: Frankrijk is altijd nog kritischer tegenover de grote Amerikaanse bedrijven.

“Maar big tech lobbyt voor big tech, waar de bedrijven ook vandaan komen.

“Aan de andere kant was er, denk ik, een misverstand of angst over wat de wet teweeg zou brengen. Ze deden net alsof Mistral nooit meer een Large Language Model (grote taalmodellen zoals het AI-model van ChatGPT, red.) zou kunnen ontwikkelen door deze wetgeving.

“Maar de wetgeving is net bedoeld om te zeggen: de modellen met de meeste impact moeten aan strengere eisen voldoen.

“Als er iets mis is met een kerningrediënt dat door eindeloos veel mensen wordt gebruikt om verder mee te ontwikkelen, dan ontstaat er een domino-effect. Dat moeten we voorkomen. Dat is, denk ik, helemaal niet zo gek.”

Verkiezingen

AI kan worden ingezet om desinformatie te produceren en te verspreiden. Hoeveel zorgen moeten we ons maken?

“Hoeveel mensen gaan er in 2024 over de hele wereld niet naar de stembus?

“De Verenigde Staten, Indonesië, Mexico, de Europese Unie, dat zijn miljarden stemgerechtigen.

“Tegelijkertijd is er nog veel over AI dat we nog niet weten.

“Ik heb gesprekken met bedrijven die AI ontwikkelen, over hun impact op de verkiezingen. Aan het advies dat ze me vragen, merk ik dat ze daar nog veel te weinig over hebben nagedacht.

“Ze zeggen dat ze pas uit de praktijk kunnen leren hoe hun eigen technologie wordt gebruikt.

“Het moet eerst misgaan voor we weten wat het risico is.

“Er zijn daarnaast ook bedrijven die elke kans zullen benutten om slinkse dingen te doen met data. We kennen het voorbeeld van Cambridge Analytica en talloze gevallen van buitenlandse inmenging via nepprofielen op sociale media.

“Het wordt makkelijker om overtuigende profielen te bouwen en mensen te bereiken, omdat AI kan helpen bij het analyseren van bergen aan informatie.

“Het wordt makkelijker om geloofwaardige desinformatie heel gericht bij mensen terecht te laten komen.”

“Je hoort veel mensen zeggen dat ze niet meer weten wat te geloven, dus dat ze maar beter niks kunnen geloven.

“Nu, dat effect, mensen die afhaken bij het kijken naar nieuwsberichten, dat werkt antidemocratische krachten in de hand. Dat afhaken is minstens zo risicovol, misschien nog wel risicovoller voor een democratie.”

Wat moet er dan gebeuren?

“We moeten ten eerste beter doorgronden hoe die AI-modellen werken, maar we hebben geen toegang tot informatie.

“Stanford is de universiteit die het dichtst bij de bedrijven in Silicon Valley zit, ook qua contacten en geschiedenis.

“Veel van mijn oud-studenten en oud-collega’s werken bij de grote AI-bedrijven. Die lijnen zijn heel kort.

“Andersom hebben we ook wel eens mensen uit die bedrijven die bij ons komen, dat helpt. Maar er is verder geen toegang tot informatie voor onafhankelijk onderzoek.

“Het is continu 1-0: 1 voor het bedrijfsleven en 0 voor het maatschappelijk belang.”

Sam Altman, de ceo van OpenAI, adviseert de wetmakers in Washington DC.
Sam Altman, de ceo van OpenAI, adviseert de wetmakers in Washington DC.  © getty

“Die dynamiek moet doorbroken worden. En dat kan alleen door wetgeving. We moeten transparantie afdwingen.

“Er zit al wel iets aan te komen, als je kijkt naar bijvoorbeeld de Bletchley-verklaring (waarin 28 landen de grote risico’s van de technologie erkenden, red.) en de executive order van Biden.

“Al gaat het daar over vrij nauw gedefinieerde risico’s, bijvoorbeeld over AI die onder meer gebruikt wordt voor de ontwikkeling van biowapens.”

Jobs

We horen relatief weinig over de impact van AI op onze job en ons inkomen, terwijl veel mensen zich net daarover zorgen maken.

“Dat is mij ook opgevallen. Neem nu de AI-top in het Verenigd Koninkrijk. Daar was ik twee dagen aanwezig en ik heb er de woorden ‘banen’ of ‘werkgelegenheid’ nooit gehoord.

“Zelfs als maar vijf procent van de mensen op het werk geraakt wordt door de technologie, kun je al spreken over een enorme verschuiving.

“Er wordt gezegd dat we ons zullen moeten aanpassen aan een werkweek van twintig uur.

Elon Musk zegt dat we naar een post-work society evolueren: een maatschappij waarin arbeid en naar je werk gaan, er niet meer toe doen, omdat AI-modellen volgens sommige mensen zoveel kunnen overnemen.

“Ik hoor helemaal niets over hoe ontwrichtend dat op politiek vlak zou zijn.”

Hoe komt dat?

“Ik denk dat het voor politici overweldigend is.

“AI-wetenschappers zeggen zelf hoe verrast ze zijn over hoe snel dit is gegaan. Daardoor houden ze er ook rekening mee dat het nog sneller door kan ontwikkelen in de toekomst.

“Dat hoeft niet per se waar te zijn, maar dat is een van de redenen waarom zoveel AI-wetenschappers nu echt geschrokken zijn, zoals Geoffrey Hinton, die ontslag heeft genomen bij Google en zijn levenswerk nu met angst bekijkt.

“De experts kunnen het zelf bijna niet bijhouden. Voor politici is het een van de honderd dingen waaraan ze moeten denken.”

“Je zou denken dat de politiek wel alerter zou zijn, want het gaat om hooggeschoolde banen, kantoorbanen die onder druk staan.

“Voorheen bracht een technologische revolutie vaak de laaggeschoolde arbeiders het eerst in gevaar, de automatisering in de fabriek.

“Nu hoor ik van mijn studenten, computerwetenschappers: ‘Misschien moet ik een ander afstudeervak kiezen, want ik denk dat mijn baan er over drie jaar niet meer is.’”


“We kunnen niet meer zeggen dat we deze technologie alle ruimte moeten geven.”  
© Jan Rosseel

Lees ook

Sam Altman – De man achter ChatGPT heeft nog ijzers in het vuur
AI – Europees akkoord over het begrenzen van kunstmatige intelligentie

Lees ook

Lees andere berichten in deze categorie

Artificiële Intelligentie


Bron: De Standaard

Welkom op Facebook

Naar de website


Scroll naar boven