Hoe kan Europa zijn doelen in de regulering van kunstmatige intelligentie efficiënt bereiken? En hoe kan de EU zelf AI gebruiken voor dit doel? In het AI4POL-project gaan onderzoekers van Centerdata met een internationaal onderzoeksteam onderzoeken of de EU-regelgeving daadwerkelijk haar burgers ondersteunt. Daarnaast zal het team AI-tools en datawetenschappelijke methoden ontwikkelen waarmee beleidsmakers en toezichthouders de effecten van hun wetgeving beter kunnen evalueren, evenals mogelijke bedreigingen door technologische ontwikkelingen in niet-democratische staten. Het project wordt gefinancierd door het EU Horizon Europe-programma.
Europese samenlevingen zijn het er grotendeels over eens dat het gebruik van kunstmatige intelligentie en andere digitale technologieën in overeenstemming moet zijn met mensenrechten, democratie en consumentenbescherming. In de afgelopen jaren heeft de Europese Unie uitgebreide wetgeving aangenomen die een kader biedt voor het gebruik van AI, waaronder de AI Act, de Data Act en de Digital Markets Act. Hoe werken deze regels in de praktijk? Hoe passen gebruikers de voorzieningen toe die hen moeten beschermen? En hoe bedreigt het gebruik van AI in landen die niet dezelfde waarden delen, de doelstellingen van het Europese beleid?
Een internationaal en interdisciplinair onderzoeksteam zal deze vragen onderzoeken in het AI4POL-project. De onderzoekers willen beleidsmakers en publieke autoriteiten niet alleen voorzien van nieuwe inzichten, maar ook van AI-tools en datawetenschappelijke methoden, zodat zij beter in staat zijn de impact van hun wetgeving en maatregelen te monitoren, evalueren en verbeteren.
Expertise in technologie, sociale wetenschappen, economie, ethiek en recht
‘Het doel van Europa is om innovatief en concurrerend te zijn zonder zijn waarden in gevaar te brengen. Dit kan alleen worden bereikt met een effectief regelgevend kader en goed geïnformeerde besluitvormers in de politiek en publieke administratie’, zegt projectleider Prof. Jens Prüfer, directeur van het Tilburg Law and Economics Center aan Tilburg University. ‘Kunstmatige intelligentie en datawetenschap kunnen zeer behulpzaam zijn voor dergelijke monitoring. We willen politici ondersteunen, die, in tegenstelling tot grote technologiebedrijven, niet duizenden hooggekwalificeerde AI-experts in dienst hebben.’
AI4POL brengt onderzoekers samen uit de vakgebieden technologieontwikkeling, ethiek, recht, economie en politieke wetenschappen. Partners zijn onder andere Tilburg University, de Technische Universiteit van München (TUM), de University of East Anglia (UEA), Visionary Analytics, Centerdata, de Università degli Studi di Roma Unitelma Sapienza en de TUM Think Tank. Het onderzoeksteam wordt ondersteund door een adviesraad met vertegenwoordigers van regelgevende autoriteiten, consumentenbeschermingsorganisaties, maatschappelijke organisaties en bedrijven. De Europese Unie financiert het project met 3 miljoen euro.
Hoe worden maatregelen voor consumentenbescherming ervaren?
Het onderzoeksteam zal zich richten op consumentenbescherming aan de ene kant en de financiële sector aan de andere kant. ‘We weten weinig over hoeveel mensen de informatie begrijpen die wordt verstrekt voor online contracten, bijvoorbeeld, en of ze gewoon op ‘oké’ klikken omdat de teksten veel te lang zijn en in juridisch jargon zijn geschreven’, zegt Gjergji Kasneci, hoogleraar Responsible Data Science aan de TUM. ‘We willen uitzoeken hoe deze consumentenbeschermingsmaatregelen worden ervaren, hoe bedrijven en politici feedback kunnen krijgen en hoe de impact kan worden verbeterd. Op hun beurt kunnen AI-tools helpen door de ingewikkelde teksten op een vereenvoudigde manier samen te vatten.’
Prof. Sean Ennis, directeur van het Centre for Competition Policy aan de UEA, voegt toe: ‘AI verstoort de manier waarop informatie wordt geproduceerd en verwerkt. In de financiële sector is het een integraal onderdeel geworden van besluitvorming, bijvoorbeeld voor kredietbeoordelingen, robo-adviseurs of algoritmisch handelen. AI speelt ook een belangrijke rol bij het naleven van regelgeving, fraudedetectie en beveiliging. We zullen zowel de kansen als de risico’s van AI in dergelijke toepassingen bestuderen.’
Europese inspanningen kunnen waardeloos worden als technologieën die zijn ontwikkeld in landen met andere ethische normen de norm worden. Het onderzoeksteam zal daarom een methode ontwikkelen om AI-onderzoek en -ontwikkeling in autocratische staten te analyseren en specifieke risico’s voor Europa te kwantificeren.