Europa zet zich in voor betrouwbare kunstmatige intelligentie

Een wereldprimeur: het Europees Parlement heeft het allereerste wettelijke kader voor kunstmatige intelligentie aangenomen. Deze ongekende AI-wet geeft uitdrukking aan de ambities van Europa: een balans vinden tussen innovatie en de bescherming van de mensenrechten.

We kunnen er niet meer omheen: van familiediners tot de belangrijkste bedrijfsvergaderingen, in vergaderzalen of op de LinkedIn-walls, overal gaat het over artificiële intelligentie. Terwijl OpenAI net een verontrustend menselijke robot heeft onthuld en versie 5 van ChatGPT heeft aangekondigd, schieten initiatieven en projecten als paddenstoelen uit de grond, het ene al geheimzinniger dan het andere. Maar AI verdeelt de wereld: fans en fascinatie staan lijnrecht tegenover sceptici en bezorgdheid. Vooruitgang of gevaar? Dat is de hamvraag. En die wordt des te prangender, omdat AI langzaam maar zeker heel onze samenleving binnendringt, het ondernemerslandschap hertekent en zelfs onze plaats als mens in vraag zou kunnen stellen. Al die redenen hebben Europa ertoe aangezet om de technologie te reguleren.

De AI Act, een wet zonder weerga

Begin maart 2024 legde het Europees Parlement na vijf jaar de basis voor ’s werelds eerste AI-wetgeving, geïnspireerd door regelgeving zoals de GDPR-verordening. De ambitie? De opkomst van betrouwbare, ethische en verantwoordelijke AI mogelijk maken, en daarbij een evenwicht verzekeren tussen innovatie en de bescherming van de mensenrechten. Voor de EU is de uitdaging tweeledig: waarborgen creëren om de ongecontroleerde ontwikkeling van AI te voorkomen en tegelijkertijd een gunstig klimaat scheppen voor investeringen in de sector. Daarom gaat de Europese AI-wet gepaard met een pakket innovatiemaatregelen en een gecoördineerd plan. Dat is echter geen sinecure, gezien de enorme achterstand die het Oude Continent al heeft opgelopen ten opzichte van de Verenigde Staten en China. Bovendien maken de Amerikanen en Chinezen geen aanstalten om wetten te maken en lijken ze de technologische vooruitgang de vrije loop te willen laten.

Is regulering een noodzakelijk kwaad?

Artificiële intelligentie is niet zonder risico’s: ethische bezwaren, bedreigingen van de privacy, algoritmische vooroordelen, enzovoort. Zo heeft ChatGPT een razendsnelle opkomst gekend, vooral in de professionele sfeer. Maar wie weet echt hoe het algoritme in elkaar zit? Hoe wordt het gevoed? Hoe kunnen we vooroordelen beheersen die waarschijnlijk bepaalde categorieën van mensen bevoordelen, ondoorzichtige geautomatiseerde beslissingen produceren, enz. Stuk voor stuk belangrijke vragen die de Europese regelgeving probeert te beantwoorden. Het onderliggende doel bestaat erin om misbruik te voorkomen; om de creatie van algoritmen en de conformiteit met de huidige wet- en regelgeving te stimuleren; en om ontwikkelaars aan te moedigen om AI te ontwerpen en in te zetten op een verantwoorde manier die de mens ten goede komt en in het algemeen belang is. Wat houdt dit Europese rechtskader voor betrouwbare AI concreet in?

Op risico gebaseerde aanpak

De basis van de Europese tekst? Hoe hoger de risico’s van het AI-systeem, hoe strenger de regels. Het wettelijke kader definieert vier risiconiveaus: onaanvaardbaar, hoog, beperkt en minimaal. Concreet worden ‘onaanvaardbare’ praktijken, zoals bedreigingen voor de veiligheid, de bestaansmiddelen of de rechten van mensen, eenvoudigweg verboden. Dat geldt bijvoorbeeld voor sociale classificatie door overheden, speelgoed met spraakbediening, de creatie van databases voor gezichtsherkenning, enz. In het geval van een ‘hoog risico’, d.w.z. krachtige modellen die waarschijnlijk systemische gevolgen zullen hebben op gebieden zoals gezondheid, veiligheid of mensenrechten, zullen ontwikkelaars worden onderworpen aan uitermate strenge rapportage- en controle-eisen.

Wat is de impact voor ondernemingen?

De AI-wet wordt pas twee jaar na de inwerkingtreding van kracht (drie jaar voor AI-systemen met een hoog risico). Toch nodigt de EU bedrijven nu al uit om vrijwillig te anticiperen … Ze zullen dus niet alleen strenge risicobeoordelingen moeten uitvoeren, ze moeten ook zorgen voor conformiteit en meer transparantie over hun gebruik van AI, en ze dienen de traceerbaarheid van beslissingen die door geautomatiseerde systemen worden genomen, te garanderen. Dat geldt bijvoorbeeld in het kader van wervingsprocedures. In ruil daarvoor kunnen ze niet alleen boetes en rechtszaken vermijden, maar ook profiteren van een sterker vertrouwenskader om te innoveren en te groeien. Wie zich een weg weet te banen door deze nieuwe regelgeving, zal een aanzienlijk concurrentievoordeel genieten.

Share This Post

LinkedIn

Volg belasting – en IID- updates met MoneyOak.

Verwante artikelen

Schat uw besparingen

Dankzij big data en kunstmatige intelligentie berekent onze software de besparingen van uw bedrijf.

Controleer of ik in aanmerking kom

Dankzij big data en kunstmatige intelligentie bevestigt onze software dat u in aanmerking komt.