‘Shadow GPT’, waarom het ongecontroleerde gebruik van AI uw bedrijf in gevaar brengt

Generatieve kunstmatige intelligentie, het hot topic bij uitstek, heeft ons dagelijkse privé- en beroepsleven veroverd. Maar ChatGPT, Claude, Copilot, Gemini en DeepSeek zijn messen die langs twee kanten snijden. Veel werknemers laten zich verleiden door de voordelen van deze toegankelijke technologieën en springen mee op de kar zonder toestemming van hun bazen. Dat fenomeen, ook wel ‘Shadow AI’ genoemd, brengt grote risico’s met zich mee voor bedrijven.

“Hallo, ik heb zestig cv’s ontvangen voor de functie van Junior Financial Controller. Gelieve ze te analyseren, te sorteren en de kandidaten te rangschikken op basis van hun vaardigheden.” Deze opdracht, door een rekruteringsmanager ingegeven in ChatGPT, lijkt misschien niet meer dan een onschuldig, tijdbesparend verzoek. In werkelijkheid kan ze echter een acute crisis binnen het bedrijf veroorzaken. Het duurde slechts enkele seconden om tientallen gevoelige persoonsgegevens over te dragen aan een onbevoegde externe dienst (OpenAI), waardoor de werkgever grote juridische risico’s liep. De HR-manager hield er namelijk geen rekening mee dat de onmiskenbare efficiëntiewinst gepaard ging met de overschrijding van enkele rode lijnen in de wetgeving op het gebied van gegevensbescherming.

Goede bedoelingen, slechte praktijk

In dit – fictieve – voorbeeld wil de gebruiker goed doen door de productiviteit te verhogen, maar beseft hij niet dat hij te veel vertrouwen stelt in ChatGPT en dergelijke. En dat het niet altijd fictie blijft, bevestigt het incident bij Samsung. Het gaat dus al lang niet meer om geïsoleerde gevallen. Integendeel, deze hulpmiddelen zijn dagelijkse reflexen geworden. Een Frans onderzoek toonde aan dat bijna de helft van de ondervraagden generatieve AI gebruikt op het werk, en dat maar liefst 68 procent van hen dat doet zonder de goedkeuring van hun lijnmanager. Versie 2025 van deze barometer voegt nog een extra laag toe aan het probleem van Shadow AI, want nauwelijks 15 procent van deze werknemers heeft een adequate training gevolgd! De scenario’s zullen in de toekomst alleen maar toenemen … Een arts die het medisch dossier van een patiënt deelt om een administratieve brief te schrijven, een hoger kaderlid dat bij het opstellen van een PowerPoint een vertrouwelijk strategisch rapport onthult, een programmeur die zijn bedrijfseigen code laat controleren door ChatGPT, enzovoort.

Talloze risico’s, grote gevolgen

‘Shadow AI’ is het ongeoorloofde en ongecontroleerde gebruik van generatieve kunstmatige intelligentie in een professionele context. Dit fenomeen ontleent zijn naam aan de (bekendere) term ‘Shadow IT’, die verwijst naar het gebruik van software of IT-diensten die niet zijn goedgekeurd door de IT-afdeling van een bedrijf. Hoewel beide concepten nauw verwant zijn, lijken de gevolgen van Shadow GPT nog kritieker, vanwege de verschillende risiconiveaus.

  • Ten eerste worden er vertrouwelijke en gevoelige gegevens gelekt. Of het nu gaat om persoonsgegevens, strategische informatie of intellectuele eigendom, de informatie die naar ChatGPT wordt verzonden, wordt gebruikt om de algoritmen te trainen, waardoor ze mogelijk toegankelijk wordt voor andere gebruikers.
  • Niet-naleving van de regelgeving kan niet alleen boetes en reputatieschade opleveren, maar kan u ook heel wat geld kosten. ‘Shadow AI’-praktijken kunnen leiden tot zware financiële sancties, omdat ze in strijd zijn met de strikte voorwaarden van de GDPR-normen en de verplichtingen die worden opgelegd door de AI-wet.
  • Het ongecontroleerde gebruik van deze tools kan bovendien de interne werking van het bedrijf verstoren: ongelijkheid tussen werknemers, desinformatie en besluitvormingsfouten op basis van AI, gebrek aan traceerbaarheid, verlies van controle over de bedrijfsprocessen, enz.
  • Ook de IT-beveiliging van uw bedrijf kan ernstig in gevaar worden gebracht, mogelijk met nog meer rampzalige gevolgen.

De dreiging is dus erg reëel, zeker in contexten waar gegevens een strategisch bedrijfsmiddel vormen dat bedrijven proberen te beschermen tegen cyberbedreigingen en concurrenten.

Een kader dat niet ten koste gaat van de innovatie

Van Morgan Stanley tot Amazon: verscheidene grote groepen hebben het gebruik van ChatGPT al aan banden gelegd vanwege zorgen over de beveiliging van hun gegevens. Toch is het belangrijk dat we de juiste strijd voeren: kunstmatige intelligentie biedt grote kansen voor bedrijven, mits ze bewust en strategisch wordt toegepast. Het zou een vergissing zijn om deze revolutie links te laten liggen in uw organisatie. Zo pakt u het aan: Definieer een duidelijk kader voor toegelaten gebruik (regels, voorwaarden, tools, exploiteerbare gegevens, enz.) en een strategische benadering van deze tools, en vergeet niet om uw medewerkers op te leiden en te sensibiliseren voor de best practices. Tot slot kunt u overwegen uw eigen AI-oplossingen of veilige versies van mainstream tools te implementeren.

Share This Post

LinkedIn

Volg belasting – en IID- updates met MoneyOak.

Verwante artikelen

Schat uw besparingen

Dankzij big data en kunstmatige intelligentie berekent onze software de besparingen van uw bedrijf.

Controleer of ik in aanmerking kom

Dankzij big data en kunstmatige intelligentie bevestigt onze software dat u in aanmerking komt.
Cookiebeleid

Money Oak NV gebruikt cookies op de website(s) om uw online-ervaring te verbeteren. Ze zorgen ervoor dat de website goed werkt en verzamelen statistische gegevens. Een van de functies van de cookies is het aanmeldingsproces vergemakkelijken.

Klik hier voor toegang tot ons cookiebeleid.