Ergens op dit moment plakt een medewerker vertrouwelijke klantdata in ChatGPT met de vraag: "Kun je hier een mooie samenvatting van maken?" En ergens anders kopieert een ontwikkelaar productie-code naar een AI-assistent met: "Wat is hier fout?" En weer ergens anders voert iemand van HR een complete functioneringsbeoordeling in met: "Kun je dit wat diplomatieker formuleren?"
Niemand van hen denkt dat ze iets verkeerds doen. Ze zijn efficiënt. Ze zijn innovatief. Ze zijn precies het soort medewerkers dat je wilt hebben.
Ze lekken ook bedrijfsdata naar externe AI-diensten.
Shadow AI: het nieuwe shadow IT
We kennen shadow IT — medewerkers die hun eigen tools en diensten gebruiken buiten het zicht van de IT-afdeling. Dropbox toen de bedrijfsfileserver te langzaam was. WhatsApp toen de bedrijfschat niet op de telefoon werkte. Het verschil met shadow AI is de schaal van het probleem. Shadow IT deelde bestanden. Shadow AI deelt context. En context is veel moeilijker terug te halen dan een bestand.
Als iemand broncode in een AI-assistent plakt, weet je niet waar die data terechtkomt. Wordt het gebruikt voor training? Wordt het opgeslagen? Kan een andere gebruiker er indirect toegang toe krijgen? Bij de meeste commerciële AI-diensten is het antwoord op die vragen "dat hangt af van welk abonnement je hebt en of je de juiste instelling hebt aangevinkt." Wat een geruststellende gedachte is als je bedenkt dat de meeste mensen niet eens de privacyinstellingen van hun eigen telefoon kennen.
Wat gaat er concreet mis?
1. Intellectueel eigendom in de wind
Samsung-ingenieurs plakten interne broncode in ChatGPT. Drie keer. In één week. Het bedrijf verbood vervolgens het gebruik van externe AI-tools. Het paard was al lang en breed de stal uit.
2. Persoonsgegevens op drift
Als een medewerker klantgegevens invoert in een AI-tool, is dat een verwerking in de zin van de AVG. Met alle consequenties van dien: verwerkersovereenkomst, DPIA, juridische basis. De kans dat je gemiddelde medewerker daar aan denkt voordat hij "samenvatten" klikt, is — laten we zeggen — beperkt.
3. Hallucinaties als feit
AI-modellen genereren soms antwoorden die overtuigend klinken maar feitelijk onjuist zijn. Als een medewerker een AI-gegenereerd advies aan een klant stuurt zonder het te controleren, is dat jouw aansprakelijkheid. Niet die van de AI.
Wat kun je doen?
Verbieden werkt niet. Dat weten we van shadow IT. Als je mensen verbiedt om de tools te gebruiken die hen productiever maken, gebruiken ze die tools toch, maar dan stiekem. Het enige dat erger is dan medewerkers die bedrijfsdata in ChatGPT plakken, is medewerkers die bedrijfsdata in ChatGPT plakken zonder dat je het weet.
- Bied een veilig alternatief. Een bedrijfs-AI-omgeving (Azure OpenAI, een zelf gehoste oplossing) waar data niet voor training wordt gebruikt en binnen je eigen infrastructuur blijft.
- Stel een AI-beleid op. Niet twintig pagina's juridische tekst die niemand leest, maar een duidelijk document: wat mag je wel invoeren, wat niet, en waarom.
- Classificeer je data. Als medewerkers niet weten welke informatie vertrouwelijk is, kun je ze moeilijk kwalijk nemen dat ze het verkeerd inschatten.
- DLP-tooling. Data Loss Prevention-tools die detecteren wanneer gevoelige data naar externe AI-diensten wordt gestuurd. Niet als strafmaatregel, maar als vangnet.
- Training die aansluit bij de praktijk. "Gebruik geen AI" is geen bruikbare training. "Gebruik AI, maar plak hier geen klantdata in, en dit is waarom" is dat wel.
De medewerker die bedrijfsdata in ChatGPT plakt, probeert zijn werk goed te doen. Het is aan jou om ervoor te zorgen dat "goed werk doen" en "veilig werken" geen tegenstelling is.