AI en privacy: zo beveilig je jouw digitale deuren

Dat internet niet meer uit ons leven weg te denken is, weten we allang. En dat online veiligheid daarbij belangrijk is, is ook niet nieuw. Een sterk wachtwoord kiezen, virusscanner installeren en tweestapsverificatie: we bewaken ons digitale fort en gegevens goed. Door het toenemend gebruik van AI krijgt online veiligheid een nieuwe dimensie. Daarnaast brengt het gebruik van AI ethische vraagstukken met zich mee. Wat moet je wel en niet met AI doen? Welke informatie gebruiken chatbots? En hoe maken we daar regels voor? In dit blog lees je meer over regelgeving rondom AI en hoe je er binnen jouw organisatie op een slimme en veilige manier mee omgaat.

Ai, ai… dit kun je ook met AI

Zoals je in ons blog over de menselijke rol van AI las, helpt AI ons steeds meer bij ons werk en zetten organisaties het ook steeds meer in. Maar AI kijkt niet naar wie een opdrachtgever is: hackers beschikken daardoor ook over steeds geavanceerdere malware (software waarmee ze inbreken in een computersysteem) en technieken om computers te kraken. Waar AI ons kan helpen om een leuk stukje tekst te schrijven, kunnen hackers diezelfde AI ook gebruiken om betere phishingmails te schrijven. Zo waarschuwde de NCTV ons dit jaar al dat het hierdoor steeds lastiger is om de echtheid van deze mails vast te stellen. Naast tekst kunnen hackers AI ook voor afbeeldingen gebruiken.

Ook kan AI hackers helpen met het schrijven van codes voor malware, om sneller en makkelijker in te breken in een computersysteem. En waar AI snel patronen herkent in grote hoeveelheden data (bijvoorbeeld in de kwantitatieve wetenschap), kan AI ook snel zoeken naar kwetsbaarheden in systemen. Terwijl organisaties steeds meer gebruikmaken en afhankelijk zijn van die digitale systemen.

Hackers en misbruik weren met een nieuwe (hinder)NIS en de AI Act

Gelukkig is de Europese Commissie bezig met twee nieuwe wetten rond deze onderwerpen: de NIS2 en de AI Act. De NIS2, ook wel bekend als de nieuwe cybersecuritywet, richt zich op het verbeteren van de digitale weerbaarheid van essentiële organisaties binnen de EU. Het verschil met de eerste NIS-richtlijn, de NIB, is dat de NIS2 op meer organisaties het stempel ‘essentieel’ drukt. Dit betekent dat er meer organisaties zijn die zich aan de NIS moeten houden. Daarnaast is de richtlijn strenger als het gaat om beveiliging, omdat er steeds meer cyberdreigingen op de loer liggen. Kortom: strengere regels voor meer organisaties. Begin dit jaar ging deze nieuwe wet al in en kreeg elke EU-lidstaat 21 maanden de tijd om hem te implementeren. In 2024 wordt de NIS2 dus van kracht.

Dan is er ook nog de AI Act, de eerste wereldwijde wet over kunstmatige intelligentie. Deze wet is bedoeld om ons weerbaarder maken voor AI, omdat dit een steeds grotere impact heeft op ons en het bedrijfsleven. Zo moeten de zogenoemde ‘hoog-risico-AI-systemen’ aan veel nieuwe eisen voldoen en worden sommige AI-systemen zelfs verboden. Het voorstel ligt nog op de plank en er wordt intussen flink over gediscussieerd. De verwachting is dat de wet begin 2024 af is. Hierna krijgen de EU-landen nog twee jaar om de wet te implementeren.

AI-systemen met een hoog risico

Het voorstel voor de AI Act richt zich vooral op AI-systemen met een hoog risico, die straks aan een keurmerk moeten voldoen om te worden toegelaten tot de Europese markt. Maar welke AI-systemen kenmerkt deze wet als ‘hoog-risico-AI-systeem’? Dit zijn voornamelijk systemen in producten die onder EU-wetgeving vallen en impact hebben op je gezondheid en rechten. Bijvoorbeeld apparaten in de medische wereld en in de lucht- en ruimtevaart. Maar het geldt ook voor systemen die worden gebruikt voor beoordeling en selectie van mensen, zoals opsporingssystemen van de politie. Of een systeem in het onderwijs dat leerlingen gepersonaliseerde leertaken toewijst op basis van persoonsgegevens. Ook biometrische identificatie zoals gezichtsherkenning staat op deze lijst. Er is nog niet helemaal duidelijk wat er met programma’s als ChatGPT en Midjourney gebeurt. We weten wel dat deze apart worden opgenomen in de wet.

Verboden AI-systemen

Welke systemen de AI Act absoluut verbiedt? Social scoring, een principe dat je misschien wel kent van het sociaalkredietsysteem in China of deze Black Mirror-aflevering op Netflix. Een social scoring-systeem kent punten toe op basis van je gedrag. Jouw behaalde score bepaalt jouw sociaaleconomische status, zoals de kans op een baan of de mogelijkheid om te reizen naar het buitenland. Kortom: hoe beter je je gedraagt, hoe meer rechten je hebt. Dat mag niet, vindt de EU. Dit lijkt een open deur, maar ook AI-systemen die expres mensen manipuleren of misbruik maken van kwetsbaarheiden zoals gezondheid of financiële situatie worden in de AI Act verboden. Verder komt er een verbod op het voorspellen van criminaliteit of fraude op basis van profilering. Denk maar aan de toeslagenaffaire, waar de gedupeerden onterecht van fraude werden beschuldigd. Het verbieden van AI-gestuurde profilering moet soortgelijke situaties voorkomen.

AI bias ondermijnt gelijke kansen

Het is goed dat er regels komen en we ons steeds bewuster zijn van hoe we met AI moeten omgaan. Hoewel AI ons enorm helpt in ons werk, heeft het net zoals alle online ontwikkelingen ook een keerzijde. Zo las je hierboven dat een AI-systeem dat gebruikt wordt voor de selectie van mensen, een hoog-risico-systeem is volgens de EU. En dat is niet zonder reden. Het menselijke principe van vooroordelen kan zich namelijk ook uiten in kunstmatige intelligentie: AI bias. Deze bias ontstaat door het creëren van AI-algoritmen met gebrekkige data, waarin ruimte is voor aannames. Of via een kortere route: de invoer van data waar al een vooroordeel in zit. Het is niet altijd te achterhalen waarom een AI-systeem een bepaalde voorspelling heeft gedaan, dus kan het lastig zijn om te beoordelen of iemand op een onterechte manier benadeeld is.

In sommige situaties is het juist wél heel duidelijk waar de kink in de kabel zit. Zo ontwikkelde techgigant Amazon in 2015 een speciale AI-tool om zijn recruitment te automatiseren. Met de tool wilde Amazon geschikte kandidaten selecteren voor openstaande vacatures. Maar het systeem had bij sommige functies een sterke voorkeur voor mannelijke kandidaten. Wat bleek? Het algoritme baseerde zich op voorgaande functies, die voornamelijk door mannen werden bekleed. Hierdoor leerde het algoritme dat vrouwen minder geschikt waren.

Garbage in, garbage out

Van het voorbeeld hierboven kun je AI niet de schuld geven. Het is een typisch gevalletje van ‘don’t shoot the messenger.’. Het kwam niet door de tool zelf dat deze discrimineerde, maar door de ondoordachte invoer van mensen. Programmeerders noemen dat garbage in, garbage out. Als je AI-tools volstopt met gebrekkige, verouderde of onjuiste informatie, troep dus, komt dit je output niet ten goede. Kies je de juiste invoer, dan leidt dit tot de juiste resultaten. Het is belangrijk dat we onszelf beter opleiden en regels vaststellen rondom het gebruik van AI. Op deze manier voorkomen we dat AI zelf ruimte heeft voor verkeerde interpretatie, zoals dat mannen geschikter zijn voor een functie bij Amazon.

Hé wat leuk, een gratis chatbot!

Laat een van onze meest gebruikte AI-tools nu de befaamde chatbot ChatGPT zijn. Een chatbot die we allemaal gratis kunnen gebruiken. Je vraagt je misschien af hoe een chatbot met zulke ontwikkelde technologie gratis kan zijn. Een terechte vraag, want voor niets gaat de zon op, toch? In dit geval ook niet. Alles wat jij in ChatGPT invoert, wordt opgeslagen op de servers van OpenAI, de eigenaar van ChatGPT. Achter de schermen wordt nu een nieuw model achter ChatGPT getraind met de nieuwe informatie die wij erin stoppen. Denk dus goed na over het invoeren van bijvoorbeeld gevoelige informatie die je deelt. Als je persoonlijke informatie of bedrijfsgeheimen invoert, wordt dit opgeslagen aan de andere kant van de oceaan. Deze data geef je uit handen, waar je mee akkoord gaat op het moment dat je gebruikmaakt van ChatGPT. Goed om te weten: de database waar ChatGPT zich nu op baseert, loopt tot 2021. Het duurt dus even voordat nieuwe input daadwerkelijk door de tool wordt gebruikt.

Laat je gegevens niet slingeren in een AI-systeem

ChatGPT gebruikt dus jouw input om beter te worden, maar wist je dat Google Translate hetzelfde doet? Als je persoonsgegevens of bedrijfsgegevens invoert omdat je ze in een andere taal wilt hebben, dan geef je die informatie weg. Misschien niet het eerste waar je aan denkt als je op de vertaalknop klikt. Dan lijkt je invoer poef – verdwenen, maar dat is ‘ie dus niet echt. Hij ligt dan bij Google. Net als met ChatGPT is het risico hiervan dat als deze servers ooit gehackt worden, jouw gegevens ook op straat liggen. Ook bedrijfsgeheimen zoals intellectueel eigendom kunnen op deze manier in handen komen van een ander bedrijf. Goed om over na te denken.

Chatbots gevoed door persoonsgegevens en complotten

Naast de gegevens die je zelf in de chatbot invoert, put ChatGPT ook uit talloze internetsites. Een groot aantal hiervan zijn helaas onbetrouwbaar. Uit onderzoek van De Groene Amsterdammer en Data School blijkt dat Docplayer.nl de belangrijkste Nederlandstalige bron is voor chatbots. Hackerswalhalla Docplayer.nl is een site die onder meer privacygevoelige persoonsgegevens, volledig ingevulde cv’s en belastingaangiften verzamelt.

Daarnaast voeden chatbots zich met bronnen als persoonlijke blogs en advertenties op Marktplaats – waar bijvoorbeeld je telefoonnummer of adres in staat, met Nederlandse kranten en Wikipedia. Maar ook het neonazistische complotforum Stormfront scoort hoog en staat slechts één plek onder RTL Nieuws. Dat betekent dat een chatbot van beide websites ongeveer evenveel leert. Verder staan complotsite Vrijspreker en pro-PVV-site E.J. Bron op de lijst met de tweehonderd meest gebruikte bronnen door chatbots.

AI: houd je hoofd erbij

De risico’s van AI zijn geen reden om er niet mee te werken. Houd wel altijd in gedachten dat een chatbot als ChatGPT een AI-systeem is dat gebruikmaakt van elke bron die binnen handbereik ligt. Gebruik daarom geen privé-gegevens of andere gevoelige informatie als input en voer als organisatie alleen informatie in die al openbaar is. Je kunt AI bijvoorbeeld goed gebruiken voor het (her)schrijven van stukjes tekst voor websites en social media, of het schrijven van je metadata. En als je de output gebruikt: check áltijd of het klopt.