13 mei 2024

ChatGPT gebruiken? Dit zijn de do’s en don’ts

ChatGTP is sinds de introductie eind 2022 enorm populair. Medewerkers gebruiken deze vorm van generatieve AI niet alleen thuis, maar ook op het werk, bijvoorbeeld om teksten of afbeeldingen te genereren. Er kleven echter wel risico’s aan, onder meer rond privacy, intellectueel eigendom en discriminatie. Hoe kunnen publieke organisaties hiermee omgaan? In dit artikel gaat Julius Duijts, managing consultant bij BMC, in op de do’s en dont’s.

Generatieve AI is een vorm van kunstmatige intelligentie, die in staat is om nieuwe illustraties en teksten te generereren. Een van de bekendste en meest gebruikte – ook op het werk – is ChatGTP. Maar er is ook volop discussie over deze chatbot. Zo slaan toezichthouders inmiddels alarm over de risico’s. Julius Duijts gaat in dit artikel in op de vijf meestgestelde vragen.

1. Wat is generatieve AI eigenlijk?

ChatGPT en andere AI-toepassingen zijn computerprogramma’s die met zo veel digitaal materiaal zijn getraind dat ze op basis daarvan nieuwe antwoorden, teksten of (video)beelden kunnen genereren. De resultaten zijn vaak verbluffend goed en overtuigend. Bovendien zijn de programma’s via een website eenvoudig toegankelijk voor gebruikers.

2. Wat zijn de beperkingen?

Generatieve AI is niet perfect. Neem het voorbeeld van twee Amerikaanse advocaten, die ChatGPT gebruikten om naar rechterlijke uitspraken uit het verleden te zoeken. Dat kwam hen op een boete en een berisping te staan, omdat de research van ChatGPT uit ‘verzonnen’ resultaten bestond. In vakkringen wordt dit hallucineren genoemd. Dat de antwoorden tóch echt leken, komt doordat ChatGPT ze had afgeleid van heel veel voorbeelden van uitspraken van rechtbanken. 

Dat AI-toepassingen worden gevoed met voorbeelden die ze krijgen aangeleverd, kan verstrekkende gevolgen hebben. Zo reproduceert of versterkt AI soms vooroordelen op basis van etnische afkomst uit de voorbeelddata. Leveranciers van deze toepassingen proberen dit effect te corrigeren, maar dan nog ontstaan er soms uitspraken of beelden die historisch niet kloppen. Een bekend voorbeeld is een middeleeuwse Britse koning met een donkere huidskleur. 

Een andere beperking is dat voor het trainen van ChatGPT weliswaar bijna alles is gebruikt wat op het internet te vinden is, maar dan alleen maar tot en met een bepaalde datum. Dit betekent dat kennis van na die datum niet of slechts gedeeltelijk in het model zit. Feitelijke informatie uit generatieve AI, zoals ChatGPT, is dus niet altijd juist. Zoek maar eens op je eigen naam…

3. Waar werkt het goed voor?

Door de genoemde beperkingen, is het verstandig om – als het gaat om feitelijk informatie – niet blind te vertrouwen op AI-toepassingen. Toch werkt generatieve AI in een aantal gevallen wél heel goed. Het is bijvoorbeeld te gebruiken voor:

  • Brainstorms: ChatGPT en andere AI-chatbots komen vaak met ideeën waar je zelf niet aan had gedacht. Zoals dat gaat met brainstorms is niet alles bruikbaar, maar daar kun je zelf een keuze in maken.
  • Een eerste versie van een document: ChatGPT en andere AI-chatbots kunnen snel een eerste versie van een tekst opstellen. Zo maakte ChatGPT een prima concept voor een mantelzorgbijeenkomst voor een zorginstelling, dankzij de volgende prompt: ‘Maak een uitnodiging voor een mantelzorgavond voor familieleden van een zorginstelling met de volgende informatie erin: datum, tijd, bespreekpunten et cetera. Schrijf de uitnodiging in begrijpelijke taal en maak van de bespreekpunten een opsomming’.
  • Het inventariseren van voor- en nadelen: AI pluist het hele internet af; dit gaat dus verder dan de inhoud van je eigen boekenkast. Belangrijk is wel om zelf nog na te gaan welke opbrengsten hout snijden.
  • Het samenvatten of verbeteren van (niet-vertrouwelijke) teksten: AI is doorgaans goed in samenvatten. Ook lukt het herschrijven in eenvoudiger taal meestal goed. Check wel even of de AI-chatbot niet iets essentieels heeft gemist.

4. Wat zijn do’s en don’ts?

Wat moeten publieke organisaties nu wel en niet doen als ze medewerkers toestaan om generatieve AI te gebruiken? Met het voorgaande in gedachten komen we tot deze do’s en don’ts:

Rol van AI en de gebruiker

  • don’t: AI gebruiken als expert;

  • do: AI gebruiken als hulpmiddel voor experts, om beter, sneller of creatiever te werken.

Juistheid

  • don’t: overnemen van teksten zonder controle;

  • do: teksten altijd laten controleren door een menselijke expert;

  • do: gebruik voor factchecking betrouwbare bronnen buiten AI.

Privacy

  • don’t: gebruiken van informatie die direct of indirect verwijst naar personen;

  • do: anonieme voorbeelden gebruiken; waak ervoor om casus-specifieke informatie te gebruiken die alsnog herleidbaar is.

Vertrouwelijkheid

  • don’t: opnemen van vertrouwelijke informatie of informatie die kan verwijzen naar vertrouwelijke beleidsontwikkelingen of plannen;

  • do: alleen openbare informatie verwerken in de vragen/opdrachten aan AI.

Besluitvorming

  • don’t: besluiten nemen of onderbouwen op basis van informatie uit AI-chatbots.

Intellectueel eigendom

  • don’t: eigen intellectueel eigendom gebruiken in vragen of opdrachten aan AI. In veel gebruiksvoorwaarden staat dat de leverancier van de AI-dienst/-chatbot de invoer kan gebruiken om het model beter te maken. Deze invoer kan daarna opduiken in een antwoord van een chatbot op een vraag van een ander gebruiker; 

  • do: in de gebruiksvoorwaarden nagaan hoe invoer door de leverancier en de gegenereerde tekst of afbeeldingen door jou gebruikt mogen worden; 

  • do: het gebruik van een betaalde versie overwegen, waarbij de invoer niet wordt gebruikt voor de doorontwikkeling van de AI;

  • do: tekst en afbeeldingen niet ongewijzigd kopiëren, maar herformuleren of aanpassen, zodat het auteursrecht bij jezelf of de eigen organisatie ligt.

5. Wat betekent generatieve AI voor organisaties in de publieke sector?

Organisaties in de publieke sector doen er goed aan zich te realiseren dat ze bij het gebruik van generatieve AI niet kunnen uitgaan van de inhoudelijke juistheid van de antwoorden. Het is dus zaak om bewust om te gaan met dit nieuwe gereedschap. Dit is een leerproces voor zowel medewerkers als organisaties.

Het is zinvol om een handreiking of spelregels op te stellen voor verantwoord gebruik van generatieve AI. Verbieden kan ook, maar de kans is groot dat medewerkers generatieve AI toch gebruiken, maar dan op hun eigen manier. Bovendien mis je dan als organisatie de kansen die AI biedt. Het gebruik van AI als ChatGPT kan immers wel degelijk helpen om sneller, creatiever en beter te werken.

Belangrijk is wel dat de spelregels concreet zijn: in welke situaties is het gebruik passend en voor welke situaties is het niet toegestaan? Hoe meer de spelregels zijn toegesneden op de specifieke processen of afdelingen in de organisatie, hoe concreter ze zijn.

Organisaties in de publieke sector doen er goed aan zich te realiseren dat ze bij het gebruik van generatieve AI niet kunnen uitgaan van de inhoudelijke juistheid van de antwoorden. Het is dus zaak om bewust om te gaan met dit nieuwe gereedschap. Dit is een leerproces voor zowel medewerkers als organisaties.

Het is zinvol om een handreiking of spelregels op te stellen voor verantwoord gebruik van generatieve AI. Verbieden kan ook, maar de kans is groot dat medewerkers generatieve AI toch gebruiken, maar dan op hun eigen manier. Bovendien mis je dan als organisatie de kansen die AI biedt. Het gebruik van AI als ChatGPT kan immers wel degelijk helpen om sneller, creatiever en beter te werken.

Belangrijk is wel dat de spelregels concreet zijn: in welke situaties is het gebruik passend en voor welke situaties is het niet toegestaan? Hoe meer de spelregels zijn toegesneden op de specifieke processen of afdelingen in de organisatie, hoe concreter ze zijn.

Meer informatie?

Meer weten over het toepassen van generatieve AI of het opstellen van spelregels voor het gebruik ervan in uw proces of organisatie? Neem voor meer informatie of een vrijblijvend gesprek contact op met Julius Duijts.
 

BLOG DATA-EN-DIENSTVERLENING DATAGEDREVEN-BELEID SLIMME-SAMENLEVING DIGITALE-TRANSFORMATIE

Julius Duijts Informatie en gegevensmanagement managing consultant, CMC CISSP CEH CIPP/E 06 - 29 52 55 31 Bekijk profiel

Gerelateerde artikelen