6 min read

Hoe bepaal je of een AI-tool kunt inzetten op een redactie?

Dat blijkt in de praktijk ontzettend lastig, ontdekte ik tijdens een opdracht die ik uitvoerde voor de publieke omroepen in Nederland.
Hoe bepaal je of een AI-tool kunt inzetten op een redactie?
Foto: Taylor Vick / Unsplash

Ik schrijf niet vaak over de opdrachten die ik doe in mijn nieuwsbrief. Misschien wel te weinig zelfs. Voor de verandering doe ik het in ieder geval deze keer wel. Naar aanleiding van een project waar ik vorig jaar mee bezig ben geweest, wil ik het hebben over het volgende:

  • Het is ontzettend lastig om als redactie te bepalen of je een AI-tool wel of niet in kan zetten.

Het is ontzettend lastig om als redactie te bepalen of je een AI-tool wel of niet in kan zetten

Het afgelopen jaar ben ik in opdracht van de NPO, de RPO en de NLPO (de koepelorganisaties van de landelijke, regionale en lokale omroepen) bezig geweest met het ontwikkelen van een hulpmiddel voor publieke omroepen dat ze kunnen gebruiken in de beslissing of ze een AI-tool inzetten. Dat klonk vooraf als een leuke uitdaging, maar ik had vooraf niet goed ingeschat hoe groot die uitdaging uiteindelijk was.

Als het gaat om de inzet van kunstmatige intelligentie, in het bijzonder generatieve AI, dan zie je dat journalistieke organisaties allerhande richtlijnen hebben ontwikkeld en er ook volop wordt gewerkt aan zaken als compliance frameworks, iets waar ik je verder niet mee zal lastigvallen. Praktische hulpmiddelen om ervoor te zorgen dat je in het beslissingsproces zeker weet dat je alle factoren die je mee moet nemen,meeneemt en ook nog eens vervolgens tot de juiste beslissing komt, is lastig.

Mede daardoor zie je dat er in de praktijk twee scholen zijn ontstaan: redacties die heel terughoudend zijn en ervoor kiezen helemaal geen generatieve AI in te zetten en redacties die juist heel veel proberen en eventueel op de koop toe nemen dat ze al experimenterend een keer op hun bek gaan en daarvan leren.

Dat is niet gek, want de informatie die je nodig hebt om een gedegen beslissing te nemen, is vaak niet voorhanden. Of het kost ontzettend veel moeite om aan deze informatie te komen, waardoor de praktijk leert op dat soort momenten dat mensen er simpelweg voor kiezen om een beslissing te nemen zonder die informatie.

Dit staat trouwens los van de vraag: wil je kunstmatige intelligentie voor een bepaalde toepassing inzetten. Die beslissing is in mijn ogen veel makkelijker te maken. Al denk ik dat hierbij nu vaak de veilige weg wordt gekozen, juist omdat er veel vraagtekens zijn bij de werking van de verschillende AI-tools. Meer kennis daarover en een gefundeerdere beslissing of het verstandig is om een bepaalde tool te gebruiken, kan ervoor zorgen dat je ook verder durft te gaan met de inzet.

Op veel redacties zie je bijvoorbeeld dat de afspraak is dat kunstmatige intelligentie altijd moet worden ingezet in een werkwijze die begint met bij de mens die input levert en eindigt met een mens die het resultaat controleert. Zodra je meer duidelijkheid en kennis hebt over de risico's die het gebruik van een bepaalde tool met zich meebrengt, kun je hem ook meer controle geven terwijl je geen onverantwoorde risico's neemt. Maar zover is zowel de AI-industrie als de journalistiek nog niet.

Voor nu is het vooral belangrijk om bij de beslissing om een tool in te zetten, je überhaupt bewust te zijn van de risico's. Dan moet je denken aan de kans op hallucinaties en de kans op bias, maar ook hoeveel controle je nu eigenlijk hebt over de output en wat er gebeurt met de gegevens die je aan een tool geeft.

Onderschat daarbij ook niet hoe belangrijk het is om een analyse te maken van hoe afhankelijk je wordt van de tool in kwestie. De ontwikkelingen gaan zo snel en er wordt zoveel tegen de muur aangesmeten om te kijken wat er blijft plakken, dat de een reële kans is dat een tool die je gaat gebruiken over een jaar niet meer bestaat of fundamenteel anders werkt dan nu. Dan heb je wel een probleem als je zo afhankelijk wordt van die tool, dat je eigenlijk niet meer zonder kunt.

Toen ik bezig was met het ontwikkelen van een hulpmiddel waarin deze factoren mee worden genomen, liep ik tegen twee dingen aan. Ten eerste ben je zeer afhankelijk van de toepassing waarvoor je een tool wilt inzetten. Daarbij moet je vervolgens ook nog meenemen hoeveel controle je hebt over de output en of er uiteindelijk een mens het eindresultaat checkt.

Nu is dat uiteindelijk allemaal af te vangen in een hulpmiddel, zoals ik heb ontwikkeld, maar uiteindelijk ben je natuurlijk wel afhankelijk van de input die een gebruiker van dat hulpmiddel geeft. Wat weet die over hoeveel controle hij heeft over de output van een AI-tool of de bias van een specifiek model? En is dat überhaupt te kwantificeren?

Uiteraard wordt daar allerlei onderzoek naar gedaan, maar de wetenschap vertalen naar de dagelijkse praktijk en toepasbaar maken voor een brede groep mensen, is op zijn zachtst gezegd een uitdaging.

Uiteindelijk heb ik na veel lezen, praten, nadenken, puzzelen, bijschaven en testen een hulpmiddel kunnen maken en opleveren. Perfect is het zeker niet, dat is - in ieder geval op dit moment - onmogelijk. Praktisch toepasbaar is het echter wel en ik hoop dat ook dat er veel gebruik van gemaakt gaat worden door omroepen.

Maar ik heb ook vooral ook geleerd hoe ongelooflijk belangrijk het is voor de journalistiek om voldoende kennis in huis te hebben over de risico's en over waar op te letten bij de inzet en keuze voor een AI-tool. Aan de andere kant is het belangrijk dat de makers van de tools veel opener worden over de werking van hun modellen en de risico's die daaraan kleven. Als die twee dingen samenkomen, ligt de weg vrij om deze technologie op zoveel manieren te gaan toepassen binnen de journalistiek, zonder grote risico's te lopen.


Kort