Hoe bepaal je of een AI-tool kunt inzetten op een redactie?
Ik schrijf niet vaak over de opdrachten die ik doe in mijn nieuwsbrief. Misschien wel te weinig zelfs. Voor de verandering doe ik het in ieder geval deze keer wel. Naar aanleiding van een project waar ik vorig jaar mee bezig ben geweest, wil ik het hebben over het volgende:
- Het is ontzettend lastig om als redactie te bepalen of je een AI-tool wel of niet in kan zetten.
Het is ontzettend lastig om als redactie te bepalen of je een AI-tool wel of niet in kan zetten
Het afgelopen jaar ben ik in opdracht van de NPO, de RPO en de NLPO (de koepelorganisaties van de landelijke, regionale en lokale omroepen) bezig geweest met het ontwikkelen van een hulpmiddel voor publieke omroepen dat ze kunnen gebruiken in de beslissing of ze een AI-tool inzetten. Dat klonk vooraf als een leuke uitdaging, maar ik had vooraf niet goed ingeschat hoe groot die uitdaging uiteindelijk was.
Als het gaat om de inzet van kunstmatige intelligentie, in het bijzonder generatieve AI, dan zie je dat journalistieke organisaties allerhande richtlijnen hebben ontwikkeld en er ook volop wordt gewerkt aan zaken als compliance frameworks, iets waar ik je verder niet mee zal lastigvallen. Praktische hulpmiddelen om ervoor te zorgen dat je in het beslissingsproces zeker weet dat je alle factoren die je mee moet nemen,meeneemt en ook nog eens vervolgens tot de juiste beslissing komt, is lastig.
Mede daardoor zie je dat er in de praktijk twee scholen zijn ontstaan: redacties die heel terughoudend zijn en ervoor kiezen helemaal geen generatieve AI in te zetten en redacties die juist heel veel proberen en eventueel op de koop toe nemen dat ze al experimenterend een keer op hun bek gaan en daarvan leren.
Dat is niet gek, want de informatie die je nodig hebt om een gedegen beslissing te nemen, is vaak niet voorhanden. Of het kost ontzettend veel moeite om aan deze informatie te komen, waardoor de praktijk leert op dat soort momenten dat mensen er simpelweg voor kiezen om een beslissing te nemen zonder die informatie.
Dit staat trouwens los van de vraag: wil je kunstmatige intelligentie voor een bepaalde toepassing inzetten. Die beslissing is in mijn ogen veel makkelijker te maken. Al denk ik dat hierbij nu vaak de veilige weg wordt gekozen, juist omdat er veel vraagtekens zijn bij de werking van de verschillende AI-tools. Meer kennis daarover en een gefundeerdere beslissing of het verstandig is om een bepaalde tool te gebruiken, kan ervoor zorgen dat je ook verder durft te gaan met de inzet.
Op veel redacties zie je bijvoorbeeld dat de afspraak is dat kunstmatige intelligentie altijd moet worden ingezet in een werkwijze die begint met bij de mens die input levert en eindigt met een mens die het resultaat controleert. Zodra je meer duidelijkheid en kennis hebt over de risico's die het gebruik van een bepaalde tool met zich meebrengt, kun je hem ook meer controle geven terwijl je geen onverantwoorde risico's neemt. Maar zover is zowel de AI-industrie als de journalistiek nog niet.
Voor nu is het vooral belangrijk om bij de beslissing om een tool in te zetten, je überhaupt bewust te zijn van de risico's. Dan moet je denken aan de kans op hallucinaties en de kans op bias, maar ook hoeveel controle je nu eigenlijk hebt over de output en wat er gebeurt met de gegevens die je aan een tool geeft.
Onderschat daarbij ook niet hoe belangrijk het is om een analyse te maken van hoe afhankelijk je wordt van de tool in kwestie. De ontwikkelingen gaan zo snel en er wordt zoveel tegen de muur aangesmeten om te kijken wat er blijft plakken, dat de een reële kans is dat een tool die je gaat gebruiken over een jaar niet meer bestaat of fundamenteel anders werkt dan nu. Dan heb je wel een probleem als je zo afhankelijk wordt van die tool, dat je eigenlijk niet meer zonder kunt.
Toen ik bezig was met het ontwikkelen van een hulpmiddel waarin deze factoren mee worden genomen, liep ik tegen twee dingen aan. Ten eerste ben je zeer afhankelijk van de toepassing waarvoor je een tool wilt inzetten. Daarbij moet je vervolgens ook nog meenemen hoeveel controle je hebt over de output en of er uiteindelijk een mens het eindresultaat checkt.
Nu is dat uiteindelijk allemaal af te vangen in een hulpmiddel, zoals ik heb ontwikkeld, maar uiteindelijk ben je natuurlijk wel afhankelijk van de input die een gebruiker van dat hulpmiddel geeft. Wat weet die over hoeveel controle hij heeft over de output van een AI-tool of de bias van een specifiek model? En is dat überhaupt te kwantificeren?
Uiteraard wordt daar allerlei onderzoek naar gedaan, maar de wetenschap vertalen naar de dagelijkse praktijk en toepasbaar maken voor een brede groep mensen, is op zijn zachtst gezegd een uitdaging.
Uiteindelijk heb ik na veel lezen, praten, nadenken, puzzelen, bijschaven en testen een hulpmiddel kunnen maken en opleveren. Perfect is het zeker niet, dat is - in ieder geval op dit moment - onmogelijk. Praktisch toepasbaar is het echter wel en ik hoop dat ook dat er veel gebruik van gemaakt gaat worden door omroepen.
Maar ik heb ook vooral ook geleerd hoe ongelooflijk belangrijk het is voor de journalistiek om voldoende kennis in huis te hebben over de risico's en over waar op te letten bij de inzet en keuze voor een AI-tool. Aan de andere kant is het belangrijk dat de makers van de tools veel opener worden over de werking van hun modellen en de risico's die daaraan kleven. Als die twee dingen samenkomen, ligt de weg vrij om deze technologie op zoveel manieren te gaan toepassen binnen de journalistiek, zonder grote risico's te lopen.
Kort
- De hoofdredacteuren van de verschillende landelijke publieke omroepen hebben zich verenigd in een College van Hoofdredacteuren. Dit hebben ze gedaan omdat ze willen voorkomen dat het Commissariaat voor de Media het handhaven van de journalistieke code van de NPO naar zich toetrekt. Die handhaving doen ze liever zelf.
- Ik wilde in deze nieuwsbrief eigenlijk geen aandacht besteden aan de Hitlergroet van Elon Musk, maar helemaal ontkom ik er niet aan. Deze bizarre actie van Musk heeft er namelijk toe geleid dat een heleboel fora op Reddit hebben besloten geen links naar X meer toe te staan.
- Bloomberg heeft een analyse gemaakt van de grootste Amerikaanse YouTubende podcasters. Journalisten bekeken samen 1300 uur aan podcasts van negen mannelijke hosts, waarin overwegend rechtse gasten en geluiden een podium kregen, en hun rol in de Amerikaanse presidentsverkiezingen.
- Het is nog steeds onduidelijk of/hoe TikTok uiteindelijk onder het verbod in de VS uitkomt. Het aangekondigde "plan" van Trump was ronduit vaag. Ondertussen onderzoekt ByteDance een constructie waarbij het hun Amerikaanse tak niet hoeft te verkopen, maar toch aan de wet voldoet.
- In de dagen voor de wet vorige week zondag inging, heeft Meta een doelgerichte campagne gevoerd om TikTok-gebruikers naar Instagram te krijgen. Om populaire makers de overstap te laten maken is door Meta zelfs nog meer uit de kast getrokken, waaronder een zak geld.
- Meta heft zijn burgerrechten-team op. Burgerrechten zijn immers links en woke.
- Adobe maakt het een stuk makkelijker om specifieke clips te zoeken tijdens het editen in Premiere Pro. Dankzij beeldherkenning kun je omschrijven welke beelden je zoekt en worden de juiste clips geselecteerd. De functie is vanaf nu beschikbaar in de laatste betaversie van Premiere Pro.
- De volgende grote ontwikkeling op AI-gebied is het ontwikkelen van zogeheten agents. Het idee is dat een AI-model taken kan uitvoeren die jij zelf op een computer of op websites zou doen. OpenAI heeft de eerste versie van zo'n agent, Operator, nu beschikbaar gemaakt als een preview voor Amerikaanse gebruikers. In de praktijk doet het systeem heel lang over dingen die je als mens veel sneller kunt, maar het laat wel heel duidelijk zien waar de technologie op korte termijn heen beweegt.
- Substack heeft een potje van 20 miljoen dollar beschikbaar gemaakt waarmee het hoopt makers de overstap te laten maken van andere donatie- en lidmaatschapsplatforms als Patreon naar Substack. Het is de zoveelste stap van Substack weg van het zijn van een nieuwsbriefdienst en het zijn van een platform voor allerlei soorten makers die geld willen verdienen via lidmaatschappen.
- Press Gazette heeft geprobeerd de grootste Substack-publicaties, op basis van hun omzet, op een rij te zetten. In de top 20 is bijna de helft een publicatie over Amerikaanse politiek.
- YouTube test een aantal nieuwe functies voor betalende gebruikers, waaronder een hogere audiokwaliteit voor video's en een mogelijkheid om automatisch te skippen naar het beste bekeken stuk van een video.