Dossier Artificial Intelligence. Deel 2: De noodzaak van duidelijke regels.
“Kunstmatige intelligentie heeft de potentie om onafhankelijke journalistiek beter te maken dan ooit tevoren - of het gewoon te vervangen.” Dat is wat Mathias Doepfer, baas van het grote Duitse mediaconglomeraat Axel Springer enkele maanden geleden schreef in een interne mail aan zijn werknemers. Het was de opmaat naar een grote bezuinigingsoperatie bij de uitgever van Bild en Die Welt, waarbij zo’n 200 banen zouden gaan verdwijnen. Want journalistieke taken konden in de toekomst dus ook wel door ChatGPT of Google’s Bard worden uitgevoerd.
Het is een extreem voorbeeld van de mogelijke invloed die AI heeft en nog gaat krijgen in de huidige journalistiek. Dat die invloed groot kan zijn bleek al in dit artikel over de kansen en bedreigingen van AI. Maar dat er AI-programma’s zijn die goede artikelen kunnen schrijven of mooie foto’s kunnen generen, betekent nog niet dat dit ook wenselijk is. Het leidt tot felle discussie op redacties, maar ook daarbuiten.
AI als vervanging van de journalistiek
Dat het vervangen van journalisten door AI een reëel gevaar is, blijkt in Nederland uit het feit dat Mediahuis eerder dit jaar een website lanceerde die volledig gevuld wordt door AI. Op deze website is sportnieuws te vinden dat rechtstreeks afkomstig is van het ANP, maar door AI in de gewenste vorm van Mediahuis is gegoten. Op Resport, zoals de site heet, staat wel vermeld dat er dagelijks checks worden uitgevoerd door ervaren redacteuren.
Er zit dus een menselijke check op, al geldt dat niet voor alle berichten. Onderaan de nieuwsberichten staat wat AI precies heeft gedaan: “Dit artikel is gebaseerd op berichtgeving van het ANP. GPT4 is gebruikt om de kop, metatags, url, categorieën, belangrijke personen en social-koppen te genereren en/of labelen.” Opvallend is dat onderaan ieder nieuwsbericht een oproep staat aan de lezer om fouten vooral te melden. Er wordt rekening mee gehouden dat AI af en toe fouten zal maken.
Er zijn dus al experimenten gaande die op termijn zouden kunnen zorgen voor een soort robotjournalistiek. Waarbij een AI-programma een deel van het werk van de journalist overneemt. Welk deel dat precies is, hangt af van wie je het vraagt. Als het bijvoorbeeld aan Google ligt, geven we alles uit handen. Daar werkt men naar verluid aan een tool die niet alleen een deel van de research kan doen, maar ook het verhaal kan pitchen en uiteindelijk zelf kan schrijven. Hoe het project er precies uitziet, is nog niet bekend, maar wel dat Google het al bij verschillende grote Amerikaanse spelers in de journalistiek heeft aangeboden.
Een begin in het maken van regels
Het merendeel van de Nederlandse journalisten ziet kansen in de opkomst van AI-hulpmiddelen. Maar zorgen zijn er ook. Uit een enquête van vakblad Villamedia bleek dat ruim 60 procent van de respondenten bang is dat AI journalisten zal vervangen. Ook waren de deelnemers aan de enquête bang dat de kwaliteit van de journalistiek zou afnemen. Die zorg zie je terug in de regels voor het gebruik van de AI-tools die nu bij verschillende mediabedrijven worden opgesteld.
Bij de Volkskrant zijn de regels voor het gebruik erg strikt. Zo mag AI niet worden ingezet voor het schrijven van artikelen of aanmaken van afbeeldingen. In het protocol schreef de redactie in mei van dit jaar: “Bij alles wat de Volkskrant maakt, mag er geen enkel misverstand zijn over wat echt en wat waar is en wat niet. De redactie publiceert daarom geen journalistiek werk dat is gegenereerd door kunstmatige intelligentie. De Volkskrant wil bovendien volstrekt transparant zijn over hoe informatie is vergaard en welke bronnen daaraan ten grondslag liggen. Journalistiek werk dat gegenereerd is door AI-systemen biedt deze transparantie niet.”
Ook zegt de krant voorzichtig om te willen gaan met het inzetten van AI voor onderzoek. Volgens de redactie zijn de resultaten daarvoor te onbetrouwbaar en is niet altijd duidelijk welke bronnen de AI-tool heeft gebruikt. Het ANP durft al wel gebruik te maken van de mogelijkheden van AI op het gebied van onder andere research. In hun leidraad zit echter wel één heel belangrijke voorwaarde: het begint en eindigt met een mens.
In de podcast Achter de Klacht zei hoofdredacteur Freek Staps: “Journalisten worden niet door AI weggeduwd. Maar worden door AI geholpen. Dat betekent dat een journalistieke zoektocht altijd begint met een mens. Dat je daarna een machine inzet, als tweede stap, is prima. Maar de derde stap, mens, is de essentiële stap. Een mens beslist uiteindelijk of het journalistiek betrouwbaar is en of het publicatie waard is.”
Bij de publieke omroep zijn de regels nog niet zo strikt vastgelegd. Wel wordt er door de NPO en de meeste omroepen gewerkt aan richtlijnen. Daarbij gaat de discussie vooral over waar in het nieuwsproces je AI precies kan gaan inzetten. Adjunct-hoofdredacteur Wilma Haan van NOS Nieuws zei daarover in de podcast Achter de Klacht: “We weten nog niet precies op welke punten dat journalistiek en ethisch verantwoord is. AI kan in het proces ondersteunend zijn op onderdelen, zolang het controleerbaar is en uit te leggen is aan het publiek. En we zijn nu aan het uitzoeken waar die grens precies ligt.”
Eén van de mensen die daar bij de NPO mee bezig is, is directeur Strategie Ezra Eeman. Hij was eerder betrokken bij het opstellen van de AI-richtlijnen bij Mediahuis. Daar hamerde hij vooral op transparantie over het gebruik van de tools. “Het kan onder een artikel, in een bijschrift bij een gegenereerde foto of in een algemene aankondiging. Gebruik je AI veel, dan zou je ook een AI-manifest op de website kunnen zetten. De richtlijnen van Mediahuis schrijven daarin geen lijn voor, maar áls je AI gebruikt moet je dat melden.”
Transparantie
Dat er nog veel werk te verzetten is op het gebied van richtlijnen voor AI-gebruik in de journalistiek, bleek uit een enquête van de World Association of News Publishers in mei van dit jaar. Van de deelnemende redacties gaf bijna de helft aan dat ze gebruik maakten van kunstmatige intelligentie, maar slechts twintig procent van die redacties had daadwerkelijk regels met elkaar afgesproken over dat gebruik. Reden voor Reporters without Borders om een internationaal comité in te stellen dat aan de slag ging om overkoepelende richtlijnen op te stellen.
Hoewel de meeste redacties dus nog geen eigen richtlijnen hebben, zijn er al wel enkele voor de hand liggende voorbeelden van regels die vaak terugkomen. De belangrijkste daarvan is transparantie over het gebruik van AI. Dat is, zoals hiervoor al vermeld, een belangrijke bouwsteen geweest voor de AI-regels van Mediahuis. Maar ook op andere plekken zie je dat men het vooral belangrijk vindt dat het publiek weet dat er gebruik wordt gemaakt van kunstmatige intelligentie.
Zo schrijft bijvoorbeeld de Vlaamse Raad voor de Journalistiek: “De redactie communiceert transparant over geautomatiseerde nieuwsproductie en personalisering van nieuwsaanbod, zodat het voor de gebruiker duidelijk is wanneer nieuwsitems op basis van artificiële intelligentie gemaakt of geselecteerd zijn.” Bij de meeste richtlijnen die online terug te vinden zijn, draait het bij transparantie niet alleen om het vermelden van wanneer en hoe AI wordt gebruikt, maar ook om het publiceren van de eigen richtlijnen daarvoor.
Volgens de Ombudsman zou dat ook het startpunt moeten zijn voor de publieke omroepen. Het publiek verdient het om te weten door wie het journalistieke werk daadwerkelijk gedaan is. En wie er verantwoordelijk is voor eventuele fouten in dat werk.
Toch is transparantie alleen niet genoeg. Zo blijkt onder andere uit het in dit artikel vermelde nep-interview met Michael Schumacher in Die Aktuel. Het blad had op verschillende plekken rondom het interview vermeld dat het gemaakt was met AI, maar toch werd dat door een gedeelte van het publiek niet begrepen en leidde het tot ophef. Naast transparantie dient er ook nog een ethische en journalistieke check te worden gedaan. Zo moet de journalist checken of wat AI gemaakt heeft eigenlijk wel klopt, maar ook of wat er geproduceerd is, mensen niet onnodig beschadigd.
De menselijke check
Die menselijke check is de basis voor bijvoorbeeld de leidraad van het ANP. Letterlijk staat er: “We houden in onze productieketen vast aan de nu al geldende lijn mens>machine>mens, waarbij het denken en beslissen bij de mens begint en eindigt, mogelijk in de tussenliggende productie geassisteerd door de computer. We gebruiken daarom geen door de computer (of AI) gegenereerde content, ook niet als bronmateriaal, zonder het checken van deze informatie door een mens.”
Die laatste check door een mens vind je ook terug bij het internationale persbureau AP in haar richtlijnen: “Any output from a generative AI tool should be treated as unvetted source material. AP staff must apply their editorial judgment and AP’s sourcing standards when considering any information for publication.” Ze beschouwen het onderzoek van AI dus als een niet-geverifieerde bron. Alles moet gecheckt worden voor het kan worden gebruikt.
De Ombudsman voelt ook veel voor een werkproces met AI waar zowel aan het begin als aan het eind altijd een mens betrokken zal zijn. Een mens moet bepalen waarvoor AI wordt ingezet en een mens moet uiteindelijk controleren of dat wat AI heeft gemaakt, aan de hoge kwaliteitseisen voldoet die je mag verwachten van de publieke omroep.
Bij het eerder al vermelde Resport gaat het om een menselijke check ná publicatie. Een check die bovendien gedaan wordt door de lezers van de site. De meeste codes doen de check net iets eerder. Voordat iets gepubliceerd wordt, moet het eerst door een journalist goedgekeurd worden. Het mag duidelijk zijn waar de voorkeur van de Ombudsman ligt.
Waakzaam voor ‘neppers’
Die extra menselijke check is sowieso van groot belang. Het gemak waarmee nepvideo’s, foto’s en teksten worden gefabriceerd, is bijna niet bij te houden. Onlangs verscheen al een nepvideo waarin het net leek of een app werd aangeprezen in het NOS-journaal. Dat is nog redelijk onschuldig. Kwaadwillenden zouden dezelfde techniek ook kunnen gebruiken om één van de programma’s van de publieke omroepen na te maken en de gekste dingen te laten zeggen.
Bron: Omroep Brabant
Dit vraagt om waakzaamheid van de journalistiek. Zeker daar waar de afspraken nog niet zo duidelijk zijn. Het vraagt ook waakzaamheid van het publiek. Ook dat zal meer dan ooit de ogen en oren moeten openhouden om te checken of iets klopt.
Maar de hoofdverantwoordelijkheid ligt toch echt bij de journalistiek. Die zal verantwoordelijk om moeten gaan met de nieuwe tools die online verschijnen. Het risico van het te vroeg inzetten van bepaalde tools, zonder daarbij goed in beeld te hebben waar het fout kan gaan, is dat het de betrouwbaarheid van de journalistiek kan aantasten. Daarom is het goed om de regels zorgvuldig op te stellen. Zorgvuldig, maar er niet te lang over doen. De ontwikkeling van AI gaat razendsnel en de journalistiek heeft een plicht om dat goed bij te houden.
In de herziene Code Journalistiek Handelen die sinds afgelopen zomer geldt voor alle journalistieke programma’s van de publieke omroepen, staat nog niets vermeld over AI. Reden voor de Ombudsman om al eerder op te roepen om zo snel mogelijk aan de slag te gaan met een aanpassing van de code. Herziening van de vorige code duurde enkele jaren en zo lang kunnen regels voor AI niet blijven liggen. Achter de schermen wordt er al hard aan gewerkt. Het zou goed zijn als dat heel binnenkort ook voor de schermen tot resultaten leidt.Dossier Artificial Intelligence. Deel 1: Kansen en bedreigingen
Dossier Artificial Intelligence. De podcast