Naar inhoud springen

Wikipedia:AI en Wikipedia

Uit Wikipedia, de vrije encyclopedie
Notendop
Deze pagina in een notendop: De Nederlandstalige Wikipedia kijkt kritisch naar content die gegenereerd wordt met behulp van kunstmatige intelligentie zoals large language models (LLM; ChatGPT; Gemini; etc). Je loopt kans dat je artikel wordt verwijderd als je een dergelijke tool gebruikt voor het schrijven van een artikel.

Wikimedia-projecten volgen een federatief model. Dit betekent dat er wereldwijd enkele gemeenschappelijke pijlers zijn voor beleid en moderatie op de projecten, en de individuele gemeenschappen verder de vrijheid hebben om hun eigen lokale beleid voor de content te bepalen. Dit kan tot gevolg hebben dat sommige inhoud wel wordt geaccepteerd op andere taalversies, maar niet op de Nederlandstalige Wikipedia, of andersom.

Wat zijn Large Language Models?

[bewerken | brontekst bewerken]

Large language models (LLM's) zijn tekstgenerators gebaseerd op kunstmatige intelligentie (Engels: artificial intelligence; afkorting: AI). Deze computermodellen creëren teksten op basis van waarschijnlijkheid, en worden getraind met reeds bestaande verzamelingen van tekst. Voorbeelden van dit soort computermodellen zijn chatbots zoals Gemini van Google, ChatGPT van Open AI, Copilot van Microsoft, of open source alternatieven zoals Perplexity van Perplexity AI en GPT4All van Nomic AI.

Het gebruik van dergelijke AI-tools voor artikelen is anno 2025 vaak onderwerp van discussie binnen de bewerkersgemeenschap van de Nederlandstalige Wikipedia. Enerzijds is de gemeenschap (die de richtlijnen voor artikelmoderatie bepaalt) erg voorzichtig vanwege de grote onnauwkeurigheid van deze computermodellen. De gemeenschap ziet problemen in de onduidelijkheid over de bronnen die zijn gebruikt om de modellen te trainen, en ook in de zekerheid waarmee de modellen zaken beweren: beide zijn niet in lijn met de huidige normen van de Nederlandstalige Wikipediagemeenschap. Daarnaast zijn er zorgen om de auteursrechten van de trainingsdata: zonder een duidelijke bron ziet de gemeenschap zichzelf niet in staat om actief een eventuele schending van bestaande auteursrechten te bestrijden.

Wat accepteren we niet

[bewerken | brontekst bewerken]

De Nederlandstalige Wikipedia accepteert geen artikelen, of wijzigingen daarvan, met enkel automatisch gegenereerde tekst, mede vanwege de vaak zeer discutabele kwaliteit. In het verleden werden dit soort artikelen van lage kwaliteit vaak gecreëerd door middel van bots of waren het resultaat van computervertalingen. Met de opkomst van AI-gestuurde tekstgenerators zoals ChatGPT is er een consensus in de gemeenschap om ook de publicatie van teksten die enkel zijn samengesteld door AI af te raden. Dit komt door de lage kwaliteit van deze teksten, maar bijkomend ook vanwege de onduidelijke status van de herkomst en auteursrechten van de tekst. Deze artikelen kunnen in aanmerking komen voor de versnelde verwijderprocedure: in geval van twijfel zal een dergelijk lemma op de lijst met te beoordelen pagina's komen, waarbij schrijvers 2 weken in de gelegenheid worden gesteld het artikel te verbeteren en de problemen op te lossen.

Op de Wikimedia-projecten kunnen volgens de universele gebruiksvoorwaarden individuele auteurs aansprakelijk worden gehouden voor plagiaat, verkeerde voorstelling, en fabricage of vervalsing van inhoud en/of referenties. Auteurs kunnen daarnaast worden bestraft met sancties, zoals een bewerkingsverbod.

Wat is wel oké

[bewerken | brontekst bewerken]

De Nederlandstalige Wikipedia gebruikt sinds 2016 RTRC, een set LLM-modellen specifiek ontwikkeld voor onze taalversie, die werken via de webservice ontwikkeld door de Wikimedia Foundation genaamd ORES. RTRC is getraind op het inschatten van kwaliteit van bewerkingen en wordt voornamelijk ingezet voor ondersteuning bij de controle van recente wijzigingen in artikelen. Sinds 2021 ondersteunt dezelfde webservice ook een kwaliteitsschaal voor artikelen.

Los hiervan is er ook binnen de Wikimedia-projecten een vertaaltool beschikbaar, die ondersteunt bij het semi-geautomatiseerd vertalen van Wikipedia-artikelen vanuit andere taalversies. Binnen deze tool kan men kiezen uit verschillende vertaalservices, zoals Bing, Yandex en Google, of Wikimedia's eigen vertaalservice Mint.

Een deel van de gemeenschap ziet verder ook geen probleem in het gebruik van AI als ondersteuning bij het schrijven van een artikel, waarbij de nadrukkelijke kanttekening wordt gemaakt dat bewerkers zelf verantwoordelijk zijn voor de inhoud die door deze tools wordt gecreëerd. AI-tools kunnen volgens deze visie bijvoorbeeld wel worden gebruikt voor redactiewerk op door auteurs zelf gegenereerde inhoud, om zo het taalkundig niveau van de door de auteur geproduceerde lemma's te verbeteren. Het blijft echter noodzakelijk dat de gebruiker van de AI-tool de herschreven tekst naleest alvorens deze te publiceren, om te controleren of de teksten inhoudelijk correct zijn en niet van betekenis zijn veranderd.