Raadpleeg de overlegpagina voor discussie over dit voorstel.
Wikimedia-projecten volgen een federatief model. Dit betekent dat er wereldwijd enkele gemeenschappelijke pijlers zijn voor beleid en moderatie op de projecten, en de individuele gemeenschappen verder de vrijheid hebben om hun eigen lokale beleid voor de content te bepalen. Dit kan tot gevolg hebben dat sommige inhoud wel wordt geaccepteerd op andere taalversies, maar niet op de Nederlandstalige Wikipedia, of andersom.
Wat zijn Large Language Models?
Grote taalmodellen (Engels: Large Language Models; afkorting: LLM's) zijn tekstgenerators gebaseerd op kunstmatige intelligentie (Engels: artificial intelligence; afkorting: AI). Deze computermodellen creëren teksten op basis van waarschijnlijkheid, en worden getraind met reeds bestaande verzamelingen van tekst. Voorbeelden van dit soort computermodellen zijn chatbots zoals Gemini van Google, ChatGPT van Open AI, Copilot van Microsoft, of open source alternatieven zoals Perplexity van Perplexity AI en GPT4All van Nomic AI.
Wat accepteren we niet
De Nederlandstalige Wikipedia accepteert geen artikelen, of wijzigingen daarvan, met enkel automatisch gegenereerde tekst, zogenaamde 'tekstdumps', mede vanwege de doorgaans zeer discutabele kwaliteit. In het verleden werden dit soort artikelen vaak gecreëerd door middel van bots of waren het resultaat van computervertalingen. Met de opkomst van AI-gestuurde tekstgenerators zoals ChatGPT, is er een consensus in de gemeenschap om deze regel ook van toepassing te laten zijn op teksten samengesteld door AI vanwege de kwaliteit van deze teksten, maar bijkomend ook vanwege de onduidelijke status van de herkomst en auteursrechten van de tekst. Deze artikelen komen in aanmerking voor de versnelde verwijderprocedure: in geval van twijfel zal een dergelijk lemma op de lijst met te beoordelen pagina's komen, waarbij schrijvers 2 weken in de gelegenheid worden gesteld het artikel te verbeteren en de problemen op te lossen.
Op de Wikimedia-projecten kunnen volgens de universele gebruiksvoorwaarden individuele auteurs aansprakelijk worden gehouden voor plagiaat, verkeerde voorstelling, en fabricage of vervalsing van inhoud en/of referenties. Auteurs kunnen daarnaast worden bestraft met sancties, zoals een bewerkingsverbod.
Wat is wel oké
De Nederlandstalige Wikipedia gebruikt sinds 2016 RTRC, een set AI modellen specifiek ontwikkeld voor onze taalversie die werken via de webservice ontwikkeld door de Wikimedia Foundation genaamd ORES. RTRC is getraind op het inschatten van kwaliteit van bewerkingen, en wordt voornamelijk ingezet voor ondersteuning bij de controle van recente wijzigingen in artikelen. Sinds 2021 ondersteunt dezelfde webservice ook een kwaliteitsschaal voor artikelen.
Los hiervan is er ook binnen de Wikimedia-projecten een vertaaltool beschikbaar, die ondersteunt bij het geautomatiseerd vertalen van Wikipedia artikelen vanaf andere taalversies. Binnen deze tool kan men kiezen uit verschillende vertaalservices zoals Bing, Yandex en Google.
Het gebruik van AI-tools (zoals ChatGPT of Gemini) voor artikelen is anno 2025 vaak onderwerp van discussie. Enerzijds is de gemeenschap (die de richtlijnen voor artikelmoderatie bepaalt) erg voorzichtig vanwege de grote onnauwkeurigheid die de computermodellen laten zien. De gemeenschap ziet problemen in de onduidelijkheid over de bronnen die zijn gebruikt om de modellen te trainen, en ook in de zekerheid waarmee de modellen zaken beweren: beide zijn niet in lijn met de huidige normen van de Nederlandstalige Wikipediagemeenschap. Daarnaast zijn er zorgen om de auteursrechten van de trainingsdata: zonder een duidelijke bron ziet de gemeenschap zichzelf niet in staat om actief een eventuele schending van bestaande auteursrechten te bestrijden.
Anderzijds is een deel van de gemeenschap wel voorstander van het toestaan van het gebruik van AI als ondersteuning bij het schrijven, waarbij de nadrukkelijke kanttekening wordt gemaakt dat bewerkers zelf verantwoordelijk zijn voor de inhoud die door deze tools wordt gecreëerd. AI-tools kunnen volgens deze visie bijvoorbeeld wel worden gebruikt voor redactiewerk op door auteurs zelf gegenereerde inhoud, om zo het taalkundig niveau van de door de auteur geproduceerde lemma's versneld te verbeteren. Het blijft echter noodzakelijk dat de gebruiker van de AI-tool de herschreven tekst naleest alvorens deze te publiceren, om te controleren of de teksten inhoudelijk correct zijn, en niet van betekenis zijn veranderd.
Zie ook
- Commons:AI-generated media voor beleid rondom de acceptatie van afbeeldingen gemaakt met AI
- Help:Tips voor het vertalen van een artikel vanaf een andere Wikipedia