Wikipedia se dote d’une intelligence artificielle pour mieux repérer le vandalisme
Partager
Tweeter

Wikipedia se dote d’une intelligence artificielle pour mieux repérer le vandalisme

Ce programme d’apprentissage est entraîné à distinguer les actes de vandalisme des erreurs de bonne foi, afin de faciliter le travail des éditeurs.

Le Monde | • Mis à jour le

Wikipedia a déployé un algorithme capable de distinguer les erreurs intentionnelles des erreurs de bonne foi.

S’il est toujours possible pour tout internaute de modifier des articles de Wikipedia, les règles pour le faire sont devenues de plus en plus nombreuses et contraignantes au fil des années. De quoi décourager les nouveaux contributeurs, qui voient souvent leurs modifications sèchement supprimées, sans aucune explication. Résultat : une baisse significative du nombre de participants à la célèbre encyclopédie collaborative en ligne, quasi divisé par deux depuis 2007.

Pour remédier à ce problème, la Fondation Wikimedia, qui gère Wikipedia, vient de déployer une intelligence artificielle capable d’analyser les modifications introduites par des internautes pour y repérer d’éventuelles erreurs. Ce type d’algorithme existait déjà sur Wikipedia, mais le nouveau, baptisé ORES (Objective Revision Evaluation Service), est capable de distinguer deux types d’erreurs : les fautes non intentionnelles et les actes de vandalisme.

Des éditeurs trop durs

Ce programme signale ainsi aux éditeurs les erreurs potentielles qu’il a repérées, ainsi que leur nature : « vandalisme » ou « bonne foi ». Les éditeurs, humains, vérifient alors la modification et, si elle contient bien une erreur, peuvent la supprimer en un clic. Avec ce nouvel outil, le pari de Wikimedia est d’encourager ces éditeurs à se montrer moins durs avec les contributeurs dont ils suppriment le contenu.

« Je soupçonne que le comportement rude des wikipédiens qui contrôlent la qualité des articles vient du fait qu’ils doivent arbitrer très rapidement, et qu’ils ne sont pas encouragés à avoir une interaction humaine avec la personne », explique Aaron Halfaker, l’ingénieur à la tête de ce projet, cité dans la MIT Technology Review. « Cet outil permet de dire “si vous vous apprêtez à supprimer ceci, peut-être devriez-vous faire attention et envoyer un message à la personne qui a fait cette modification”. »

Programme d’apprentissage

Objectif : expliquer aux nouveaux contributeurs pourquoi leur modification a été supprimée, afin de les motiver à participer à nouveau, tout en leur permettant de comprendre et d’intégrer les règles de Wikipedia.

Pour distinguer les erreurs intentionnelles de celles qui ne le sont pas, le programme ORES, basé sur des technologies open source de « machine learning », ou apprentissage des machines, a été « entraîné ». Des éditeurs de Wikipedia ont catégorisé des milliers de modifications dans l’encyclopédie, que ce programme d’intelligence artificielle a analysées, afin d’apprendre à repérer par lui-même les erreurs et leur nature. Certains mots et certaines chaînes de caractères, par exemple, reviennent régulièrement dans les actes de vandalisme.

ORES a pour l’instant été déployé dans les versions anglaise, perse, portugaise et turque de Wikipedia.

Lire aussi   Google rend accessible à tous sa technologie d’intelligence artificielle

Découvrez la newsletter Pixels

Chaque semaine, retrouvez l’essentiel de l’actualité « techno » en vous inscrivant à la newsletter Pixels.

Votre adresse email nous sert à vous adresser les newsletters qui vous intéressent. Vous disposez d'un droit d'accès, de rectification et d'opposition aux données vous concernant en vous connectant à votre compte.