La plateforme d’Elon Musk veut accélérer la modération avec l’intelligence artificielle, mais les experts redoutent un risque accru de désinformation et un désengagement des bénévoles.
Des modèles linguistiques pour rédiger les notes explicatives
X, ex-Twitter, vient de franchir un cap : ses modèles d’intelligence artificielle vont désormais générer eux-mêmes les « Notes Communautaires », ces encadrés visant à enrichir ou corriger les messages jugés douteux. Jusqu’ici, ce système de fact-checking s’appuyait sur des volontaires chargés d’évaluer et de commenter les publications problématiques. Désormais, les algorithmes rédigent les premières versions de ces notes, soumises ensuite à validation par la communauté.
D’après les responsables de la plateforme, cette évolution doit accélérer la vérification des faits et élargir la couverture thématique, alors que le volume de contenus litigieux ne cesse d’augmenter. Les capacités de synthèse et de rapidité des IA sont présentées comme un atout pour soulager les évaluateurs humains.
Des inquiétudes sur la fiabilité et la manipulation
Mais cette délégation aux algorithmes suscite de vives préoccupations. Des analyses techniques internes à X signalent un danger majeur : l’IA peut produire des notes très convaincantes sur la forme, mais sans garantir leur véracité sur le fond. Si une note persuasive mais erronée franchit le filtre communautaire, elle pourrait induire massivement les utilisateurs en erreur.
Un ancien ministre britannique, cité par The Guardian, alerte sur un risque de manipulation facilité par l’ampleur des capacités de génération automatisée. Samuel Stockwell, chercheur à l’Institut Alan Turing, rappelle dans le même quotidien que l’expérience ne tiendra que si le contrôle humain reste solide : si l’algorithme se met à justifier aveuglément des affirmations, les bénévoles ne suffiront plus à éviter les dérives.
Une menace pour l’engagement bénévole
Autre point de crispation : la participation des contributeurs volontaires. Selon Andy Dudfield, directeur IA dans une organisation britannique de fact-checking interrogé par The Guardian, l’afflux de notes générées par l’IA risque d’augmenter la charge de validation au point de décourager les bénévoles. Ce phénomène pourrait appauvrir la diversité des points de vue et réduire la profondeur des échanges, pourtant essentielles au processus collaboratif.
Si les internautes se démobilisent, le système pourrait perdre sa capacité à garantir une information pluraliste et nuancée, laissant la place à un fact-checking automatisé moins critique et potentiellement biaisé.
Des garde-fous encore balbutiants
Pour rassurer, X promet plusieurs phases de tests. Chaque note produite par l’IA doit passer un double filtrage – automatisé puis humain – avant d’être publiée. Les décisions finales resteront entre les mains des membres de la communauté, sans intervention unilatérale de modérateurs salariés.
La plateforme prévoit également d’autoriser des solutions IA externes, une approche qui, si elle vise à stimuler l’innovation, pourrait compliquer davantage la supervision. Selon plusieurs experts interrogés, l’enjeu sera de préserver un équilibre entre efficacité, rigueur éditoriale et participation active des utilisateurs, faute de quoi la crédibilité même du dispositif serait compromise.