L'invasion du faux : quand l'IA inonde Facebook de désinformation émotionnelle
- kian payette
- Apr 30
- 3 min read
Updated: May 3
Introduction

Vous avez probablement remarqué une explosion de contenu généré par intelligence artificielle sur les réseaux sociaux, en particulier sur Facebook. Vous n'êtes pas fous : Facebook perd énormément en popularité auprès des jeunes, qui préfèrent désormais Snapchat et Instagram. Pour tenter de remédier à la situation, Facebook semble avoir adopté une approche beaucoup plus laxiste face à la création de faux comptes, dans le but de stimuler l'engagement de ses utilisateurs.
Cette montée en flèche de contenus douteux, qui touche Facebook mais aussi ses concurrents, s'explique en grande partie par la moyenne d'âge plus élevée de ses utilisateurs. Les personnes âgées étant généralement plus vulnérables à ce genre de supercheries, les fraudeurs en profitent pour cibler les internautes les plus crédules.
Un phénomène qui prend de l'ampleur
Depuis plusieurs mois, un nouveau type de publication domine certains fils d'actualité :
Des images absurdes, comme des enfants posant à côté de sculptures prétendument créées par eux-même.
Des vidéos d'animaux, truquées et mal générées, où des chiens sauvent des enfants d'accidents invraisemblables.
La qualité est souvent médiocre : proportions étranges, détails irréalistes, comportements improbables. Pourtant l'effet de choc ou d'attendrissement prime sur l'analyse critique.
Pourquoi ça fonctionne?
Même les internautes bien intentionnés se font piéger. Pourquoi?
L'appel émotionnel est une arme puissante. L’humain réagit plus fort à une émotion qu’à un raisonnement.
L’effet de masse : des milliers de commentaires crédules ("Bravo!", "Tellement touchant!") valident l'illusion.
La fatigue cognitive : peu de gens prennent le temps de vérifier ce qu'ils voient passer rapidement sur leur fil d'actualité.
Un outil pour les fraudeurs
Ces publications ne sont pas là pour simplement divertir :
Phishing, vols d’identité, propagande : elles servent à bâtir des pages ou des profils avec beaucoup d'interactions pour ensuite les détourner vers des escroqueries.
Tests de crédulité : identifier les internautes les plus influençables pour ensuite les cibler.
L'absence de modération
Comme vous le savez sans doute, l’intelligence artificielle générative est encore une technologie relativement récente dans le monde de l’informatique. À ce jour, il existe très peu de normes et de standards encadrant son utilisation sur les réseaux sociaux. Certains générateurs d’images, comme DALL·E, ajoutent dans les métadonnées des fichiers des mentions explicites (ex. : “Generated by DALL·E”, “AI-generated”, etc.). Cependant, plusieurs services comme Facebook ou Discord effacent automatiquement ces données à l’exportation, et certains générateurs n’en ajoutent tout simplement pas.
Pour l’instant, vos yeux et votre esprit critique restent vos meilleurs outils pour repérer ces publications trompeuses. Je dis "pour l’instant", car il se pourrait bien qu’un jour ce ne soit plus suffisant... Ces images et vidéos deviendront de plus en plus réalistes avec le temps.
Il existe également des outils conçus pour détecter les contenus générés par IA en analysant les signes visuels typiques (yeux asymétriques, textures incohérentes, artefacts numériques, etc.). Mais clairement, Facebook ne les utilise pas — car les vidéos et images que je vois passer dans mon fil sont remplies d’erreurs grossières et d’absurdités flagrantes qui les rendent impossibles à prendre au sérieux... du moins pour ceux qui savent regarder.
Pourquoi c'est un problème grave
À force d’être exposés à du contenu fabriqué de toutes pièces, notre capacité à discerner le vrai du faux s’effrite peu à peu. Cette érosion de la confiance rend les utilisateurs plus vulnérables, notamment face aux fraudes ou même aux manipulations politiques.
Un exemple marquant s’est produit lors des élections canadiennes, alors que Mark Carney a été la cible d’une campagne de désinformation cherchant à l’associer à Jeffrey Epstein. Des images truquées le montrant sur une plage en compagnie d’Epstein et de Ghislaine Maxwell ont circulé sur X (anciennement Twitter) et se sont propagées sur plusieurs réseaux sociaux. L’affaire Epstein est l’un des sujets les plus exploités par les campagnes de désinformation, car le simple fait d’être perçu comme lié à cet individu suffit à faire chuter la confiance du public.
Ce genre de contenu contribue également à la normalisation du mensonge. Ce qui nous choque aujourd’hui risque de paraître banal demain. Imaginez qu’une nouvelle image truquée d’Epstein aux côtés d’une personnalité publique apparaisse chaque jour. À force d’en voir, cette association perverse finirait par perdre son impact, au point de minimiser la gravité des liens réels que certains individus ont pu entretenir avec lui — y compris, par exemple, un certain président américain.
Conclusion
Le flot de contenu artificiel qui déferle sur Facebook n'est pas anodin. Il s'agit d'une mutation profonde du web social — une mutation où l'émotion est exploitée au détriment de la vérité.
Il est temps de devenir des internautes critiques et vigilants, car si Facebook tarde à agir, nous, utilisateurs, devons apprendre à mieux voir, mieux douter, mieux comprendre.
Merci ! Je vais être plus attentive