Votre navigateur (${ userBrowser.name + ' ' + userBrowser.version }) est obsolète. Pour améliorer la sécurité et la navigation sur notre site, prenez le temps de mettre à jour votre navigateur.      

De fausses images sur la guerre Etats-Unis-Iran continuent de proliférer sur X malgré les avertissements

| AFP | 172 | Aucun vote sur cette news
De fausses images sur la guerre Etats-Unis-Iran continuent de proliférer sur X, le réseau social d'Elon Musk malgré un durcissement annoncé des règles visant à endiguer la désinformation
De fausses images sur la guerre Etats-Unis-Iran continuent de proliférer sur X, le réseau social d'Elon Musk malgré un durcissement annoncé des règles visant à endiguer la désinformation ( SEBASTIEN BOZON / AFP/Archives )

De fausses images sur la guerre Etats-Unis-Iran continuent de proliférer sur X, le réseau social d'Elon Musk malgré un durcissement annoncé des règles visant à endiguer la désinformation.

"Les fils que je surveille sont toujours saturés de contenus générés par l’IA sur la guerre", constate auprès de l’AFP Joe Bodnar, de l'Institute for Strategic Dialogue.

Sur X, des vidéos créées par l'intelligence artificielle montrent par exemple des soldats américains capturés par l'Iran, une ville israélienne en ruines ou des ambassades américaines en flammes, laissant l'utilisateur incapable de distinguer la fiction de la réalité.

Pour tenter de protéger l'authenticité des contenus, X a pourtant annoncé la semaine dernière qu'il suspendrait pendant 90 jours du programme de partage de revenus les créateurs qui publient des vidéos de guerre générées par l’IA sans préciser qu'elles ont été produites artificiellement.

En cas de récidive, la suspension sera définitive, a averti dans un message Nikita Bier, responsable produit de X.

Un tournant notable pour une plateforme très critiquée pour être devenue un refuge de la désinformation depuis qu'Elon Musk a acquis le site pour 44 milliards de dollars en octobre 2022.

Les chercheurs spécialisés dans la désinformation restent cependant sceptiques et X n’a pas répondu lorsque l’AFP lui a demandé combien de comptes avaient été démonétisés.

"On ne constate pas que les créateurs aient été dissuadés de diffuser des images et des vidéos trompeuses générées par l’IA sur le conflit", observe M. Bodnar. Il cite un message d’un compte X certifié, donc éligible à la monétisation, qui a partagé un clip généré par l'IA montrant une soi-disant frappe iranienne "à capacité nucléaire" contre Israël.

Ce message a engrangé bien plus de vues que l'avertissement de Nikita Bier sur les comptes qui publient de l'IA sans le dire.

Incitation aux faux

Le réseau mondial de vérificateurs de l’AFP, du Brésil à l’Inde, a identifié de son côté un flot de faux contenus générés par l'IA sur la guerre au Moyen-Orient, dont beaucoup proviennent de comptes premium de X, dotés d'une coche bleue et accessibles moyennant paiement.

On y voit des vidéos créées par l'IA montrant un soldat américain en larmes dans une ambassade bombardée, des troupes américaines capturées, à genoux à côté de drapeaux iraniens, ou encore une flotte de la marine américaine détruite.

Le flot de visuels fabriqués par l'IA, mêlés à des images authentiques provenant du Moyen-Orient, enfle à un rythme que les équipes de vérification peinent à suivre.

Grok, le chatbot d'IA de X, semble avoir aggravé le problème, en affirmant à tort à des utilisateurs en quête de vérifications que de nombreux visuels générés par l’IA sur la guerre étaient réels.

Le modèle économique de X permet à des comptes premium de toucher des revenus proportionnels au nombre de vues, ce qui encourage la diffusion de contenus mensongers ou sensationnalistes, pointent les chercheurs.

Un compte premium, qui avait publié une vidéo générée par l'IA montrant le gratte-ciel Burj Khalifa de Dubaï en flammes, a ainsi ignoré la demande de Nikita Bier de signaler le contenu comme étant généré par l’IA. La publication est restée en ligne, cumulant plus de deux millions de vues.

"Contre-mesure"

En outre, même si la politique de démonétisation de X était strictement appliquée, un grand nombre d'utilisateurs de X qui diffusent des contenus générés par l'IA ne font pas partie du programme de partage de revenus, soulignent des chercheurs.

Ces utilisateurs restent certes soumis à des vérifications par le biais des "Community Notes" ("notes de la communauté", ndlr) mais l'efficacité de cet outil de modération communautaire est régulièrement remise en question.

L’an dernier, une étude du Digital Democracy Institute of the Americas a montré que plus de 90% des "Community Notes" de X ne sont jamais publiées.

"La politique de X constitue une contre-mesure raisonnable face à la désinformation virale liée à la guerre. En principe, cette politique réduit les incitations pour ceux qui diffusent de la désinformation", estime Alexios Mantzarlis, directeur de l'initiative Security, Trust, and Safety à Cornell Tech.

Mais "le diable se niche dans les détails : les métadonnées des contenus générés par l'IA peuvent être supprimées et les +Community Notes+ restent relativement rares", a souligné Alexios Mantzarlis.

burs-ac/aje/clr

 ■

Copyright © 2026 AFP. Tous droits de reproduction et de représentation réservés.

Toutes les informations reproduites dans cette rubrique (dépêches, photos, logos) sont protégées par des droits de propriété intellectuelle détenus par l'AFP. Par conséquent, aucune de ces informations ne peut être reproduite, modifiée, transmise, rediffusée, traduite, vendue, exploitée commercialement ou utilisée de quelque manière que ce soit sans l'accord préalable écrit de l'AFP. l'AFP ne pourra être tenue pour responsable des délais, erreurs, omissions, qui ne peuvent être exclus ni des conséquences des actions ou transactions effectuées sur la base de ces informations.

Votez pour cet article
0 avis
Note moyenne : 0
  • 0 vote
  • 0 vote
  • 0 vote
  • 0 vote
  • 0 vote
SUR LE MÊME SUJET
Publié le 17/03/2026

Des employés travaillent au centre de vidéosurveillance Smart Sampa à Sao Paulo, au Brésil, le 25 février 202 ( Nelson ALMEIDA / AFP )Dans le centre historique de Sao Paulo, un tableau…

Publié le 17/03/2026

Trois adolescentes du Tennessee ont déposé lundi une plainte collective contre xAI, la société d'intelligence artificielle d'Elon Musk, accusant son chatbot Grok d'avoir généré des images…

Publié le 16/03/2026

Nvidia's chief Jensen Huang calls OpenClaw 'the operating system for personal AI' ( Patrick T. Fallon / AFP )Porté par l'engouement mondial autour d'OpenClaw, Nvidia a lancé lundi sa propre…

Publié le 13/03/2026

Une affiche présentant OpenClaw, un assistant IA open source, le 11 mars 2026 à Pékin ( ADEK BERRY / AFP )Entrepreneur chinois, Frank Gao passait des heures à gérer ses comptes sur les…

Publié le 13/03/2026

Les Etats membres de l'UE veulent interdire les services d'intelligence artificielle permettant de créer de fausses images sexuelles ou dénudées de personnes réelles ( Pablo VERA /…

À LIRE AUSSI SUR MES ACTIONS
Publié le 17/03/2026

Publié le 17/03/2026

La Bourse de New York a clôturé en hausse lundi, soutenue par un apaisement des tensions sur le marché pétrolier, ce qui a favorisé un rebond en ce début de semaine, marquée par la tenue de la…

Publié le 17/03/2026

Votre rendez-vous quotidien avec les petites et moyennes capitalisations ! Chaque jour, retrouvez l’analyse d’Eric Lewin sur les valeurs Small & Mid Caps du moment qui font l’actualité.

Publié le 17/03/2026

(Zonebourse.com) - Goldman Sachs Group a déclaré à l'AMF avoir franchi en baisse, le 11 mars, par l'intermédiaire des sociétés qu'elle contrôle, le seuil de 10% du capital d'Ubisoft…

Publié le 17/03/2026

(Zonebourse.com) - Eli Lilly est victime de lourds dégagements à Wall Street et abandonne 5,14%, à 938,28 dollars, sa plus forte baisse depuis l'accident du 5 février dernier (-7,79%), lorsque…