Intox

Non, cette image de 165 cercueils d’écolères iraniennes n’est pas réelle — et la rapporteuse de l’ONU le savait

Non, cette image de 165 cercueils d’écolères iraniennes n’est pas réelle — et la rapporteuse de l’ONU le savait

Le 3 mars 2026, Francesca Albanese, rapporteuse spéciale de l’ONU pour les territoires palestiniens occupés, a relayé sur X une image censée montrer 165 cercueils d’écolères iraniennes tuées dans une frappe américano-israélienne. L’image était un faux généré par intelligence artificielle. Mise en cause publiquement, elle a refusé de la supprimer.

X cracks down on AI-generated war footage as Iran misinformation runs rampant

La rapporteuse spéciale Francesca Albanese a relayé une image générée par IA présentée comme montrant des cercueils d’écolères iraniennes, défendant ensuite son choix malgré le signalement comme désinformation.

INTOX

La réalité

Le 3 mars 2026, alors que les tensions autour des frappes américano-israéliennes en Iran atteignent leur pic médiatique, Francesca Albanese relâche sur X un post affirmant montrer « 165 cercueils d’écolères » tuées dans une frappe sur une école primaire à Minab. L’image montrait des séries de corps enveloppés dans des linceuls blancs. Elle a été partagée sans vérification, depuis un compte militant.

97 % générée par IA

Problème : l’image est un faux. Elle a été analysée et signalée par les Community Notes de X comme étant générée par intelligence artificielle à 97 %. Aucune source indépendante, aucune agence de presse, aucun témoin sur le terrain n’a confirmé l’existence de cette image ou de cet évènement tel que dépeint. Le Times of Israel a également documenté le cas parmi une vague plus large de fausses images IA circulant sur le conflit Iran.

Mise en cause publique — et refus de retrait

Confrontée à ces faits, Albanese n’a pas supprimé son tweet. Elle a au contraire déclaré : « The picture is not the issue » (« l’image n’est pas le problème »). Elle a ajouté que « ça aurait pu être une peinture ou une image blanche » : l’important, selon elle, est le « message ».

C’est précisément là que le raisonnement pose problème. Une image fabriquée n’est pas une métaphore choisie en toute connaissance de cause : c’est une photo présentée comme réelle, destinée à susciter une émotion comme si elle documentait un événement avéré. La différence entre une illustration déclarée et une fausse photo est exactement ce qui définit la désinformation.

Pas un incident isolé

Ce n’est pas la première fois qu’Albanese est épinglée pour ce type de contenu. En 2024, le porte-parole de l’ONU lui-même l’avait rappelée à l’ordre après qu’elle eut relayé de fausses informations, soulignant que « tous les responsables associés à l’ONU doivent faire attention à ne pas diffuser de désinformation ». En septembre 2025, elle avait avancé devant la presse le chiffre de 680 000 morts à Gaza, avant d’admettre que ce nombre était « provocateur » et difficile à prouver — un aveu remarquable pour une experte mandate par les Nations Unies.

Le mandat de rapporteur spécial de l’ONU impose explicitement de s’appuyer sur « des faits objectifs et fiables », de « croiser les informations » et d’utiliser « des sources crédibles ». Partager une image IA fabriquée, refuser de la retirer après exposition, et répondre que « l’image n’est pas le problème » : c’est exactement l’inverse.

Le problème, c’est précisément l’image. Et aussi celle d’après.

Sources