Obtenez 3 mois à 0,99 $/mois

OFFRE D'UNE DURÉE LIMITÉE
Page de couverture de Les dessous de l'infox, la chronique

Les dessous de l'infox, la chronique

Les dessous de l'infox, la chronique

Auteur(s): RFI
Écouter gratuitement

À propos de cet audio

Info ou intox ? Chaque semaine, RFI épingle une de ces tentatives de manipulation de l’information, pour en expliquer les ressorts. Vous souhaitez que «Les dessous de l'infox» vérifie la véracité d'une déclaration, d'une photo ou d'une vidéo... qui circule sur les réseaux sociaux, joignez-nous sur notre numéro WhatsApp + 33 6 89 07 61 09.

France Médias Monde
Politique
Épisodes
  • RDC: cette vidéo d’Ibrahim Traoré critiquant Paul Kagame est un hypertrucage
    Dec 15 2025

    Alors que la République démocratique du Congo et le Rwanda ont signé un accord de paix la semaine dernière à Washington, les attaques ont repris dans l’est de la RDC. Le groupe armé AFC/M23, soutenu par Kigali, a investi la ville d’Uvira. Cette intensification des combats s’accompagne d’un regain de désinformation sur les réseaux sociaux, à l’image d’un « deepfake » viral du capitaine burkinabè Ibrahim Traoré.

    À en croire une vidéo mensongère devenue virale sur les réseaux sociaux ces dernières heures, Ibrahim Traoré aurait longuement critiqué le président rwandais Paul Kagame. Durant plus de cinq minutes, on y voit le chef de l’État burkinabè, béret rouge sur la tête, parler devant un micro.

    On pense alors l’entendre dire : « Paul Kagame. Aujourd'hui, je parle au nom des millions d'Africains qui n'acceptent plus le sang versé et les mensonges répétés. Aujourd'hui, je ne parle pas seulement à un chef d'État, je parle à celui qui croit pouvoir manipuler les peuples et cacher la vérité derrière des sourires diplomatiques. Goma, Goma, une ville meurtrie, une région martyrisée par des guerres qui ne sont pas neutres. Et pourtant, vous, Kagamé, vous avez choisi d'être partie prenante de cette tragédie ».

    Les comptes qui partagent ce clip affirment qu’Ibrahim Traoré serait « très en colère contre son homologue rwandais pour son rôle dans la guerre à l’est de la RDC ».

    Détecter un deepfake

    En réalité, ce discours a été inventé de toutes pièces. Ibrahim Traoré n’a jamais prononcé ces mots. Nous avons consulté l’ensemble des canaux de communications officiels du pouvoir burkinabè et cette déclaration est introuvable. Il s’agit donc d’un deepfake, un hypertrucage généré par intelligence artificielle. L’image et le son ont été manipulés. Ce type d’outil permet de faire dire n’importe quoi à n’importe qui.

    En observant attentivement la vidéo, on remarque plusieurs incohérences visuelles. D’abord, la synchronisation entre ses lèvres et les mots qu’il prononce n’est pas parfaite. Il y a parfois un décalage de quelques secondes. De plus, on retrouve ce même défaut au niveau du mouvement de ses paupières. Enfin, il y a cet homme visible derrière Ibrahim Traoré qui ne bouge pas d’un pouce durant toute la déclaration.

    L’élément le plus parlant reste l’une des mains du capitaine burkinabè qui ne compte pas cinq mais six doigts. Ces anomalies sont difficiles à distinguer sur l’écran d’un smartphone.

    À lire aussiComment RFI démasque les «deepfake» ?

    Hypertrucages en série

    Ce n’est pas la première fois qu’un deepfake d’Ibrahim Traoré devient viral sur les réseaux sociaux. Nous avions déjà épinglé une vidéo similaire en octobre dernier, dans le cadre de l’élection présidentielle au Cameroun. Cette fois, on pensait entendre Ibrahim Traoré critiquer le régime de Paul Biya. Mais, là encore, c’était un deepfake.

    À lire aussiPrésidentielle au Cameroun: attention à ce deepfake d’Ibrahim Traoré

    Grâce à une recherche par image inversée, nous avons pu remonter la piste de ce deepfake. Le primo-diffuseur est une chaîne YouTube baptisée Rêves Panafricains. Au gré de l’actualité, ce compte diffuse presque quotidiennement des hypertrucages d’Ibrahim Traoré. On pense l’entendre s'adresser à Donald Trump, Emmanuel Macron, Vladimir Poutine ou encore Kylian Mbappé.

    En légende de ces vidéos, un texte indique bien que le contenu a été généré numériquement. Un message difficile à trouver et volontairement ignoré par ceux qui partagent ce clip sur les réseaux sociaux.

    Résultat, ces deepfakes d’Ibrahim Traoré cumulent plusieurs millions de vues.

    Voir plus Voir moins
    3 min
  • États-Unis-Venezuela: la désinformation alimente les tensions
    Dec 5 2025

    Dans les Caraïbes, la présence de l’armée américaine depuis plusieurs mois suscite de vives tensions avec le Venezuela. Washington y a déployé des navires de guerre, officiellement pour lutter contre le narcotrafic. De son côté, Caracas dénonce une agression en préparation et multiplie les manœuvres militaires. Si Donald Trump et Nicolás Maduro se sont téléphoné, la situation reste volatile. Une crise à laquelle s’ajoute un flot de désinformation.

    À en croire plusieurs vidéos mensongères diffusées sur les réseaux sociaux ces derniers jours, les États-Unis auraient « déjà déclaré la guerre au Venezuela ». Le clip le plus viral cumule plus de 7 millions de vues. Durant trente secondes, on pense y voir un groupe de soldats vénézuéliens paniqués, en bord de mer. Impuissants, ils observent l’arrivée de plusieurs navires de guerre et d’avions de chasse, prétendument américains. L’un d’eux allume même une fusée de détresse.

    En réalité, cette vidéo n’est pas réelle. Plusieurs éléments montrent que ces images ont été générées par intelligence artificielle. Visuellement, on remarque plusieurs incohérences. Un objet apparaît sans raison dans la main de l’un des soldats. Un texte étrange, illisible, est inscrit sur la fusée de détresse. De plus, les navires de guerre sont beaucoup trop proches de la côte.

    Trouver le primo-diffuseur

    Grâce à une recherche par image inversée (voir ici comment faire) nous avons retrouvé le primo-diffuseur, c’est-à-dire le compte à l’origine de ces images. Il s’agit d’un créateur TikTok, hispanophone, habitué à diffuser des fausses informations. Lui-même indique que cette vidéo a été générée par une IA. Ce message d'avertissement est volontairement ignoré par les comptes qui repartagent sa vidéo.

    L’indicateur temporel est un autre élément de vérification. En effet, la vidéo est composée de trois séquences de dix secondes chacune, mises bout à bout. C’est la durée standard d’une vidéo générée par les outils d’IA les plus populaires.

    À lire aussiSora 2: le générateur de vidéos par IA qui a tout pour devenir une usine à infox

    Un exercice militaire en 2020

    Au-delà de ce type de contenus artificiels, nous avons également identifié plusieurs vidéos sorties de leur contexte, à l’image de cet extrait montrant des soldats vénézuéliens, sur le toit d’un immeuble à Caracas. Sous l'œil des journalistes, ils s’entraînent à utiliser des MANPADS, des systèmes portatifs de défense antiaérienne. Ici, ce sont de vieux modèles russes, type Igla 1.

    Les comptes qui diffusent ces images parlent d’une scène filmée ces dernières semaines. Vérification faite, c’est faux puisque nous avons retrouvé cette même vidéo publiée par des médias hispanophones, il y a plus de cinq ans, en février 2020. C’était dans le cadre d’un exercice militaire baptisé Bouclier bolivarien.

    Semer la peur

    Les tensions entre les États-Unis et le Venezuela sont un sujet porteur sur les réseaux sociaux. Avec ces fausses informations, certains cherchent donc, par opportunisme, à surfer sur la crise pour faire des vues et monétiser leur audience. D’autres cherchent véritablement à attiser les tensions en semant le doute et la peur.

    Voir plus Voir moins
    3 min
  • RDC: cette vidéo de Marine Le Pen critiquant Félix Tshisekedi est un hypertrucage
    Nov 28 2025

    En République démocratique du Congo, une vidéo mensongère de Marine Le Pen sème le doute sur les réseaux sociaux. Certains affirment, à tort, qu’elle montrerait la présidente du Rassemblement National critiquer Félix Tshisekedi. Vérification faite, il s’agit là d’une nouvelle infox destinée à dénigrer le président congolais.

    C’est un de nos auditeurs qui a lancé l’alerte. À en croire cette vidéo, Marine Le Pen aurait récemment pris la parole à propos de la situation politique en République démocratique du Congo. Les images montrent la présidente du Rassemblement National lors d’un discours à l’Assemblée nationale, en France. On pense alors, à tort, l’entendre critiquer le président congolais.

    Cet extrait, vu plusieurs millions de fois, circule sur TikTok, Facebook, X, YouTube et WhatsApp.

    Un hypertrucage ultra-réaliste

    En réalité, Marine Le Pen n’a jamais tenu ces propos. Cette vidéo est un deepfake, un hypertrucage sonore généré par intelligence artificielle. Ce type d’outil permet de faire dire n’importe quoi à n’importe qui en seulement quelques clics. Si l’on regarde bien la vidéo, on remarque que le mouvement de ses lèvres ne colle pas avec l’audio. L’auteur s’est donc contenté de manipuler le son, mais pas l’image.

    Grâce à une recherche par image inversée, nous avons retrouvé l’origine précise de ces images. Elles sont tirées du discours tenu par Marine Le Pen à l’Assemblée nationale, le 16 octobre 2025. Son parti venait de déposer une motion de censure infructueuse contre le gouvernement de Sébastien Lecornu.

    Sans surprise, durant les quatorze minutes de prise de parole, la cheffe de file du Rassemblement National n’y évoque à aucun moment la RDC ou son président Félix Tshisekedi.

    Un mode opératoire à la mode

    Ce n’est pas la première fois qu’un deepfake d’une personnalité politique française circule en RDC. Au début du mois, nous avions déjà épinglé un hypertrucage d’Éric Zemmour. Cette fois, on pensait voir le président du parti Reconquête critiquer Félix Tshisekedi lors d’une interview sur la chaîne de télévision française LCI.

    Mais là encore, c’est une infox, Éric Zemmour n’a jamais tenu une telle déclaration. Les images proviennent d’une émission spéciale diffusée sur LCI le 29 octobre dernier, à propos du vote du budget 2026 en France. Durant les trente-cinq minutes d’interview, Éric Zemmour ne parle à aucun moment de Félix Tshisekedi.

    D’après nos recherches, ces deux infox ont été diffusées par un influenceur congolais, fervent opposant à Félix Tshisekedi. La plupart de ses vidéos sont des deepfake destinés à critiquer le président congolais. Son compte TikTok cumule actuellement plus de 33 millions de j'aime.

    Voir plus Voir moins
    3 min
Pas encore de commentaire