Épisodes

  • RDC: cette vidéo d’Ibrahim Traoré critiquant Paul Kagame est un hypertrucage
    Dec 15 2025

    Alors que la République démocratique du Congo et le Rwanda ont signé un accord de paix la semaine dernière à Washington, les attaques ont repris dans l’est de la RDC. Le groupe armé AFC/M23, soutenu par Kigali, a investi la ville d’Uvira. Cette intensification des combats s’accompagne d’un regain de désinformation sur les réseaux sociaux, à l’image d’un « deepfake » viral du capitaine burkinabè Ibrahim Traoré.

    À en croire une vidéo mensongère devenue virale sur les réseaux sociaux ces dernières heures, Ibrahim Traoré aurait longuement critiqué le président rwandais Paul Kagame. Durant plus de cinq minutes, on y voit le chef de l’État burkinabè, béret rouge sur la tête, parler devant un micro.

    On pense alors l’entendre dire : « Paul Kagame. Aujourd'hui, je parle au nom des millions d'Africains qui n'acceptent plus le sang versé et les mensonges répétés. Aujourd'hui, je ne parle pas seulement à un chef d'État, je parle à celui qui croit pouvoir manipuler les peuples et cacher la vérité derrière des sourires diplomatiques. Goma, Goma, une ville meurtrie, une région martyrisée par des guerres qui ne sont pas neutres. Et pourtant, vous, Kagamé, vous avez choisi d'être partie prenante de cette tragédie ».

    Les comptes qui partagent ce clip affirment qu’Ibrahim Traoré serait « très en colère contre son homologue rwandais pour son rôle dans la guerre à l’est de la RDC ».

    Détecter un deepfake

    En réalité, ce discours a été inventé de toutes pièces. Ibrahim Traoré n’a jamais prononcé ces mots. Nous avons consulté l’ensemble des canaux de communications officiels du pouvoir burkinabè et cette déclaration est introuvable. Il s’agit donc d’un deepfake, un hypertrucage généré par intelligence artificielle. L’image et le son ont été manipulés. Ce type d’outil permet de faire dire n’importe quoi à n’importe qui.

    En observant attentivement la vidéo, on remarque plusieurs incohérences visuelles. D’abord, la synchronisation entre ses lèvres et les mots qu’il prononce n’est pas parfaite. Il y a parfois un décalage de quelques secondes. De plus, on retrouve ce même défaut au niveau du mouvement de ses paupières. Enfin, il y a cet homme visible derrière Ibrahim Traoré qui ne bouge pas d’un pouce durant toute la déclaration.

    L’élément le plus parlant reste l’une des mains du capitaine burkinabè qui ne compte pas cinq mais six doigts. Ces anomalies sont difficiles à distinguer sur l’écran d’un smartphone.

    À lire aussiComment RFI démasque les «deepfake» ?

    Hypertrucages en série

    Ce n’est pas la première fois qu’un deepfake d’Ibrahim Traoré devient viral sur les réseaux sociaux. Nous avions déjà épinglé une vidéo similaire en octobre dernier, dans le cadre de l’élection présidentielle au Cameroun. Cette fois, on pensait entendre Ibrahim Traoré critiquer le régime de Paul Biya. Mais, là encore, c’était un deepfake.

    À lire aussiPrésidentielle au Cameroun: attention à ce deepfake d’Ibrahim Traoré

    Grâce à une recherche par image inversée, nous avons pu remonter la piste de ce deepfake. Le primo-diffuseur est une chaîne YouTube baptisée Rêves Panafricains. Au gré de l’actualité, ce compte diffuse presque quotidiennement des hypertrucages d’Ibrahim Traoré. On pense l’entendre s'adresser à Donald Trump, Emmanuel Macron, Vladimir Poutine ou encore Kylian Mbappé.

    En légende de ces vidéos, un texte indique bien que le contenu a été généré numériquement. Un message difficile à trouver et volontairement ignoré par ceux qui partagent ce clip sur les réseaux sociaux.

    Résultat, ces deepfakes d’Ibrahim Traoré cumulent plusieurs millions de vues.

    Voir plus Voir moins
    3 min
  • États-Unis-Venezuela: la désinformation alimente les tensions
    Dec 5 2025

    Dans les Caraïbes, la présence de l’armée américaine depuis plusieurs mois suscite de vives tensions avec le Venezuela. Washington y a déployé des navires de guerre, officiellement pour lutter contre le narcotrafic. De son côté, Caracas dénonce une agression en préparation et multiplie les manœuvres militaires. Si Donald Trump et Nicolás Maduro se sont téléphoné, la situation reste volatile. Une crise à laquelle s’ajoute un flot de désinformation.

    À en croire plusieurs vidéos mensongères diffusées sur les réseaux sociaux ces derniers jours, les États-Unis auraient « déjà déclaré la guerre au Venezuela ». Le clip le plus viral cumule plus de 7 millions de vues. Durant trente secondes, on pense y voir un groupe de soldats vénézuéliens paniqués, en bord de mer. Impuissants, ils observent l’arrivée de plusieurs navires de guerre et d’avions de chasse, prétendument américains. L’un d’eux allume même une fusée de détresse.

    En réalité, cette vidéo n’est pas réelle. Plusieurs éléments montrent que ces images ont été générées par intelligence artificielle. Visuellement, on remarque plusieurs incohérences. Un objet apparaît sans raison dans la main de l’un des soldats. Un texte étrange, illisible, est inscrit sur la fusée de détresse. De plus, les navires de guerre sont beaucoup trop proches de la côte.

    Trouver le primo-diffuseur

    Grâce à une recherche par image inversée (voir ici comment faire) nous avons retrouvé le primo-diffuseur, c’est-à-dire le compte à l’origine de ces images. Il s’agit d’un créateur TikTok, hispanophone, habitué à diffuser des fausses informations. Lui-même indique que cette vidéo a été générée par une IA. Ce message d'avertissement est volontairement ignoré par les comptes qui repartagent sa vidéo.

    L’indicateur temporel est un autre élément de vérification. En effet, la vidéo est composée de trois séquences de dix secondes chacune, mises bout à bout. C’est la durée standard d’une vidéo générée par les outils d’IA les plus populaires.

    À lire aussiSora 2: le générateur de vidéos par IA qui a tout pour devenir une usine à infox

    Un exercice militaire en 2020

    Au-delà de ce type de contenus artificiels, nous avons également identifié plusieurs vidéos sorties de leur contexte, à l’image de cet extrait montrant des soldats vénézuéliens, sur le toit d’un immeuble à Caracas. Sous l'œil des journalistes, ils s’entraînent à utiliser des MANPADS, des systèmes portatifs de défense antiaérienne. Ici, ce sont de vieux modèles russes, type Igla 1.

    Les comptes qui diffusent ces images parlent d’une scène filmée ces dernières semaines. Vérification faite, c’est faux puisque nous avons retrouvé cette même vidéo publiée par des médias hispanophones, il y a plus de cinq ans, en février 2020. C’était dans le cadre d’un exercice militaire baptisé Bouclier bolivarien.

    Semer la peur

    Les tensions entre les États-Unis et le Venezuela sont un sujet porteur sur les réseaux sociaux. Avec ces fausses informations, certains cherchent donc, par opportunisme, à surfer sur la crise pour faire des vues et monétiser leur audience. D’autres cherchent véritablement à attiser les tensions en semant le doute et la peur.

    Voir plus Voir moins
    3 min
  • RDC: cette vidéo de Marine Le Pen critiquant Félix Tshisekedi est un hypertrucage
    Nov 28 2025

    En République démocratique du Congo, une vidéo mensongère de Marine Le Pen sème le doute sur les réseaux sociaux. Certains affirment, à tort, qu’elle montrerait la présidente du Rassemblement National critiquer Félix Tshisekedi. Vérification faite, il s’agit là d’une nouvelle infox destinée à dénigrer le président congolais.

    C’est un de nos auditeurs qui a lancé l’alerte. À en croire cette vidéo, Marine Le Pen aurait récemment pris la parole à propos de la situation politique en République démocratique du Congo. Les images montrent la présidente du Rassemblement National lors d’un discours à l’Assemblée nationale, en France. On pense alors, à tort, l’entendre critiquer le président congolais.

    Cet extrait, vu plusieurs millions de fois, circule sur TikTok, Facebook, X, YouTube et WhatsApp.

    Un hypertrucage ultra-réaliste

    En réalité, Marine Le Pen n’a jamais tenu ces propos. Cette vidéo est un deepfake, un hypertrucage sonore généré par intelligence artificielle. Ce type d’outil permet de faire dire n’importe quoi à n’importe qui en seulement quelques clics. Si l’on regarde bien la vidéo, on remarque que le mouvement de ses lèvres ne colle pas avec l’audio. L’auteur s’est donc contenté de manipuler le son, mais pas l’image.

    Grâce à une recherche par image inversée, nous avons retrouvé l’origine précise de ces images. Elles sont tirées du discours tenu par Marine Le Pen à l’Assemblée nationale, le 16 octobre 2025. Son parti venait de déposer une motion de censure infructueuse contre le gouvernement de Sébastien Lecornu.

    Sans surprise, durant les quatorze minutes de prise de parole, la cheffe de file du Rassemblement National n’y évoque à aucun moment la RDC ou son président Félix Tshisekedi.

    Un mode opératoire à la mode

    Ce n’est pas la première fois qu’un deepfake d’une personnalité politique française circule en RDC. Au début du mois, nous avions déjà épinglé un hypertrucage d’Éric Zemmour. Cette fois, on pensait voir le président du parti Reconquête critiquer Félix Tshisekedi lors d’une interview sur la chaîne de télévision française LCI.

    Mais là encore, c’est une infox, Éric Zemmour n’a jamais tenu une telle déclaration. Les images proviennent d’une émission spéciale diffusée sur LCI le 29 octobre dernier, à propos du vote du budget 2026 en France. Durant les trente-cinq minutes d’interview, Éric Zemmour ne parle à aucun moment de Félix Tshisekedi.

    D’après nos recherches, ces deux infox ont été diffusées par un influenceur congolais, fervent opposant à Félix Tshisekedi. La plupart de ses vidéos sont des deepfake destinés à critiquer le président congolais. Son compte TikTok cumule actuellement plus de 33 millions de j'aime.

    Voir plus Voir moins
    3 min
  • Mali: la désinformation prolifère en pleine crise sécuritaire
    Nov 21 2025

    Au Mali, le blocus imposé par les jihadistes du Jnim se poursuit. Le Groupe de soutien à l'islam et aux musulmans lié à Al-Qaïda a annoncé, mardi 18 novembre, un durcissement de l’embargo décrété sur les importations de carburant. Faux communiqués, images sorties de leur contexte, cette crise sécuritaire est particulièrement propice à la désinformation sur les réseaux sociaux.

    Personne n’échappe à ce flot de désinformation, à commencer par les Forces armées maliennes (Famas). À en croire un communiqué mensonger diffusé cette semaine, les Famas auraient décidé de procéder à « l’instauration du recrutement militaire obligatoire ». Il y est écrit, à tort, que la mesure devrait entrer en vigueur le 1er décembre prochain, et concerner « tous les citoyens maliens âgés de 18 à 45 ans ».

    Vérification faite, ce communiqué est faux sur le fond, mais aussi sur la forme. En réalité, l'état-major général des Armées n’a jamais publié un tel document. Nous avons consulté l’ensemble des canaux de diffusion officiels liés aux Famas et ce communiqué est introuvable. On note aussi une erreur dès le début du texte avec une lettre en minuscule et non en majuscule comme le veut la règle. Face à la viralité de cette infox, l’armée malienne a publié un démenti, appelant à éviter de relayer ce type de contenus.

    Le fléau des faux communiqués

    Ce n’est pas le seul faux communiqué qui circule actuellement au Mali. En effet, nous avons également identifié un autre document mensonger, attribué cette fois au ministère de l’Administration et de la décentralisation. Alors que plusieurs pays ont appelé leurs ressortissants à quitter le Mali ces dernières semaines, ce communiqué affirme que les autorités maliennes auraient, en représailles, mis en place une mesure d'interdiction de territoire à l'encontre de ces ressortissants. Là encore, tout est faux.

    On remarque déjà plusieurs erreurs au niveau de la charte graphique. Le texte est bizarrement centré au milieu de la page, il n’est pas justifié, comme dans les documents officiels. Il y a aussi des fautes de syntaxe avec des mots manquants.

    L’élément le plus important, c’est le numéro 78 attribué à ce communiqué. Lorsque l’on cherche le communiqué n°78 sur le site officiel du ministère malien de l’Administration et de la décentralisation, on trouve un communiqué bien différent. Il y est question du glissement de terrain mortel survenu en Guinée, à Manéah et non des ressortissants occidentaux présents au Mali.

    Des terroristes du Jnim déposent les armes ?

    Des infox ciblent également les jihadistes du Jnim. Ces derniers jours, plusieurs comptes affirment, à tort, que « 234 terroristes du Groupe de soutien à l'islam et aux musulmans se seraient rendus à l’armée malienne ». Leur infox repose sur une série de photos où l’on voit des terroristes alignés devant leur moto.

    Dans les faits, ces images proviennent d’une vidéo de propagande montrant des membres du Jnim priant avant l’attaque d’un village dans le sud du Mali. La capture de 234 combattants jihadistes n’est donc pas réelle. L’armée malienne elle-même n’a jamais communiqué sur un tel événement.

    Voir plus Voir moins
    3 min
  • Niger: la junte tente de semer le trouble autour d'un exercice naval de l'armée française
    Nov 14 2025

    Le général nigérien, Abdourahamane Tiani, était cette semaine en tournée dans le pays. À Dosso, dans un discours devant des militaires, il a laissé entendre que la France préparait des opérations de déstabilisation contre le Niger et plus largement contre les états de l’AES. Il a pointé du doigt l'arrivée d’un navire de guerre français dans le port de Cotonou, affirmant, à tort, que ce bateau était venu à plusieurs reprises décharger des soldats français au Bénin.

    Ce n’est pas la première fois que le chef du Conseil national pour la sauvegarde de la patrie (CNSP) affiche des positions hostiles à la France. Ces dernières années, des accusations mensongères, ont visé la France et l’Europe. Ces narratifs, ont été régulièrement relayés par les médias d’État au Niger. Cette fois-ci, le chef de la junte s’en est pris à la France alors que les relations entre le Bénin et le Niger sont dans l’impasse.

    Accusations récurrentes

    Dans son allocution du 8 novembre 2025 à Dosso, il a affirmé : « la volonté de la France à nous déstabiliser, est une vérité, et nous ne cesserons jamais de le dire (...) un porte-hélicoptère qui s’appellerait Tonnerre, a accosté au port autonome de Cotonou, à bord ce sont des milliers de soldats français, et ça doit être le dixième débarquement à travers des portes hélicoptères amphibies ».

    Après vérification, il apparaît que le général Abdourahmane Tianni s’est saisi d’une information tout à fait officielle, à savoir l’escale d’un navire français au Bénin, pour nourrir un narratif complotiste. Nous avons retrouvé la trace du porte-hélicoptère Tonnerre entre le 5 et 9 novembre dans le Port de Cotonou. La présence de ce bateau a d’ailleurs été annoncée sur la page Facebook de l’ambassade de France au Bénin.

    Exercices communs dans le golfe de Guinée

    Joint par RFI, l’état-major français, précise que ce navire participe à la mission de surveillance et de lutte contre la piraterie baptisée « Corymbe » et qu’il sera présent dans la zone du golfe de Guinée jusqu’à décembre prochain. D’ailleurs, le Bénin ne sera pas sa seule escale, puisque jusqu’au 17 novembre, l’équipage du bateau va participer à des exercices avec les marines de 18 pays de la région, du Sénégal à l’Angola, en passant par la Guinée et le Cameroun.

    La présence de navires de la Marine nationale française dans la région est courante, dans le cadre de Corymbe comme dans le cadre de l’exercice international Grand African Nemo qui se déroule depuis huit ans, donc bien avant l’arrivée de la junte au pouvoir au Niger.

    Des soldats français par milliers introuvables au Bénin…

    La capacité maximale d’un porte-hélicoptères comme le « Tonnerre » n'excède pas 900 hommes, et encore pour des opérations relativement courtes. Selon l’armée française, il y a, à bord du navire amphibie, un groupement tactique embarqué avec des véhicules militaires et environ 450 hommes, au total.

    Rappelons que le PHA est un gros navire. Il s’agit des fameux bateaux de la classe « Mistral » : 20 000 tonnes, 200 mètres de long, donc des bâtiments très visibles et facilement identifiables. En revanche, aucun convoi militaire français, n’a été observé, ni filmé à terre au Bénin, ces derniers temps. Or, on déduit aisément que ces milliers d’hommes ne seraient pas passés inaperçus.

    Voir plus Voir moins
    3 min
  • Guerre en Ukraine: quand la propagande pro-russe recourt aux vidéos artificielles
    Nov 7 2025

    En Ukraine, la situation est très compliquée pour la défense ukrainienne à Pokrovsk. Assiégée par l’armée russe depuis plus d’un an, cette ville en ruine figure comme l’épicentre des combats sur le front est. L’offensive des soldats de Moscou s'intensifie sur le terrain, mais aussi en ligne, à coups d’infox générées par intelligence artificielle.

    À en croire une série de vidéos mensongères diffusées sur les réseaux sociaux ces derniers jours, des milliers de soldats ukrainiens « se seraient rendus à l’armée russe dans la région de Pokrovsk ». L’une d’entre-t-elle montre des dizaines d’hommes, désarmés, abandonnant leur tranchée. Une autre met en scène des centaines de combattants ukrainiens, alignés dans un champ, les mains sur la tête. Ces vidéos cumulent des millions de vues sur X, TikTok et Facebook.

    Vérification faite, ces clips ne sont pas réels. Ils ont tous ont été générés par Sora 2, le générateur de vidéos artificielles développé par Open AI, la start-up derrière Chat GPT. Plusieurs éléments le prouvent, à commencer par le petit logo Sora, apposé sur les images. Visuellement, on remarque aussi plusieurs incohérences, notamment au niveau des visages et des tenues portées par les soldats. De plus, ces vidéos durent chacune dix secondes. C’est, à ce jour, la durée standard des clips générés par Sora 2.

    Dans les faits, des milliers de soldats ukrainiens n’ont pas déposé les armes dans la région de Pokrovsk. L’armée russe elle-même n’a jamais communiqué sur un tel événement.

    À lire aussiSora 2: le générateur de vidéos par IA qui a tout pour devenir une usine à infox

    De jeunes soldats ukrainiens en pleurs ?

    Une autre vidéo mensongère censée montrer un soldat ukrainien en pleurs a également fait le tour des réseaux sociaux cette semaine. On y voit un jeune homme, dans un véhicule blindé, demander de l’aide en ukrainien. « J’ai été mobilisé, je me rends à Tchassiv Yar. Aidez-moi. Je ne veux pas mourir. Je n’ai que 23 ans », dit-il, les larmes aux yeux. Les comptes qui diffusent cette vidéo affirment que l’Ukraine forcerait les jeunes à aller à l’abattoir.

    Sauf qu’une nouvelle fois, tout est faux puisque cette vidéo a aussi été générée via Sora 2. Ce clip provient d’un compte TikTok, récemment supprimé, qui publiait quotidiennement ce type de contenu.

    C’est un cas particulier, car le visage du jeune homme visible dans ce clip correspond à celui d’un véritable influenceur russe, bel et bien vivant. Quelqu'un a donc détourné son identité. Dans les faits, la conscription en Ukraine ne concerne pas les moins de 25 ans.

    Désinformer et détourner l’attention

    Cette campagne de désinformation vise à dénigrer l’armée ukrainienne et affaiblir le soutien occidental à l’Ukraine. L’objectif, c’est aussi de détourner l’attention des difficultés rencontrées par l’armée russe depuis le lancement de son invasion à grande échelle en février 2022.

    Voir plus Voir moins
    3 min
  • Mali: l’armée ciblée par une opération de désinformation sur fond de tension avec la Mauritanie
    Oct 31 2025

    Au Mali, le blocus imposé par les jihadistes du Jnim se poursuit. Ce mardi 28 octobre, le groupe terroriste proche d'al-Qaïda a attaqué un nouveau convoi transportant du carburant. Profitant de cette crise sécuritaire, plusieurs infox ciblent actuellement l’armée malienne. Le compte à l’origine de cette opération de désinformation vise à attiser les tensions avec la Mauritanie, dans un contexte diplomatique tendu entre les deux voisins.

    Tout commence ce mardi 28 octobre, avec la publication d’une vidéo mensongère sur TikTok. On y voit plusieurs jeunes hommes lancer des projectiles sur des militaires. Les soldats répondent par des tirs de sommation. L’affrontement se déroule en ville, sur une route bitumée. La légende affirme, à tort, que « l’armée mauritanienne aurait pris la ville de Tombouctou, détruit une base militaire et tué 200 soldats maliens ».

    Vérification faite, cette vidéo n’a rien à voir avec le Mali ou la Mauritanie. Cet affrontement a été filmé en Somalie. En réalité, l’armée mauritanienne n’a pas envahi le Mali et les deux pays ne sont pas entrés en guerre. Comme le confirment plusieurs habitants de Tombouctou dans les commentaires, ce récit a été inventé de toutes pièces.

    Une manifestation à Mogadiscio

    Grâce à une recherche par image inversée, nous avons retrouvé cette vidéo sur des comptes Facebook basés à Mogadiscio, en Somalie. En nous appuyant sur les éléments visuels les plus marquants, la route, les lampadaires, la végétation, nous avons pu géolocaliser précisément la scène, dans le district de Dayniile, en périphérie de la capitale.

    Selon la presse locale, des Somaliens manifestaient en septembre dernier contre les expulsions forcées de certains habitants.

    Opération de désinformation

    Cette infox s’inscrit dans une véritable opération de désinformation. Nous avons en effet identifié toute une série de contenus diffusant ce même narratif mensonger. Une autre vidéo prétend par exemple montrer des véhicules blindés de l’armée mauritanienne en direction de la ville de Nara, au Mali.

    Vérification faite, la vidéo a été filmée en Libye, par un soldat de l'Armée nationale libyenne. L'abréviation RIB, peinte sur la portière avant gauche du véhicule, indique qu’il s’agit d’une unité spéciale, chargée de la sécurité des frontières sud de la Libye.

    Un obscur compte TikTok à la manœuvre

    Derrière cette désinformation, on retrouve un obscur compte TikTok francophone créé en 2021. La plupart de ces contenus sont des infox faisant croire à un affrontement direct entre Bamako et Nouakchott. Ce récit fictionnel vise à dénigrer l’armée malienne et à attiser les tensions entre les deux voisins.

    Nous avions déjà épinglé ce profil en décembre 2024, avec une infox similaire. Inactif depuis plusieurs mois, il revient à la charge en exploitant la crise sécuritaire malienne et les récentes tensions diplomatiques avec la Mauritanie. Cet opportunisme lui permet de gagner en visibilité. La stratégie semble payante puisque ses 40 vidéos trompeuses totalisent plus de 24 millions de vues.

    Voir plus Voir moins
    3 min
  • Sora 2: le générateur de vidéos par IA qui a tout pour devenir une usine à infox
    Oct 24 2025

    Les vidéos de Sora 2, le nouveau générateur de vidéos artificielles développé par Open AI, la start-up derrière Chat GPT, sont partout sur les réseaux sociaux. Tout comme Veo 3 de Google, cet outil permet de transformer un simple texte en un clip ultra-réaliste. Lancée en septembre, l’application est à ce jour uniquement disponible aux États-Unis et au Canada, sur invitation. La cellule Info Vérif de RFI a tout de même pu l’essayer, et le constat est assez inquiétant.

    La conclusion de notre essai est sans appel, il n’a jamais été aussi simple de produire des deepfakes, des hypertrucages ultra-réalistes. En seulement quelques clics, nous avons pu générer des dizaines de vidéos artificielles sur des sujets humoristiques, un crocodile faisant ses courses par exemple, mais aussi sur des sujets d’actualité beaucoup plus sensibles. Le résultat est bluffant à l’image, mais aussi au niveau du son.

    Contrairement à la première version, Sora 2 propose un rendu fidèle des gestes, des visages, des mouvements. Pour Marc Faddoul, chercheur en intelligence artificielle, directeur d’AI Forensics, « c'est une des premières fois qu'on arrive à avoir vraiment des vidéos qui font illusion pour la majorité des utilisateurs, donc il est vrai qu'on assiste encore à une nouvelle étape ».

    Un potentiel énorme de désinformation

    Ce tournant inquiète les experts de la lutte contre la désinformation. À juste titre puisque ce type d’outil peut rapidement devenir une arme de désinformation massive. Des chercheurs de la société NewsGuard ont ainsi mis Sora à l’épreuve en lui demandant explicitement de générer des infox. Résultat, l’outil accepte dans 80 % des cas de produire du faux sans le moindre message d’avertissement.

    L’un des seuls garde-fous mis en place par Open AI, c’est la présence d’un petit logo Sora, apposé sur les images qu’il génère. C’est ce que l’on appelle un watermark, une sorte de marque de fabrique.

    Mais dans les faits, certains parviennent à le supprimer ou à le dissimuler. Cette semaine, une fausse vidéo d’un coup d’État en Espagne a fait des millions de vues sur les réseaux sociaux. Le logo de Sora avait été dissimulé derrière un smiley.

    Distinguer le vrai du faux

    Avec le perfectionnement de ce type d’outil, il est de plus en plus difficile, voire parfois impossible, de distinguer visuellement une vraie vidéo d’une vidéo artificielle. Les IA génératives ne commettent presque plus d’erreurs grossières, comme des mains à six doigts ou des yeux perdus dans le vide.

    Le meilleur conseil, c’est d’abord de faire attention à la durée de la vidéo. Aujourd’hui, Sora permet de générer des vidéos de dix secondes maximum. La qualité visuelle est également limitée, les images sont donc souvent légèrement floues. En cas de doute, analysez bien le contexte, demandez-vous qui partage cette vidéo et cherchez à croiser l’information avec des sources fiables.

    La guerre des modèles

    Un autre processus de vérification consiste à utiliser des outils de détection d’IA. Le problème majeur, c’est que les résultats ne sont jamais fiables à 100 %.

    Marc Faddoul, rappelle que les modèles de vérification progressent toujours moins vite que les modèles de génération : « À partir du moment où vous avez un modèle qui est capable de détecter votre modèle, il suffit d'entraîner votre modèle existant face à ce modèle de détection pour lui apprendre à ne plus se faire détecter. Il y a vraiment un jeu de chat et de la souris qui est inéluctable. C'est donc difficile de penser qu'à terme, on aura une solution de vérification qui sera systématiquement fonctionnelle ».

    Voir plus Voir moins
    4 min