Présidentielle au Cameroun: attention à ce deepfake d’Ibrahim Traoré

Au Cameroun, le président sortant Paul Biya a finalement été réélu avec 53,66 % des voix, selon les résultats définitifs du Conseil constitutionnel. Depuis le scrutin du 12 octobre, la désinformation ne faiblit pas dans le pays. Ces derniers jours, un deepfake du capitaine burkinabè Ibrahim Traoré sème le doute sur les réseaux sociaux.

Publié le :

3 min Temps de lecture

Le chef de l’État burkinabè s’est-il adressé aux Camerounais, en pleine élection présidentielle, dans un long discours publié sur les réseaux sociaux ? C’est ce que laisse croire, à tort, une vidéo activement diffusée sur TikTok, Facebook et YouTube ces dernières heures. Durant plusieurs minutes, on pense y voir Ibrahim Traoré, face à un micro, en pleine déclaration officielle. On croit alors l’entendre évoquer la situation politique au Cameroun, critiquant ouvertement le régime en place.

L'infox dépasse le million de vues sur TikTok.
L’infox dépasse le million de vues sur TikTok. © Captures d’écran/ Montage RFI

Vérification faite, cette vidéo est artificielle. Le capitaine burkinabè n’a en réalité jamais prononcé un tel discours. Il s’agit d’un deepfake, un hypertrucage généré par intelligence artificielle. Plusieurs éléments visuels le prouvent à l’image des six doigts que compte l’une des mains d’Ibrahim Traoré.

La main d'Ibrahim Traoré comporte six doigts. Les IA de mauvaise qualité produisent régulièrement cette erreur.
La main d’Ibrahim Traoré comporte six doigts. Les IA de mauvaise qualité produisent régulièrement cette erreur. © Capture d’écran/ Montage RFI

Plusieurs mouvements étranges au niveau de ses paupières interrogent également. La synchronisation entre ses lèvres et les mots qu’il prononce comporte plusieurs incohérences. De plus, l’homme assis derrière Ibrahim Traoré, en arrière-plan, reste anormalement immobile durant près de vingt-huit minutes.

Le personnage en bleu ne bouge pas durant toute la vidéo.
Le personnage en bleu ne bouge pas durant toute la vidéo. © Captures d’écran/ Montage RFI

Des comptes pro-AES à la manœuvre

Grâce à une recherche par image inversée, nous avons retrouvé la chaîne YouTube à l’origine de ce deepfake. Si l’auteur ne précise pas qu’il s’agit d’une fausse déclaration générée par intelligence artificielle, la plateforme de vidéos en ligne indique dans un message d’avertissement : « le son ou les images ont été modifiés de manière significative ou générés numériquement ».

L'algorithme de YouTube détecte bien l'utilisation de l'IA.
L’algorithme de YouTube détecte bien l’utilisation de l’IA. © Captures d’écran YouTube/ Montage RFI

La chaîne YouTube en question diffuse quotidiennement des deepfakes d’Ibrahim Traoré ciblant la situation sociale politique des pays voisins. Des extraits de ces infox sont ensuite massivement diffusés, en plusieurs langues, sur les réseaux sociaux par un écosystème de comptes faisant la propagande de l’Alliance des États du Sahel (AES).

Ces contenus mensongers ne sont pas fabriqués à des fins de divertissement, contrairement à ce que certains veulent faire croire. Il s’agit d’un flot de désinformation et de propagande destiné à semer le trouble et à s’ingérer dans les affaires des pays de la région.

source

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Scroll to top
Close