Manifestation et caméras

YouTube secoué par 1,2 milliard de vues de fausses vidéos anti-Labour

14 décembre 20259 min de lecture

Introduction : 1,2 milliard de vues et un parfum d'ingérence

1,2 milliard de vues cumulées sur 18 mois : c'est l'audience astronomique d'un réseau de chaînes YouTube épinglé par le Guardian pour avoir diffusé des deepfakes et des montages trompeurs visant le Labour britannique. Les vidéos, souvent produites avec des outils de synthèse vocale, mettaient en scène de faux aveux de Keir Starmer, des promesses fiscales inexistantes ou des images truquées de manifestations. Google confirme avoir supprimé plus de 12 000 vidéos et suspendu 34 chaînes, mais l'ampleur du trafic payé via des achats publicitaires en Inde, aux États-Unis et au Moyen-Orient soulève la question : YouTube a-t-il laissé prospérer un système rentable malgré les règles contre la désinformation ?

À 200 jours d'élections générales anticipées au Royaume-Uni, l'affaire prend une dimension internationale. Bruxelles réclame l'activation immédiate du code de bonnes pratiques de l'UE sur la désinformation, Londres menace d'utiliser ses pouvoirs d'amende créés par l'Online Safety Act, et Washington demande un rapport public au nom de la lutte contre l'ingérence étrangère. YouTube répond en promettant un audit global de ses algorithmes de recommandation et une obligation de filigrane pour toute vidéo générée par IA avant fin janvier.

Développement : comment le réseau a contourné les règles

Les enquêteurs du Guardian décrivent une stratégie sophistiquée : des chaînes créées depuis des adresses IP en Inde, monétisées via des comptes AdSense enregistrés à Dubaï, et relayées par des campagnes sponsorisées aux États-Unis pour contourner les seuils de visibilité britanniques. Les vidéos utilisaient des voix synthétiques et des images générées via des outils open source, évitant ainsi les filtres automatiques de YouTube basés sur l'empreinte audio et visuelle. Résultat : plus de 45 % du trafic provenait d'autres pays que le Royaume-Uni, ce qui a retardé la détection algorithmique.

YouTube affirme avoir renforcé ses équipes de modération en langue anglaise et déployé des modèles spécifiques pour détecter les visages synthétiques, mais reconnaît que la labellisation « contenu politique » n'était pas appliquée à toutes les vidéos. Selon les données internes citées par la BBC, le CPM moyen sur ces vidéos atteignait 8,50 dollars, générant potentiellement plusieurs millions de dollars de revenus partagés entre YouTube et les créateurs. Les députés britanniques réclament désormais la restitution intégrale des revenus publicitaires à un fonds indépendant de fact-checking.

La chronologie montre aussi une course entre modérateurs et propagateurs : en juillet, des versions sous-titrées en espagnol et en arabe sont apparues, alimentant des débats viraux sur X, TikTok et Facebook. Les chercheurs de l'Université d'Oxford ont observé un pic de 120 % de mentions négatives de Labour sur Twitter/X la semaine suivant la diffusion d'un deepfake viral. L'écosystème s'est donc joué des frontières linguistiques pour prolonger la durée de vie des intox.

Ce que Google promet maintenant

  • Filigrane obligatoire pour toute vidéo générée par IA via l'API YouTube d'ici fin janvier.
  • Double validation humaine pour les publicités politiques ciblant le Royaume-Uni, l'UE et les États-Unis.
  • Publication trimestrielle d'un rapport d'ingérence, aligné sur le Digital Services Act.
  • Restitution des revenus des vidéos supprimées à un fonds de fact-checking britannique.

Analyse critique : la bataille de la recommandation

Opportunités : l'affaire force Google à publier des données sur la recommandation algorithmique, une première exigée par l'UE mais encore peu détaillée. Les médias et les ONG pourront auditer la vitesse de retrait et la circulation transfrontalière des contenus politiques. Cela pourrait créer un précédent utile pour les élections américaines et indiennes de 2026, où la désinformation est déjà identifiée comme risque majeur.

Risques : l'épisode montre que l'architecture publicitaire de YouTube reste incitative. Tant que les vues génèrent du revenu, les acteurs malveillants peuvent financer la production de deepfakes. Les régulateurs britanniques évoquent des sanctions pouvant atteindre 10 % du chiffre d'affaires de Google en cas de récidive, soit plus de 20 milliards de dollars. Le risque de sur-modération existe aussi : des chaînes militantes légitimes pourraient être suspendues si les filtres IA deviennent trop agressifs.

Questions ouvertes : comment vérifier l'origine des financements publicitaires quand ils transitent par des intermédiaires à Dubaï ou Singapour ? Les labels de contenu généré par IA seront-ils visibles sur les téléviseurs connectés, où se fait désormais plus de 40 % de l'audience ? Et jusqu'où YouTube acceptera-t-il de partager ses données brutes avec des chercheurs indépendants pour éviter les soupçons de partialité ?

Conclusion : YouTube sous surveillance mondiale

L'épisode anti-Labour rappelle qu'un réseau vidéo mondial peut amplifier une campagne ciblée en quelques jours, au-delà des frontières et des langues. YouTube promet de muscler ses garde-fous, mais la confiance ne reviendra que si les chiffres de retrait et de démonétisation sont publiés, comparables et auditables. Le Royaume-Uni, l'UE et les États-Unis disposent désormais d'outils légaux pour exiger cette transparence.

Reste à voir si la plateforme choisira la vitesse ou la prudence : ralentir la recommandation sur les contenus politiques pourrait protéger le débat démocratique, mais réduirait aussi l'engagement et les revenus. Question finale pour les lecteurs : accepterons-nous moins de viralité pour plus de fiabilité ?

Articles similaires

Sources

Retour au blog