IA et fausses vidéos à gogo

IA et fausses vidéos à gogo

Depuis l’apparition des IA “génératives” (succédant aux IA plutôt “prédictives” style ChatGPT), la création vidéo foisonne de prouesses, d’audaces… pour inventer du réel. De la propagande à la dérision.

Par

Publié le

20 janvier 2026

· Mis à jour le

20 janvier 2026
Depuis l’apparition des IA “génératives” (succédant aux IA plutôt “prédictives” style ChatGPT), la création vidéo foisonne de prouesses, d’audaces… pour inventer du réel. De la propagande à la dérision.

À bord d’un bombardier stratégique américain B-2, le Premier ministre israélien et le Président Trump survolent l’Iran. La vidéo est évidemment fausse et veut “célébrer” les réelles frappes américaines de juin 2025. Elle n’en est pas moins diffusée par le bureau de Netanyahou… avec une pointe de cynisme. Sur une scène gigantesque d’un stade de football, dans un décor blanc comme un purgatoire, Freddy Mercury (Queen) – hilare – fait le tour de plusieurs stars décédées (comme lui…) et les congratule. Parmi celles-ci : Bowie, Tina Turner, Prince, Miles Davis et d’autres. Ressuscités par la magie de l’IA générative (IAG), ces vedettes apparaissent plus vraies que nature…

Qu’elles soient officielles (même si la propagande teintée d’humour reste de la propagande), ludiques, critiques, complotistes ou encore éducatives, les vidéos déferlent sur les écrans et les réseaux sociaux. Tout le monde y passe : du pape François en doudoune à Poutine jetant des graines à une sorte de chicken Trump ou à l’ayatollah Khamenei poursuivi par Netanyahou et Trump. Ces images produites par l’IAG permettent d’engendrer des situations cocasses, surréalistes qui défient l’imagination.

EXTERNALISATION ET DÉPOSSESSION

Dans ce monde, tout est extrêmement récent et fulgurant. ChatGPT n’apparaît que fin 2022 et révolutionne fondamentalement ce qui caractérisait l’espèce humaine : les aptitudes à formuler une pensée, à utiliser un langage construit et à créer instantanément. Car, avec ce type IA, une machine peut répondre, argumenter, imaginer à la place de l’humain. Aujourd’hui, l’IAG va plus loin : elle ne se contente plus d’imiter ou de calculer sur base d’hypothèses, elle prolonge la parole humaine et recompose le réel. « Nous savons que ces systèmes ne font pas que produire du pseudo-langage, ils produisent sur une simple instruction de notre part des images, des vidéos, du son, des paroles », avance Éric Sadin, philosophe et spécialiste des technologies numériques, auteur du Désert de nous-mêmes.

Interviewé en décembre dernier sur France-Inter, il soulignait : « Vous vous souvenez, il y a deux ans, des images fabriquées par des systèmes d’IA génératifs, on savait les distinguer. C’était assez grossier : le pape avec sa doudoune… Aujourd’hui, ça devient très compliqué, et je vous garantis que d’ici deux ans, on n’y verra plus rien. Et cela, c’est d’une extrême gravité, parce que nous entrons dans ce que j’appelle l’ère de l’indistinction généralisée. C’est-à-dire d’un moment où nous ne saurons plus ni quelle est l’origine, ni la nature d’une image… D’un texte aussi. Ou d’une voix. »

Si l’IA prédictive fait renoncer à ses facultés les plus profondes, en proposant un pseudo-langage, Éric Sadin y voit le risque de l’adoption « d’un langage homogène qui va de plus en plus occuper notre environnement informationnel. Ce sont aussi des systèmes qui vont nous parler en fonction de notre propre langage, qui vont analyser une façon de nous adresser à ces systèmes, et qui vont nous parler de plus en plus en continu, en vue d’opérer des jeux d’influence sournois. Ils peuvent guider nos choix, orienter nos achats et influencer tout un tas de choses sur les individus ». Mais avec l’IAG, d’autres défis s’annoncent…

IMAGE FANTASMATIQUE

« C’est la fin de l’ère de la post-vérité ou des fake news. On n’est plus du tout dans cela. On entre dans l’ère de l’image fantasmatique, c’est-à-dire que chacun va produire des pseudo-images qui correspondent à ses souhaits, à ses lubies, voire à ses folies. Tout cela va être inséré dans notre champ de représentation collective. Avec un effet très pernicieux : cela va entrer dans le domaine de l’envisageable », pronostique le philosophe. Le réel sera donc dénué de toutes limites. Au-delà des dégâts déjà à l’œuvre en termes d’emplois, Éric Sadin pointe un risque en termes de cohésion sociale. « Nous allons vers ce qu’on appelle self-cinéma, self-musique, self-littérature, c’est-à-dire chacun, uniquement rabattu à ses propres souhaits, à sa propre vision étriquée des choses. C’est-à-dire sans appétit pour l’altérité. »

Si les réseaux sociaux enfermaient déjà les utilisateurs dans leur “bulle informationnelle”, l’IAG va plus loin en pratiquant l’éviction d’autrui. « Nous allons moins avoir besoin d’autrui pour n’entretenir que des rapports personnalisés au système qui vont nous guider en toutes circonstances au cours de notre quotidien. Et là c’est une catastrophe sociétale, pour ce qui nous tient en commun », conclut le spécialiste. Un constat que rejoint Gérald Bronner, professeur de sociologie à la Sorbonne, dans son dernier ouvrage, à l’assaut du réel : « Nos contemporains se trouvent dans une situation sociale inédite, qui autorise plus que jamais à corrompre le réel. Cela veut dire choisir des positions d’observations d’où ils ne voient qu’une partie du monde, celle qui leur convient. Être indifférent au réel ? Non : plutôt se ménager une fenêtre pour le regarder sous l’angle que l’on désire. »

VOIR ET NE PLUS CROIRE

La production générée par l’IAG bouleverse aussi – comme l’ont déjà fait les réseaux sociaux – les rôles des “garde-barrières” qui filtraient les informations et les vérifiaient (journalistes, experts…). La rapidité de diffusion que permet internet accélère le chaos informationnel : moins de régulateurs et un accès en temps réel aux productions. Cette rapidité renforce potentiellement les tentatives de manipulation. Cette « célérité de la crédulité » favorise les thèses complotistes diverses, voire les ingérences malveillantes étrangères. 

Gérald Bronner commente un autre risque, celui de la pensée paresseuse : « Il s’agit de notre tendance à nous abandonner aux idées qui sont cognitivement les moins coûteuses. La baisse de notre vigilance épistémique prédit le fait d’endosser et/ou de partager des infox. » Cette tendance renforce aussi le risque de non-distinction entre le vrai et le faux. Face au développement de deepfakes (contenus faux qui sont rendus profondément crédibles par l’intelligence artificielle), le sociologue conclut : « Cela risque fort de faire empirer la situation puisque les citoyens pourraient céder à un principe de précaution informationnel : dans le doute, mieux vaut considérer une information comme fausse ou du moins problématique. Le doute généralisé favorisera de la sorte l’empire du mensonge et de la dénégation et achèvera de corrompre le réel. »

À côté des risques liés à la dépossession de l’être humain en tant qu’être créatif, l’IAG ne met-elle pas également en danger les fondements démocratiques des sociétés, laissant aux algorithmes et aux pouvoirs financiers ou idéologiques l’opportunité de guider notre avenir, ou de le manipuler ? Une certaine forme de dégénérescence, en quelque sorte…

Stephan GRAWEZ

Éric SADIN, Le Désert de nous-mêmes, Paris, L’Échappée, 2025. 

Gérald, BRONNER, à l’assaut du réel, Paris, PUF, 2025.

Partager cet article

À lire aussi

  • Portrait de Sybille Gioe devant un fond blanc
  • Le chroniqueur Gabriel Ringlet, la tête posée sur la main, portant des lunettes et regardant la caméra
  • Couverture du livre "La Côte belge de Knokke à la Panne" avec un dessin d'un petit bateau et des personnages dans l'eau