À l’ère numérique où l’accès à l’information est instantané, la qualité du contenu que nous consommons devient un enjeu crucial. Des plateformes comme YouTube se sont imposées comme des géants du divertissement et de l’éducation, mais une tendance inquiétante émerge: la montée de l’intelligence artificielle dans la création de contenu. Cette évolution soulève des interrogations sur l’impact de l’IA sur notre expérience visuelle et auditive.
Tout comme l’industrie musicale, où des algorithmes composent des morceaux en un clin d’œil, ou le secteur littéraire, où des programmes assistent des écrivains dans la génération de récits, le monde de la vidéo n’échappe pas à cette révolution technologique. Les vidéos courtes, appelées “shorts”, deviennent des produits de masse, souvent en perte d’authenticité et de créativité. Les consommateurs, en quête de contenu engageant, se retrouvent face à un déluge de productions formatées, standardisées et parfois dépourvues de sens.
Cette banalisation du contenu soulève des questions essentielles. Quelles conséquences cela a-t-il sur la diversité des voix et des idées ? Les utilisateurs, en quête d’originalité et de profondeur, vont-ils se détourner d’une plateforme qui privilégie le rendement à la qualité ? Peut-on réellement considérer ces productions générées par IA comme de l’art, ou ne sont-elles qu’une pâle imitation de la créativité humaine ? En scrutant ces nouvelles dynamiques, nous ouvrons la porte à une réflexion plus large sur notre rapport à la technologie, à l’innovation et à la culture. La réponse à ces questions pourrait redéfinir notre expérience de consommation de contenu à l’ère de l’intelligence artificielle.
L’IA s’installe dans YouTube Shorts
Analyse de 15 000 chaînes
L’observation d’un déclin de la qualité des contenus sur YouTube n’est pas infondée. Une étude récente révèle qu’environ 21 % des vidéos courtes, appelées shorts, sont désormais produites en série grâce à l’intelligence artificielle. Ce phénomène soulève des interrogations sur l’avenir du contenu sur YouTube et sur l’impact de l’IA sur la créativité.
Kapwing, un service de montage vidéo, a mené une analyse approfondie de 15 000 des plus grandes chaînes YouTube à l’échelle mondiale, se basant sur le top 100 de chaque pays. Les résultats sont saisissants: 278 chaînes se consacrent exclusivement à la publication de contenu généré par IA. Ensemble, elles affichent des statistiques impressionnantes, avec un total de 63 milliards de vues, 221 millions d’abonnés et des revenus annuels atteignant près de 117 millions de dollars. Ces chaînes visent principalement à maximiser leurs vues et leurs abonnements, transformant ainsi la création de contenu en une véritable machine à profits.
Objectifs des chaînes générant du contenu par IA
Les créateurs de ces chaînes adoptent des stratégies bien définies pour attirer un maximum de spectateurs. Leur objectif principal est clair: engranger des vues et des abonnés afin de générer un revenu substantiel. La course effrénée à la viralité pousse les producteurs à privilégier la quantité au détriment de la qualité, entraînant une homogénéisation des contenus souvent au détriment de l’originalité.
Profil d’un nouveau compte YouTube
Pour mesurer l’impact de cette tendance, Kapwing a créé un profil sur YouTube. L’expérience a démontré qu’un compte fraîchement créé, sans historique ni préférences, offre une vue d’ensemble du contenu proposé par la plateforme. En l’espace de seulement 16 vidéos courtes, l’algorithme a déjà commencé à recommander du contenu généré par IA. Sur les 500 premières vidéos visionnées, 104 étaient produites par cette technologie, soulignant ainsi la prévalence du phénomène.
Où l’IA Slop se développe le plus
Exemples de chaînes populaires
Parmi les chaînes qui se distinguent dans le domaine du contenu généré par IA, la chaîne indienne “Bandar Apna Dost” se démarque particulièrement. Avec plus de 2,5 milliards de vues, elle met en scène des personnages mémorables, tels qu’un singe rhésus anthropomorphe servant des samoussas à bord d’un avion et un Hulk en chef de guerre attaquant les ennemis de Delhi depuis un véhicule militaire. Ces créations, à la fois loufoques et accrocheuses, ont permis à leur créateur de générer plus de 4 millions de dollars de revenus, tout en remportant plusieurs trophées YouTube.
Concentration géographique du contenu IA low-cost
Les chaînes sud-coréennes représentent également un segment en pleine croissance. Bien que seulement 11 chaînes reposent sur du contenu généré par IA, elles totalisent près de 9 milliards de vues. Quatre d’entre elles figurent d’ailleurs parmi le top 10 des comptes les plus visionnés. Il est également intéressant de noter que le contenu IA low-cost semble se concentrer particulièrement dans les pays où YouTube peut rapporter plus qu’un salaire local, tels que l’Inde, le Nigéria et le Brésil. Ainsi, en 2025, YouTube ne se contente plus de recommander des vidéos: il privilégie avant tout le rendement, redéfinissant ainsi les règles du jeu sur la plateforme.
L’essor de l’intelligence artificielle dans la création de contenu sur des plateformes comme YouTube soulève des enjeux significatifs qui dépassent le simple cadre de la consommation médiatique. Alors que la production de vidéos courtes s’intensifie, marquée par une prédominance de contenus générés par des algorithmes, il devient essentiel de s’interroger sur la nature même de la créativité et de l’authenticité.
Les implications de cette tendance sont multiples: d’une part, la banalisation du contenu pourrait nuire à la diversité des voix et des perspectives, et d’autre part, les utilisateurs risquent de ressentir une fatigue face à une offre de plus en plus homogène et prévisible. Ce phénomène appelle à une réflexion approfondie sur notre rapport à la technologie et sur la manière dont elle façonne nos expériences culturelles.
En examinant les motivations économiques derrière cette production de masse, il est possible d’explorer des questions plus larges sur la valeur du travail créatif et la place de l’humain dans des processus de plus en plus automatisés. À mesure que l’intelligence artificielle continue de s’immiscer dans des domaines artistiques, il devient crucial de considérer comment cette évolution impacte nos sociétés, nos interactions et nos attentes envers le contenu que nous consommons au quotidien. Les enjeux soulevés par cette dynamique méritent une attention soutenue, incitant chacun à réfléchir à l’avenir de la créativité à l’ère numérique.
Aller plus loin
Pour comprendre ce que YouTube attend concrètement des créateurs face à la montée des vidéos générées, la page Signaler l’utilisation de contenus modifiés ou synthétiques est le meilleur point de départ. Elle précise quels contenus doivent être déclarés, ce qui relève d’une retouche “mineure” et ce qui devient potentiellement trompeur. Le texte donne aussi une idée claire de la logique derrière les libellés, et des situations où YouTube peut appliquer une étiquette de manière proactive. C’est une lecture utile pour relier un débat sur le “volume” de contenus IA à une règle de plateforme vérifiable.
Pour une vision plus “produit” de cette évolution, l’annonce How we’re helping creators disclose altered or synthetic content explique pourquoi YouTube a introduit un outil de divulgation dans Creator Studio. Elle remet la mesure dans un contexte de confiance des spectateurs, notamment quand une vidéo peut être confondue avec une scène réelle, une personne réelle ou un événement réel. Le billet aide à comprendre le périmètre visé et les exceptions (contenu clairement irréaliste, assistance à l’écriture, etc.). C’est un bon complément à la règle brute, car il explicite l’intention et les cas d’usage.
Côté spectateur, la question devient vite : “comment savoir ce que je regarde ?”. La page « Comment ce contenu a été créé » sur YouTube décrit les différents scénarios qui déclenchent des informations de contexte, selon que la déclaration vient du créateur ou d’outils intégrés. Elle permet aussi de comprendre la logique d’affichage et la différence entre une transparence “déclarative” et une transparence “technique”. C’est particulièrement utile pour analyser l’effet réel des labels sur la consommation et la circulation des vidéos.
Si vous voulez dépasser la simple détection (souvent fragile) et regarder la piste de la traçabilité, le standard C2PA and Content Credentials Explainer apporte une base solide. Il explique comment des métadonnées signées peuvent documenter l’origine et les transformations d’un contenu, y compris vidéo. L’approche est intéressante parce qu’elle vise à conserver une chaîne d’informations plutôt qu’à “deviner” si un contenu est synthétique. C’est un bon repère pour comprendre pourquoi la provenance devient un sujet central quand les contenus IA se multiplient.
Pour replacer le phénomène dans un cadre européen où les plateformes doivent rendre des comptes, le PDF EU DSA Biannual VLOSE/VLOP Transparency Report (Google) aide à lire la transparence comme un dispositif, pas comme une promesse. Il donne un exemple concret de reporting réglementaire et de la façon dont un acteur “très grand” structure ses obligations. Cette lecture est utile pour relier l’invasion de contenus à des mécanismes de gouvernance mesurables : signalements, actions, audits, rapports périodiques. Elle permet aussi de comprendre comment l’UE pousse les plateformes à documenter leurs choix et leurs effets.
Enfin, pour prendre du recul sur les limites des outils “anti-zombies” (détection automatique, tatouage numérique, signaux de provenance), l’analyse Panorama et perspectives pour les solutions de détection de contenus artificiels (LINC/CNIL) est une lecture précieuse. Elle explique pourquoi la détection est plus ou moins robuste selon les médias (texte, image, audio, vidéo) et pourquoi les adversaires s’adaptent vite. Le texte aide à construire une approche plus réaliste, combinant techniques, contexte et gouvernance, plutôt qu’un “outil miracle”. C’est exactement le type de cadre utile quand l’on parle d’un Internet saturé de contenus artificiels qui imitent le vivant.
