Dans notre monde hyperconnecté, où les infox se propagent à grande vitesse, garantir la fiabilité et la transparence des sources revêt une importance capitale. Malheureusement, l’essor de l’intelligence artificielle (IA) entraîne une nouvelle forme de manipulation de l’opinion publique: la diffusion de fausses informations via des articles générés automatiquement. Ce phénomène préoccupant, observé par des centaines de sites web utilisant des algorithmes complexes, inquiète les chercheurs et les professionnels des médias.

En effet, ces derniers temps, des personnalités politiques, des chefs d’État et des organisations internationales ont été victimes de canulars ourdis par des intelligences artificielles malveillantes. Par exemple, Volodymyr Zelensky, président ukrainien, s’est trouvé confronté à une accusation infondée selon laquelle son administration aurait acquis deux yachts de luxe lors des négociations concernant l’aide financière destinée à l’Ukraine. Or, cette information fallacieuse avait été fabriquée de toutes pièces par un site appartenant à un ancien militaire américain installé en Russie, qui recourt exclusivement à l’IA pour concevoir ses articles.

Cette multiplication de fausses nouvelles propagées par l’IA pose un défi majeur aux journalistes, analystes et citoyens ordinaires. Elle met en péril notre capacité à faire la distinction entre le vrai et le faux, à repérer les sources douteuses et à adopter une attitude critique face aux contenus numériques. Surtout, elle représente une menace potentielle pour la stabilité politique, sociale et économique, semant la méfiance et la confusion.

Face à cette situation, il est impératif de comprendre les rouages de ce phénomène et d’identifier les moyens de le combattre. Dans cette perspective, examiner la manière dont l’IA est exploitée pour créer et propager de fausses informations constitue une étape essentielle pour mettre en place des solutions durables et adaptatives. Apprenons donc à décrypter le fonctionnement de cette machine infernale et explorons des stratégies pour enrayer cette marée de mensonges et rétablir la confiance dans l’univers médiatique.

Impact Trompeur de l’Intelligence Artificielle dans la Production de Contenu

Actuellement, des centaines de sites Web exploitent l’intelligence artificielle générative pour créer des articles sans intervention humaine. Cette pratique soulève des inquiétudes quant à la véracité et l’origine de ces informations.

Une Arme à Double Tranchant

Le grand public, ainsi que les décideurs, sont de plus en plus séduits par ces textes, souvent inconscients qu’ils proviennent de l’IA.

Exemple Concret: Le Cas Volodymyr Zelensky

Volodymyr Zelensky, président ukrainien, a été interrogé au Congrès américain à propos d’un achat de deux yachts pour 75 millions de dollars. Cette histoire invraisemblable avait en fait été générée le mois précédent par DC Weekly, propriété d’un ancien Marine américain installé en Russie, qui utilise exclusivement l’IA pour produire ses articles, d’après Newsguard.

La désinformation générée par l’IA sera probablement un facteur important de la campagne électorale américaine cette année.” Greg Marcus, professeur à NYU

Automatisation et Manipulation

Selon Newsguard, qui évalue la fiabilité des contenus en ligne, 739 sites Web fonctionnent principalement sans ou avec très peu de surveillance humaine. Ils publient des articles majoritairement ou totalement rédigés par des robots. Ces logiciels sont capables de produire du contenu courant, s’appuyant sur des éléments collectés dans une base de données ou directement sur Internet.

Certains sites, comme Newsgpt ou DeepNewz, affirment clairement employer l’IA dans la rédaction de leurs articles. Toutefois, Newsguard met en garde contre cette augmentation de sites opaques, omettant de signaler l’usage de l’IA et, par conséquent, ne pouvant être considérés comme dignes de confiance en raison de leur fonctionnement avec peu ou pas de contrôle humain.

Conséquences: Diffusion de Fausses Informations

Parmi les myriades d’articles créés grâce à l’intelligence artificielle, certains véhiculent de fausses informations, notamment sur des figures politiques. Des cas de faux avis de décès de célébrités, de nouvelles inventées ou d’événements antérieurs présentés comme récents ont été rapportés.

Étude de Cas: Une Infox Propagée par l’IA

Newsguard a analysé une infox particulière: l’annonce du “suicide” d’un “psychiatre” du Premier ministre israélien Benyamin Netanyahou, publiée en novembre par le site pakistanais Global Village Space. L’infox a ensuite circulé sur différentes plates-formes linguistiques et a été partagée par des milliers d’utilisateurs de réseaux sociaux, ainsi qu’une chaîne de télévision iranienne. Pourtant, cette histoire était pure invention ; l’IA s’était contentée de reproduire une blague datant de 2010.

McKenzie Sadeghi, analyste chez Newsguard, a expérimenté l’efficacité de l’IA générative en demandant à OpenAI de produire une dépêche d’actualité à partir de cette plaisanterie. Le résultat fut stupéfiant de similitude avec la version publiée par Global Village Space.

L’augmentation exponentielle des publications générées par l’IA est alarmante, car ces plateformes peuvent être perçues comme des sources d’information légitimes et fiables par un utilisateur lambda” McKenzie Sadeghi, analyste chez Newsguard

Une Frontière Floue Entre Réalité et Fiction

Jusqu’ici, les sites de désinformation ou de propagande devaient embaucher de nombreux rédacteurs pour tenir leurs pages à jour. Grâce à l’IA générative, ils disposent désormais d’une solution beaucoup plus rapide et rentable, dotée d’une apparence d’authenticité.

Si rien n’est fait, cette tendance risque de compromettre notre aptitude à distinguer le vrai du faux, accentuant la confusion entre réalité et fiction.

Si nous négligeons ce phénomène, cela va encore obscurcir la limite entre la réalité et la fiction, qui est déjà assez trouble” Darren Linvill, professeur à l’Université de Clemson

Finalement, il est indéniable que l’intelligence artificielle exerce une influence notable sur notre environnement médiatique, bouleversant notre rapport à l’information. Tandis que les machines remplacent graduellement les reporters traditionnels, la qualité et l’objectivité des reportages s’en ressentent inévitablement. Les cas évoqués dans cet article mettent en relief les limites de l’IA et sa facilité à être manipulée, offrant ainsi un terreau fertile aux fake news et aux théories conspirationnistes.

Il convient absolument de noter que, aussi aboutie soit-elle, cette technologie comporte des imperfections. Sa vulnérabilité à la manipulation et sa tendance à propager des informations erronées dressent un obstacle significatif à une large acceptation dans le domaine journalistique. Face à ces écueils, il semble pressant de renforcer notre vigilance collective et de promouvoir une culture de méfiance constructive envers les contenus automatisés.

Nous vous exhortons sincèrement à cultiver votre esprit critique et à intensifier votre soif de savoirs en investiguant davantage ce sujet complexe. Comment articuler harmonieusement innovation technologique et rigueur éditoriale ? Quel sera le rôle de l’être humain dans cette transformation ? Autant de questionnements passionnants qui méritent une réflexion approfondie et collaborative, engageant tant les professionnels des médias que le public.

Car, en essence, notre capacité à distinguer le vrai du faux, à embrasser la nuance plutôt que la simplification, façonnera l’horizon de notre démocratie. Et dans cette bataille continue pour la vérité, gardez toujours à l’esprit que chaque cybercitoyen dispose d’un outil remarquable: son esprit critique. Employez-le à bon escient !

Aller plus loin

Si vous aspirez à approfondir vos connaissances sur l’impact de l’intelligence artificielle générative dans la création de contenu et la propagation de fausses informations, ne manquez pas d’explorer ces liens soigneusement sélectionnés. Ils vous permettront de satisfaire votre soif d’apprendre et votre curiosité insatiable.

Commencez par découvrir les recherches scientifiques suivantes. La première, intitulée “Capacité des systèmes d’IA à produire des messages de propagande persuasifs”, porte sur l’étude réalisée par Goldstein et coll. en 2023. Elle examine la faculté des systèmes d’IA à concevoir des messages de propagande convaincants, mettant en lumière les dangers potentiels de ces technologies novatrices. Quant à la deuxième recherche, elle a été dirigée par Metzger en 2007 et traite de l’"Importance accordée aux caractéristiques superficielles des sources en ligne dans l’évaluation de la crédibilité des informations" glanées sur internet.

Passons ensuite aux actualités et analyses. Axios a publié un article intriguant en février 2023, intitulé “Chatbots déclenchent le prochain cauchemar de la mésinformation”. Celui-ci met en exergue les risques associés à l’utilisation de chatbots et de l’IA génératrice dans la diffusion de fausses informations, un avertissement opportun face aux développements technologiques actuels. Parallèlement, The Guardian a publié un billet d’opinion en mars 2023 ayant pour thème “FAKE NEWS, ChatGPT, vérité, journalisme, désinformation”. Ce dernier scrute les interactions entre les FAKE NEWS, ChatGPT, la vérité, le journalisme et la désinformation, une lecture enrichissante pour quiconque s’intéresse à l’avenir de l’information en ligne.

Terminons par les politiques et recommandations. En 2023, Becker et ses collaborateurs ont mené une étude comparative des politiques relatives à l’IA adoptées par 52 grandes organisations de presse à travers le monde. Baptisée “Comparaison des politiques relatives à l’IA adoptées par 52 grandes organisations de presse”, cette étude brosse un tableau des meilleures pratiques et lacunes en matière de réglementation, susceptible d’intéresser les curieux et les passionnés du domaine. Enfin, ne manquez pas ce document qui propose un cadre de politique pour aligner les modèles de langage de grande ampleur sur les retours personnalisés. Intitulé “Personalisation dans les limites: classification des risques et cadre politique pour l’alignement des grands modèles linguistiques sur les retours personnalisés”, il s’agit d’un effort concerté pour minimiser les risques associés à la désinformation et aux biais qui minent notre société contemporaine.

Explorez ces ressources pour acquérir une compréhension plus fine de l’utilisation de l’intelligence artificielle générative dans la création de contenu et des mesures à adopter pour enrayer la propagation de fausses informations. Bonnes découvertes !