L’intelligence artificielle (IA) connait une croissance rapide, influençant divers domaines tels que la santé et le divertissement. Cependant, cette expansion suscite des inquiétudes concernant ses implications sociétales, en particulier quand des innovations comme la technologie deepfake sont mal utilisées. La société OpenAI a récemment attiré l’attention avec sa technologie de clonage vocal, Voice Engine, capable de reproduire une voix humaine à partir d’un échantillon de 15 secondes. Alors que certains louent les vastes potentialités de cette percée, d’autres expriment des craintes face aux risques potentiels pour une société immergée dans le virtuel. OpenAI prend des mesures pour assurer un usage responsable de Voice Engine, notamment en collaboration avec divers secteurs pour recueillir leurs avis et guider le développement de l’outil, et en prévoyant des restrictions pour limiter les tentatives d’exploitation malveillante des voix synthétiques.
BNP Paribas a lancé un ambitieux plan stratégique reposant sur l’IA, prévoyant de réaliser 1000 cas d’utilisation et produire 500 millions d’euros de valeur d’ici 2025. Avec 700 experts en données et IA, la banque veut tirer parti de l’IA générative, comme le principe Retrieval-Augmented Generation (RAG), pour des évaluations ESG (environnementales, sociales et de gouvernance) plus précises et des gains de temps importants. Des modèles linguistiques open source, testés contre les menaces cyber, servent de base aux solutions IA de BNP Paribas. Malgré les défis relatifs à la confidentialité et la cybersécurité, BNP Paribas encadre strictement ses actifs IA et collabore avec les parties prenantes pour développer une gouvernance adaptée à ce secteur.
Le dernier clip du groupe de hip-hop français Bigflo & Oli, “Ça va beaucoup trop vite”, est unique car il a été réalisé à l’aide d’une intelligence artificielle (IA) génératrice. Cette performance technique et artistique soulève des questions sur l’impact possible des technologies perturbatrices sur l’avenir de la musique et de la création de contenus visuels. La vidéo a été principalement orchestrée par Neb, un expert en médias numériques qui a utilisé l’IA pour créer des milliers d’images évocatrices en accord avec les thèmes puissants de la chanson. Malgré l’utilisation importante de l’IA dans la création de la vidéo, l’ingéniosité humaine a également joué un rôle crucial dans la coordination de cet effort collaboratif entre l’homme et la machine.
La France connaît une forte croissance dans le domaine de l’IA, avec plus de 600 start-ups et des ambitions internationales. Les autorités minimisent les craintes concernant l’impact de l’IA sur l’emploi, estimant que seulement 5% des postes existants risquent une automatisation totale. Dans ce contexte, la France doit promouvoir un “patriotisme numérique” pour assurer sa souveraineté technologique, sécuriser l’indépendance de ses industries, favoriser l’adaptation continue des compétences professionnelles et encourager une régulation équitable de l’IA. Plusieurs ressources sont disponibles pour approfondir ses connaissances sur l’IA et ses implications en France.
L’Académie française a récemment été le théâtre d’un événement unique: la performance surprenante du rappeur toulousain Oli. Orchestré par Isabelle Carré, ce moment visait à rapprocher les jeunes de la langue française. Le titre “Ça va beaucoup trop vite”, aux paroles profondes et à la mélodie entraînante, a créé un buzz inattendu. Oli repousse encore les limites avec un clip entièrement conçu par une IA, soulevant des questionnements sur le rôle de l’IA dans l’art. Par ailleurs, Oli et son acolyte Flo se produiront au Stadium de Toulouse, un rêve devenu réalité. Ils souhaitent offrir une expérience unique et accessible à leur public. L’ombre bienveillante de Claude Nougaro, figure inspirante, plane sur leur parcours. Oli encourage la célébration de son héritage intemporel. Cet entretien nous invite à explorer les croisements entre l’Académie, la langue, l’art et la technologie, soulignant le pouvoir de l’art comme vecteur de connexion et de réflexion dans un monde en évolution.
En raison des inquiétudes croissantes concernant la manipulation de l’opinion publique et les dérives possibles de l’Intelligence Artificielle (IA), la Californie envisage d’adopter des règlementations similaires à celles de l’Union Européenne. Parmi les restrictions prévues, on trouve l’obligation pour les sociétés high-tech de divulguer les jeux de données ayant permis la création d’un modèle d’IA et l’interdiction des publicités politiques utilisant l’IA générative. Bien que certains experts craignent que ces mesures trop strictes ne nuisent à l’innovation et aux entreprises locales, les autorités californiennes sont déterminées à assurer la bonne gouvernance de l’IA afin de sauvegarder l’intégrité et la fiabilité des futures consultations populaires.
Les deepfakes sont des vidéos manipulées par l’IA, devenues courantes sur les réseaux sociaux. Elles suscitent intérêt et crainte, car si elles offrent des possibilités artistiques et commerciales, elles peuvent aussi servir à diffuser de fausses informations et à harceler. Pour contrôler leur prolifération, des mesures juridiques et technologiques doivent être mises en place, comme un encadrement strict, le développement d’IA dédiée à la détection des deepfakes, et l’implication active des réseaux sociaux. Des astuces existent pour distinguer une image authentique d’une production IA, telles qu’examiner attentivement les membres inférieurs ou utiliser la recherche inversée d’images. Les médias traditionnels jouent un rôle important dans la lutte contre les deepfakes en fournissant des émissions pédagogiques et en relayant des informations fiables. Chaque utilisateur de réseaux sociaux doit aussi participer en cultivant son esprit critique et sa vigilance.
La startup française Klark lève 1,7 million d’euros pour développer une plateforme de gestion de la relation client basée sur l’IA générative. Cette technologie permettrait aux entreprises d’optimiser leur communication avec les clients grâce à des messages personnalisés et adaptés. Fondée par James Rebours, Nicolas Pellissier et Yoann Chambrun, Klark mise sur sa combinaison d’expertises en logistique, relation client et technologie pour séduire les professionnels. Bien que le marché soit compétitif et susceptible d’être affecté par de nouvelles régulations européennes, Klark ambitionne de doubler ses effectifs et d’accueillir 100 nouveaux clients à moyen terme.
Les agents conversationnels sont des logiciels dotés d’IA qui simulent une conversation avec des humains. Bien qu’ils facilitent les interactions entre individus et entreprises, leur utilisation comporte des risques légaux pour les entreprises. Dans le cas d’Air Canada en 2023, la compagnie a été jugée responsable des erreurs commises par son agent conversationnel, engageant ainsi sa responsabilité contractuelle. La responsabilité délictuelle peut également être retenue en cas de négligence dans la création, la mise en œuvre ou l’entretien de ces agents. Les entreprises doivent veiller au respect du RGPD et prendre des mesures pour réduire les risques associés aux agents conversationnels, notamment en effectuant des tests rigoureux, en adoptant des politiques strictes de confidentialité et de sécurité des données, en formant le personnel et en privilégiant des solutions hybrides associant IA et intervention humaine.
L’Intelligence Artificielle (IA) transforme notre monde, avec des applications variées dans la finance, la santé, l’automobile et l’éducation. Elle est considérée comme une révolution technologique majeure par 61% des Français, selon un sondage OpinionWay pour Universcience. Cependant, malgré ses succès, l’IA soulève des inquiétudes concernant les dérives potentielles et les abus. Les gens veulent bénéficier de ses avantages, tout en demandant des garde-fous pour contrer les usages abusifs. Avec l’augmentation de la désinformation et des deepfakes, il devient crucial de construire un futur harmonieux et durable avec l’IA. Un développement et une application collaborative de l’IA peuvent renforcer la confiance du public et instaurer un dialogue productif et inclusif.