L’intelligence artificielle (IA) connaît une expansion rapide, influençant divers aspects de notre vie. Toutefois, cette innovation génère également des risques, dont le piratage informatique des dispositifs autonomes. Des chercheurs ont créé Morris II, le premier ver informatique capable d’infecter des entités artificiellement intelligentes (EAI), soulignant l’urgence d’accroître la vigilance en cybersécurité. Ce ver, prototype alarmant, illustre les dangers des technologies interconnectées et la nécessité de renforcer la sécurité de l’IA, compte tenu de son importance croissante dans notre univers numérique. La lutte contre les virus ciblant l’IA, la responsabilité des États, des entreprises et des particuliers, ainsi que l’adaptation de notre attitude face aux interactions homme-machine sont autant de sujets à examiner dans le cadre des interrelations entre IA, cybersécurité et société.
Le Crédit Mutuel collabore avec IBM depuis huit ans sur l’IA, aboutissant à la création de la Cognitive Factory, composée de 150 experts en IA. L’IA a permis d’importantes réalisations dans les procédures bancaires, notamment l’économie de 600 Equivalents Temps Plein grâce à des algorithmes sophistiqués identifiant fraudes et opportunités. Récemment, l’IA est utilisée pour comprendre le texte, la voix et les images, facilitant l’intégration aux systèmes IT. Désormais, le Crédit Mutuel explore l’IA générative, autorisant la production de texte, de voix et d’images via les systèmes IT. Ce développement conduira à de nouvelles potentialités dans différents domaines d’application.
Dans la course aux primaires démocrates californiens, Peter Dixon s’est distingué en utilisant une IA nommée Jennifer pour renforcer sa campagne. Cette innovation technologique lui a permis de toucher des milliers d’électeurs potentiels, boostant leur motivation à voter. Cependant, l’essor de l’IA en politique suscite des questions morales et sociales, appelant à une utilisation éthique et transparente de cette technologie disruptive. Des mesures de surveillance et de protection doivent être mises en place pour protéger l’intégrité des processus démocratiques. Collaboration entre gouvernements, entreprises, chercheurs et citoyens est nécessaire pour assurer un usage profitable et respectueux des intérêts communs.
La production d’images par l’IA est devenue un domaine remarquable, avec des logiciels capables de générer des images réalistes à partir d’une simple description textuelle. Ces IA, telles que Adobe Firefly, StableDiffusion, Bing Image Creator, DAL-e d’OpenAI, BlueWillowAI et OpenArt, sont entrainées avec d’immenses volumes de données et peuvent rivaliser avec les talents d’artistes humains. Cependant, cette avancée technique soulève des questions, notamment sur la frontière entre réel et imaginaire et les polémiques autour de la violation de propriété intellectuelle. Alors que certaines personnes considèrent ces IA comme des usines à copies, les leaders de l’industrie cherchent une solution acceptable pour toutes les parties prenantes.
Selon Elon Musk, OpenAI priorise ses intérêts financiers au détriment de sa mission initiale axée sur le bien-être humain via des outils IA open source. Fondée en 2015, OpenAI a adopté une approche lucrative en 2023, gardant le code source du modèle GPT-4 secret, contrastant avec son idéal originel d’ouverture et de collaboration. Après son départ d’OpenAI, Musk a critiqué cette orientation et attaqué en justice OpenAI et Microsoft, demandant des compensations et l’exclusion de GPT-4 sous licence Microsoft. Des voix influentes soutiennent Musk, appelant OpenAI à clarifier sa mission malgré ses nouveaux défis commerciaux. Les autorités régulent de près OpenAI et Microsoft, envisageant même une enquête anti-monopolistique et investiguant sur le retour de Sam Altman en tant que PDG après une brève destitution. OpenAI doit maintenant trouver un équilibre entre ambitions commerciales et engagement humanitaire, alors que la communauté internationale exige davantage de gouvernance et de responsabilité dans le développement de l’IA.
DeepMind, filiale de Google, travaille sur une IA généraliste capable de s’adapter et d’apprendre rapidement une grande variété de tâches. La startup utilise l’apprentissage par renforcement exclusif, notamment avec AlphaGo Zero et AlphaZero, qui ont surclassé des champions humains et des logiciels experts aux jeux de Go, d’échecs et de Shogi, après quelques heures de pratique seulement. Cette avancée marque un pas important vers une IA polyvalente. Les succès d’AlphaGo Zero et AlphaZero illustrent le potentiel de ces technologies dans des domaines comme la médecine, la science et les services internet. Ils pourraient optimiser des processus industriels, gérer efficacement les ressources naturelles, affiner les diagnostics médicaux et combattre le changement climatique. Actuellement, DeepMind aspire à développer une IA capable de maîtriser le jeu vidéo StarCraft, représentant un défi de taille en termes de gestion de l’incertitude. Alors que l’IA généraliste modèle l’avenir technologique, il convient d’analyser attentivement les enjeux éthiques et sociaux associés, afin de garantir que son développement serve les intérêts communs de l’humanité.
L’Intelligence Artificielle (IA), dont ChatGPT et l’IA générative, gagne du terrain dans nos vies personnelles et professionnelles, malgré certaines limites techniques et réglementaires freinant leur expansion. Bien que prometteuses pour la communication et la production de contenu, leur utilisation généralisée suscite des interrogations chez les entreprises et les salariés. Des enjeux éthiques et des risques, tels que la transparence des algorithmes et la collecte de données, sont à considérer. Pour une transition numérique harmonieuse, les entreprises doivent instaurer une culture d’apprentissage continu et identifier les bonnes pratiques afin de tirer profit de ces technologies tout en minimisant les risques.
Samsung s’est engagé dans une alliance historique avec LG Display pour contrer la concurrence asiatique dans le segment des téléviseurs haut de gamme. Cet accord permettra à Samsung d’acquérir 5 millions de dalles OLED par an pendant cinq ans. Pour 2024, Samsung prévoit de lancer trois nouvelles gammes de téléviseurs: S95D, S90D et S85D. Les modèles de la série S95D utiliseront des dalles QD-OLED, tandis que ceux de la série S90D seront équipés de dalles W-OLED fournies par LG Display. La série S85D sera entièrement équipée de dalles LG Display. Grâce à l’intelligence artificielle et à des collaborations inattendues, Samsung continue d’innover dans le domaine des téléviseurs OLED, offrant ainsi une meilleure expérience utilisateur.
Perplexity est un nouveau moteur de recherche propulsé par l’IA, créé par Aravind Srinivas en juillet 2022. Avec un financement record de 73,6 millions de dollars et une valorisation supérieure à 500 millions de dollars, Perplexity compte déjà 10 millions d’utilisateurs actifs mensuels. Contrairement aux moteurs de recherche traditionnels, Perplexity propose des réponses synthétiques et fiables grâce à l’utilisation de technologies comme celles d’OpenAI, Google et Anthropic. Cependant, l’entreprise fait face à quelques contestations concernant la transmission de contenus politiques datés et doit encore trouver un modèle économique viable. Malgré cela, Perplexity influence notre rapport aux moteurs de recherche, suscitant des interrogations sur l’avenir des assistants conversationnels virtuels et leur potentielle capacité à comprendre l’humour subtil humain.
Mistral AI, une start-up française, défie OpenAI et Google dans la course à l’IA en lançant « Mistral Large », un modèle de traitement du langage à grande échelle conçu pour concurrencer GPT-4 d’OpenAI et Gemini de Google. Pour asseoir sa légitimité, Mistral AI a conclu un accord commercial exclusif avec Microsoft, recevant un investissement minoritaire important en euros. La start-up a également collecté près de 500 millions d’euros lors d’une levée de fonds record pour soutenir la recherche et le développement de technologies innovantes. Initialement favorable à l’open source, Mistral AI oriente désormais sa stratégie vers des modèles propriétaires performants, proposant deux catégories de solutions: « ouvertes » et « optimisées ». Alors que la start-up embrasse la compétition, la question de l’innovation et de la collaboration dans l’IA reste posée, soulignant l’importance de mettre en place des processus de régulation adaptés.