La production d’images par l’IA est devenue un domaine remarquable, avec des logiciels capables de générer des images réalistes à partir d’une simple description textuelle. Ces IA, telles que Adobe Firefly, StableDiffusion, Bing Image Creator, DAL-e d’OpenAI, BlueWillowAI et OpenArt, sont entrainées avec d’immenses volumes de données et peuvent rivaliser avec les talents d’artistes humains. Cependant, cette avancée technique soulève des questions, notamment sur la frontière entre réel et imaginaire et les polémiques autour de la violation de propriété intellectuelle. Alors que certaines personnes considèrent ces IA comme des usines à copies, les leaders de l’industrie cherchent une solution acceptable pour toutes les parties prenantes.
Selon Elon Musk, OpenAI priorise ses intérêts financiers au détriment de sa mission initiale axée sur le bien-être humain via des outils IA open source. Fondée en 2015, OpenAI a adopté une approche lucrative en 2023, gardant le code source du modèle GPT-4 secret, contrastant avec son idéal originel d’ouverture et de collaboration. Après son départ d’OpenAI, Musk a critiqué cette orientation et attaqué en justice OpenAI et Microsoft, demandant des compensations et l’exclusion de GPT-4 sous licence Microsoft. Des voix influentes soutiennent Musk, appelant OpenAI à clarifier sa mission malgré ses nouveaux défis commerciaux. Les autorités régulent de près OpenAI et Microsoft, envisageant même une enquête anti-monopolistique et investiguant sur le retour de Sam Altman en tant que PDG après une brève destitution. OpenAI doit maintenant trouver un équilibre entre ambitions commerciales et engagement humanitaire, alors que la communauté internationale exige davantage de gouvernance et de responsabilité dans le développement de l’IA.
DeepMind, filiale de Google, travaille sur une IA généraliste capable de s’adapter et d’apprendre rapidement une grande variété de tâches. La startup utilise l’apprentissage par renforcement exclusif, notamment avec AlphaGo Zero et AlphaZero, qui ont surclassé des champions humains et des logiciels experts aux jeux de Go, d’échecs et de Shogi, après quelques heures de pratique seulement. Cette avancée marque un pas important vers une IA polyvalente. Les succès d’AlphaGo Zero et AlphaZero illustrent le potentiel de ces technologies dans des domaines comme la médecine, la science et les services internet. Ils pourraient optimiser des processus industriels, gérer efficacement les ressources naturelles, affiner les diagnostics médicaux et combattre le changement climatique. Actuellement, DeepMind aspire à développer une IA capable de maîtriser le jeu vidéo StarCraft, représentant un défi de taille en termes de gestion de l’incertitude. Alors que l’IA généraliste modèle l’avenir technologique, il convient d’analyser attentivement les enjeux éthiques et sociaux associés, afin de garantir que son développement serve les intérêts communs de l’humanité.
L’Intelligence Artificielle (IA), dont ChatGPT et l’IA générative, gagne du terrain dans nos vies personnelles et professionnelles, malgré certaines limites techniques et réglementaires freinant leur expansion. Bien que prometteuses pour la communication et la production de contenu, leur utilisation généralisée suscite des interrogations chez les entreprises et les salariés. Des enjeux éthiques et des risques, tels que la transparence des algorithmes et la collecte de données, sont à considérer. Pour une transition numérique harmonieuse, les entreprises doivent instaurer une culture d’apprentissage continu et identifier les bonnes pratiques afin de tirer profit de ces technologies tout en minimisant les risques.
Samsung s’est engagé dans une alliance historique avec LG Display pour contrer la concurrence asiatique dans le segment des téléviseurs haut de gamme. Cet accord permettra à Samsung d’acquérir 5 millions de dalles OLED par an pendant cinq ans. Pour 2024, Samsung prévoit de lancer trois nouvelles gammes de téléviseurs: S95D, S90D et S85D. Les modèles de la série S95D utiliseront des dalles QD-OLED, tandis que ceux de la série S90D seront équipés de dalles W-OLED fournies par LG Display. La série S85D sera entièrement équipée de dalles LG Display. Grâce à l’intelligence artificielle et à des collaborations inattendues, Samsung continue d’innover dans le domaine des téléviseurs OLED, offrant ainsi une meilleure expérience utilisateur.
Perplexity est un nouveau moteur de recherche propulsé par l’IA, créé par Aravind Srinivas en juillet 2022. Avec un financement record de 73,6 millions de dollars et une valorisation supérieure à 500 millions de dollars, Perplexity compte déjà 10 millions d’utilisateurs actifs mensuels. Contrairement aux moteurs de recherche traditionnels, Perplexity propose des réponses synthétiques et fiables grâce à l’utilisation de technologies comme celles d’OpenAI, Google et Anthropic. Cependant, l’entreprise fait face à quelques contestations concernant la transmission de contenus politiques datés et doit encore trouver un modèle économique viable. Malgré cela, Perplexity influence notre rapport aux moteurs de recherche, suscitant des interrogations sur l’avenir des assistants conversationnels virtuels et leur potentielle capacité à comprendre l’humour subtil humain.
Mistral AI, une start-up française, défie OpenAI et Google dans la course à l’IA en lançant « Mistral Large », un modèle de traitement du langage à grande échelle conçu pour concurrencer GPT-4 d’OpenAI et Gemini de Google. Pour asseoir sa légitimité, Mistral AI a conclu un accord commercial exclusif avec Microsoft, recevant un investissement minoritaire important en euros. La start-up a également collecté près de 500 millions d’euros lors d’une levée de fonds record pour soutenir la recherche et le développement de technologies innovantes. Initialement favorable à l’open source, Mistral AI oriente désormais sa stratégie vers des modèles propriétaires performants, proposant deux catégories de solutions: « ouvertes » et « optimisées ». Alors que la start-up embrasse la compétition, la question de l’innovation et de la collaboration dans l’IA reste posée, soulignant l’importance de mettre en place des processus de régulation adaptés.
Les robots humanoïdes font un retour remarqué, portés par un engouement et des financements record. Figure AI, une start-up californienne, illustre cette tendance avec sa robot humanoïde Figure 01, capable d’effectuer plusieurs tâches. L’engouement actuel s’explique aussi par l’essor de l’IA générative adaptée à la robotique. Des chercheurs travaillent à appliquer les grands modèles de langage aux robots humanoïdes. Malgré des progrès constants, notamment avec Atlas de Boston Dynamics, ces robots n’ont pas encore dépassé le stade de simples démonstrations. Néanmoins, des horizons prometteurs s’ouvrent pour eux, comme le montre l’optimisme de Brett Adcock, PDG de Figure AI. Sa société devrait fournir une flotte de robots à BMW, marquant peut-être le début d’une ère où les robots humanoïdes seront monnaie courante dans notre vie quotidienne.
Dans notre société dominée par la technologie, l’IA s’affirme comme un allié crucial, transformant notre interaction avec les outils numériques. Un domaine particulièrement impacté est la gestion des relations clients via des chatbots sophistiqués. Bien que populaires et bénéfiques, ces chatbots soulèvent des préoccupations quant à leur utilisation. En 2023, l’enthousiasme pour l’IA mêlait espoirs et craintes, car si les chatbots améliorent l’expérience client, des défis subsistent. Une utilisation équilibrée de l’IA et des compétences humaines est primordiale dans la gestion de la relation client. Des directives légales doivent évoluer pour inclure les possibles négligences des chatbots, considérés comme une extension des services offerts par les entreprises. Trois éléments devraient influencer les futures normes juridiques applicables aux chatbots: clarifier la différence entre erreurs intentionnelles et non intentionnelles, introduire la “bonne foi” dans le droit applicable et assurer une transition en douceur vers ces nouvelles responsabilités. Adopter les chatbots alimentés par l’IA nécessite une approche prudente. Capitaliser sur les avantages de l’IA tout en limitant les risques consiste à peaufiner les phases de tests et d’optimisation, à fixer des limites concernant la stratégie de diffusion et l’accès aux informations confidentielles, et à promouvoir une collaboration entre agents humains et chatbots. Le défi actuel consiste à trouver un juste milieu entre l’acceptation croissante des chatbots et la conscience des risques associés. Alors que nous adaptons notre vision de la responsabilité, de l’éthique et des relations humaines face à l’essor de l’automatisation, il est impératif de poser des limites claires et de construire un cadre mondial régissant les chatbots.
Météo-France, l’institution nationale française en charge de la prévision météorologique, fait face à des défis majeurs quant à la fiabilité de ses prévisions. Récemment, des erreurs importantes ont été commises, telles que l’absence d’alerte à la neige en Île-de-France en janvier ou des écarts significatifs entre les prévisions et la réalité observée. Ces incidents sont attribués au mécontentement des employés face à l’augmentation de l’automatisation et la réduction des effectifs. Le nouveau système des 3P (“Programme Prévision Production”) est pointé du doigt comme principal responsable de ces dysfonctionnements. Depuis son introduction en novembre, des grèves ont eu lieu, appelant au retour d’une expertise humaine dans le processus de prévision. Auparavant, les prévisions étaient affinées par des experts après analyse de scénarios fournis par des modèles informatiques. Toutefois, avec le système des 3P, un logiciel nommé Alpha produit désormais directement les prévisions, remplaçant les sept prévisionnistes régionaux. Seul un agent basé à Toulouse peut corriger les anomalies générées par l’algorithme, créant une forte charge de travail. Les syndicats demandent que les prévisionnistes locaux soient autorisés à surveiller et corriger les prévisions. La question fondamentale consiste à trouver un juste équilibre entre l’intelligence humaine et l’intelligence artificielle afin d’optimiser la précision des prévisions météorologiques, compte tenu de l’important impact de ces dernières sur la gestion des effets du changement climatique.