L’Intelligence Artificielle (IA), dont ChatGPT et l’IA générative, gagne du terrain dans nos vies personnelles et professionnelles, malgré certaines limites techniques et réglementaires freinant leur expansion. Bien que prometteuses pour la communication et la production de contenu, leur utilisation généralisée suscite des interrogations chez les entreprises et les salariés. Des enjeux éthiques et des risques, tels que la transparence des algorithmes et la collecte de données, sont à considérer. Pour une transition numérique harmonieuse, les entreprises doivent instaurer une culture d’apprentissage continu et identifier les bonnes pratiques afin de tirer profit de ces technologies tout en minimisant les risques.
Samsung s’est engagé dans une alliance historique avec LG Display pour contrer la concurrence asiatique dans le segment des téléviseurs haut de gamme. Cet accord permettra à Samsung d’acquérir 5 millions de dalles OLED par an pendant cinq ans. Pour 2024, Samsung prévoit de lancer trois nouvelles gammes de téléviseurs: S95D, S90D et S85D. Les modèles de la série S95D utiliseront des dalles QD-OLED, tandis que ceux de la série S90D seront équipés de dalles W-OLED fournies par LG Display. La série S85D sera entièrement équipée de dalles LG Display. Grâce à l’intelligence artificielle et à des collaborations inattendues, Samsung continue d’innover dans le domaine des téléviseurs OLED, offrant ainsi une meilleure expérience utilisateur.
Perplexity est un nouveau moteur de recherche propulsé par l’IA, créé par Aravind Srinivas en juillet 2022. Avec un financement record de 73,6 millions de dollars et une valorisation supérieure à 500 millions de dollars, Perplexity compte déjà 10 millions d’utilisateurs actifs mensuels. Contrairement aux moteurs de recherche traditionnels, Perplexity propose des réponses synthétiques et fiables grâce à l’utilisation de technologies comme celles d’OpenAI, Google et Anthropic. Cependant, l’entreprise fait face à quelques contestations concernant la transmission de contenus politiques datés et doit encore trouver un modèle économique viable. Malgré cela, Perplexity influence notre rapport aux moteurs de recherche, suscitant des interrogations sur l’avenir des assistants conversationnels virtuels et leur potentielle capacité à comprendre l’humour subtil humain.
Mistral AI, une start-up française, défie OpenAI et Google dans la course à l’IA en lançant « Mistral Large », un modèle de traitement du langage à grande échelle conçu pour concurrencer GPT-4 d’OpenAI et Gemini de Google. Pour asseoir sa légitimité, Mistral AI a conclu un accord commercial exclusif avec Microsoft, recevant un investissement minoritaire important en euros. La start-up a également collecté près de 500 millions d’euros lors d’une levée de fonds record pour soutenir la recherche et le développement de technologies innovantes. Initialement favorable à l’open source, Mistral AI oriente désormais sa stratégie vers des modèles propriétaires performants, proposant deux catégories de solutions: « ouvertes » et « optimisées ». Alors que la start-up embrasse la compétition, la question de l’innovation et de la collaboration dans l’IA reste posée, soulignant l’importance de mettre en place des processus de régulation adaptés.
Les robots humanoïdes font un retour remarqué, portés par un engouement et des financements record. Figure AI, une start-up californienne, illustre cette tendance avec sa robot humanoïde Figure 01, capable d’effectuer plusieurs tâches. L’engouement actuel s’explique aussi par l’essor de l’IA générative adaptée à la robotique. Des chercheurs travaillent à appliquer les grands modèles de langage aux robots humanoïdes. Malgré des progrès constants, notamment avec Atlas de Boston Dynamics, ces robots n’ont pas encore dépassé le stade de simples démonstrations. Néanmoins, des horizons prometteurs s’ouvrent pour eux, comme le montre l’optimisme de Brett Adcock, PDG de Figure AI. Sa société devrait fournir une flotte de robots à BMW, marquant peut-être le début d’une ère où les robots humanoïdes seront monnaie courante dans notre vie quotidienne.
Dans notre société dominée par la technologie, l’IA s’affirme comme un allié crucial, transformant notre interaction avec les outils numériques. Un domaine particulièrement impacté est la gestion des relations clients via des chatbots sophistiqués. Bien que populaires et bénéfiques, ces chatbots soulèvent des préoccupations quant à leur utilisation. En 2023, l’enthousiasme pour l’IA mêlait espoirs et craintes, car si les chatbots améliorent l’expérience client, des défis subsistent. Une utilisation équilibrée de l’IA et des compétences humaines est primordiale dans la gestion de la relation client.
Des directives légales doivent évoluer pour inclure les possibles négligences des chatbots, considérés comme une extension des services offerts par les entreprises. Trois éléments devraient influencer les futures normes juridiques applicables aux chatbots: clarifier la différence entre erreurs intentionnelles et non intentionnelles, introduire la “bonne foi” dans le droit applicable et assurer une transition en douceur vers ces nouvelles responsabilités.
Adopter les chatbots alimentés par l’IA nécessite une approche prudente. Capitaliser sur les avantages de l’IA tout en limitant les risques consiste à peaufiner les phases de tests et d’optimisation, à fixer des limites concernant la stratégie de diffusion et l’accès aux informations confidentielles, et à promouvoir une collaboration entre agents humains et chatbots.
Le défi actuel consiste à trouver un juste milieu entre l’acceptation croissante des chatbots et la conscience des risques associés. Alors que nous adaptons notre vision de la responsabilité, de l’éthique et des relations humaines face à l’essor de l’automatisation, il est impératif de poser des limites claires et de construire un cadre mondial régissant les chatbots.
Météo-France, l’institution nationale française en charge de la prévision météorologique, fait face à des défis majeurs quant à la fiabilité de ses prévisions. Récemment, des erreurs importantes ont été commises, telles que l’absence d’alerte à la neige en Île-de-France en janvier ou des écarts significatifs entre les prévisions et la réalité observée. Ces incidents sont attribués au mécontentement des employés face à l’augmentation de l’automatisation et la réduction des effectifs.
Le nouveau système des 3P (“Programme Prévision Production”) est pointé du doigt comme principal responsable de ces dysfonctionnements. Depuis son introduction en novembre, des grèves ont eu lieu, appelant au retour d’une expertise humaine dans le processus de prévision. Auparavant, les prévisions étaient affinées par des experts après analyse de scénarios fournis par des modèles informatiques. Toutefois, avec le système des 3P, un logiciel nommé Alpha produit désormais directement les prévisions, remplaçant les sept prévisionnistes régionaux. Seul un agent basé à Toulouse peut corriger les anomalies générées par l’algorithme, créant une forte charge de travail.
Les syndicats demandent que les prévisionnistes locaux soient autorisés à surveiller et corriger les prévisions. La question fondamentale consiste à trouver un juste équilibre entre l’intelligence humaine et l’intelligence artificielle afin d’optimiser la précision des prévisions météorologiques, compte tenu de l’important impact de ces dernières sur la gestion des effets du changement climatique.
Le trading via Intelligence Artificielle (IA) utilise des systèmes basés sur l’IA pour effectuer des transactions sur les marchés financiers. Bien que l’IA soit en développement dans ce domaine, elle ne garantit pas une domination absolue des marchés. Cependant, elle offre des avantages, tels que l’optimisation du traitement des données, la gestion des risques et l’automatisation de la conformité. Malgré cela, des défis subsistent, comme la surveillance adéquate des algorithmes et la sécurité. Le trading AI fournit des outils puissants pour améliorer la productivité, mais soulève également des questions sur notre dépendance vis-à-vis des algorithmes en auto-apprentissage. Pour en savoir plus, explorez les ressources mentionnées, notamment le site Web de Syntax Finance et l’article « L’Impact de l’IA sur les Services Financiers » sur BuiltIn.
Sorbonne Université et Kap Code collaborent pour créer un outil de détection des fausses informations, en raison de leur multiplication pendant la pandémie de COVID-19. Trois entités de Sorbonne Université travaillent ensemble: le CELSA, le SCAI et le LIP6. Cet outil utilisant l’IA sera bénéfique aux journalistes et à d’autres domaines, tels que le marketing et la production de contenu. Alors que l’IA générative devient populaire, il est important d’enseigner aux futurs journalistes une utilisation responsable et de développer leur capacité à distinguer les contenus produits par des IAs. La formation du CELSA sur l’IA prépare les nouveaux reporters aux défis futurs.
L’essor de l’intelligence artificielle conduit à une augmentation de l’usage des chatbots et agents conversationnels. Des sociétés renommées telles qu’Anthropic, OpenAI, Amazon proposent des plateformes pour leur développement. Un prompt bien conçu est crucial pour le succès d’un chatbot, car il déclenche une réponse adéquate. Cinq axes existent pour améliorer ces outils interactifs: itération, langage simple, intégration de contexte, exemples, ordre des instructions. Les chatbots deviennent incontournables dans divers domaines, notamment la relation client et les soins de santé. Maîtriser l’art subtil du prompting est essentiel pour construire un chatbot efficace. Plusieurs ressources complémentaires peuvent faciliter cet apprentissage.