L’intelligence artificielle (IA) connaît une forte croissance, transformant notre vie personnelle et professionnelle. Selon certaines prévisions, le marché mondial de l’IA atteindra environ 300 milliards de dollars en 2026. Dans ce contexte dynamique, Google et NVIDIA se distinguent dans le classement MLPerf, spécialisé dans l’évaluation des performances des principales plateformes d’apprentissage automatique. Google excelle dans la formation de réseaux neuronaux, tandis que NVIDIA brille grâce à sa puissance technologique et ses innovations logicielles. Le classement MLPerf utilise le temps minimal requis pour atteindre une précision minimale prescrite afin d’évaluer les performances. Cette métrique montre que le secteur de l’apprentissage automatique connaît une croissance explosive, avec des vitesses allant jusqu’à 10 fois les estimations les plus optimistes. La rivalité entre Google et NVIDIA illustre l’importance de la compétition dans le secteur de l’IA pour encourager l’innovation. En même temps, il est crucial d’examiner les implications sociétales et économiques de l’automatisation et de l’adoption généralisée de l’IA. Pour assurer une transition équitable, nous devons aborder collectivement ces questions et établir un dialogue interdisciplinaire.
Sous l’impulsion de la transformation numérique, Londres Nord Est Railways (LNER) mise sur le digital pour redynamiser l’industrie ferroviaire britannique. Face aux défis posés par les infrastructures et les processus opérationnels, LNER adopte une stratégie axée sur le numérique, visant à offrir des expériences remarquables à sa clientèle. Grâce à une équipe d’experts en numérique, composée de 38 membres, LNER innove avec des projets tels que l’“Avatar en Gare” et l’application “Mobilité Porte-à-Porte”. La data et l’IA optimisent également les opérations internes, tandis que des partenariats avec des startups favorisent l’acceptation du changement et l’exploration de nouveaux horizons digitaux.
Intel a introduit une nouvelle Unité de Traitement de Vision (VPU) destinée à optimiser le traitement des flux vidéo haute résolution grâce à des algorithmes d’apprentissage automatique avancés. Cet ajout fait partie des efforts consentis par l’entreprise pour renforcer sa présence sur le marché des technologies de l’IA. La VPU sera officiellement lancée avec la 14ème génération de processeurs Core d’Intel, Meteor Lake, bien que son impact sur les performances générales reste incertain. Elle dispose de caractéristiques indiquant une possible indépendance matérielle, comme un identifiant PCI dédié, une gestion autonome de la fréquence et de la puissance, une prise en charge native des interruptions et une allocation d’adresse mémoire MMIO. Les environnements de programmation compatibles incluent probablement OneAPI Level Zero et OpenVINO. Les espoirs sont élevés quant à la capacité de la VPU à augmenter les performances et à encourager le développement de nouvelles applications dans le domaine de l’IA.
PyTorch, le framework ML open source populaire initialement développé par Facebook Research en 2016, a rejoint la Fondation Linux. Cette intégration a pour objectifs de renforcer la collaboration, d’assurer une gouvernance transparente, de former des synergies stratégiques avec des leaders du secteur IT et d’accélérer l’innovation. Avec une base solide au sein de la Fondation Linux, PyTorch aspire à devenir une plateforme IA/ML de référence. Ce tournant historique influence le paysage de l’IA, encourageant l’amélioration constante des services et l’adoption d’architectures hybrides. Cependant, cette évolution pose des questions sur notre relation à l’information et au savoir, soulignant l’importance de faciliter l’acquisition de ces nouvelles compétences pour garantir l’inclusion numérique et la justice sociale.
ChatGPT, développé par OpenAI, est une percée dans l’intelligence artificielle générale (IAG). Favorisé par des investissements de figures like Elon Musk et Sam Altman, ChatGPT repose sur des “Large Language Models” (LLM) et une architecture innovante nommée “Transformers”. Capable de générer du texte et d’interagir avec fluidité, il obtient d’excellents résultats académiques. Cependant, il rencontre des limitations, notamment sa voracité en ressources computationnelles et son incapacité à raisonner ou à comprendre le sens profond des phrases. Malgré cela, ChatGPT suscite espoirs et craintes quant à son impact sur l’éducation, le divertissement et les métiers de la tech, posant des questions sur l’automatisation et ses implications sociales.
Les cybermenaces évoluent rapidement, avec une augmentation alarmante des coûts associés aux violations numériques, projetés à 10,5 milliards de dollars d’ici 2025. Pour faire face à ces menaces sophistiquées, les entreprises doivent adopter des solutions avancées. Joaquín Gómez, expert en cybersécurité, souligne l’importance de l’intelligence artificielle, de l’apprentissage machine et d’une gestion sécurisée du DNS pour identifier et empêcher les attaques. Les entreprises peuvent bénéficier de la collaboration avec des fournisseurs utilisant la technologie RPZ pour gérer proactivement les noms de domaine suspects. Une cybersécurité robuste protège non seulement les processus internes, mais également les données sensibles des clients et partenaires commerciaux.
Un groupe de scientifiques internationaux et diversifiés, dont des membres du CNRS, utilise l’intelligence artificielle (IA) et le machine learning pour améliorer la détection des filaments de gaz interstellaires, essentiels à la formation des étoiles. Jusqu’ici, identifier ces filaments était difficile en raison de leurs conditions de densité, température et composition chimique uniques. Les télescopes actuels présentent également des limites techniques. L’IA devrait accroitre significativement la détection de ces filaments, favorisant ainsi le développement de nouvelles théories et hypothèses dans le domaine de l’astrophysique stellaire. Cette application de l’IA dans l’astrophysique promet de nombreuses avancées, telles que la détection de signatures spectrales indiquant une possible existence de vie extraterrestre ou la prédiction des mouvements d’objets spatiaux pouvant affecter notre planète.
L’article intitulé « Poison numérique: quand l’automatisation devient une menace » met en garde contre les risques liés à l’expansion de l’automatisation informatique. Bien que celle-ci amène des bénéfices indéniables en termes d’efficacité et de productivité, elle comporte également des failles susceptibles d’être exploitées par des individus malveillants. Selon une récente étude, 78% des entreprises utilisent divers outils d’automatisation informatique, mais négligent souvent la cybersécurité associée. L’analogie avec l’empoisonnement des puits illustre comment une unique manipulation incorrecte peut avoir des conséquences importantes sur l’ensemble du système. Néanmoins, une solution émerge progressivement: l’Intelligence Artificielle, et spécifiquement le Machine Learning, qui peuvent identifier et bloquer les attaques ciblant les systèmes informatiques.
L’apprentissage automatique, une branche de l’intelligence artificielle, transforme notre monde en permettant aux ordinateurs d’analyser des données et de prendre des décisions, imitant la pensée humaine. Bien que cette discipline connaisse un succès certain dans divers domaines, elle soulève des inquiétudes concernant sa fiabilité et sa sécurité, notamment dans les secteurs liés à la protection des personnes. Des défis subsistent, tels que la difficulté pour les machines à s’adapter à des environnements changeants et la limitation de l’approche consistant à corriger les erreurs face à des scénarios critiques en matière de sécurité. Plutôt que de miser sur la performance absolue, certains scientifiques proposent un modèle d’apprentissage automatique axé sur des actions testées et validées en conditions réelles, favorisant ainsi la construction d’une relation de confiance entre humains et machines.
Les véhicules autonomes, longtemps présentés comme l’avenir de la mobilité, accusent un certain retard dans leur adoption généralisée. Des obstacles subsistent, notamment la difficulté à prévoir le comportement irrégulier des conducteurs humains. Malgré des millions de kilomètres parcourus en tests et des technologies avancées, les voitures autonomes peinent à atteindre le niveau de sécurité des conducteurs humains. Un programme de l’Université du Michigan utilise des données réelles pour former des algorithmes plus adaptatifs, visant à améliorer la gestion des situations complexes et imprévisibles. La question demeure de savoir si les ordinateurs parviendront un jour à égaler l’habilité humaine face à l’inconnu, et comment notre société appréhendera ce changement. Pour en savoir plus sur les véhicules autonomes et les défis qui y sont liés, consultez les ressources recommandées.