L’intelligence artificielle (IA) générative transforme la digital workplace en automatisant la production de contenu, la gestion des connaissances, l’accroissement de la productivité, l’optimisation des réunions et la gestion des projets. Les outils basés sur l’IA génératrice, tels que Microsoft Copilot, Atlassian Intelligence, Notion Q&A et JNLP, innovent constamment pour satisfaire les demandes changeantes des entreprises modernes. Cependant, malgré les avantages évidents de l’IA générative, il faut rappeler que la technologie ne suffit pas ; des éléments méthodologiques et humains sont nécessaires pour exploiter pleinement son potentiel. Demain, il faudra répondre à plusieurs questions concernant l’avenir de ces technologies perturbatrices, leur mise en œuvre, leur régulation et leur impact sur les professions et les compétences attendues en entreprise.
Les eurodéputés ont adopté une législation historique encadrant les systèmes d’IA, distinguant deux catégories: l’usage courant et les dispositifs à haut risque. Ces derniers feront face à des limitations strictes, telles que l’analyse d’impact sur les droits fondamentaux et la facilitation de la traçabilité des activités. Des interdictions concernant certaines IA protégeant les libertés civiles et les droits fondamentaux ont aussi été mises en place. Un organisme européen de l’IA veillera à l’application de ces restrictions et imposera des sanctions financières en cas de non-respect. Bien que cette initiative soit globalement saluée, le monde tech exprime des réserves quant à d’éventuels blocages dans le développement et la commercialisation d’innovations.
Daniela Klette, membre présumée de la Fraction Armée Rouge, a été arrêtée après des décennies de fuite grâce à un logiciel d’intelligence artificielle (PimEyes). Accusée de participation à des actions meurtrières dans les années 1970 et 1980, elle avait été condamnée par défaut à la prison à perpétuité. Malgré ses activités terroristes, elle était parvenue à vivre incognito sous une nouvelle identité à Berlin. Bien qu’efficace pour la localiser, l’usage de PimEyes suscite des interrogations concernant la vie privée et la régulation des technologies intrusives. Cet événement illustre les complexités croissantes entre les valeurs traditionnelles et la technologie omniprésente, ainsi que le besoin urgent de repenser l’harmonie entre sécurité collective et droits individuels.
Les trous noirs supermassifs, masqués au coeur de certaines grosses galaxies dont la Voie Lactée, intriguent encore malgré des années de recherches et d’observations. Un défi majeur persiste: le “Paradoxe du Parsec Final”, soulignant l’improbabilité pour deux trous noirs géants issus de la fusion de galaxies à se rejoindre en moins de temps que l’âge actuel de l’Univers. Cependant, une nouvelle étape a été franchie grâce à l’association d’experts humains et d’algorithmes. Une IA formée à identifier et classer des fusions de galaxies dans des simulations numériques a ensuite été utilisée sur des galaxies réelles. Ces nouveaux procédés permettent des identifications bien plus fiables et rapides de ces fusions, indispensables pour étudier le rôle des trous noirs supermassifs dans l’évolution des galaxies.
Apple a présenté son nouveau MacBook Air M3, suite au succès du MacBook Air M2, sacré “Produit de l’année 2022” par certains sites. Ce modèle mis à jour promet d’être plus puissant, polyvalent et abordable, visant à satisfaire les professionnels et les passionnés de technologie. Dans un contexte où l’intelligence artificielle devient omniprésente, le MacBook Air M3 sera-t-il capable de concurrencer les autres appareils haut de gamme ? Cet article examine les caractéristiques et capacités innovantes du MacBook Air M3, mettant en avant son importance dans la stratégie globale d’Apple.
L’intelligence artificielle (IA) est utilisée pour créer de faux articles sur des centaines de sites Web, ce qui soulève des inquiétudes quant à la véracité et l’origine des informations. Bien que le public et les décideurs soient attirés par ces textes, ils ignorent often qu’ils sont générés par IA. Un exemple concret est l’histoire fabriquée à propos de Volodymyr Zelensky, président ukrainien, qui aurait acheté deux yachts de luxe. Selon Newsguard, 739 sites Web fonctionnent principalement sans surveillance humaine, publiant des articles rédigés par des robots. Ces logiciels peuvent produire du contenu basé sur des éléments collectés dans une base de données ou sur Internet. Cependant, tous les sites n’indiquent pas explicitement qu’ils emploient l’IA, ce qui suscite des questions quant à leur fiabilité. Parmi les articles créés grâce à l’IA, certains diffusent de fausses informations, notamment sur des figures politiques. Une étude de cas montre comment une infox propagée par l’IA a été partagée par des milliers d’utilisateurs de réseaux sociaux et même une chaîne de télévision iranienne. L’IA générative peut rapidement et à moindre coût alimenter des sites de désinformation ou de propagande, rendant floue la frontière entre réalité et fiction. Il est crucial de renforcer notre vigilance et de développer une culture de méfiance constructive envers les contenus automatisés.
L’Ukraine devient un terrain d’essai pour les innovations technologiques dans le cadre de son conflit, attirant des entreprises high-tech et des investissements étrangers. Des firmes comme Palantir, Microsoft, Amazon, Google, et Starlink interviennent pour contrer les cybermenaces russes. Clearview AI, une startup controversée dans la reconnaissance faciale, a identifié 230 000 soldats russes mais soulève des questions éthiques. Plusieurs pays investissent également en masse en Ukraine pour la production de drones, tel que Baykar (Turquie) et Quantum Systems (Allemagne). En outre, la France adopte une approche axée sur l’intelligence artificielle (IA), via la start-up Helsing et la future AMIAD (Agence pour l’Intelligence Artificielle de Défense). Ces phénomènes posent des questions majeures relatives à l’encadrement de l’innovation, la clarification de la responsabilité sociale et éthique, et la promotion de l’appropriation locale des technologies.
La startup française spécialisée en IA générative, Mistral AI, connue pour ses avancées open source, a conclu un partenariat exclusif avec Microsoft. Cette décision signifie que leur modèle phare le plus récent sera verrouillé, contrairement à leurs précédents modèles accessibles à tous. Cette alliance interroge sur la viabilité d’une IA européenne libre et autonome. Alors que l’Europe travaille à affirmer sa présence dans le secteur de l’IA, cette annonce pourrait soit entraver ses ambitions en autonomie technologique, soit encourager l’innovation tout en respectant les valeurs européennes centrales. Récemment, Mistral AI a plaidé en faveur d’une certaine flexibilité réglementaire concernant l’AI Act de l’UE, aboutissant à une extension de la marge de manœuvre pour les solutions open source.
L’Intelligence Artificielle (IA) transforme notre vie quotidiennement, mais génère aussi des défis éthiques, de responsabilité, de confidentialité et de sécurité. Face à cela, l’UE propose un règlement pour harmoniser le droit applicable à l’IA, aboutissant à un accord préliminaire en décembre 2023. Des enjeux tels que la gouvernance, l’environnement et les relations internationales doivent être abordés. L’UE encourage le développement de l’IA grâce à un marché commun des données et des normes strictes pour les systèmes à haut risque. Pénalités sévères sont prévues en cas de non-respect des règles. Une collaboration est en cours entre le Parlement européen et les Etats membres pour finaliser le règlement, toujours dans l’optique de stimuler l’IA en limitant les risques.
OpenAI, une start-up spécialisée dans l’IA, a été créée en 2015 par Sam Altman, Greg Brockman, Ilyas Khan et Elon Musk avec une vision philanthropique. Ils ont utilisé de larges quantités de textes collectés sur internet pour former leur IA, malgré certaines accusations de violation de droits d’auteur. En 2019, Microsoft a investi dans OpenAI, lui permettant de développer ChatGPT, un chatbot basé sur le modèle linguistique GPT-4. Cependant, des différends ont commencé à surgir entre Elon Musk et OpenAI concernant les objectifs initiaux de l’organisation et sa transformation en entreprise axée sur les bénéfices. Ces événements soulèvent des questions sur la gouvernance des organisations à but non lucratif évoluant vers un modèle commercial, ainsi que sur la propriété intellectuelle et les droits d’auteur liés au développement rapide de l’IA.