Google introduit Gemini Pro, une IA innovante et performante, dans plus de 230 pays including France. This new technology, available in three versions compatible with BARD, improves performance and reliability for end users. With features like processing various media types and supporting multiple languages, it aims to enhance the quality of Google’s popular applications. Users will benefit from improved site data analysis, expanded language support for response checking, and access to an image creation tool. Strict security measures are in place to ensure safe use. Stay tuned for further integration across Google platforms such as search engine, ads, and browsers.
Meta, propriétaire des réseaux sociaux Facebook, Instagram et Threads, prend des mesures pour identifier et étiqueter les photos synthétisées par l’IA sur ses plates-formes. L’objectif est de renforcer la traçabilité, accroître la confiance des utilisateurs et freiner la propagation de fausses informations, en particulier lors d’importantes échéances électorales à venir. Bien que cette initiative soit positive, il reste crucial de perfectionner ces algorithmes et d’en anticiper les implications sur les droits fondamentaux et la vie privée. D’autres acteurs tels qu’OpenAI participent également à cet effort en limitant la diffusion de fake news via leurs outils comme ChatGPT et DALL-E 3. Des questionnements subsistent quant à l’amélioration des algorithmes et à l’assurance de la véracité des contenus. Pour aller plus loin, consulter les recherches académiques sur l’IA, les dialogues portant sur les enjeux moraux associés et soutenir les organisations promouvant une IA responsable.
Google va renommer son assistant virtuel Bard en Gemini, symbolisant l’alliance entre technologie et humanité. Un nouveau service premium, Gemini Avancé, sera proposé le 7 février avec des capacités améliorées et des analyses poussées de documents et données. Google développe aussi une application mobile, Google Gemini, qui offrira une interaction intuitive via texte, voix ou image. Cela s’inscrit dans la volonté de Google d’adapter et devancer les désirs des internautes, tout en suscitant des questionnements sur la protection de la vie privée, la gouvernance algorithmique et l’empreinte écologique.
Face à la hausse de la cybercriminalité financière, Mastercard utilise Decision Intelligence PRO, son nouveau système de cybersécurité basé sur l’IA. Alimenté par 125 milliards de transactions annuelles, ce système améliore la détection des fraudes et anticipe les attaques hostiles. Avec une analyse fine des transactions en quelques dizaines de millisecondes, Decision Intelligence PRO assure discrètement une sécurité optimale aux utilisateurs. Grâce à cette technologie, Mastercard entend combiner expertise technique et vision progressiste pour construire un avenir numérique fiable et axé sur le bien-être des utilisateurs.
Meta, anciennement Facebook, va bientôt introduire une fonctionnalité pour identifier et étiqueter automatiquement les images créées par IA sur Facebook, Instagram et Threads. Cela vise à lutter contre la désinformation, en particulier avant les élections prévues en 2024. OpenAI a également pris des mesures pour combattre la mésinformation générée par leurs technologies. Ces initiatives marquent le début de l’élaboration de futures normes strictes régissant l’usage de l’IA dans les communications en ligne. Pour accroître l’efficacité de ces actions, il faut encourager d’autres leaders technologiques à rejoindre ces discussions et à établir des directives uniformes concernant la production et la distribution de contenus numériques. Renforcez vos connaissances sur les deepfakes en consultant des articles supplémentaires et en suivant les derniers développements dans ce domaine important pour l’avenir de notre société hyperconnectée.
Huit géants de la tech, dont Microsoft et Telefónica, se sont engagés à développer une IA plus éthique et responsable, en plaçant la protection des droits humains au coeur de leurs activités liées à l’IA. Ces entreprises veilleront à minimiser les risques associés à l’IA et à établir un dialogue permanent entre les parties prenantes publiques et privées. Cette initiative intervient alors que des lois européennes encadrent l’utilisation de l’IA et qu’elle suscite des questionnements quant aux risques potentiels de manipulation de l’information et de falsification de documents officiels. Bien que des progrès soient accomplis, l’avenir de l’IA nécessite une vigilance continue pour garantir que les innovations technologiques servent les aspirations universelles de l’humanité.
L’Union Européenne a récemment adopté l’ « AI Act », une législation majeure visant à réguler l’Intelligence Artificielle (IA) sur son territoire. Ce projet a pris forme en avril 2021, lorsque la Commission européenne a introduit l’“Acte relatif à l’IA”. En 2022, l’apparition de ChatGPT, un chatbot développé par OpenAI, a grandement influencé les débats. Après des mois de négociations, un accord a été conclu en décembre entre les États membres et les eurodéputés, puis officialisé le 2 février 2023. L’AI Act impose des règles strictes pour assurer la fiabilité des algorithmes, durcit les contraintes pesant sur les IA puissantes, prohibe certains types d’IA dangereux, et peut servir de modèle pour d’autres pays.
La Fédération Française de Cyclisme (FFC) s’engage dans une quête d’excellence en innovant dans plusieurs domaines, dont l’aérodynamisme des coureurs et des vélos, la transmission, et l’utilisation de technologies numériques pour un suivi personnalisé en temps réel. La fédération collabore avec des instituts renommés tels que l’ENS Lyon, l’INSA Lyon, Polytechnique et le CNAM pour atteindre cet objectif. Les recherches visent à offrir un avantage indéniable aux cyclistes tricolores, à améliorer leurs performances et à recueillir un maximum de données durant l’entrainement et les courses. Cette approche globale et multidisciplinaire place les athlètes au centre de la performance en associant matériel de pointe et accompagnement humain de qualité.
L’Union Européenne a adopté une loi historique régulant l’intelligence artificielle, couvrant des domaines comme l’éthique, la transparence et la sécurité. Ce cadre juridique vise à instaurer un juste équilibre entre innovation et maîtrise des risques liés à l’IA. La nouvelle loi est largement saluée mais suscite également des critiques concernant sa rigidité possible et l’incertitude pesant sur certains points. Malgré cela, elle devrait stimuler l’essor de champions européens de l’IA et favoriser un usage responsable de ces technologies innovantes.