(Zonebourse.com) - Microsoft, Google et xAI acceptent de soumettre leurs systèmes à des contrôles de sécurité avant leur lancement, dans un contexte de préoccupations croissantes sur les risques liés à l'intelligence artificielle.
Microsoft, Google et xAI ont accepté de fournir un accès anticipé à leurs nouveaux modèles d'intelligence artificielle au gouvernement américain afin de permettre des évaluations de sécurité avant leur commercialisation. Cet accord, coordonné par le Center for AI Standards and Innovation (CAISI), rattaché au département du Commerce, vise à analyser les capacités de ces systèmes et à identifier d'éventuelles vulnérabilités, notamment en matière de sécurité nationale.
Cette initiative intervient dans un contexte d'inquiétudes croissantes liées au développement rapide de modèles d'IA avancés, susceptibles d'être exploités pour renforcer des cyberattaques. Des progrès récents, comme certains modèles spécialisés en cybersécurité, ont accentué ces préoccupations. Le CAISI, chargé de ces évaluations, indique avoir déjà conduit plus de 40 tests, y compris sur des modèles non encore accessibles au public, avec la collaboration des entreprises concernées.
Ce dispositif s'inscrit dans la continuité d'accords conclus en 2024 avec d'autres acteurs majeurs du secteur. Parallèlement, le département de la Défense intensifie l'intégration de l'IA en signant des partenariats avec plusieurs entreprises technologiques pour déployer ces outils sur des réseaux classifiés, dans une logique de renforcement de ses capacités et de diversification de ses fournisseurs.
Copyright (c) 2026 Zonebourse.com - All rights reserved.
chiffres clés
Portefeuille Trading
+330.70 % vs +61.47 % pour le CAC 40
Performance depuis le 28 mai 2008