(Zonebourse.com) - Le département américain de la Défense impose désormais à ses fournisseurs de certifier qu'ils n'utilisent pas les modèles de la start-up.
Le directeur technologique du département américain de la Défense, Emil Michael, a déclaré que les modèles d'intelligence artificielle Claude développés par Anthropic représentaient un risque potentiel pour la chaîne d'approvisionnement du Pentagone. Selon lui, certaines préférences politiques seraient intégrées dans la conception même du système, ce qui pourrait influencer les résultats produits par ces outils. Il a affirmé que l'armée ne pouvait pas intégrer dans ses processus des technologies susceptibles d'affecter la qualité ou la fiabilité des équipements destinés aux soldats.
Anthropic devient ainsi la première entreprise américaine à être publiquement désignée comme un risque pour la chaîne d'approvisionnement du Pentagone, une classification habituellement réservée à des entités liées à des pays considérés comme adversaires. Cette décision oblige désormais les contractants et fournisseurs travaillant avec le département de la Défense à certifier qu'ils n'utilisent pas les modèles Claude dans le cadre de leurs activités liées au Pentagone.
La start-up a contesté cette mesure en engageant une action en justice contre l'administration Trump, la qualifiant de décision "sans précédent et illégale". Dans sa plainte, Anthropic affirme que cette classification pourrait menacer des contrats représentant plusieurs centaines de millions de dollars. Le Pentagone assure toutefois que la mesure n'a pas de caractère punitif et souligne que les activités gouvernementales d'Anthropic représentent une part limitée de ses revenus, majoritairement issus du secteur privé.
Copyright (c) 2026 Zonebourse.com - All rights reserved.
Recevez toutes les infos sur AMAZON.COM en temps réel :
Par « push » sur votre mobile grâce à l’application BFM Bourse
Par email