Anthropic, l’entreprise qui a développé le LLM Claude, reprend les négociations avec le ministère de la Défense des États-Unis pour éviter d’être désignée comme un « risque pour la chaîne d’approvisionnement ». Après un premier contrat de 200 millions de dollars signé en 2025, les discussions s’étaient interrompues en raison de désaccords sur des clauses contractuelles concernant l’utilisation de ses modèles d’IA, notamment en lien avec la surveillance de masse. Anthropic avait pris publiquement position contre ces pratiques. Le PDG d’Anthropic, Dario Amodei, avait indiqué dans un mémo que le ministère proposait d’accepter les conditions de l’entreprise si une phrase spécifique sur l’analyse des données acquises en masse était supprimée, ce qu’Anthropic avait refusé. En conséquence, le gouvernement avait menacé d’annuler le contrat existant et d’imposer à Anthropic le même étiquetage de risque habituellement appliqué aux entreprises chinoises. Cette situation a conduit à une phase de retrait de six mois durant laquelle le gouvernement a continué à utiliser les outils d’IA d’Anthropic, y compris pour des opérations militaires.