Anthropic sous pression du Pentagone

Anthropic, l’éditeur du célèbre chatbot Claude, a annoncé un recentrage de sa politique de sécurité, invoquant une concurrence accrue sur le marché de l’intelligence artificielle. Jusqu’ici affichée comme très prudente et visant à établir des standards élevés de sécurité, la stratégie de l’entreprise évolue sous la pression commerciale et des priorités politiques qui favorisent compétitivité et croissance. Désormais, Anthropic dit renoncer à suspendre automatiquement le développement de ses modèles dès l’apparition de risques potentiels et préférer analyser les pratiques de ses concurrents pour calibrer sa réponse. Ce revirement intervient alors que la société subit des pressions du Pentagone, qui souhaite exploiter ses outils d’IA pour diverses applications, y compris des dispositifs de surveillance de grande ampleur. Anthropic n’a, pour l’heure, pas accepté de transférer ses droits d’usage au ministère de la Défense. Tout cela fait écho à la démission récente de Mrinank Sharma, ex-responsable Safeguards Research, qui alertait sur un « monde en péril« . Sur les pressions du Pentagone, le 24 février, le secrétaire à la Défense Pete Hegseth a posé un ultimatum à Anthropic pour lever les restrictions d’usage de Claude d’ici vendredi, après une rencontre avec Dario Amodei. Tous les fournisseurs d’IA ont accepté d’ouvrir leurs modèles par défaut pour des usages légaux, mais Anthropic maintient deux lignes rouges : interdiction des armes autonomes létales et de la surveillance de masse des citoyens américains. Un porte-parole indique que des discussions « de bonne foi » se poursuivent pour un soutien à la sécurité nationale, sans transfert de droits d’usage. Dario Amodei et Jared Kaplan soulignent que freiner l’innovation au profit de la sécurité, face à des concurrents moins prudents, rendrait le monde « moins sûr ».