L’affaire Pentagone / Anthropic / OpenAI : ce que ça change pour la gouvernance de vos données

blog pentagone claude 1
L’affaire Pentagone / Anthropic / OpenAI de ces derniers jours m’a interpellée.
Le Pentagone a rompu son contrat avec Anthropic après que l’entreprise a refusé d’assouplir les garde-fous de sécurité de son IA Claude pour un usage militaire.Concrètement, les deux garde-fous éthiques sont : pas d’armes autonomes, pas de surveillance de masse dans les contrats d’Anthropic.Anthropic a donc refusé, estimant que retirer ces protections violerait ses principes de sécurité et d’éthique. Le Département de la Défense a alors annulé le contrat et désigné Anthropic comme un risque pour la sécurité nationale en matière de chaîne d’approvisionnement.Après une période d’incompréhension qui m’a poussée à chercher des informations, j’en ai tiré plusieurs enseignements sur la gouvernance documentaire.

Ce qui s’est passé

Perdre un contrat de cet acabit est très lourd certes ; mais désigner un acteur américain incontournable comme Anthropic – le créateur de Claude, l’une des IA génératives les plus avancées – comme un risque pour la sécurité nationale en matière de chaîne d’approvisionnement, au même titre que Huawei ou des sociétés étrangères, est très fort.On comprend derrière ce revirement les enjeux très élevés pour la Défense américaine. D’autant que dans le contexte actuel, les armes autonomes commencent à se généraliser dans les conflits récents. Mais on comprend également le refus de Dario Amodei, PDG d’Anthropic, qui a déclaré publiquement qu’il ne pouvait « en bonne conscience » accéder à ces demandes.Quelques jours après la rupture, le Pentagone a annoncé un accord avec OpenAI, permettant l’usage de ses modèles dans des réseaux classifiés, sous certaines « lignes rouges ».

Posture ou éthique ?

Est-ce un jeu de posture pour les éditeurs ou une réelle volonté éthique ? Y a-t-il comme l’écrivent certains une ligne de fracture supposée entre IA « sécurisée » et IA « militarisable » ?Je ne saurais trancher une si difficile question. En revanche, nous avons appris ensuite que Sam Altman a reconnu que l’accord était « opportuniste et bâclé » et a annoncé une renégociation le 3 mars. Cela suggère que les garde-fous d’Anthropic n’étaient peut-être pas si déraisonnables et que les éditeurs ne souhaitent probablement pas être « entraînés » dans cette course.

De la souveraineté technologique à la souveraineté documentaire

Pour les États, les enjeux sont en réalité des enjeux de souveraineté technologique : éviter de dépendre de modèles qu’on ne peut pas contrôler totalement.Quel parallèle peut-on faire avec les enjeux de gouvernance documentaire ? Eh bien, là aussi, on parle de « souveraineté documentaire ».On sait bien que depuis 2018, la loi américaine Cloud Act permet aux autorités américaines de demander l’accès aux données détenues par une entreprise américaine, même quand ces données sont hébergées en Europe.

Ce n’est pas le fait de payer qui protège vos données

Les grands éditeurs d’IA s’engagent à ne pas utiliser vos données pour entraîner leurs modèles dans leurs offres entreprises.Les offres entreprises sont à distinguer des offres grand public / standard (gratuites ou payantes individuelles). Ce n’est pas le fait de payer qui protège vos données. C’est le fait d’être dans une offre entreprise.Parce que les modèles ont besoin de données pour s’améliorer, mais :
      • les particuliers acceptent des CGU plus souples,
      • les entreprises exigent une confidentialité totale,
      • les régulateurs (RGPD, AI Act) imposent des garanties strictes.
    Par conséquent, les éditeurs ont créé deux circuits distincts.

    Est-ce suffisant ? 5 bonnes pratiques

    Est-on certain qu’une offre entreprise protège complètement vos données ? Autrement dit, est-ce suffisant ?Voici quelques bonnes pratiques de protection des données quand vous utilisez une IA dans le cadre professionnel.
        1. Choisir une offre Entreprise
        1. Minimiser ce que vous envoyez à l’IA — pas de dossier entier scanné ; uniquement du copier-coller savamment choisi ; éviter d’intégrer des fichiers avec du contenu stratégique.
        1. Anonymiser avant d’envoyer — pas de nom ou les « génériquer » avec des prénoms, pas de numéros ou des numéros de dossiers « bidons ».
        1. Ne pas dépendre d’une seule IA — essayez de ne pas mettre tous vos œufs dans le même panier et choisissez l’IA en fonction de sa compétence clé.
        1. ★★★★★ Utiliser un proxy — un outil de filtrage qui joue le rôle de sas entre vos données et l’IA, et qui va nettoyer vos données (suppression des noms, numéros, informations sensibles) avant qu’elles n’atteignent le modèle. Des solutions comme Portkey, LiteLLM ou TrueFoundry proposent ce type de service, mais la mise en place nécessite une DSI ou un prestataire technique.
      Les points 1 à 4 sont à la portée de toute organisation dès aujourd’hui. Le point 5 relève d’un projet technique, mais c’est vers là qu’on se dirige.Françoise Cohen-Cassuto, 05/03/2026

      Sources

      Chronologie Anthropic / Pentagone :
          • NPR, CNN, Axios, Bloomberg (27 février – 3 mars 2026)
        Cadre juridique :
          Politiques de données des éditeurs :
            Architecture proxy / AI Gateway :
                • Portkey : « Best AI Gateway Solutions »

              Prêt à transformer vos archives en levier de performance ?

              Ne laissez pas vos archives peser sur votre productivité. Faites le premier pas vers une organisation optimisée, un gain d’espace, et des économies mesurables. Avec Un dossier Une place, chaque euro investi génère des résultats concrets dès les premiers mois.