L’affaire Pentagone / Anthropic / OpenAI : ce que ça change pour la gouvernance de vos données
L’affaire Pentagone / Anthropic / OpenAI de ces derniers jours m’a interpellée.Le Pentagone a rompu son contrat avec Anthropic après que l’entreprise a refusé d’assouplir les garde-fous de sécurité de son IA Claude pour un usage militaire.Concrètement, les deux garde-fous éthiques sont : pas d’armes autonomes, pas de surveillance de masse dans les contrats d’Anthropic.Anthropic a donc refusé, estimant que retirer ces protections violerait ses principes de sécurité et d’éthique. Le Département de la Défense a alors annulé le contrat et désigné Anthropic comme un risque pour la sécurité nationale en matière de chaîne d’approvisionnement.Après une période d’incompréhension qui m’a poussée à chercher des informations, j’en ai tiré plusieurs enseignements sur la gouvernance documentaire.
Ce qui s’est passé
Perdre un contrat de cet acabit est très lourd certes ; mais désigner un acteur américain incontournable comme Anthropic – le créateur de Claude, l’une des IA génératives les plus avancées – comme un risque pour la sécurité nationale en matière de chaîne d’approvisionnement, au même titre que Huawei ou des sociétés étrangères, est très fort.On comprend derrière ce revirement les enjeux très élevés pour la Défense américaine. D’autant que dans le contexte actuel, les armes autonomes commencent à se généraliser dans les conflits récents. Mais on comprend également le refus de Dario Amodei, PDG d’Anthropic, qui a déclaré publiquement qu’il ne pouvait « en bonne conscience » accéder à ces demandes.Quelques jours après la rupture, le Pentagone a annoncé un accord avec OpenAI, permettant l’usage de ses modèles dans des réseaux classifiés, sous certaines « lignes rouges ».
Posture ou éthique ?
Est-ce un jeu de posture pour les éditeurs ou une réelle volonté éthique ? Y a-t-il comme l’écrivent certains une ligne de fracture supposée entre IA « sécurisée » et IA « militarisable » ?Je ne saurais trancher une si difficile question. En revanche, nous avons appris ensuite que Sam Altman a reconnu que l’accord était « opportuniste et bâclé » et a annoncé une renégociation le 3 mars. Cela suggère que les garde-fous d’Anthropic n’étaient peut-être pas si déraisonnables et que les éditeurs ne souhaitent probablement pas être « entraînés » dans cette course.
De la souveraineté technologique à la souveraineté documentaire
Pour les États, les enjeux sont en réalité des enjeux de souveraineté technologique : éviter de dépendre de modèles qu’on ne peut pas contrôler totalement.Quel parallèle peut-on faire avec les enjeux de gouvernance documentaire ? Eh bien, là aussi, on parle de « souveraineté documentaire ».On sait bien que depuis 2018, la loi américaine Cloud Act permet aux autorités américaines de demander l’accès aux données détenues par une entreprise américaine, même quand ces données sont hébergées en Europe.
Ce n’est pas le fait de payer qui protège vos données
Les grands éditeurs d’IA s’engagent à ne pas utiliser vos données pour entraîner leurs modèles dans leurs offres entreprises.Les offres entreprises sont à distinguer des offres grand public / standard (gratuites ou payantes individuelles). Ce n’est pas le fait de payer qui protège vos données. C’est le fait d’être dans une offre entreprise.Parce que les modèles ont besoin de données pour s’améliorer, mais :
les particuliers acceptent des CGU plus souples,
les entreprises exigent une confidentialité totale,
les régulateurs (RGPD, AI Act) imposent des garanties strictes.
Par conséquent, les éditeurs ont créé deux circuits distincts.
Est-ce suffisant ? 5 bonnes pratiques
Est-on certain qu’une offre entreprise protège complètement vos données ? Autrement dit, est-ce suffisant ?Voici quelques bonnes pratiques de protection des données quand vous utilisez une IA dans le cadre professionnel.
Choisir une offre Entreprise
Minimiser ce que vous envoyez à l’IA — pas de dossier entier scanné ; uniquement du copier-coller savamment choisi ; éviter d’intégrer des fichiers avec du contenu stratégique.
Anonymiser avant d’envoyer — pas de nom ou les « génériquer » avec des prénoms, pas de numéros ou des numéros de dossiers « bidons ».
Ne pas dépendre d’une seule IA — essayez de ne pas mettre tous vos œufs dans le même panier et choisissez l’IA en fonction de sa compétence clé.
★★★★★ Utiliser un proxy — un outil de filtrage qui joue le rôle de sas entre vos données et l’IA, et qui va nettoyer vos données (suppression des noms, numéros, informations sensibles) avant qu’elles n’atteignent le modèle. Des solutions comme Portkey, LiteLLM ou TrueFoundry proposent ce type de service, mais la mise en place nécessite une DSI ou un prestataire technique.
Les points 1 à 4 sont à la portée de toute organisation dès aujourd’hui. Le point 5 relève d’un projet technique, mais c’est vers là qu’on se dirige.Françoise Cohen-Cassuto, 05/03/2026
Prêt à transformer vos archives en levier de performance ?
Ne laissez pas vos archives peser sur votre productivité. Faites le premier pas vers une organisation optimisée, un gain d’espace, et des économies mesurables. Avec Un dossier Une place, chaque euro investi génère des résultats concrets dès les premiers mois.
Pour offrir les meilleures expériences, nous utilisons des technologies telles que les cookies pour stocker et/ou accéder aux informations des appareils. Le fait de consentir à ces technologies nous permettra de traiter des données telles que le comportement de navigation ou les ID uniques sur ce site. Le fait de ne pas consentir ou de retirer son consentement peut avoir un effet négatif sur certaines caractéristiques et fonctions.
Fonctionnel
Toujours activé
L’accès ou le stockage technique est strictement nécessaire dans la finalité d’intérêt légitime de permettre l’utilisation d’un service spécifique explicitement demandé par l’abonné ou l’utilisateur, ou dans le seul but d’effectuer la transmission d’une communication sur un réseau de communications électroniques.
Préférences
L’accès ou le stockage technique est nécessaire dans la finalité d’intérêt légitime de stocker des préférences qui ne sont pas demandées par l’abonné ou l’internaute.
Statistiques
Le stockage ou l’accès technique qui est utilisé exclusivement à des fins statistiques.Le stockage ou l’accès technique qui est utilisé exclusivement dans des finalités statistiques anonymes. En l’absence d’une assignation à comparaître, d’une conformité volontaire de la part de votre fournisseur d’accès à internet ou d’enregistrements supplémentaires provenant d’une tierce partie, les informations stockées ou extraites à cette seule fin ne peuvent généralement pas être utilisées pour vous identifier.
Marketing
L’accès ou le stockage technique est nécessaire pour créer des profils d’internautes afin d’envoyer des publicités, ou pour suivre l’utilisateur sur un site web ou sur plusieurs sites web ayant des finalités marketing similaires.