Logo Techpacquito

TECHPACQUITO

← Retour à l'actualité
17 avril 2026

3 min de lecture

Distillation chinoise : OpenAI, Anthropic et Google partagent leurs renseignements

Via le Frontier Model Forum, OpenAI, Anthropic et Google échangent pour la première fois des données de détection contre les pratiques de distillation adversariale chinoises.

SécuritéModèles IARéglementation

Distillation chinoise : OpenAI, Anthropic et Google partagent leurs renseignements

Révélé par Bloomberg le 6 avril, un accord de partage d'informations entre OpenAI, Anthropic, Google et Microsoft remet en activité le Frontier Model Forum, fondé en 2023 mais resté largement inactif depuis lors. La cible est clairement définie : les pratiques de distillation adversariale par lesquelles plusieurs laboratoires chinois extrayaient les capacités des modèles américains via des comptes frauduleux. C'est la première fois que ces concurrents directs coordonnent un mécanisme de défense opérationnel contre une menace commune.


Carte numérique stylisée représentant des flux de données entre continents, avec des points lumineux en terracotta sur fond sombre


Seize millions d'échanges détournés en quelques mois

En février 2026, Anthropic avait publié un rapport identifiant trois laboratoires chinois ayant conduit des opérations coordonnées d'extraction de connaissances à grande échelle. DeepSeek, Moonshot AI et MiniMax auraient créé 24 000 comptes frauduleux et généré 16 millions d'échanges avec Claude pour alimenter l'entraînement de leurs propres modèles.

La répartition est déséquilibrée : MiniMax concentre à lui seul 13 millions d'échanges, soit 81 % du total. Moonshot AI en comptabilise 3,4 millions supplémentaires. DeepSeek, bien que moins prolifique en volume, emploie les méthodes les plus sophistiquées : le rapport cite notamment l'utilisation de Claude pour développer des fonctionnalités de censure à destination du gouvernement chinois. OpenAI a de son côté signalé que DeepSeek avait développé des techniques d'extraction de plus en plus avancées visant ses propres modèles.

La distillation adversariale fonctionne en interrogeant massivement un modèle frontier et en utilisant ses réponses comme données d'entraînement pour un modèle plus petit. La pratique permet de répliquer une large partie des capacités d'un modèle coûteux sans financer ni la recherche ni l'infrastructure qui l'ont produit.

Le Frontier Model Forum sort de l'ombre

Fondé en 2023 par OpenAI, Anthropic, Google et Microsoft, le Forum avait jusqu'ici produit des principes de sécurité généraux sans portée opérationnelle concrète. Avec cet accord, les trois laboratoires partagent désormais des données de détection en temps réel pour identifier et bloquer les tentatives de distillation adversariale avant qu'elles n'atteignent une échelle industrielle.

Pour la première fois, des entreprises en compétition directe sur le marché des LLMs échangent des renseignements sur des cybermenaces spécifiques visant leurs modèles. La nature de ces données reste confidentielle, mais les membres du Forum ont confirmé partager des signatures d'attaques, des patterns de comportement suspects et des listes de comptes identifiés comme frauduleux.

La réponse des laboratoires ciblés varie. MiniMax n'a pas commenté publiquement les chiffres avancés par Anthropic. DeepSeek a contesté la description de ses activités comme adversariales, arguant que la distillation est une technique standard du secteur. Moonshot AI n'a pas répondu aux demandes de commentaire.

Ce que ça signifie pour vous

Pour les développeurs qui utilisent les API de ces laboratoires, l'accord peut renforcer la surveillance des usages légitimes, avec un risque de faux positifs pour des scénarios d'utilisation intensive ressemblant superficiellement à de la distillation. Les conditions d'utilisation de ces API interdisent déjà explicitement d'utiliser les sorties d'un modèle pour en entraîner un autre.

Pour l'écosystème open source, la ligne est plus floue. La distillation adversariale vise des modèles propriétaires, mais les techniques de distillation légitimes à partir de modèles ouverts, comme Llama 4 ou Gemma 4, restent un pilier du développement de modèles accessibles. L'accord du Forum ne remet pas ces pratiques en cause, mais il illustre la pression croissante sur les usages non déclarés des modèles commerciaux.


Sources : Bloomberg · Tom's Hardware · Built In · Business Standard