Anthropic a prévenu Trump : son IA Mythos est trop dangereuse pour le monde

Anthropic a prévenu Trump : son IA Mythos est trop dangereuse pour le monde

Un briefing au sommet de l’État américain

C’est lors du sommet Semafor World Economy que Jack Clark, cofondateur d’Anthropic et ancien directeur des politiques publiques d’OpenAI, a levé le voile sur un épisode resté jusqu’ici confidentiel. Anthropic a directement alerté l’administration Trump sur les capacités de son modèle d’IA Mythos, considéré en interne comme trop puissant pour être mis entre toutes les mains.

Le briefing, qui s’est déroulé dans les semaines précédant la révélation publique, a impliqué plusieurs responsables de haut rang de la Maison-Blanche. Selon les informations disponibles, Jack Clark aurait présenté en détail les résultats des tests de sécurité internes, démontrant que Mythos possède des capacités qui dépassent les seuils de risque établis par l’entreprise.

La décision a été prise : Mythos ne sera pas rendu accessible au public. Une première dans l’histoire de l’intelligence artificielle commerciale, où la course à la mise sur le marché a toujours primé sur les considérations de sécurité.

Une faille dormante depuis 27 ans découverte par l’IA

Parmi les capacités qui ont poussé Anthropic à tirer la sonnette d’alarme, les compétences de Mythos en cybersécurité occupent une place centrale. Lors des tests internes, le modèle a démontré une aptitude sans précédent à analyser du code source complexe et à identifier des vulnérabilités que des armées de développeurs humains avaient manquées pendant des décennies.

Le cas le plus frappant : Mythos a découvert une faille de sécurité dormante depuis 27 ans dans le code de BSD, le système d’exploitation open source qui constitue la base de nombreux systèmes critiques. BSD est notamment au fondement d’iOS (le système de l’iPhone d’Apple), du système d’exploitation de la PlayStation de Sony, et de nombreuses infrastructures de serveurs à travers le monde.

Cette découverte illustre à la fois le potentiel extraordinaire et le danger considérable de ces modèles d’IA. Si Mythos peut trouver des failles que personne n’a détectées en près de trois décennies, il pourrait tout aussi bien être utilisé pour les exploiter à des fins malveillantes. Un outil d’une telle puissance entre les mains de cybercriminels ou d’États hostiles représenterait une menace sans précédent pour la cybersécurité mondiale.

Les grandes banques américaines sous pression

L’affaire Mythos a pris une dimension inattendue lorsqu’il est apparu que des responsables de l’administration Trump avaient encouragé les plus grandes banques américaines à tester le modèle. Les établissements concernés ne sont autres que les piliers de la finance mondiale : JPMorgan Chase, Goldman Sachs, Citigroup, Bank of America et Morgan Stanley.

Cette initiative a été suivie d’un événement encore plus surprenant. Le secrétaire au Trésor et le président de la Réserve fédérale Jerome Powell ont convoqué une réunion surprise avec les dirigeants de ces grandes banques. L’objet de cette rencontre au sommet : discuter des implications de l’IA avancée pour le secteur financier et évaluer les capacités de Mythos dans un contexte bancaire.

Les détails de cette réunion restent largement confidentiels, mais des sources proches du dossier indiquent que les discussions ont porté sur la capacité de Mythos à détecter des fraudes complexes, à identifier des vulnérabilités dans les systèmes bancaires et à analyser des volumes massifs de données financières en temps réel.

Le Département de la Défense dans l’équation

L’affaire se complique encore davantage lorsqu’on examine les relations entre Anthropic et le Département de la Défense américain (DOD). En mars 2026, Anthropic a engagé une procédure judiciaire contre le DOD après que ce dernier l’a classée comme « risque pour la chaîne d’approvisionnement », une désignation qui pourrait l’exclure des contrats fédéraux.

Ce contentieux juridique révèle les tensions profondes qui existent entre les entreprises d’IA avancée et l’appareil de sécurité américain. D’un côté, Anthropic cherche à travailler avec le gouvernement fédéral et à démontrer sa fiabilité. De l’autre, ses propres avertissements sur les dangers de ses modèles alimentent la méfiance des agences de défense.

Le paradoxe est saisissant : Anthropic alerte le gouvernement sur les dangers de son IA tout en poursuivant ce même gouvernement pour obtenir le droit de travailler avec lui. Cette situation inédite illustre la complexité des rapports entre l’industrie de l’IA et le pouvoir politique.

David Sacks dénonce des « tactiques alarmistes »

Au sein même de l’administration Trump, la démarche d’Anthropic ne fait pas l’unanimité. David Sacks, le conseiller spécial de Donald Trump pour l’intelligence artificielle, a vivement critiqué l’entreprise, l’accusant d’avoir un « historique de tactiques alarmistes ».

Selon Sacks, Anthropic instrumentaliserait les craintes liées à l’IA pour obtenir un avantage concurrentiel et réglementaire. En se positionnant comme l’entreprise responsable qui refuse de publier un modèle trop dangereux, Anthropic chercherait en réalité à pousser les régulateurs à imposer des contraintes qui pénaliseraient ses concurrents, notamment OpenAI et Google DeepMind.

Cette accusation n’est pas nouvelle. Anthropic, fondée en 2021 par d’anciens dirigeants d’OpenAI précisément sur la promesse d’une approche plus sûre de l’IA, a toujours été critiquée par certains observateurs pour ce qu’ils perçoivent comme une stratégie de communication mêlant sincérité et calcul commercial.

Un « coup médiatique » selon France24

L’affaire a largement dépassé les frontières américaines. France24 a rapporté que plusieurs analystes européens ont qualifié la démarche d’Anthropic de « coup médiatique », soupçonnant l’entreprise de chercher à se positionner comme l’acteur incontournable des discussions sur la régulation de l’IA.

Les accusations reposent sur un constat : en alertant publiquement sur les dangers de son propre modèle, Anthropic bénéficie d’une couverture médiatique massive et se place au centre du débat politique. Une stratégie qui rappelle les pratiques de certaines entreprises technologiques qui ont su utiliser les craintes du public pour façonner l’environnement réglementaire en leur faveur.

Cependant, d’autres observateurs estiment que ces critiques sont injustes. La découverte d’une faille vieille de 27 ans dans BSD est un fait technique vérifiable, pas une construction médiatique. Et la décision de ne pas publier Mythos représente un manque à gagner considérable pour l’entreprise, ce qui plaide en faveur de la sincérité de sa démarche.

Les implications pour l’avenir de l’IA

Au-delà des polémiques, l’affaire Mythos pose des questions fondamentales sur l’avenir du développement de l’intelligence artificielle. Si une entreprise privée peut créer un modèle qu’elle juge elle-même trop dangereux pour être diffusé, qui décide in fine de ce qui est trop dangereux ?

Le précédent créé par Anthropic pourrait avoir des conséquences durables :

  • Pour les entreprises d’IA : la pression pour développer des protocoles de sécurité internes plus rigoureux va s’intensifier.
  • Pour les gouvernements : la nécessité d’un cadre réglementaire international sur les modèles d’IA avancés devient plus urgente que jamais.
  • Pour le public : la prise de conscience que l’IA a atteint un niveau de capacité qui pose de véritables risques de sécurité nationale.
  • Pour la cybersécurité : la course entre les capacités offensives et défensives de l’IA entre dans une nouvelle phase.

Une chose est certaine : avec l’affaire Mythos, le débat sur la sécurité de l’IA quitte définitivement le terrain de la science-fiction pour entrer dans celui de la géopolitique et de la sécurité nationale. Les prochains mois seront déterminants pour définir les règles du jeu dans un domaine où la technologie avance plus vite que les institutions.