Il existe une maquette qu'Anthropic a construite et qu'ils ont refusé de diffuser. Cela devrait vous en dire long.
Le 7 avril, Anthropique Claude Mythos a été annoncé en avant-première… puis, presque aussitôt, le jeu a été déconseillé au public. Non pas parce qu'il ne fonctionnait pas, mais parce qu'il fonctionnait trop bien.
Mythos est un modèle de recherche interne d'Anthropic, développé pour tester les limites des grands modèles de langage dans le domaine de la sécurité logicielle et de la recherche sur les vulnérabilités. Lors de ses tests, il a découvert des milliers de vulnérabilités zero-day jusqu'alors inconnues. Il peut identifier et exploiter ces vulnérabilités dans tous les principaux systèmes d'exploitation et navigateurs web. Il a même créé un exploit pour navigateur web exploitant quatre vulnérabilités enchaînées. Il a obtenu de manière autonome une élévation de privilèges locale sous Linux en exploitant des conditions de concurrence subtiles. Des ingénieurs sans formation en sécurité lui ont demandé de trouver des vulnérabilités d'exécution de code à distance pendant la nuit, et ils ont découvert au réveil un système opérationnel. exploits.
Anthropic l'a appelé un Un tournant décisif pour la sécurité – et a refusé de le diffuser.
Cette décision révèle quelque chose d'important : l'équilibre entre l'attaque et la défense en cybersécurité vient de basculer. Attaques alimentées par l'IA Ces problèmes ne sont plus théoriques. Ils ne sont pas réservés à l'année prochaine. La question que chaque équipe de sécurité doit se poser dès maintenant est la suivante : lorsqu'un attaquant accède à un modèle de ce type (ou similaire), que va-t-il trouver dans votre environnement ?
La réponse dépend presque entièrement d'une seule chose : vos données.
La nouvelle réalité des risques liés aux données alimentées par l'IA
• Les modèles d'IA comme Mythos peuvent découvrir et exploiter de manière autonome et à grande échelle les vulnérabilités.
Le véritable risque ne réside pas dans l'exploitation de la faille, mais dans les données sensibles exposées qui en découlent.
• Les ensembles de données non classifiés et non gouvernés offrent une vulnérabilité totale face à une attaque pilotée par l'IA.
• La sécurité périmétrique traditionnelle ne peut pas suivre le rythme des menaces liées à l'IA autonome
• La découverte, la classification et le contrôle d'accès continus aux données sont désormais essentiels.
• Les organisations qui privilégient la visibilité des données auront une longueur d'avance sur les attaquants utilisant l'IA.
Les organisations ont besoin d'une visibilité continue sur les données sensibles grâce à un Plateforme de sécurité et de gouvernance de l'IA pour réduire les risques avant qu'ils ne soient exposés.
La véritable surface d'attaque, ce n'est pas la vulnérabilité, c'est ce qui se cache derrière.
Les équipes de sécurité ont tendance à se concentrer sur l'exploit : la technique, la CVE, le vecteur. Mythos et les modèles similaires changent la donne car ils peuvent trouver l'exploit de manière autonome. Ces capacités ne sont pas apparues parce qu'Anthropic a entraîné Mythos au piratage ; elles sont une conséquence directe des améliorations générales apportées au code, au raisonnement et à l'autonomie. La même intelligence qui permet à un modèle de mieux corriger les bugs lui permet aussi de mieux les détecter.
Concrètement, cela signifie que la difficulté d'une attaque ne réside plus dans la recherche de la porte, mais dans la décision des actions à entreprendre une fois à l'intérieur.
Et que trouve-t-on dans la plupart des environnements d'entreprise ? Un patrimoine de données qui n'a jamais été entièrement inventorié, gouverné ni classé de manière appropriée. gestion de la posture de sécurité des données. Des données sensibles dispersées entre le stockage cloud, les systèmes sur site, les applications SaaS et les outils de collaboration. Secrets, informations d'identification, PIIet propriété intellectuelle Installés dans des endroits que personne n'avait cartographiés – car jusqu'à présent, la menace que quelqu'un les découvre et les exploite systématiquement en une seule opération autonome semblait lointaine.
Ce n'est plus le cas.
Les joyaux de la couronne à l'ère de l'attaque pilotée par l'IA
L'expression “ joyaux de la couronne ” a toujours désigné les données dont la divulgation serait extrêmement préjudiciable : données personnelles des clients, dossiers médicaux, données financières, secrets commerciaux, code source, identifiants d'authentification, informations relatives aux fusions-acquisitions. Traditionnellement, les programmes de sécurité protègent ces actifs par des contrôles périmétriques : stockage dans des locaux sécurisés, restriction d'accès et enregistrement des manipulations.
Ce modèle part du principe que l'attaquant doit déployer des efforts pour trouver les données sensibles. Il doit savoir où chercher, enchaîner manuellement les exploits, progresser latéralement avec détermination et choisir les failles à exploiter.
Les attaquants utilisant l'IA ne fonctionnent pas ainsi. Un modèle comme Mythos ne se fatigue pas. Il ne procède pas au hasard. Il analyse systématiquement un code source, un système de fichiers, une API et découvre des failles que les attaquants humains ne repèrent pas, car il est plus patient, possède un contexte plus riche et dispose de capacités supérieures à celles de n'importe quel attaquant individuel.
Lorsque cette capacité rencontre un environnement de données non gouverné, il ne s'agit pas d'une violation ciblée, mais d'une exposition totale : toutes les données sensibles sont divulguées simultanément, car rien n'était classifié, restreint, ni même visible de manière appropriée. classification et visibilité des données aux défenseurs qui auraient pu l'attraper.
Les joyaux de la couronne ne sont pas seulement volés. Ils sont ionisés. Décomposés, indexés et mis à la disposition de quiconque possède la requête adéquate.
À quoi ressemble la proactivité aujourd'hui
La manière dont Anthropic conçoit le Mythe est instructive : ils estiment qu’à terme, des modèles comme celui-ci profiteront davantage aux défenseurs qu’aux attaquants, mais que la période de transition pourrait être tumultueuse, et que l’avantage reviendra à celui qui saura tirer le meilleur parti de ces outils en premier.
Pour les entreprises, cela implique une évolution de leur stratégie défensive. Attendre que les incidents surviennent pour piloter la gouvernance des données est une stratégie vouée à l'échec, car ces incidents peuvent désormais se produire plus rapidement, à plus grande échelle et avec une intervention humaine moindre qu'auparavant. Être proactif, c'est agir avant même la violation : non pas en améliorant la détection, mais en améliorant la visibilité.
Les équipes de sécurité qui réussissent cette transition mettent en œuvre cinq actions :
1. Sachez quelles données vous possédez — avant qu'un attaquant ne le fasse
Cela paraît évident. Pourtant, la plupart des organisations en sont incapables. Les données sensibles s'accumulent au fil des décennies, entre les systèmes, les migrations et l'informatique parallèle. Un attaquant utilisant l'IA n'a pas besoin de carte : il en créera une. Il vous en faut une, vous aussi.
Gagnez en visibilité grâce à la découverte et à la classification des données.
2. Classifiez avant de connecter
Chaque pipeline d'IA, système RAG ou flux de travail agentique Ce que vous créez constitue un nouveau canal permettant d'accéder à des données sensibles et de les divulguer. Les données intégrées au contexte d'un LLM sans classification sont des données potentiellement exposées à un vecteur d'exfiltration sans étiquette.
3. Traiter l'accès à l'IA comme un accès privilégié
Si votre assistant IA d'entreprise peut accéder simultanément aux dossiers RH, aux documents financiers et au code source, il s'agit du compte le plus privilégié de votre environnement. Postuler principes du moindre privilège avec la même rigueur que vous appliqueriez à un administrateur humain.
Opérationnaliser la gouvernance de l'accès aux données
4. Découvrir continuellement, et non pas une seule fois.
Les données ne sont pas statiques. Des données sensibles sont créées en permanence, se retrouvent à des endroits inattendus et s'accumulent dans des systèmes non contrôlés depuis des années. Les projets de découverte ponctuels deviennent rapidement obsolètes. Seule une classification continue permet de suivre le rythme.
5. Élaborer des politiques de sécurité des données spécifiques à l'IA
Quelles données peuvent être intégrées aux systèmes d'IA ? Quels résultats doivent être examinés ? Qu'est-ce qui constitue une récupération anormale ? Il faut répondre à ces questions avant le déploiement, et non après un incident.
C'est là qu'intervient BigID.
BigID Elle repose sur un principe qui n'a jamais été aussi urgent : on ne peut protéger ce qu'on ne trouve pas.
Lorsqu'une fonctionnalité comme Mythos existe, et que des fonctionnalités similaires seront inévitablement accessibles à un plus grand nombre d'acteurs, la question fondamentale pour chaque équipe de sécurité est la suivante : Que trouverait un attaquant utilisant l'IA dans notre environnement ? La réponse se trouve dans votre patrimoine de données, et la plupart des organisations ignorent ce qu'il contient.
BigID offre aux équipes de sécurité une visibilité approfondie et continue sur les environnements cloud, sur site et SaaS. découverte et classification des données sensibles à grande échelleIl révèle les données personnelles, les identifiants, les adresses IP, les données réglementées, les données fantômes, et bien plus encore. Il met en lumière les informations sensibles qui se cachent à la vue de tous : les clés API du wiki interne, les numéros de sécurité sociale dans les archives du service d’assistance, le code propriétaire indexé dans l’outil de recherche d’entreprise, et fournit aux équipes les outils nécessaires pour agir : corriger, restreindre, contrôler et appliquer les politiques avant la violation, et non après.
Anthropic a lancé le projet Glasswing précisément pour donner aux équipes de défense une longueur d'avance grâce à Mythos, afin de sécuriser les logiciels critiques avant que des capacités similaires ne soient accessibles aux adversaires. Le même principe s'applique à la sécurité des données. Il est encore temps de prendre les devants. Les organisations qui sauront saisir cette opportunité seront celles qui auront fait de la visibilité des données une priorité absolue en matière de sécurité – et non un simple atout – avant le déploiement de la prochaine version.
Les joyaux de la couronne n'ont de valeur que s'ils restent dans le coffre-fort. Le temps presse.
Découvrez comment BigID sécurise les données d'IA à grande échelle.
Protégez vos données les plus sensibles avant que les attaquants ne s'en emparent. Bénéficiez d'une visibilité complète sur votre parc de données, réduisez les risques liés à l'IA et mettez en œuvre une gouvernance efficace dans tous vos environnements, avant que l'exposition ne se transforme en violation de données.
