Archives par mot-clé : IA générative

L’IA au service d’un piratage éclair de FortiGate

Entre automatisation et négligence, une campagne récente montre comment des interfaces d’administration exposées et des mots de passe faibles suffisent à ouvrir des réseaux entiers, à grande échelle.

Une analyse d’Amazon décrit une campagne menée entre le 11 janvier et le 18 février 2026, où un cybercriminel motivé par le profit a compromis plus de 600 équipements FortiGate dans 55 pays. L’attaque ne reposait pas sur des failles logicielles, mais sur des consoles de gestion laissées accessibles depuis Internet et protégées par une authentification simple avec des mots de passe faciles à deviner. En s’appuyant sur plusieurs services commerciaux d’IA générative, l’attaquant a industrialisé la méthode, récupérant configurations, identifiants, plans réseau et paramètres VPN. Objectif final, pénétrer l’interne, viser Active Directory et sonder les sauvegardes, un signal souvent associé aux préparatifs d’un rançongiciel.

Une intrusion sans vulnérabilité, portée par l’automatisation

Le scénario a quelque chose d’inconfortable, parce qu’il n’exige ni exploit sophistiqué ni compétence rare. D’après Amazon, du 11 janvier au 18 février 2026, soit 38 jours si l’on compte du premier au dernier jour, un acteur cybercriminel a pris pied sur plus de 600 équipements FortiGate répartis dans 55 pays. Le volume et la dispersion géographique donnent l’impression d’une opération structurée, pourtant l’analyse conclut à un profil non étatique, plutôt un loup solitaire ou un petit noyau opportuniste.

Le point d’entrée n’est pas une vulnérabilité du produit. L’attaquant a cherché des interfaces de gestion directement exposées sur Internet, puis a tenté de deviner ou de forcer des mots de passe trop faibles, avec une authentification à facteur unique. Le cœur du problème est donc une erreur de configuration élémentaire, que l’on retrouve encore dans des entreprises de toutes tailles, parfois par héritage de choix anciens, parfois par manque de contrôle, souvent parce que l’accès distant “temporaire” finit par devenir permanent.

Ce qui change, selon Amazon, c’est la cadence. Plusieurs services commerciaux d’IA générative auraient servi à mettre en place une chaîne d’actions quasi automatique. L’IA ne « pirate » pas à elle seule, mais elle peut accélérer la préparation, l’enchaînement des étapes, la normalisation des commandes, l’adaptation des scripts et la production de variations lorsque l’environnement diffère légèrement. À l’échelle d’Internet, ce gain de temps transforme une routine d’attaquant en moisson industrielle. Quand la barrière technique baisse, le véritable facteur limitant devient la discipline d’hygiène numérique du côté des défenseurs.

De la configuration au cœur du réseau, la trajectoire classique

Une fois l’équipement compromis, l’attaquant a téléchargé les configurations complètes. C’est un trésor opérationnel, parce qu’il peut y trouver des identifiants, des informations de topologie, des indices sur la segmentation, ainsi que des paramètres de réseau privé virtuel. À partir de là, le basculement est logique, l’objectif n’est pas l’équipement lui-même, mais la porte qu’il ouvre sur l’infrastructure interne des organisations.

L’analyse décrit ensuite une progression vers les domaines Active Directory. Cette étape est un pivot, car Active Directory concentre l’identité, les droits et souvent les clés d’accès aux ressources critiques. L’attaquant a extrait des bases de données de comptes et, dans certains cas, a obtenu des ensembles complets de hachages de mots de passe. Même sans casser immédiatement ces hachages, leur possession facilite la réutilisation d’identifiants, les tentatives hors ligne et la cartographie des privilèges.

Un autre détail pèse lourd, l’intérêt marqué pour les serveurs de sauvegarde. Dans la pratique des intrusions à but lucratif, les sauvegardes sont la bouée de secours des victimes, donc une cible prioritaire pour qui veut monétiser l’accès. L’analyse souligne que cette curiosité pour les systèmes de backup intervient fréquemment avant le déploiement d’un rançongiciel. Autrement dit, la compromission du périmètre n’est qu’un début, le vrai risque se situe dans la capacité à rendre la restauration impossible ou douloureuse.

Enfin, la campagne semble guidée par un pragmatisme froid. Lorsque l’environnement imposait des opérations plus complexes, l’attaquant ne s’acharnait pas et passait à une autre cible. Cette discipline révèle une logique de rendement, maximiser les gains en minimisant le temps passé par victime. C’est précisément là que l’IA générative, utilisée comme accélérateur, renforce le modèle, elle aide à standardiser l’approche et à éliminer les frictions, sans nécessairement augmenter la profondeur technique de l’attaque.

Au bout du compte, cette affaire rappelle une vérité de cyber-renseignement, l’avantage revient à celui qui transforme de petites failles d’hygiène en informations actionnables, vite, à grande échelle.

HackerOne et l’IA : la confiance des hackers ébranlée

Un lancement produit a suffi à faire monter la pression dans l’écosystème bug bounty. Chez HackerOne, une promesse d’IA « agentique » a réveillé une crainte simple : l’exploitation des rapports des chercheurs.

HackerOne s’est retrouvé au centre d’une controverse après le lancement d’Agentic PTaaS, présenté comme des tests de sécurité continus combinant agents d’IA autonomes et expertise humaine. Une phrase sur une « base de connaissances exclusive sur les exploits », constituée au fil d’années de tests réels, a déclenché une question sensible : d’où viennent les données d’entraînement. Des chercheurs, dont l’ancien contributeur YShahinzadeh et le spécialiste AegisTrail, ont exprimé leurs inquiétudes.

La phrase de trop dans Agentic PTaaS

L’incident démarre avec un produit, Agentic PTaaS, que HackerOne décrit comme un dispositif de « tests de sécurité continus » reposant sur des agents d’IA autonomes, complétés par des humains. La promesse est ambitieuse, presque séduisante pour des clients pressés d’industrialiser la sécurité. Pourtant, dans ce type d’annonces, tout se joue souvent sur une formulation.

Ici, c’est la mention d’agents « entraînés et perfectionnés » grâce à une « base de connaissances exclusive sur les exploits », alimentée par des années de tests sur des systèmes d’entreprise réels. Dans le monde du bug bounty, ces mots ont une portée particulière. Les rapports de vulnérabilités sont plus que des tickets techniques, ce sont des récits d’accès, de logique d’exploitation, de preuves, parfois de contournements. Ils concentrent des idées originales, une méthodologie et, souvent, des détails sensibles.

Très vite, la question s’impose chez les chasseurs de bugs : ces connaissances viennent-elles, directement ou indirectement, des rapports soumis par les chercheurs ? Un ancien chasseur, sous le pseudonyme YShahinzadeh, formule la crainte sans détour, en demandant, en substance, que ses rapports n’aient pas servi à entraîner ces agents. La tension est immédiate, car l’équilibre économique et moral du bug bounty repose sur un contrat implicite : le chercheur fournit un signal rare, la plateforme orchestre, le client corrige, la prime rémunère. Si ce signal devient une matière première pour des systèmes automatisés, la valeur perçue du travail humain peut se déplacer, sans compensation claire.

 



News & Réseaux Sociaux ZATAZ

Chaque vendredi midi, recevez gratuitement les actualités de la semaine.

Un autre spécialiste, AegisTrail, pousse l’alerte sur un terrain plus sombre. Il décrit un moment où des « chapeaux blancs » peuvent se sentir coincés, comme si les règles se retournaient contre eux, au point que « le côté obscur » devienne une tentation nourrie par la colère et l’instinct de survie plutôt que par l’éthique. Derrière la formule, il y a un message de contre-renseignement : quand la confiance s’érode, les comportements changent, et l’écosystème entier devient plus difficile à gouverner.

La réponse de la PDG et l’effet domino chez les concurrents

La pression publique a conduit la PDG, Kara Sprague, à s’exprimer de manière détaillée sur LinkedIn. Son message vise précisément le point le plus explosif : l’entraînement. Elle affirme que HackerOne n’entraîne pas de modèles d’IA génératifs, ni en interne ni via des prestataires, à partir des rapports des chercheurs ou de données confidentielles de clients. Elle ajoute que ces rapports ne servent pas non plus à affiner ou améliorer les modèles. Enfin, elle explique que les fournisseurs de modèles tiers n’ont pas le droit de stocker ou d’exploiter les données des chercheurs ou des clients pour entraîner leurs propres modèles.

Dans le même mouvement, Sprague présente HackerOne Hai, le système d’IA « basé sur des agents », comme un accélérateur opérationnel : produire plus vite des résultats, comme des rapports vérifiés, des correctifs et des primes versées, tout en protégeant l’intégrité et la confidentialité des contributions des chercheurs. Dit autrement, l’IA est placée du côté de la logistique et de la mise en qualité, pas du côté de l’absorption des contenus sensibles.

CTI • Service de veille ZATAZ
Vos données circulent peut-être déjà. Détecter. Prioriser. Corriger
  • Veille exposition / fuite / usurpation / Alertes et synthèses actionnables
  • Risque, impacts, recommandations

Face à la polémique, HackerOne indique, de son côté, vouloir mettre à jour ses conditions générales. Le signal est important : ce qui relevait d’engagements et d’explications publiques doit désormais se transformer en texte opposable. Dans un secteur où l’asymétrie d’information est permanente, formaliser, c’est aussi reconnaître que la confiance ne se décrète pas, elle se contracte.

Au fond, cette séquence rappelle une règle de cyber-intelligence : dès qu’une plateforme parle d’IA, la première attaque porte sur la provenance des données, car c’est là que se joue la légitimité.