Archives de catégorie : IA

Trafic de puces IA, trois hommes inculpés

Une commande géante, des serveurs bardés de GPU sous contrôle et une route via la Thaïlande : l’affaire révèle une tentative présumée de contourner un verrou stratégique majeur de Washington.

La justice américaine accuse trois hommes d’avoir monté un circuit destiné à expédier vers la Chine des technologies d’intelligence artificielle soumises à de strictes restrictions. Au cœur du dossier, une commande d’environ 170 millions de dollars (156,7 millions d’euros), 750 serveurs et 600 puces Nvidia concernées par les contrôles à l’exportation. Selon les procureurs fédéraux, Stanley Yi Zheng, Matthew Kelly et Tommy Shad English auraient utilisé une société présentée comme thaïlandaise pour masquer la destination finale réelle du matériel. L’affaire dépasse le simple contentieux commercial : elle touche à la rivalité technologique, au contrôle des flux de semi-conducteurs avancés et à la protection de capacités à usage militaire et de renseignement.

Une filière présumée construite pour masquer la Chine

Le ministère américain de la Justice a inculpé mercredi Stanley Yi Zheng, 56 ans, de Hong Kong, Matthew Kelly, 49 ans, de Hopewell Junction, dans l’État de New York, et Tommy Shad English, 53 ans, d’Atlanta, en Géorgie. Ils sont poursuivis pour complot en vue de commettre un trafic illicite et pour violations des règles américaines sur les exportations. D’après l’acte d’accusation, les trois hommes auraient cherché à acheter, auprès d’une entreprise californienne de matériel informatique, des puces valant plusieurs millions de dollars afin de les faire partir vers la Chine par l’intermédiaire de la Thaïlande.

Stanley Zheng a été arrêté le 22 mars. Matthew Kelly et Tommy Shad English se sont rendus aux autorités fédérales le 25 mars. Les procureurs décrivent un dispositif commencé en mai 2023. À cette date, les trois suspects auraient commencé à coordonner l’acquisition de serveurs informatiques auprès d’un fabricant californien avant leur expédition vers la Thaïlande, avec, selon l’accusation, la Chine comme destination finale réelle. Des sociétés thaïlandaises auraient servi de façade commerciale pour donner une apparence régulière à l’opération.

Le dossier insiste sur la nature du matériel recherché. Il s’agit notamment de puces Nvidia A100 et H100, des processeurs graphiques de très haut niveau utilisés pour l’entraînement et l’inférence de modèles d’intelligence artificielle à grande échelle. Une première tranche visait des serveurs intégrant du matériel Supermicro conçu pour supporter les GPU Nvidia H100 et H200, pour un montant proche de 62 millions de dollars (57,1 millions d’euros). Plus largement, l’une des commandes évoquées porte sur 750 serveurs pour environ 170 millions de dollars (156,7 millions d’euros). Sur cet ensemble, 600 machines embarquaient une puce figurant sur la liste de contrôle du département du Commerce des États-Unis et nécessitant une licence d’exportation vers la Chine.

Le signal d’alerte est venu de la chaîne commerciale elle-même. En janvier 2024, lors d’un échange sur un contrôle de conformité lié à la commande d’octobre 2023, English aurait demandé qu’on ajoute Zheng et Kelly à la conversation. Le fabricant aurait alors relevé un point jugé anormal : la société de Zheng était basée en Chine, alors qu’aucun représentant de l’entreprise thaïlandaise supposée cliente ne figurait parmi les destinataires. L’entreprise aurait aussi rappelé que la Chine est visée par des restrictions américaines et que des sociétés américaines ne peuvent pas vendre à des entreprises ou utilisateurs finaux installés dans ce pays dans ce cadre réglementaire. Quelques semaines plus tard, le schéma présumé commençait à se fissurer.

 

News & alertes actualités cyber

Enquêtes, cyberveille avec le Service de veille ZATAZ, fuites, actus, et recevez nos infos par 📧 ou par ☎️.

 

Export controls, renseignement économique et enjeu militaire

Un informateur a alerté les enquêteurs fédéraux en janvier 2024. Puis, en février 2026, des agents fédéraux ont saisi le téléphone et l’ordinateur portable de Matthew Kelly à son retour d’Italie. Cette saisie a donné accès aux messages WhatsApp échangés entre les trois suspects, selon les autorités. En parallèle, des employés de Nvidia et de Supermicro ont eux aussi identifié des irrégularités dans les demandes de commande, conduisant à leur annulation au début de 2024.

Au-delà de la procédure pénale, l’affaire éclaire un mode opératoire classique du contournement des contrôles à l’exportation : le transbordement via un pays tiers. Ici, la Thaïlande est décrite comme une plaque de transit destinée à masquer la destination finale du matériel. Cette technique est présentée comme bien documentée et en forte progression depuis l’élargissement, par l’administration Biden, des restrictions sur les puces avancées en octobre 2022 puis en octobre 2023. Dans une logique de renseignement économique et technologique, le choix d’un intermédiaire étranger permet de brouiller la lecture des flux, de complexifier les vérifications de conformité et de tester la vigilance des fabricants américains.

L’enjeu dépasse largement la seule fraude documentaire. Les procureurs soulignent que les puces visées ont des applications militaires et stratégiques. Les A100 et H100 permettent d’entraîner des modèles d’IA à une échelle compatible avec des usages sensibles, notamment le ciblage d’armes avancées, l’analyse du renseignement électromagnétique et les systèmes autonomes. C’est précisément pour limiter l’accès à ces capacités que Washington a renforcé ses contrôles. Dans cette lecture, chaque tentative de contrebande de semi-conducteurs avancés devient un épisode de la compétition de puissance autour de l’intelligence artificielle.

Le dossier surgit dans un climat de confrontation technologique croissante entre Washington et Pékin. Les autorités américaines considèrent le trafic de puces comme l’un des moyens les plus directs pour réduire l’écart que les restrictions cherchent justement à maintenir. La réponse judiciaire traduit donc une logique plus large : protéger un avantage industriel, préserver un avantage militaire et verrouiller les briques matérielles qui soutiennent les futurs systèmes d’IA.

L’enquête est menée conjointement par le Bureau of Industry and Security du département du Commerce, le Defence Criminal Investigative Service et Homeland Security Investigations. Chaque accusé est poursuivi pour association de malfaiteurs en vue de commettre un trafic illicite et pour association de malfaiteurs en vue de violer la loi sur la réforme du contrôle des exportations. Les peines cumulées encourues peuvent dépasser 20 ans de prison. Dans cette affaire, la bataille des puces apparaît aussi comme une guerre discrète de traçabilité, de conformité et de contre-ingérence technologique.

 

News & alertes actualités cyber

Enquêtes, cyberveille avec le Service de veille ZATAZ, fuites, actus, et recevez nos infos par 📧 ou par ☎️.

 

Les Émirats face à la cyberguerre dopée à l’IA

Aux Émirats arabes unis, l’explosion des cyberattaques révèle une bascule stratégique : l’intelligence artificielle n’assiste plus seulement les offensives, elle en accélère désormais l’exécution et l’impact.

Les Émirats arabes unis font face à une hausse massive des cyberattaques dans un contexte de tensions régionales accrues. Selon le Conseil de cybersécurité du pays, entre 500 000 et 700 000 attaques sont enregistrées chaque jour contre des secteurs jugés vitaux pour la sécurité nationale et l’économie. Le Dr Mohammed Al Kuwaiti affirme que des acteurs hostiles, dont des entités liées à l’État iranien, exploitent des outils d’intelligence artificielle pour la reconnaissance, l’analyse de vulnérabilités, le phishing, la désinformation et la création de malwares. Cette montée en puissance confirme une évolution majeure : l’IA devient une pièce centrale de la cyberguerre moderne.

Une pression numérique devenue quotidienne

Le signal envoyé par Abou Dhabi est limpide. Les cyberattaques visant les Émirats arabes unis ont atteint un niveau inédit, au point de s’inscrire dans le rythme ordinaire de la menace. D’après le Dr Mohammed Al Kuwaiti, président du Conseil de cybersécurité des Émirats arabes unis, le pays essuie désormais entre 500 000 et 700 000 cyberattaques par jour. Ce volume dit autant l’intensité des offensives que la centralité géopolitique et économique de la fédération.

Les secteurs visés ne sont pas choisis au hasard. Ils appartiennent aux domaines considérés comme stratégiques pour la sécurité nationale et pour la stabilité économique. Dans cette lecture, la campagne numérique ne relève plus de la simple nuisance technique. Elle s’apparente à une pression continue sur les fonctions sensibles de l’État, sur les infrastructures critiques et sur les services dont dépend la continuité nationale.

Le responsable émirati désigne des acteurs hostiles, parmi lesquels des entités liées à l’État iranien. Selon lui, ces groupes s’appuient sur ChatGPT et sur d’autres plateformes d’intelligence artificielle pour conduire plusieurs phases de leurs opérations. Cela va de la reconnaissance initiale à l’identification de failles potentielles, jusqu’aux campagnes d’hameçonnage et au développement de logiciels malveillants destinés à perturber les services. Le tableau dressé est celui d’une menace plus industrialisée, plus flexible et plus rapide.

La déclaration d’Al Kuwaiti marque un changement de doctrine dans la manière de décrire l’ennemi numérique. « L’intelligence artificielle est passée du statut d’outil de soutien à celui de composante centrale de la cyberguerre moderne », a-t-il déclaré. La formule résume une rupture. L’IA ne se contente plus d’assister l’attaque. Elle réduit les délais, abaisse certains coûts et augmente le réalisme des leurres. Selon lui, elle permet de lancer des campagnes plus rapides, plus crédibles et plus rentables, notamment par le recours aux deepfakes et à la désinformation ciblée.

 

News & alertes actualités cyber

Enquêtes, cyberveille avec le Service de veille ZATAZ, fuites, actus, et recevez nos infos par 📧 ou par ☎️.

 

Cet élargissement du champ offensif change aussi la nature du risque. Le danger ne se limite plus à la compromission d’un système ou à l’arrêt d’un service. Il inclut la manipulation des perceptions, l’influence informationnelle et la dégradation de la confiance publique. Dans un environnement régional sous tension, cette dimension informationnelle pèse lourd. Elle fait du cyberespace un prolongement direct de la rivalité politique et stratégique.

Des défenses renforcées, mais une vigilance généralisée

Face à cette poussée, les autorités émiraties mettent en avant un dispositif de réponse structuré à l’échelle nationale. Le Conseil de cybersécurité explique avoir consolidé la cyberdéfense autour d’un cadre global fondé sur la surveillance continue, l’analyse des menaces, la rapidité de réaction et la préparation aux nouveaux risques. L’objectif est clair : détecter tôt, contenir vite, maintenir les services.

Selon Al Kuwaiti, les systèmes nationaux de cyberdéfense parviennent à repérer et à atténuer la majorité des attaques avant qu’elles ne provoquent des dommages concrets, rapporte le Filipino Times. Ce point est central dans la communication officielle. Il vise à montrer que l’augmentation du nombre d’attaques ne se traduit pas mécaniquement par une défaillance des défenses. En matière de renseignement cyber, cette précision compte. Elle suggère une capacité de veille, de corrélation et d’intervention déjà largement mobilisée.

Parmi les leviers activés figurent l’adoption d’une architecture de sécurité « zéro confiance », la mise en action du Centre national des opérations de cybersécurité et le déploiement de systèmes avancés de renseignement sur les menaces. Ces choix traduisent une logique de défense en profondeur. Aucun accès n’est présumé sûr, chaque signal faible doit être exploité et la coordination entre les entités devient un facteur décisif.

Le pays organise aussi des exercices de simulation de cybercrise à l’échelle nationale. Ces scénarios visent à tester la préparation des administrations et des secteurs critiques face à une attaque d’ampleur. En parallèle, les autorités diffusent des alertes de sécurité en temps réel afin d’accélérer la réaction, de préserver la continuité des services et de réduire l’impact d’éventuelles violations de données. Là encore, la logique renseignement est évidente : partager rapidement l’alerte pour raccourcir le temps entre détection et réponse.

« Les mesures proactives restent essentielles », a souligné Al Kuwaiti. « En combinant technologies de pointe et mécanismes de réponse coordonnés, nous sommes en mesure de protéger les infrastructures critiques et les services essentiels, même face à une augmentation significative des cyberattaques. » Cette position insiste sur une idée simple : dans une confrontation numérique durable, la résilience dépend autant des outils que de l’orchestration collective.

Le message adressé au public complète cette stratégie. Le président du Conseil rappelle que la cybersécurité ne relève pas du seul appareil d’État. Il appelle les résidents à ne pas cliquer sur des liens suspects, à ne jamais transmettre mots de passe ou codes de vérification, à activer l’authentification multifacteurs, à mettre à jour appareils et logiciels, à éviter les réseaux Wi-Fi publics non sécurisés et à s’en tenir aux sources officielles. Cette pédagogie n’est pas accessoire. Elle transforme l’usager en première ligne de défense face au phishing, aux rumeurs et aux contenus manipulés.

L’avertissement final est, lui aussi, révélateur de l’époque. Al Kuwaiti met en garde contre la désinformation et la manipulation des médias, désormais intégrées aux outils de la cyberguerre et de la guerre de l’information. « En période de tension, votre vigilance doit être plus rapide que les tentatives d’hameçonnage, plus sereine que les rumeurs et plus précise que les contenus fabriqués de toutes pièces », a-t-il déclaré. Derrière la formule, une réalité stratégique s’impose : la bataille cyber ne vise plus seulement les machines, elle cherche aussi à atteindre les esprits.

 

News & alertes actualités cyber

Enquêtes, cyberveille avec le Service de veille ZATAZ, fuites, actus, et recevez nos infos par 📧 ou par ☎️.

 

Telegram face à une faille critique encore opaque

Une vulnérabilité critique signalée sur Telegram alerte déjà le secteur cyber, sans preuve d’exploitation active à ce stade, mais avec un niveau de gravité suffisant pour inquiéter chercheurs et défenseurs.

Telegram est confronté à une nouvelle vulnérabilité critique référencée ZDI-CAN-30207, notée 9,8 sur 10 selon l’échelle CVSS. La faille a été inscrite dans la base de la Zero Day Initiative, avec un signalement à l’éditeur daté du 26 mars 2026 et une échéance de divulgation publique fixée au 24 juillet 2026. Aucun détail technique n’a encore été publié, ce qui interdit toute conclusion sérieuse sur un éventuel scénario de compromission à grande échelle. En revanche, les éléments déjà visibles, notamment le vecteur d’attaque annoncé, décrivent un risque potentiellement majeur pour la sécurité de la messagerie et pour la surface d’exposition de ses utilisateurs. Telegram refute le probléme.

Une alerte majeure, mais encore sans mode opératoire public

Les développeurs de Telegram ont désormais une pression claire : corriger rapidement une faille classée comme critique avant que la fenêtre de divulgation ne s’ouvre davantage. La vulnérabilité est identifiée sous la référence ZDI-CAN-30207 dans la liste de la Zero Day Initiative. Selon les informations rendues publiques, elle a été transmise à l’éditeur le 26 mars 2026. La date limite prévue pour une divulgation publique a été arrêtée au 24 juillet 2026.

À ce stade, le point le plus important tient précisément à ce qui manque. Aucun détail technique n’a encore été révélé. La Zero Day Initiative suit habituellement une logique de retenue sur ce type de dossier tant qu’un correctif n’a pas été publié par le fournisseur concerné. Cette pratique vise à éviter qu’une vulnérabilité grave ne soit transformée en guide d’exploitation avant que l’éditeur ait eu le temps de réagir. Dans le cas présent, cela signifie qu’il est impossible d’affirmer avec sérieux qu’un « piratage total » de Telegram serait déjà en cours, ou que des attaques massives exploiteraient la faille à grande échelle.

Cette prudence est essentielle. Dans l’écosystème cyber, les failles critiques attirent immédiatement les surinterprétations. Or, les seules données confirmées publiquement sont l’existence d’une vulnérabilité jugée critique, son inscription dans la base ZDI, l’identité du chercheur et le calendrier de divulgation. Tout le reste relève, pour l’instant, de l’hypothèse. D’un point de vue journalistique comme d’un point de vue renseignement, cette nuance compte. Une faille non documentée n’est pas une attaque constatée. Une note de gravité très élevée n’est pas, à elle seule, la preuve d’une compromission effective.

News & alertes actualités cyber

Enquêtes, cyberveille avec le Service de veille ZATAZ, fuites, actus, et recevez nos infos par 📧 ou par ☎️.

Cela ne réduit pourtant en rien le niveau d’alerte. Le score CVSS de 9,8 sur 10 place d’emblée cette découverte dans la catégorie des vulnérabilités les plus préoccupantes. Une telle note ne garantit pas, à elle seule, l’ampleur du risque réel, mais elle indique qu’au regard des critères standards d’évaluation, le potentiel d’exploitation est jugé extrêmement sérieux. Pour Telegram, l’enjeu est donc double : préserver sa crédibilité technique et éviter qu’un silence trop long ne laisse se développer des spéculations plus dommageables encore que la faille elle-même.

Telegram a une version différente des faits. Le service de presse de la messagerie a indiqué sur le réseau social X qu’une telle vulnérabilité n’existe tout simplement pas. Selon les représentants de Telegram, le chercheur a affirmé à tort qu’un « autocollant » contenant un code malveillant aurait pu être utilisé pour l’attaque.

Le score CVSS dessine un scénario de risque maximal

Le niveau d’inquiétude provient surtout du vecteur associé à la fiche : AV:N/AC:L/PR:N/UI:N. Traduit en langage opérationnel, cela décrit une attaque réalisable à distance, de faible complexité, ne nécessitant ni privilèges préalables, ni intervention de l’utilisateur. C’est ce point qui donne à l’alerte sa portée stratégique. Si cette évaluation est confirmée lors de la publication d’un rapport complet, la faille pourrait faire partie des scénarios les plus dangereux pour une plateforme de communication.

Une vulnérabilité exploitable par le réseau, sans action de la cible, modifie immédiatement la grille de lecture défensive. Elle évoque un modèle d’attaque dans lequel l’utilisateur ne clique sur rien, n’installe rien et n’accorde aucun droit particulier, mais peut néanmoins être exposé. Dans l’univers du renseignement numérique, ce type de caractéristique est observé avec la plus grande attention, car il réduit fortement les barrières opérationnelles pour un acteur malveillant. Cela intéresse autant la cybercriminalité que les opérations plus ciblées, dès lors qu’un outil de communication concentre des échanges sensibles, des métadonnées et des identifiants de relation.

Il faut toutefois rester rigoureux. Le vecteur seul ne raconte pas tout. Sans description technique, impossible de savoir si la faille touche le client, le serveur, une fonction précise, une bibliothèque, un mécanisme de traitement de contenu ou une architecture plus profonde. Impossible aussi de savoir quelles versions sont concernées, quelles conditions exactes sont requises, ou si des mécanismes de mitigation existent déjà de manière partielle. Le risque est donc potentiellement extrême, mais son périmètre concret reste encore inconnu.

Le Parlement européen coupe l’IA des tablettes des élus

Le Parlement européen a désactivé des fonctions d’IA sur les tablettes des députés, faute de garanties sur les données envoyées vers des serveurs d’IA. En toile de fond, la fuite NSW illustre le risque d’usage.

Selon un mail consulté par Politico, l’informatique du Parlement européen avertit que la sécurité des données téléversées vers des serveurs d’IA, comme ceux utilisés par ChatGPT, ne peut pas être garantie. Lundi 16 février, les élus ont été informés que des « fonctions d’intelligence artificielle intégrées » avaient été désactivées sur les tablettes professionnelles. L’équipe IT explique que certaines options s’appuient sur des services cloud et envoient des données hors de l’appareil, alors que des traitements pourraient être réalisés localement.

Pourquoi l’IA intégrée inquiète l’IT du Parlement

Le message interne rapporté par Politico repose sur un constat simple, dès qu’une fonction « intelligente » s’appuie sur le cloud, une partie du contrôle s’éloigne. Le service informatique du Parlement européen prévient que la protection de toute donnée envoyée vers des serveurs d’IA, « such as those used by ChatGPT », ne peut pas être assurée. Il ajoute surtout que la cartographie exacte des flux, autrement dit ce qui part, quand, et vers qui, reste en cours de consolidation.

Cette incertitude déclenche une décision de précaution. Lundi 16 février 2026, les membres de la chambre ont été informés que des « built-in artificial intelligence features » avaient été désactivées sur les tablettes d’entreprise. L’argumentaire technique vise des fonctions qui, selon l’équipe IT, utilisent des services cloud pour exécuter des tâches qui pourraient être traitées localement, et donc envoient des données hors de l’appareil. Au fil des mises à jour, ces fonctionnalités se diffusent et se complexifient, ce qui rend l’évaluation des partages de données plus difficile. Tant que le périmètre n’est pas « fully clarified », la consigne est de les maintenir inactives.

Un responsable de l’UE, cité dans le récit, précise la nature des outils concernés, assistants de rédaction, systèmes de synthèse, résumeurs de pages web, et assistants virtuels renforcés. Le détail est important, car il ne s’agit pas d’une interdiction générale de logiciels, mais d’un gel ciblé des automatismes capables d’aspirer du texte, des pièces jointes, des contenus web ou des extraits de documents, puis de les transmettre à un prestataire. À l’inverse, les applications de base, e-mail, calendriers, documents, et autres outils quotidiens, ne sont pas affectées.

Ce choix s’accompagne d’une communication maîtrisée, voire frustrante. Interrogée par Politico, l’UE refuse de préciser quelles fonctions exactes ont été coupées ou quel système fait tourner les appareils. Le Parlement européen répond qu’il « constantly monitor[s] cyber security threats » et déploie rapidement les mesures nécessaires, tout en jugeant que leur nature est sensible et ne peut pas être détaillée. Ce silence, classique en sécurité, alimente toutefois un autre risque, laisser les utilisateurs deviner, contourner, ou substituer des outils, parfois moins contrôlés.

Le vrai danger, l’exfiltration par usage banal

L’épisode met en lumière un déplacement de la menace. L’IA élargit la surface d’attaque, non seulement via des vulnérabilités techniques, mais aussi par la facilité des erreurs, un copier-coller, un document glissé dans un champ de chat, une synthèse automatique lancée sur un texte interne. Ce n’est pas la sophistication qui rend l’incident probable, c’est la banalité du geste.

L’exemple fourni par l’Australie, survenu fin 2025 selon le récit, cristallise cette logique. La NSW Reconstruction Authority (RA), agence en charge de réduire l’impact des catastrophes naturelles, a annoncé être au courant d’une « data breach » touchant des milliers de personnes ayant candidaté au Northern Rivers Resilient Homes Program (RHP), un dispositif d’aide financière destiné à renforcer la résistance des habitations aux inondations. Le gouvernement de Nouvelle-Galles du Sud explique que la faille provient d’un ancien contractuel, qui a téléversé des données personnelles dans un outil d’IA non sécurisé et non autorisé par le département.

Les autorités ajoutent qu’il n’existe « no evidence » de publication des informations. Le communiqué précise un fait brut, le contractuel aurait copié 10 colonnes et plus de 12 000 lignes d’un tableur Microsoft Excel dans ChatGPT. Sur la base d’une « early forensic analysis », jusqu’à 3 000 personnes pourraient être concernées. Les données exposées incluent noms, adresses, e-mails, numéros de téléphone, ainsi que des informations personnelles et de santé.

La comparaison n’est pas un parallèle technique, mais un parallèle comportemental. Dans les deux cas, la question centrale est le contrôle des flux, ce qui quitte le terminal, ce qui est conservé côté prestataire, et qui peut y accéder. La décision du Parlement européen, désactiver tant que l’évaluation n’est pas achevée, vise précisément à éviter qu’un outil « intégré » banalise l’externalisation de fragments sensibles, au nom du confort.

À mesure que l’IA s’invite partout, la fuite la plus probable n’est plus un piratage, mais un téléversement ordinaire devenu irréversible.

L’IA au service d’un piratage éclair de FortiGate

Entre automatisation et négligence, une campagne récente montre comment des interfaces d’administration exposées et des mots de passe faibles suffisent à ouvrir des réseaux entiers, à grande échelle.

Une analyse d’Amazon décrit une campagne menée entre le 11 janvier et le 18 février 2026, où un cybercriminel motivé par le profit a compromis plus de 600 équipements FortiGate dans 55 pays. L’attaque ne reposait pas sur des failles logicielles, mais sur des consoles de gestion laissées accessibles depuis Internet et protégées par une authentification simple avec des mots de passe faciles à deviner. En s’appuyant sur plusieurs services commerciaux d’IA générative, l’attaquant a industrialisé la méthode, récupérant configurations, identifiants, plans réseau et paramètres VPN. Objectif final, pénétrer l’interne, viser Active Directory et sonder les sauvegardes, un signal souvent associé aux préparatifs d’un rançongiciel.

Une intrusion sans vulnérabilité, portée par l’automatisation

Le scénario a quelque chose d’inconfortable, parce qu’il n’exige ni exploit sophistiqué ni compétence rare. D’après Amazon, du 11 janvier au 18 février 2026, soit 38 jours si l’on compte du premier au dernier jour, un acteur cybercriminel a pris pied sur plus de 600 équipements FortiGate répartis dans 55 pays. Le volume et la dispersion géographique donnent l’impression d’une opération structurée, pourtant l’analyse conclut à un profil non étatique, plutôt un loup solitaire ou un petit noyau opportuniste.

Le point d’entrée n’est pas une vulnérabilité du produit. L’attaquant a cherché des interfaces de gestion directement exposées sur Internet, puis a tenté de deviner ou de forcer des mots de passe trop faibles, avec une authentification à facteur unique. Le cœur du problème est donc une erreur de configuration élémentaire, que l’on retrouve encore dans des entreprises de toutes tailles, parfois par héritage de choix anciens, parfois par manque de contrôle, souvent parce que l’accès distant “temporaire” finit par devenir permanent.

Ce qui change, selon Amazon, c’est la cadence. Plusieurs services commerciaux d’IA générative auraient servi à mettre en place une chaîne d’actions quasi automatique. L’IA ne « pirate » pas à elle seule, mais elle peut accélérer la préparation, l’enchaînement des étapes, la normalisation des commandes, l’adaptation des scripts et la production de variations lorsque l’environnement diffère légèrement. À l’échelle d’Internet, ce gain de temps transforme une routine d’attaquant en moisson industrielle. Quand la barrière technique baisse, le véritable facteur limitant devient la discipline d’hygiène numérique du côté des défenseurs.

De la configuration au cœur du réseau, la trajectoire classique

Une fois l’équipement compromis, l’attaquant a téléchargé les configurations complètes. C’est un trésor opérationnel, parce qu’il peut y trouver des identifiants, des informations de topologie, des indices sur la segmentation, ainsi que des paramètres de réseau privé virtuel. À partir de là, le basculement est logique, l’objectif n’est pas l’équipement lui-même, mais la porte qu’il ouvre sur l’infrastructure interne des organisations.

L’analyse décrit ensuite une progression vers les domaines Active Directory. Cette étape est un pivot, car Active Directory concentre l’identité, les droits et souvent les clés d’accès aux ressources critiques. L’attaquant a extrait des bases de données de comptes et, dans certains cas, a obtenu des ensembles complets de hachages de mots de passe. Même sans casser immédiatement ces hachages, leur possession facilite la réutilisation d’identifiants, les tentatives hors ligne et la cartographie des privilèges.

Un autre détail pèse lourd, l’intérêt marqué pour les serveurs de sauvegarde. Dans la pratique des intrusions à but lucratif, les sauvegardes sont la bouée de secours des victimes, donc une cible prioritaire pour qui veut monétiser l’accès. L’analyse souligne que cette curiosité pour les systèmes de backup intervient fréquemment avant le déploiement d’un rançongiciel. Autrement dit, la compromission du périmètre n’est qu’un début, le vrai risque se situe dans la capacité à rendre la restauration impossible ou douloureuse.

Enfin, la campagne semble guidée par un pragmatisme froid. Lorsque l’environnement imposait des opérations plus complexes, l’attaquant ne s’acharnait pas et passait à une autre cible. Cette discipline révèle une logique de rendement, maximiser les gains en minimisant le temps passé par victime. C’est précisément là que l’IA générative, utilisée comme accélérateur, renforce le modèle, elle aide à standardiser l’approche et à éliminer les frictions, sans nécessairement augmenter la profondeur technique de l’attaque.

Au bout du compte, cette affaire rappelle une vérité de cyber-renseignement, l’avantage revient à celui qui transforme de petites failles d’hygiène en informations actionnables, vite, à grande échelle.

HackerOne et l’IA : la confiance des hackers ébranlée

Un lancement produit a suffi à faire monter la pression dans l’écosystème bug bounty. Chez HackerOne, une promesse d’IA « agentique » a réveillé une crainte simple : l’exploitation des rapports des chercheurs.

HackerOne s’est retrouvé au centre d’une controverse après le lancement d’Agentic PTaaS, présenté comme des tests de sécurité continus combinant agents d’IA autonomes et expertise humaine. Une phrase sur une « base de connaissances exclusive sur les exploits », constituée au fil d’années de tests réels, a déclenché une question sensible : d’où viennent les données d’entraînement. Des chercheurs, dont l’ancien contributeur YShahinzadeh et le spécialiste AegisTrail, ont exprimé leurs inquiétudes.

La phrase de trop dans Agentic PTaaS

L’incident démarre avec un produit, Agentic PTaaS, que HackerOne décrit comme un dispositif de « tests de sécurité continus » reposant sur des agents d’IA autonomes, complétés par des humains. La promesse est ambitieuse, presque séduisante pour des clients pressés d’industrialiser la sécurité. Pourtant, dans ce type d’annonces, tout se joue souvent sur une formulation.

Ici, c’est la mention d’agents « entraînés et perfectionnés » grâce à une « base de connaissances exclusive sur les exploits », alimentée par des années de tests sur des systèmes d’entreprise réels. Dans le monde du bug bounty, ces mots ont une portée particulière. Les rapports de vulnérabilités sont plus que des tickets techniques, ce sont des récits d’accès, de logique d’exploitation, de preuves, parfois de contournements. Ils concentrent des idées originales, une méthodologie et, souvent, des détails sensibles.

Très vite, la question s’impose chez les chasseurs de bugs : ces connaissances viennent-elles, directement ou indirectement, des rapports soumis par les chercheurs ? Un ancien chasseur, sous le pseudonyme YShahinzadeh, formule la crainte sans détour, en demandant, en substance, que ses rapports n’aient pas servi à entraîner ces agents. La tension est immédiate, car l’équilibre économique et moral du bug bounty repose sur un contrat implicite : le chercheur fournit un signal rare, la plateforme orchestre, le client corrige, la prime rémunère. Si ce signal devient une matière première pour des systèmes automatisés, la valeur perçue du travail humain peut se déplacer, sans compensation claire.

 



News & Réseaux Sociaux ZATAZ

Chaque vendredi midi, recevez gratuitement les actualités de la semaine.

Un autre spécialiste, AegisTrail, pousse l’alerte sur un terrain plus sombre. Il décrit un moment où des « chapeaux blancs » peuvent se sentir coincés, comme si les règles se retournaient contre eux, au point que « le côté obscur » devienne une tentation nourrie par la colère et l’instinct de survie plutôt que par l’éthique. Derrière la formule, il y a un message de contre-renseignement : quand la confiance s’érode, les comportements changent, et l’écosystème entier devient plus difficile à gouverner.

La réponse de la PDG et l’effet domino chez les concurrents

La pression publique a conduit la PDG, Kara Sprague, à s’exprimer de manière détaillée sur LinkedIn. Son message vise précisément le point le plus explosif : l’entraînement. Elle affirme que HackerOne n’entraîne pas de modèles d’IA génératifs, ni en interne ni via des prestataires, à partir des rapports des chercheurs ou de données confidentielles de clients. Elle ajoute que ces rapports ne servent pas non plus à affiner ou améliorer les modèles. Enfin, elle explique que les fournisseurs de modèles tiers n’ont pas le droit de stocker ou d’exploiter les données des chercheurs ou des clients pour entraîner leurs propres modèles.

Dans le même mouvement, Sprague présente HackerOne Hai, le système d’IA « basé sur des agents », comme un accélérateur opérationnel : produire plus vite des résultats, comme des rapports vérifiés, des correctifs et des primes versées, tout en protégeant l’intégrité et la confidentialité des contributions des chercheurs. Dit autrement, l’IA est placée du côté de la logistique et de la mise en qualité, pas du côté de l’absorption des contenus sensibles.

CTI • Service de veille ZATAZ
Vos données circulent peut-être déjà. Détecter. Prioriser. Corriger
  • Veille exposition / fuite / usurpation / Alertes et synthèses actionnables
  • Risque, impacts, recommandations

Face à la polémique, HackerOne indique, de son côté, vouloir mettre à jour ses conditions générales. Le signal est important : ce qui relevait d’engagements et d’explications publiques doit désormais se transformer en texte opposable. Dans un secteur où l’asymétrie d’information est permanente, formaliser, c’est aussi reconnaître que la confiance ne se décrète pas, elle se contracte.

Au fond, cette séquence rappelle une règle de cyber-intelligence : dès qu’une plateforme parle d’IA, la première attaque porte sur la provenance des données, car c’est là que se joue la légitimité.

Bug Copilot Chat expose des e-mails confidentiels

Depuis fin janvier 2026, un bug dans Microsoft 365 Copilot permettrait de lire et résumer des mails pourtant marqués confidentiels, en contournant des politiques censées empêcher l’IA d’analyser ces contenus.

Des développeurs de Microsoft ont signalé un dysfonctionnement de Microsoft 365 Copilot : Copilot Chat peut accéder à des courriels confidentiels et les résumer, malgré des politiques de protection contre les fuites de données prévues pour bloquer l’analyse automatisée. Le bug touche le chat de l’onglet « Travail ». Le problème concerne surtout les dossiers « Éléments envoyés » et « Brouillons », y compris des messages avec balises de confidentialité.

Un contournement silencieux des garde-fous DLP

Le point de départ ressemble à un scénario que redoutent toutes les équipes sécurité : l’outil est autorisé, l’usage est légitime, mais la barrière de protection ne joue plus son rôle. Dans ce cas précis, Microsoft 365 Copilot, via Copilot Chat, se serait mis à lire et à résumer des courriels confidentiels, alors même que des politiques de prévention des fuites de données devraient limiter l’accès des outils automatisés à ces messages.

Copilot Chat est décrit comme un chatbot contextuel, intégré à Word, Excel, PowerPoint, Outlook et OneNote, et conçu pour permettre des échanges avec des agents IA à partir du contenu de travail. L’outil est disponible pour les abonnés Microsoft 365 Entreprise depuis septembre 2025, ce qui le place au cœur des flux bureautiques et, par extension, au contact direct d’informations sensibles.

Le bug signalé ne porte pas sur un détail d’interface mais sur un principe de gouvernance : les balises de confidentialité servent précisément à empêcher des systèmes automatisés, dont Copilot, d’analyser le contenu de certains messages. Or, selon les éléments rapportés, l’assistant aurait ignoré cette contrainte dans une zone très utilisée, la fonction de chat accessible dans l’onglet « Travail ». Le risque, dans un environnement où les utilisateurs sollicitent l’IA pour gagner du temps, est mécanique : une demande anodine de synthèse peut faire remonter des informations qui n’auraient jamais dû être prises en compte par un système automatisé.

D’après Bleeping Computer, le bug est référencé CW1226324 et a été signalé pour la première fois le 21 janvier. La chronologie compte, car elle suggère une fenêtre d’exposition depuis fin janvier, période durant laquelle l’outil a pu traiter des messages censés rester hors périmètre. Dans un cadre cyber, cette temporalité est un indicateur opérationnel : plus la fenêtre est longue, plus la probabilité d’un usage involontaire, puis d’une propagation secondaire, augmente.

Éléments envoyés, brouillons, et la surface d’exposition interne

Le dysfonctionnement serait concentré sur la manière dont Copilot Chat traite les dossiers « Éléments envoyés » et « Brouillons ». C’est un détail qui pèse lourd. Les brouillons, par définition, contiennent souvent des formulations non stabilisées, des négociations en cours, des éléments juridiques avant validation, ou des fragments d’informations qui ne sont pas encore destinés à circuler. Les éléments envoyés, eux, constituent une mémoire fidèle des décisions, des engagements et des échanges sensibles avec l’extérieur. Si ces deux répertoires sont mal gérés par la logique de protection, l’IA peut devenir une interface de recherche et de synthèse sur des contenus que l’organisation a explicitement tenté de verrouiller.

Microsoft aurait attribué le bug à une erreur de code, sans fournir de détails. Ce silence technique est classique dans les incidents qui touchent à des mécanismes de sécurité internes : trop d’informations aideraient aussi les attaquants à comprendre précisément le contournement. Mais l’absence de précisions laisse les responsables sécurité dans une zone inconfortable, car ils doivent estimer l’impact sans connaître le scénario exact, ni les conditions de déclenchement.

Le correctif aurait commencé à être déployé début février. Là encore, la formulation est importante : un déploiement n’est pas une résolution instantanée. En entreprise, la réalité est faite d’environnements hétérogènes, de délais de propagation, de dépendances et de configurations spécifiques. Microsoft n’a pas communiqué de date de résolution complète, ni le nombre d’utilisateurs ou d’organisations concernés. L’entreprise a aussi précisé que l’étendue du problème pourrait évoluer au fil de l’enquête, ce qui suggère un périmètre encore en consolidation.

Sur le plan renseignement et gestion du risque, l’incident rappelle une règle dure : lorsque l’IA est imbriquée dans les outils de travail, la moindre défaillance de segmentation transforme un assistant de productivité en amplificateur de visibilité interne. Le danger n’est pas uniquement l’exfiltration externe, il est aussi l’exposition latérale, celle qui permet à une information de franchir des frontières de confidentialité à l’intérieur même de l’organisation, via des résumés, des reformulations et des requêtes contextuelles.

Ce bug met en tension deux promesses opposées : la fluidité du travail assisté par IA et la granularité des contrôles de confidentialité. Pour les défenseurs, l’enjeu n’est pas de diaboliser l’outil, mais de traiter l’IA comme un composant à privilèges, soumis aux mêmes exigences d’audit, de traçabilité et de cloisonnement que n’importe quel système sensible.

Quand l’IA sait lire, le vrai enjeu de cyber-renseignement devient de contrôler précisément ce qu’elle a le droit de comprendre.

Modes « Lockdown » et « Elevated Risk » : le pari d’OpenAI

OpenAI change de méthode contre l’injection de prompts, ces attaques qui profitent des connexions réseau des IA. Avec « Lockdown » et « Elevated Risk », la défense passe par des verrous d’infrastructure, pas seulement par le modèle.

OpenAI a annoncé deux mesures de sécurité visant les attaques par injection de prompts, devenues plus menaçantes à mesure que les assistants IA se connectent au web et aux applications. Le mode « Lockdown » cible des profils à haut risque en imposant des restrictions déterministes qui réduisent la surface d’attaque et bloquent l’exfiltration de données, même si un contenu externe tente de manipuler le système. En parallèle, les étiquettes « Elevated Risk » signalent aux utilisateurs les fonctions réseau qui augmentent l’exposition, notamment dans Codex. L’approche revendique une sécurité par couches, combinant verrous techniques, contrôle d’accès et journalisation.

Le mode « Lockdown », un confinement pensé pour l’exfiltration

Le cœur du mode « Lockdown » tient en une idée simple, mais lourde de conséquences : empêcher physiquement certaines actions plutôt que demander au modèle de « bien se comporter ». OpenAI présente ce réglage comme une option pour un public restreint, cadres dirigeants, équipes sécurité, organisations manipulant des informations très sensibles, susceptibles d’être ciblés par des menaces avancées. Le message implicite est clair : quand l’adversaire peut influencer ce que l’IA lit, il peut tenter de piloter ce que l’IA fait.

La protection centrale concerne la navigation. En « Lockdown », l’accès au web est limité à du contenu mis en cache. Autrement dit, aucune requête réseau en direct n’est censée sortir de l’environnement contrôlé par OpenAI. Cette contrainte vise un scénario devenu classique en cyber : une page malveillante glisse des instructions cachées dans son contenu, puis pousse l’assistant à divulguer des éléments de conversation ou des données internes, en les envoyant vers une infrastructure externe. Ici, même si la manipulation est persuasive, l’action d’exfiltration perd son vecteur principal, la sortie réseau.

Le verrouillage ne s’arrête pas à la navigation. OpenAI indique désactiver des capacités qui ne permettent pas de garanties « déterministes » robustes sur la protection des données. Concrètement, certaines fonctions sont coupées : pas d’images dans les réponses, pas de recherche approfondie, pas de mode agent. Autre point sensible, l’approbation par l’utilisateur d’un code généré via Canvas pour accéder au réseau est bloquée. Enfin, le système ne peut pas télécharger automatiquement des fichiers pour des analyses de données, même si les documents importés manuellement restent exploitables. Le fil rouge est la réduction drastique des chemins involontaires par lesquels une information pourrait sortir.

Sur le plan de la gouvernance, l’activation passe par l’administration de l’espace de travail. Les offres citées incluent ChatGPT Enterprise, Edu, Healthcare et Teachers. Les administrateurs créent des rôles dédiés dans les réglages du workspace et conservent une granularité sur les applications et les actions autorisées, y compris quand « Lockdown » est enclenché. En arrière-plan, OpenAI met en avant la journalisation via la plateforme de logs de l’API de conformité, pour suivre l’usage des applications, les données partagées et les sources connectées. Dans cette logique, la sécurité ne repose pas sur une promesse abstraite, mais sur des paramètres, des droits et des traces.

OpenAI précise enfin que ce mode n’est pas destiné à la majorité. La fonctionnalité vise un petit ensemble d’utilisateurs exposés, avec un niveau d’exigence élevé. Un déploiement grand public est évoqué « dans les prochains mois », après la phase entreprise, signe que l’éditeur traite cette option comme une posture extrême, pas comme un défaut universel.

Étiquettes « Elevated Risk », rendre visible ce qui reste fragile

En complément du confinement, OpenAI introduit une signalétique : des mentions « Elevated Risk » apposées sur les fonctionnalités réseau qui augmentent l’exposition. L’objectif n’est pas d’interdire, mais d’éclairer. L’étiquetage est annoncé dans ChatGPT, ChatGPT Atlas et Codex lorsque l’utilisateur active des capacités connectées susceptibles d’ouvrir des failles non totalement résolues. La nuance est importante : OpenAI reconnaît que, dans l’état actuel du secteur, certaines surfaces de risque ne se « corrigent » pas parfaitement.

 



News & Réseaux Sociaux ZATAZ

Chaque vendredi midi, recevez gratuitement les actualités de la semaine.

L’exemple le plus parlant concerne Codex. Les développeurs peuvent autoriser l’accès réseau pour consulter de la documentation ou interagir avec des sites. Désormais, l’écran de réglages affiche une mention « risque élevé » qui explicite ce que change l’activation, les dangers associés et les contextes où ce choix peut se justifier. La promesse est pédagogique : faire comprendre qu’un bouton « réseau » n’est pas une option neutre, mais une bascule de menace.

Autre élément notable, OpenAI affirme que ces étiquettes ont vocation à disparaître au fur et à mesure que des améliorations réduiront les risques identifiés. Le système se veut dynamique, avec des mises à jour régulières des fonctions marquées, afin de mieux communiquer sur l’état réel de la menace. Dit autrement, l’éditeur admet que le risque n’est pas binaire : il évolue selon les atténuations disponibles, les usages et la sophistication des attaques.

Tout cela s’inscrit dans une défense « par couches » déjà évoquée : sandboxing, protections contre l’exfiltration via URL, mécanismes de supervision et d’application des règles, plus les contrôles entreprise classiques, gestion des rôles et journaux d’audit. Le constat sous-jacent est celui que les équipes sécurité voient chaque jour : quand une IA lit, agit et se connecte, la simple filtration de contenu ne suffit plus face à des injections de prompts conçues pour contourner les garde-fous.

Dans cette bataille, « Lockdown » et « Elevated Risk » traduisent un glissement vers une cyberstratégie de renseignement défensif : réduire les capacités exploitables, rendre les risques visibles, et laisser moins de place aux illusions d’obéissance du modèle.

Claude Code Security, Anthropic veut industrialiser l’audit IA

Anthropic ajoute à Claude Code un scanner de vulnérabilités pensé pour les entreprises, avec une promesse simple, lire une base de code, détecter les failles, proposer des correctifs, puis laisser l’humain décider.

Anthropic annonce Claude Code Security, une fonctionnalité de sécurité intégrée à Claude Code capable d’analyser le code d’un utilisateur, de repérer des vulnérabilités et de suggérer des correctifs. Le déploiement démarre en accès limité pour des clients entreprises et des équipes pilotes. L’éditeur affirme s’appuyer sur plus d’un an de tests de résistance menés par ses spécialistes, incluant des exercices Capture the Flag et un travail avec le Pacific Northwest National Laboratory pour améliorer la précision. L’outil promet une vérification en plusieurs étapes afin de réduire les faux positifs, un classement par gravité et une approche orientée flux de données.

Une promesse d’analyse « comme un chercheur humain »

Anthropic avance un pari clair, l’IA va devenir un passage quasi obligé dans l’examen du code. Dans son discours, l’argument n’est pas seulement la vitesse, mais le changement d’échelle. L’entreprise estime qu’une fraction importante du code mondial pourrait être passée au crible par des modèles dans un futur proche, à mesure que ces systèmes gagnent en efficacité pour révéler des bugs et des faiblesses de sécurité restés invisibles. La tension, elle, est immédiate, ce qui accélère la protection accélère aussi l’attaque.

Claude Code Security est présenté comme un module qui « lit » une base de code et en reconstruit la logique, à la manière d’un analyste. L’outil ne se limiterait pas à pointer des motifs suspects, il chercherait à comprendre comment les composants interagissent, à suivre les chemins empruntés par les données, puis à isoler des défauts majeurs que des approches classiques d’analyse statique peuvent manquer. Dans ce scénario, la valeur n’est pas seulement la détection, mais la contextualisation, autrement dit relier une faiblesse à un flux, une entrée, une dépendance, un composant, et à un impact.

Pour réduire le bruit, Anthropic décrit un mécanisme de contrôle interne. Chaque détection passerait par une validation en plusieurs étapes avant d’être transmise à un analyste, puis le modèle « se relirait » lui-même, afin de confirmer ou d’infirmer ses propres conclusions et de limiter les faux positifs. Les résultats seraient ensuite hiérarchisés par gravité, pour guider les équipes vers ce qui doit être corrigé en premier. Le processus mis en avant reste, au bout de la chaîne, une boucle de décision humaine, l’utilisateur approuve les modifications avant tout déploiement.

 



News & Réseaux Sociaux ZATAZ

Chaque vendredi midi, recevez gratuitement les actualités de la semaine.

Une mise en production prudente, et une règle clé sur les droits

Le lancement, lui, est encadré. Anthropic indique que Claude Code Security sera d’abord réservé à un groupe restreint de clients entreprises et d’équipes, dans une phase de test. L’annonce s’appuie sur un récit de robustesse construit sur la durée, plus d’un an de tests de résistance par une équipe interne d’experts cybersécurité, des participations à des compétitions de type Capture the Flag, et une collaboration avec le Pacific Northwest National Laboratory, présentée comme un levier pour améliorer la précision des analyses.

En filigrane, l’entreprise vise un basculement culturel, celui du « vibe coding », cette manière de produire plus vite en s’appuyant sur l’IA pour écrire et assembler des morceaux de logiciel. Anthropic soutient que, si cette pratique se diffuse, la demande d’analyses automatisées de vulnérabilités pourrait dépasser le besoin d’audits manuels. L’argument est pragmatique, si davantage de code est généré plus vite, alors davantage de code doit être audité plus vite, sinon la dette de sécurité enfle. Dans cette logique, un scanner directement intégré au flux de développement pourrait, potentiellement, réduire le nombre de failles, à condition que l’automatisation n’endorme pas la vigilance.

Mais la même capacité de lecture rapide et d’exploration systématique intéresse aussi l’adversaire. Le texte souligne que des cybercriminels peuvent, eux aussi, utiliser des modèles pour cartographier plus vite l’environnement d’une victime et y trouver des points d’entrée exploitables. C’est le dilemme classique du renseignement technique, un outil qui améliore la visibilité des défenseurs peut aussi accélérer la reconnaissance et la sélection de cibles côté attaquants. D’où l’enjeu, non seulement de détecter, mais de qualifier, prioriser et corriger sans délai.

CTI • Service de veille ZATAZ
Vos données circulent peut-être déjà. Détecter. Prioriser. Corriger
  • Veille exposition / fuite / usurpation / Alertes et synthèses actionnables
  • Risque, impacts, recommandations

Des chercheurs spécialisés dans les menaces nuancent l’enthousiasme. Oui, les capacités ont progressé, mais elles seraient souvent plus à l’aise sur des failles modestes, tandis que des opérateurs chevronnés restent indispensables, notamment pour piloter le dispositif et traiter les vulnérabilités et menaces de haut niveau. En parallèle, certains outils, comme Claude Opus et XBOW, ont déjà montré qu’ils pouvaient découvrir des centaines de vulnérabilités logicielles, rendant parfois la chasse et la correction nettement plus rapides qu’une équipe humaine seule.

Anthropic revendique aussi un saut de performance côté modèle, en affirmant que Claude Opus 4.6 est « nettement meilleur » pour repérer des vulnérabilités de haute gravité que les versions antérieures, avec, dans certains cas, des défauts qui seraient restés indétectés pendant des décennies. L’accès, enfin, s’accompagne d’une contrainte juridique et éthique explicite, les testeurs doivent s’engager à n’utiliser l’outil que sur du code appartenant à leur entreprise, et pour lequel ils disposent de tous les droits nécessaires à l’analyse, à l’exclusion du code de tiers, sous licence, ou de projets open source.

Au fond, Claude Code Security illustre une bascule de la cyber-intelligence, l’audit devient un flux continu, mais la bataille se joue toujours sur la qualité du tri, de la preuve, et de la décision.

New York veut traquer la fraude au métro avec l’IA

La MTA teste des portiques dotés de caméras et d’IA pour décrire les fraudeurs présumés. Dans une ville déjà saturée de biométrie, l’initiative ranime un débat explosif sur la surveillance.

L’Autorité des transports métropolitains de New York (MTA) expérimente des portiques de métro équipés de caméras et d’intelligence artificielle pour collecter des données sur les usagers soupçonnés de ne pas payer leur titre. Selon Cubic, fabricant des portillons, les caméras enregistrent cinq secondes lorsqu’une fraude est détectée, puis l’IA produit une description physique transmise à la MTA. La démarche s’inscrit dans un appel lancé en décembre, visant des solutions de vision par ordinateur pour repérer des comportements inhabituels ou dangereux. Des défenseurs des libertés, dont STOP, alertent sur l’extension d’un écosystème de surveillance biométrique à New York.

Des portiques qui regardent, et des corps transformés en données

Dans le métro new-yorkais, la lutte contre la fraude prend un tournant technologique. La MTA teste des portiques équipés de caméras alimentées par l’intelligence artificielle, avec un objectif clair : documenter les personnes soupçonnées de passer sans payer. L’argument est opérationnel, limiter les pertes, fluidifier les contrôles, décourager les resquilleurs. Mais la méthode, elle, touche à une frontière plus délicate : convertir un comportement, franchir un portillon, en signal exploitable.

Selon des responsables de Cubic, fabricant des portillons, le dispositif embarque des caméras qui se déclenchent pendant cinq secondes lorsqu’un usager est suspecté de ne pas régler son titre de transport. Sur cette courte séquence, l’IA génère une description physique de la personne, puis transmet cette description à la MTA. Le point central n’est pas seulement l’enregistrement. C’est l’automatisation du tri : une machine décide qu’un événement mérite capture, produit un profil descriptif, et l’envoie à une autorité publique.

En décembre, la MTA a renforcé ce cap en lançant un appel aux fournisseurs, à la recherche de produits capables « d’exploiter des technologies avancées de vision par ordinateur et d’intelligence artificielle (IA) » pour détecter des « comportements inhabituels ou dangereux ». Le cadrage élargit d’emblée l’usage potentiel. On ne parle plus uniquement de fraude tarifaire, mais d’une catégorie souple, “inhabituel”, qui peut vite devenir un filet large si les paramètres ne sont pas strictement bornés.

Pour les New-Yorkais, l’essai de la MTA s’inscrit dans un paysage déjà dense. Les agences publiques et les acteurs privés multiplient les capteurs, et la normalisation se fait souvent par petites touches. Un portillon qui filme cinq secondes aujourd’hui, une généralisation demain, puis une extension des finalités après-demain. C’est précisément ce glissement progressif que redoutent les défenseurs de la vie privée, parce qu’il change la ville sans vote explicite, au rythme des mises à jour et des contrats.

Commerces, police, et l’ombre d’un État de surveillance

Le débat new-yorkais ne se limite pas aux transports. Début janvier, l’enseigne Wegmans a commencé à afficher des panneaux informant les clients qu’elle avait déployé des caméras intégrant la reconnaissance faciale dans certains magasins. Le groupe affirme que « le système collecte des données de reconnaissance faciale et ne les utilise que pour identifier les personnes qui ont déjà été signalées pour mauvaise conduite ». Wegmans ajoute ne collecter ni scans rétiniens ni empreintes vocales, mais l’entreprise ne précise pas la durée de conservation des données, un détail qui, en matière de biométrie, fait toute la différence entre un contrôle ponctuel et un fichier durable.

La loi de la ville de New York impose aux magasins d’informer leurs clients lorsqu’ils utilisent la reconnaissance faciale. Michelle Dahl, directrice générale du Surveillance Technology Oversight Project (STOP), cite d’autres enseignes recourant à ces outils : T-Mobile, Madison Square Garden, Walmart, Home Depot, Fairway et Macy’s. Dans ce décor, la MTA apparaît moins comme une exception que comme un nouveau maillon, public, d’un réseau de surveillance hybride où l’espace commercial et l’espace urbain finissent par se ressembler.

Dahl avertit que la surveillance biométrique, par les commerçants comme par la MTA, a fortement augmenté récemment, tout en passant sous le radar d’une partie des habitants. « Les New-Yorkais, dans leur ensemble, s’enfoncent sans s’en rendre compte dans cet État de surveillance, et il est temps pour nous de nous réveiller et d’agir », dit-elle. La phrase agit comme un rappel politique : la technique avance vite, mais l’attention citoyenne, elle, est intermittente.

Une autre inquiétude pèse sur ces systèmes : la précision inégale selon les populations. La reconnaissance faciale est décrite comme moins fiable pour identifier les minorités, et en particulier les personnes noires. Appliquée à la fraude dans le métro, cette limite ouvre un risque concret : que des caméras signalent les mauvaises personnes et que ces signalements, par ricochet, alimentent des interventions policières. Même lorsque l’outil ne “nomme” pas, une description physique automatisée peut devenir un vecteur de ciblage.

Le texte rappelle enfin que le NYPD utilise depuis longtemps des technologies biométriques, dont la reconnaissance faciale, pour profiler et suivre des habitants. En novembre, STOP et Amnesty International ont publié des documents montrant l’ampleur de ce programme après une procédure judiciaire de cinq ans. Selon ces organisations, les documents indiquent qu’en avril 2020, la police de New York avait dépensé plus de 5 million $ (4,6 millions d’euros) en technologie de reconnaissance faciale et qu’elle dépensait au moins 100 000 $ (92 000 euros) supplémentaires chaque année.

Dans ce contexte, les portiques intelligents de la MTA ne sont pas qu’un test technique. Ils deviennent un point de bascule : la fraude comme justification, la biométrie comme outil, et la ville comme terrain d’expérimentation, où l’IA transforme les passants en profils actionnables.