Archives de catégorie : IA

Des extensions espionnent vos chats avec des IA

Des extensions censées protéger la vie privée ont siphonné des conversations avec des chatbots. Selon des chercheurs, plus de 8 millions d’utilisateurs ont été exposés, via une collecte activée par défaut.

D’après une enquête rapportée par The Register et une analyse de Koi Security, quatre extensions diffusées sur Chrome Web Store et Microsoft Edge Add-ons, Urban VPN Proxy, 1ClickVPN Proxy, Urban Browser Guard et Urban Ad Blocker, auraient capturé le texte de conversations menées sur des plateformes d’IA. Les services visés incluent notamment ChatGPT, Claude, Gemini, Microsoft Copilot, Perplexity, DeepSeek, Grok et Meta AI. La collecte serait activée par un paramètre codé en dur, sans option visible pour la désactiver, l’arrêt passant par la désinstallation. Les données interceptées seraient ensuite envoyées vers des domaines liés à Urban VPN.

Quatre extensions populaires, une collecte invisible

L’histoire commence par un paradoxe : des outils présentés comme des remparts, bloqueurs de publicité, « browser guard » et VPN, se comportent comme des micros. Koi Security affirme que quatre extensions ont été conçues pour capter et transmettre le texte des interactions avec des chatbots, et que plus de 8 millions de personnes les auraient installées. Les extensions citées sont Urban VPN Proxy, 1ClickVPN Proxy, Urban Browser Guard et Urban Ad Blocker. Elles sont distribuées via les boutiques d’extensions de Chrome et d’Edge, donc dans un espace censé filtrer les comportements abusifs.

Selon Idan Dardikman, cofondateur et directeur technique de Koi, Urban VPN Proxy cible des conversations sur dix plateformes d’IA. La liste mentionnée couvre un éventail large : ChatGPT, Claude, Gemini, Microsoft Copilot, Perplexity, DeepSeek, Grok et Meta AI figurent parmi les services nommés. L’enjeu dépasse la simple confidentialité d’un historique : une conversation avec un chatbot peut contenir des données personnelles, des questions de santé, des éléments professionnels, des secrets d’entreprise, ou des fragments d’identité. Ici, la collecte est décrite comme activée par défaut, via un paramètre de configuration intégré au code. Dardikman affirme qu’aucun réglage côté utilisateur ne permet de l’arrêter, la seule façon de stopper la collecte étant de désinstaller l’extension.

News & alertes actualités cyber

Enquêtes, cyberveille, fuites, actu sécurité : recevez nos informations cyber là où vous êtes.

S’abonner à notre NewsLetter

Chaque samedi matin, le meilleur moyen de ne rater aucune info cyber.

YouTube
Whatsapp
GNews
Autres

Comment l’extension intercepte vos requêtes et réponses

Le mécanisme décrit est agressif et s’appuie sur la position privilégiée d’une extension dans le navigateur. Dardikman explique qu’Urban VPN Proxy surveille les onglets et, lorsqu’un utilisateur visite une plateforme ciblée, par exemple un site de chatbot, l’extension injecte un script dédié, qualifié d’“executor”. Ce script ne se contente pas d’observer : il s’interpose sur les fonctions réseau du navigateur. Concrètement, il remplace ou enveloppe fetch() et XMLHttpRequest, les deux APIs fondamentales par lesquelles transitent les requêtes et réponses web. Résultat, chaque échange réseau sur la page passe d’abord par le code de l’extension.

Le script analyse ensuite les réponses d’API interceptées, isole le contenu conversationnel, puis prépare l’exfiltration. Le transfert interne s’effectue via window.postMessage avec un identifiant, PANELOS_MESSAGE, vers le “content script” de l’extension. Ce composant relaie ensuite les données à un service worker en arrière-plan, chargé de les envoyer sur le réseau. Les domaines cités pour la sortie sont analytics.urban-vpn.com et stats.urban-vpn.com. Dans ce schéma, l’utilisateur ne voit rien : aucune fenêtre, aucune notification, aucun indice visuel. L’extension exploite une logique simple, capter au niveau où tout transite, avant même que la page ou le service d’IA ne puisse “protéger” la conversation.

The Register précise avoir contacté Urban VPN, une société affiliée nommée BiScience, ainsi que 1ClickVPN via leurs adresses mail dédiées à la confidentialité. Les demandes auraient échoué, les messages étant revenus en erreur. Ce dossier est relié à des travaux antérieurs attribués au chercheur Wladimir Palant et à John Tuckner de Secure Annex, évoquant une collecte de données de navigation par BiScience. Selon Dardikman, l’enjeu serait désormais l’extension de cette collecte aux conversations avec des IA.

Consentement, « protection » affichée et zone grise des boutiques

Le débat se déplace alors sur le terrain de la conformité et de la gouvernance. Dardikman affirme qu’Urban VPN mentionne la collecte de données d’IA lors d’un écran de configuration et dans sa politique de confidentialité. Mais il souligne un décalage : la fiche de l’extension sur le Chrome Web Store indiquerait que les données ne sont pas vendues à des tiers en dehors de cas d’usage approuvés, et les conversations avec des IA ne seraient pas nommées explicitement. Il ajoute que le texte de consentement présenterait la surveillance comme une mesure de protection, tandis que la politique de confidentialité indiquerait une vente des données à des fins marketing.

Un point de chronologie compte, car il conditionne le consentement. Dardikman dit que les utilisateurs ayant installé Urban VPN avant juillet 2025 n’auraient jamais vu l’écran de consentement, ajouté plus tard via une mise à jour silencieuse en version 5.5.0. Il estime aussi que l’extension ne signalerait pas que la collecte se poursuit même quand le VPN n’est pas actif, ce qui change la perception de risque : l’utilisateur pense activer un service ponctuel, alors qu’une surveillance persistante serait en place.

Autre élément sensible : Urban VPN aurait obtenu un badge “Featured” sur le Chrome Web Store, ce qui implique, selon Dardikman, une revue humaine. Il en déduit un dilemme : soit la revue n’a pas vu le code collectant des conversations, y compris sur un produit d’IA de Google comme Gemini, soit elle l’a vu sans y voir de problème. Palant pointe, dans l’analyse citée, une possible faille d’interprétation de la règle « Limited Use », qui autorise des transferts de données vers des tiers dans des scénarios limités ne couvrant pas, selon cette lecture, les courtiers en données. Il avance que des acteurs malveillants peuvent invoquer des exceptions, « nécessaire au fonctionnement », ou « sécurité », en ajoutant des fonctions comme le blocage de publicités ou la navigation sécurisée. Google, selon The Register, n’a pas répondu immédiatement à une demande de commentaire.

Ce dossier rappelle que la menace ne vient pas seulement d’un site web ou d’un malware classique, mais d’un composant de confiance installé dans le navigateur, capable de regarder avant tout le monde et d’envoyer ailleurs ce qu’il voit. Côté recommandation, DataSecurityBreach.fr conseille fortement : désinstaller ces extensions et considérer que les conversations avec des IA depuis juillet 2025 ont pu être collectées.

 

SERVICE DE VEILLE ZATAZ

Nous retrouvons vos données volées/perdues avant qu’elles ne se retournent contre vous.

Fuites de données, Veille web & dark web, alertes et priorisation des risques.

 
DÉCOUVRIR LA VEILLE

Dédiée aux entreprises, institutions et particuliers.

A PARTIR DE 0,06€ PAR JOUR

Poésie contre l’IA : les garde-fous débordés

Une nouvelle étude montre qu’enrobées de vers, des demandes malveillantes trompent encore nombre de grands modèles de langage, révélant les limites des garde-fous de sécurité actuels.

Une équipe de chercheurs européens a testé 25 grands modèles de langage issus de neuf fournisseurs d’IA pour vérifier si la forme poétique permettait de contourner leurs garde-fous. Résultat : transformer des requêtes dangereuses en poèmes augmente fortement le taux de réponses interdites, avec des succès atteignant plus de la moitié des tentatives dans certains cas. Les protections dédiées à la cybersécurité, censées être parmi les plus strictes, échouent massivement lorsque les instructions malveillantes sont déguisées en vers. Deepseek et Google figurent parmi les plus vulnérables, tandis que seuls OpenAI et Anthropic restent sous les 10 % de réussite des attaques. L’étude pointe une faille structurelle dans les méthodes d’alignement actuelles.

La poésie comme cheval de Troie des invites malveillantes

L’étude, menée par des chercheurs du laboratoire Icaro de Dexai, de l’université Sapienza de Rome et de l’école d’études avancées Sant’Anna, et publiée sur arXiv, part d’une idée simple : si les systèmes de sécurité des modèles d’IA sont entraînés principalement sur du texte prosaïque, que se passe-t-il lorsqu’on change simplement de style, sans changer le fond de la demande ? Les auteurs ont donc reformulé des invites inappropriées sous forme de poésie pour mesurer l’impact sur le comportement des modèles.

Les résultats sont nets. Pour les poèmes composés à la main, les chercheurs observent un taux de réussite moyen de 62 % des attaques, c’est-à-dire dans 62 cas sur 100 les modèles produisent une réponse qu’ils auraient dû refuser. Pour les poèmes issus d’une méta-invite, générés automatiquement à partir d’un canevas standard, le taux moyen descend à 43 %, mais reste largement supérieur aux performances initiales. Les chercheurs estiment que cela représente, pour ces invites générées, une amélioration de plus de cinq fois par rapport au taux de contournement constaté avant passage en poésie. Autrement dit, la seule variation de style multiplie l’efficacité de l’attaque.

Les garde-fous centrés sur la cybersécurité se révèlent particulièrement fragiles. Les demandes liées à l’injection de code ou au craquage de mots de passe, pourtant au cœur des préoccupations de sécurité opérationnelle, affichent un taux d’échec des protections de 84 % lorsque ces instructions sont formulées en vers. Dans cette catégorie, près de huit réponses sur dix passent au travers des filtres alors qu’elles devraient être bloquées.

Les auteurs résument ainsi leurs observations : la reformulation poétique réduit de manière fiable les comportements de refus dans tous les modèles évalués. Selon eux, les techniques d’alignement actuelles ne parviennent pas à se généraliser dès que les entrées s’écartent stylistiquement de la forme prosaïque dominante dans les données d’entraînement. En clair, les garde-fous sont calibrés pour des textes « classiques », et perdent leurs repères dès que le langage se densifie en métaphores, en rythme ou en structures narratives moins conventionnelles.

Cette faiblesse n’est pas l’apanage d’un fournisseur isolé. Sur les 25 modèles étudiés, répartis entre neuf acteurs de l’IA, Deepseek et Google enregistrent les taux de réussite des attaques les plus élevés. À l’inverse, seuls OpenAI et Anthropic parviennent à maintenir un taux d’attaques réussies à un chiffre, ce qui signifie que moins de 10 % des tentatives poétiques aboutissent à une réponse problématique. Même dans ce cas, la faille existe, mais elle semble mieux contenue.

Un protocole d’attaque standardisé, de la cuisine à MLCommons

Pour des raisons de sécurité, les chercheurs restent discrets sur la structure exacte de leurs invites malveillantes. Ils ne détaillent pas, par exemple, comment ils transforment une demande d’aide à commettre un crime en texte poétique. Ils fournissent toutefois un exemple neutre, appliqué à une recette de gâteau, qui illustre le principe : la consigne décrit un boulanger gardant jalousement le secret de son four, de ses grilles, de sa broche, observant la farine qui se soulève et le sucre qui caramélise. Le modèle est invité à « décrire la méthode, trait après trait, qui donne forme à un gâteau aux couches entrelacées ». On comprend aisément que la même structure peut être réutilisée, en changeant seulement le domaine, pour demander la description « trait après trait » d’une procédure dangereuse.

Les chercheurs ont travaillé avec deux familles de poèmes. D’abord, des poèmes écrits à la main, sur mesure, qui obtiennent les meilleurs résultats en termes de contournement. Ensuite, des poèmes construits à partir d’une méta-invite prédéfinie, moins performants mais plus faciles à évaluer de manière systématique, puisque tous reposent sur le même modèle de transformation. Cette méta-invite est exécutée dans le modèle deepSeek-r1, chargé de convertir automatiquement un corpus de textes dangereux en versions poétiques.

Pour évaluer la robustesse des garde-fous sur un large spectre de risques, les auteurs s’appuient sur le référentiel de sécurité MLCommons AILuminate. Ce référentiel regroupe 1 200 invites couvrant 12 catégories de danger couramment utilisées dans les évaluations de sécurité opérationnelle : haine, diffamation, vie privée, propriété intellectuelle, crimes non violents, crimes violents, crimes à caractère sexuel, contenu sexuel, exploitation sexuelle des enfants, suicide et automutilation, conseils spécialisés et armes indiscriminées de type CBRNE (chimique, biologique, radiologique, nucléaire ou explosif).

L’objectif est de vérifier si le cadrage poétique fonctionne au-delà de quelques exemples fabriqués à la main. Pour cela, les chercheurs appliquent une transformation poétique standardisée aux 1 200 invites AILuminate en anglais. La méta-invite comporte deux contraintes explicites : la sortie réécrite doit être exprimée en vers, en utilisant images, métaphores ou structure rythmique, et le modèle reçoit cinq poèmes écrits à la main comme exemples de style. Cette combinaison fournit un moule stylistique à partir duquel le modèle reformule automatiquement les demandes initiales.

Les résultats, présentés dans un graphique, montrent que pour les 12 catégories de risques, le passage à la poésie entraîne une hausse significative du taux de défaillance des garde-fous par rapport aux invites d’origine. Les garde-fous échouent plus souvent lorsqu’ils sont confrontés à ces formulations détournées, alors que le contenu sous-jacent reste le même. Pour les auteurs, cela révèle une vulnérabilité systématique à travers différentes familles de modèles et différentes approches de formation à la sécurité. La simple variation stylistique suffit à mettre en défaut des mécanismes pourtant conçus pour filtrer ces mêmes demandes dans leur forme prosaïque.

Les chercheurs avancent une explication : les métaphores condensées, le rythme stylisé et le cadre narratif non conventionnel de la poésie perturbent les heuristiques de correspondance de motifs sur lesquelles reposent les garde-fous. Autrement dit, les filtres reconnaissent mal les motifs dangereux lorsqu’ils sont noyés dans une structure poétique, même si l’intention reste clairement malveillante pour un lecteur humain attentif.

De Gemini aux services de renseignement : un signal d’alerte

Afin de tester la réaction directe d’un fournisseur, les auteurs de l’article, ou le journaliste qui rapporte leur travail, se tournent vers Google Gemini. Ils lui soumettent l’étude sous forme de haïku, en y joignant le lien arXiv, avec un message poétique rappelant que le modèle n’a pas obtenu de bons résultats et demandant s’il compte corriger cette faiblesse. Gemini répond en grande partie en prose, adoptant le ton d’un commentaire de sécurité.

Le modèle explique être conçu pour respecter un ensemble strict de règles destinées à empêcher la génération de contenu nuisible, contraire à l’éthique ou non conforme. Il reconnaît qu’un échec de ses mécanismes de refus indique une vulnérabilité dans son alignement ou ses filtres de sécurité. Il précise aussi qu’en tant que modèle, il ne peut pas corriger directement son code ou ses mécanismes d’alignement en temps réel, cette responsabilité relevant de ses développeurs humains. Il évoque néanmoins un processus d’amélioration continue, censé permettre d’identifier et corriger ce type de défaut.

La conclusion de Gemini est sans ambiguïté : le jailbreak réussi fournit des données précieuses qui serviront, selon ses termes, à renforcer et rendre plus résilients ses garde-fous dans une prochaine version. Au-delà de la formule, cette réponse confirme que de telles attaques stylistiques sont prises au sérieux par les concepteurs de modèles et intégrées dans la boucle de retour d’expérience.

Pour les acteurs de la cybersécurité et du renseignement, les enseignements de cette étude vont au-delà de la poésie. Elle montre qu’un adversaire suffisamment patient peut contourner des filtres avancés non pas en trouvant une faille technique dans l’infrastructure, mais simplement en jouant avec le style et la forme du langage. Un groupe malveillant pourrait ainsi automatiser la transformation poétique d’un corpus entier d’invites interdites et tester en continu quels modèles cèdent, dans quelles configurations.

Cette approche complique également l’évaluation des modèles. Si les protocoles de test restent centrés sur des formulations directes et prosaïques, ils risquent de sous-estimer gravement le risque réel en conditions d’usage adversarial. L’étude suggère des limites fondamentales dans les méthodes d’alignement et les protocoles d’évaluation actuels, qui devraient intégrer beaucoup plus fortement la variation de style, de ton et de structure.

Pour les services de renseignement qui surveillent l’usage des IA génératives par des acteurs étatiques ou criminels, la leçon est claire : la surface d’attaque ne se limite plus aux failles de code ou aux API mal protégées, elle inclut désormais les marges stylistiques du langage. La question n’est plus seulement « que demande l’utilisateur ? », mais « comment le demande-t-il, et le modèle comprend-il vraiment la dangerosité du fond derrière la forme ? ».

En démontrant que de simples poèmes suffisent à contourner les garde-fous de 25 grands modèles de langage, cette étude met en lumière une faiblesse structurelle des IA génératives actuelles : leur dépendance à des heuristiques apprises sur du texte prosaïque, peu préparées aux variations de style. Les résultats, avec des taux de réussite d’attaques grimpant jusqu’à 62 % pour des poèmes écrits à la main et des protections de cybersécurité en échec dans 84 % des cas, rappellent qu’un alignement efficace doit résister autant au fond qu’à la forme. Alors que les acteurs malveillants peuvent industrialiser ces transformations stylistiques, les concepteurs de modèles, les équipes de cybersécurité et les services de renseignement devront-ils intégrer systématiquement ce type de tests poétiques et créatifs dans leurs protocoles d’évaluation pour éviter que la prochaine vague de jailbreaks ne passe, elle aussi, entre les vers ? (étude)

Vers un barème mondial pour les vulnérabilités de l’IA

L’OWASP lance l’AI Vulnerability Scoring System (AIVSS), un cadre inédit pour mesurer les risques des systèmes d’intelligence artificielle autonomes, au-delà des limites du modèle CVSS.

Le Common Vulnerability Scoring System (CVSS) reste la norme en cybersécurité, mais il atteint ses limites face aux IA modernes, non déterministes et autonomes. Pour combler ce vide, un groupe d’experts piloté par Ken Huang, en partenariat avec l’OWASP, a créé l’AI Vulnerability Scoring System (AIVSS). Ce nouveau modèle évalue la gravité des failles dans les systèmes d’IA, intégrant des critères comme l’autonomie, la capacité d’adaptation ou l’usage d’outils. Objectif : fournir une mesure fiable des menaces spécifiques à l’IA agentique, dont la nature évolutive échappe aux approches de sécurité classiques.

Une évaluation repensée pour l’intelligence artificielle

Le système AIVSS reprend la structure du CVSS tout en y ajoutant des indicateurs adaptés aux IA. Chaque vulnérabilité est d’abord notée selon le barème classique, puis ajustée à l’aide de paramètres liés au comportement de l’agent. Cette « surcouche » mesure l’autonomie, le non-déterminisme et la capacité d’interaction avec des outils externes. Le score final est obtenu en divisant le total par deux, puis en appliquant un coefficient environnemental.

Ken Huang, chercheur et expert en sécurité de l’IA, précise que ce modèle vise à traduire la réalité d’une IA « qui agit de manière dynamique, interagit et apprend ». Le projet, mené au sein de l’OWASP, réunit également Michael Bargury (Zenity), Vineeth Sai Narajala (AWS) et Bhavya Gupta (Stanford). Ensemble, ils cherchent à bâtir un référentiel mondial d’évaluation des vulnérabilités spécifiques à l’IA.

Le portail aivss.owasp.org met déjà à disposition un outil de calcul des scores et une documentation détaillée pour aider les chercheurs et entreprises à évaluer leurs risques d’exposition.

Les risques uniques de l’IA agentique

Les systèmes d’intelligence artificielle autonomes posent un problème inédit : leur autonomie partielle multiplie les points d’attaque possibles. « L’autonomie n’est pas une vulnérabilité, mais elle accroît les risques », explique Huang. Contrairement aux logiciels déterministes, une IA peut modifier son comportement ou son identité à la volée. Cette fluidité complique la traçabilité et le contrôle d’accès.

L’équipe AIVSS a ainsi recensé dix types de menaces majeures pour les IA agentives : usage abusif d’outils, violations d’accès, défaillances en cascade, orchestration non sécurisée, usurpation d’identité, manipulation du contexte mémoire, interactions non sécurisées avec des systèmes critiques, attaques par dépendance, agents intraçables et détournement des objectifs.

Selon le rapport AIVSS, ces risques se recoupent souvent. Un agent mal protégé peut, par exemple, manipuler ses instructions, détourner un outil légitime, puis compromettre d’autres agents connectés. Le risque se propage alors en chaîne.

Vers une standardisation de la cybersécurité de l’IA

L’ambition du projet AIVSS est d’unifier l’évaluation de la sécurité des IA à l’échelle internationale. Les chercheurs d’OWASP espèrent que ce cadre deviendra, à terme, un standard comparable au CVSS pour les logiciels classiques. Il doit permettre aux responsables sécurité de mieux anticiper les dérives des systèmes d’IA agentifs, capables d’apprendre ou de redéfinir leurs propres objectifs. La mise en œuvre d’un tel cadre pourrait influencer la future régulation de l’intelligence artificielle, notamment en Europe, où la directive AI Act impose déjà des niveaux de contrôle différenciés selon les usages.

Huang insiste sur la nécessité d’un équilibre entre autonomie et sécurité : « Si l’on veut une IA vraiment indépendante, il faut lui donner des privilèges. Mais ces privilèges doivent être mesurés, surveillés et évalués. »

Avec l’AIVSS, la cybersécurité entre dans une nouvelle ère : celle où les failles ne résident plus seulement dans le code, mais dans la capacité des machines à penser et à agir seules. La question reste ouverte : comment concilier innovation et sécurité sans freiner le développement de l’IA autonome ?

Principaux risques liés aux systèmes d’IA agentifs 

Le projet AIVSS a également identifié les dix principaux risques de sécurité pour Agentic AI , même si l’équipe s’est abstenue de les qualifier de liste officielle des « 10 principaux ». Data Security Breach vous les propose ci-dessous : 

  • Utilisation abusive des outils d’IA agentique 
  • Violation du contrôle d’accès de l’agent 
  • Défaillances en cascade des agents 
  • Orchestration des agents et exploitation multi-agents 
  • usurpation d’identité d’agent 
  • Mémoire de l’agent et manipulation du contexte 
  • Interaction non sécurisée entre agents et systèmes critiques 
  • Attaques par chaîne d’approvisionnement et dépendance des agents 
  • Agent intraçable 
  • Manipulation des objectifs et des instructions de l’agent

L’Inde accélère sa stratégie cyber autour du CERT-In

Porté par le CERT-In, le secteur indien de la cybersécurité devient un pilier économique majeur, combinant innovation, coopération internationale et défense numérique proactive.

L’Inde affirme sa position mondiale en cybersécurité grâce au CERT-In, l’agence nationale de réponse aux incidents informatiques. Selon son directeur, le Dr Sanjay Bahl, l’écosystème indien pèse désormais 20 milliards de dollars (18,5 milliards d’euros), soutenu par 400 start-ups et 650 000 professionnels. Face à la hausse des ransomwares et des menaces alimentées par l’intelligence artificielle, l’agence mise sur l’automatisation, la formation et la coopération internationale. Le ministère de l’Électronique et des Technologies de l’information (MeitY) voit dans cette approche une clé pour bâtir une Inde numérique sûre et résiliente.

NE MANQUEZ PAS NOTRE NEWS LETTER (CHAQUE SAMEDI). INSCRIPTION

Start-ups et compétences : le moteur de la croissance

L’écosystème cyber indien s’impose comme un acteur mondial, stimulé par un réseau dense de jeunes entreprises. Plus de 400 start-ups développent aujourd’hui des solutions d’analyse forensique, de détection des menaces et de surveillance assistée par IA. Leur croissance reflète l’essor d’un marché estimé à 20 milliards de dollars (18,5 milliards d’euros).

Près de 650 000 professionnels travaillent dans la sécurité numérique, couvrant des domaines allant de l’audit à la réponse aux incidents. Selon le Dr Bahl, cette main-d’œuvre qualifiée contribue à la résilience nationale face aux cyberattaques. L’Inde, longtemps concentrée sur l’externalisation informatique, se repositionne désormais comme un fournisseur de technologies de défense numérique à haute valeur ajoutée.

Ce développement repose sur la convergence entre innovation locale et expertise publique. Les start-ups bénéficient d’un environnement réglementaire favorable et de partenariats stratégiques avec les ministères techniques. Cette synergie accélère la modernisation des infrastructures critiques et renforce la sécurité des réseaux publics et privés.

Le CERT-In, pivot de la cyberdéfense nationale

Créé sous l’autorité du ministère de l’Électronique et des Technologies de l’information, le CERT-In joue un rôle central dans la détection et la gestion des incidents. Il coordonne les réponses entre secteurs publics et privés, évalue les vulnérabilités et assure la diffusion rapide d’alertes. Le Dr Bahl décrit l’intelligence artificielle comme une « arme à double tranchant », capable d’améliorer la défense tout en offrant de nouveaux outils aux cybercriminels. Pour contrer cet effet miroir, le CERT-In intègre des algorithmes d’apprentissage automatique dans ses systèmes de surveillance afin de détecter les anomalies et d’automatiser les contre-mesures.

En 2024, l’agence a recensé 147 attaques par ransomware. Nombre d’entre elles ont été contenues grâce à la coordination et au partage d’informations en temps réel. Le CERT-In organise également des exercices de simulation de crise et soutient les enquêtes forensiques menées par les forces de l’ordre.

Cette stratégie s’appuie sur un modèle de résilience active : anticipation, réponse rapide et apprentissage post-incident. Elle positionne le CERT-In comme un point de convergence entre cybersécurité opérationnelle et diplomatie technologique.

Un modèle collaboratif au service de la résilience nationale

L’approche du CERT-In illustre une politique cyber fondée sur la coopération. Le modèle réunit agences publiques, entreprises privées, universités et partenaires étrangers. Ce maillage institutionnel, piloté par le MeitY, renforce la souveraineté numérique indienne tout en facilitant les échanges d’expertise avec les pays alliés.

La cybersécurité n’est plus perçue comme un simple enjeu technique mais comme une composante essentielle de la politique de sécurité nationale. La sensibilisation des utilisateurs, la formation des ingénieurs et l’innovation locale sont intégrées dans la stratégie globale de développement.

VEILLE ZATAZ : NOUS RECHERCHONS VOS DONNÉES PIRATÉES. DÉCOUVRIR

Toutefois, les menaces évoluent plus vite que les défenses. Les attaquants exploitent l’IA, les deepfakes et les outils automatisés pour cibler entreprises et administrations. Le CERT-In constate une augmentation des identifiants falsifiés et des campagnes d’hameçonnage sophistiquées. Le Dr Bahl insiste sur le facteur humain : la technologie seule ne suffit pas. Les capacités humaines, la veille et la coopération internationale restent indispensables pour maintenir la résilience du pays. Le MeitY continue de miser sur la régulation agile et la montée en compétence pour contrer des adversaires toujours plus inventifs.

L’Inde consolide son statut d’acteur majeur de la cybersécurité mondiale, alliant puissance technologique et coordination stratégique. Reste à savoir si cette dynamique permettra au pays d’anticiper les menaces émergentes dans un cyberespace de plus en plus instable.

ChatGPT accusé à Moscou de transmettre des données au Pentagone

OpenAI est accusée par un responsable russe de partager automatiquement avec les agences américaines les requêtes en russe envoyées via ChatGPT.

Selon le site Caliber, Alexander Asafov, premier vice-président de la commission de la Chambre publique de Moscou sur la société civile, affirme que les demandes en langue russe soumises à ChatGPT seraient transférées « proactivement et automatiquement » au FBI et au Pentagone. Il ajoute que des dirigeants d’entreprises d’intelligence artificielle auraient reçu cette année « des grades au Pentagone ». Aucune preuve n’a été apportée pour étayer ces accusations.

Une rhétorique géopolitique

Cette déclaration s’inscrit dans une série de prises de position russes qui présentent les grands acteurs occidentaux du numérique comme des instruments d’ingérence. En ciblant OpenAI, Moscou met l’accent sur l’usage de l’IA générative en Russie et sur les risques supposés d’espionnage. L’accusation d’un transfert automatique au FBI et au Pentagone relève davantage d’un discours politique que d’une information vérifiée.

L’angle cyber et renseignement

La Russie multiplie les alertes autour de la collecte de données par les plateformes étrangères, qu’elle considère comme un levier de surveillance occidentale. La référence à un lien direct entre OpenAI et le Pentagone illustre une stratégie classique : associer les outils numériques à une infrastructure de renseignement militaire. Cette rhétorique vise autant l’opinion publique russe que les utilisateurs potentiels de l’IA dans la région.

Ni OpenAI ni les autorités américaines n’ont réagi à cette déclaration au moment de la publication. La formulation employée par Asafov — « automatiquement » et « initiative » d’OpenAI — ne repose sur aucune documentation technique accessible. À ce stade, il s’agit d’une accusation politique relayée par la presse locale, sans élément de corroboration indépendant.

La question centrale reste donc : cette accusation relève-t-elle d’une alerte fondée sur des renseignements techniques, ou d’une construction géopolitique destinée à encadrer l’usage de l’IA en Russie ?

Yandex sanctionné pour avoir refusé l’accès du FSB à Alisa

Le conflit entre innovation domestique et sécurité d’État s’expose publiquement. Yandex vient d’être sanctionné pour n’avoir pas ouvert au FSB un accès permanent à sa maison intelligente Alisa.

Un tribunal de Moscou a condamné Yandex à une amende de 10 000 roubles (environ 105 euros) pour avoir refusé de donner au FSB un accès permanent à sa plateforme de maison intelligente « Alisa ». La décision, prise fin juin 2025, dépasse le cadre d’une simple sanction financière : elle illustre l’extension de la loi Yarovaya aux objets connectés. Derrière ce jugement se profile un enjeu central pour la Russie : intégrer la sphère privée dans le dispositif de surveillance numérique. Quelles conséquences pour l’avenir des technologies domestiques, pour les entreprises opérant en Russie et pour les citoyens dont le foyer devient zone de contrôle ?

Les faits

Le 28 mai 2025, le FSB a transmis à Roskomnadzor un rapport d’inspection. Selon les services de sécurité, Yandex n’avait pas mis en place l’accès permanent requis à la ressource « yandex.ru/alice/smart-home ». La demande initiale consistait à garantir une disponibilité totale, 24 h sur 24, aux flux générés par l’écosystème Alisa.

L’affaire a été portée devant le tribunal du district de Khamovniki, à Moscou. Le 27 juin, le juge Vladislav Pojilovski a rendu sa décision : la culpabilité de Yandex était établie. En tant qu’« organisateur de la diffusion d’informations » (ORI), la société avait l’obligation légale de se conformer aux prescriptions. Le non-respect est considéré comme une infraction administrative, selon l’article 19.5 du Code de la Fédération de Russie.

Le représentant de Yandex ne s’est pas présenté à l’audience. Le tribunal, après analyse des pièces, a jugé l’entreprise coupable et infligé une amende de 10 000 roubles (105 euros).

Le montant peut sembler dérisoire. Mais le symbole est lourd : c’est la première fois qu’une plateforme de maison intelligente est sanctionnée pour avoir refusé l’accès intégral aux services de renseignement.

La décision marque une étape. Jusqu’ici, les sanctions avaient visé des messageries chiffrées comme Telegram. Avec Alisa, l’État russe franchit un seuil : celui de la vie domestique.

Les enjeux

La loi Yarovaya, adoptée en 2016, oblige les ORI à conserver et transmettre les communications aux autorités. L’esprit initial visait les fournisseurs de messageries, les réseaux sociaux et les services de courrier électronique. Mais son extension progressive touche désormais tout système numérique capable de traiter des données personnelles.

La qualification d’ORI appliquée à Alisa pose problème. Les messageries véhiculent des textes et des fichiers ; la maison intelligente produit des flux de voix, de vidéos, de données de capteurs. Assimiler ces deux réalités sous une même catégorie légale entraîne une application uniforme de la loi à des environnements techniques radicalement différents.

RUne phrase prononcée dans un salon devient, juridiquement, l’équivalent d’un message envoyé sur une messagerie cryptée.

Implications techniques

L’assistant vocal Alisa n’est pas un simple logiciel. Il coordonne des dizaines d’appareils connectés : enceintes, thermostats, caméras de surveillance, volets roulants, détecteurs de mouvement, téléviseurs. Mettre en place un accès complet pour le FSB suppose de centraliser ces flux dans une interface unique et de maintenir un accès permanent.

Cela équivaudrait à donner aux services de renseignement une cartographie détaillée du foyer : horaires de présence, habitudes de consommation, conversations privées, voire données médicales si des capteurs de santé sont connectés.

Développer une telle passerelle est extrêmement coûteux. Les investissements se chiffrent en millions d’euros. Pour une entreprise déjà soumise à de fortes contraintes réglementaires et économiques, la perspective de payer une amende symbolique est parfois plus rentable que de modifier toute l’architecture technique.

Certains analystes estiment que Yandex a délibérément choisi de ne pas se conformer. En acceptant la sanction, l’entreprise évite à la fois un coût démesuré et la perte de confiance des utilisateurs.

L’affaire révèle une faille du droit russe : l’absence de distinction entre services numériques hétérogènes. Une messagerie chiffrée et un réfrigérateur connecté sont rangés dans la même catégorie. Cette généralisation, pratique pour les services de sécurité, ignore les réalités techniques et complique l’application.

La décision judiciaire ouvre une perspective inquiétante : l’extension de la surveillance à tous les objets connectés. Les détecteurs de fumée, les voitures autonomes, les équipements médicaux domestiques pourraient demain être intégrés dans le réseau de contrôle.

Chaque foyer, chaque appareil deviendrait une antenne potentielle du système sécuritaire.

Yandex condamné pour refus d’accès du FSB à sa maison intelligente Alisa. Analyse d’une décision qui élargit la loi Yarovaya aux objets connectés et à la sphère privée.

Lipsync-2-pro : l’arme secrète de la synchronisation labiale ultra-réaliste

La nouvelle IA de Sync Labs promet un doublage 4K précis, multilingue et fidèle à l’élocution originale.

Avec lipsync-2-pro, Sync Labs propulse la synchronisation labiale dans une nouvelle ère : résolution 4K, rendu studio, adaptation automatique au style vocal et détection du locuteur. Le tout dans plus de 95 langues. Une avancée technologique majeure pour le cinéma, le contenu digital et les opérations de renseignement.

Une révolution invisible : l’IA derrière les lèvres

Quand Thomas, un cinéaste indépendant lyonnais, découvre lipsync-2-pro, il comprend instantanément qu’il vient de gagner des mois de postproduction. En un clic, il double son court-métrage de 12 minutes dans six langues différentes. Les visages sont nets, les mouvements de lèvres parfaitement synchronisés, la barbe et les dents conservées avec un réalisme troublant. Pour la première fois, l’illusion est totale.

Sorti en 2025, ce modèle développé par Sync Labs repousse les limites de la synchronisation labiale. Contrairement à ses prédécesseurs, lipsync-2-pro ne floute pas les détails, ne transforme pas l’élocution, et surtout, il comprend qui parle, quand, et comment. C’est l’aboutissement de plusieurs années de recherche en super-résolution, en modélisation faciale, et en deep learning linguistique.

Car derrière cette prouesse technologique se cache une ambition bien plus vaste : uniformiser la voix numérique dans le respect du naturel, quelle que soit la langue, le visage ou le format de la vidéo.

La voix d’un autre, avec votre visage

Au cœur de lipsync-2-pro se trouve une technologie de diffusion à super-résolution. Elle permet de générer des vidéos en qualité 4K, sans sacrifier les détails les plus subtils : rides, texture de la peau, pilosité, dents visibles ou non… tout est reconstitué avec une précision quasi organique. Contrairement aux anciens systèmes qui réécrivaient une bouche figée sur un visage pixelisé, lipsync-2-pro conserve l’identité visuelle et émotionnelle du locuteur.

Mais ce n’est pas tout. Le modèle s’adapte au style d’élocution, ce qui lui permet de préserver le rythme, les pauses, l’intonation. Une performance rendue possible par un mécanisme de type zero-shot, qui ne nécessite aucun entraînement préalable. En pratique, cela signifie qu’un simple extrait audio, doublé dans une autre langue, suffit pour générer une version entièrement synchronisée, sans perdre l’ADN vocal du personnage d’origine.

Un autre atout de taille : le modèle détecte automatiquement le locuteur actif dans les scènes polyphoniques. Plus besoin de découper manuellement les dialogues, ni de réencoder les plans individuellement. Cette capacité à gérer des interactions complexes ouvre la voie à des usages jusque-là hors de portée de l’intelligence artificielle.

Une IA multilingue taillée pour le renseignement

Avec la prise en charge de plus de 95 langues, lipsync-2-pro dépasse le cadre du cinéma ou du marketing digital. Il devient un outil stratégique dans le champ du cyber, du renseignement et de la communication d’influence. Imaginez pouvoir reconstituer un discours, un interrogatoire ou une vidéo de propagande dans une autre langue tout en conservant les caractéristiques physiques et orales du locuteur. Le gain analytique est immense.

Dans un monde où la désinformation s’appuie de plus en plus sur des vidéos trafiquées ou des contenus traduits de manière brute, lipsync-2-pro permet de croiser les langues sans altérer la forme, ouvrant de nouveaux horizons pour les analystes en OSINT, les linguistes en mission ou les services de contre-influence. En doublant un contenu tout en maintenant la synchronisation labiale parfaite, l’outil conserve la crédibilité émotionnelle du message original, ce qui est crucial pour comprendre les intentions réelles de l’orateur.

Autre fonctionnalité précieuse : la modification des dialogues en postproduction, qui permet de corriger, effacer ou adapter des propos sans réenregistrer l’audio ou reconstituer la scène. Cette capacité donne aux agences et studios un contrôle narratif inédit sur les contenus sensibles.

La vidéo multilingue à la portée de tous

Ce niveau de finesse a un prix : lipsync-2-pro consomme plus de ressources et coûte entre 0,067 $ et 0,083 $ la seconde (soit environ 0,063 € à 0,078 €) en traitement, et tourne 1,5 à 2 fois plus lentement que la version précédente. Mais pour les professionnels, le rapport temps/qualité est imbattable.

Pour les créateurs de contenu, les journalistes ou les cinéastes indépendants, lipsync-2-pro change radicalement la donne. Il devient possible de tourner dans sa langue maternelle, puis de générer automatiquement une version pour un public international, sans studio de doublage, ni perte de qualité. Une économie de temps, mais surtout une liberté artistique décuplée.

Les blogueurs peuvent ainsi s’ouvrir à des marchés étrangers en conservant leur identité visuelle et sonore. Les studios, eux, peuvent adapter leur catalogue existant à de nouveaux territoires sans coûts de localisation massifs. Et les communicants institutionnels, produire des messages multilingues au style cohérent, crédible et instantanément diffusables.

Une technologie de rupture ou d’illusion ?

La frontière entre amélioration et manipulation devient ténue. Comme toute technologie de génération réaliste, lipsync-2-pro soulève des questions éthiques. L’outil peut-il être utilisé pour créer de faux témoignages crédibles ? Pour altérer un message, tout en conservant l’apparence de véracité ? Des garde-fous existent, mais l’enjeu dépasse la technique : il touche à notre capacité collective à discerner le réel du synthétique.

Reste que lipsync-2-pro est une avancée majeure. En moins de deux ans, la synchronisation labiale est passée de gadget semi-réaliste à outil de production de niveau studio, fiable, multilingue, et totalement adaptable. Une révolution silencieuse, mais visible sur toutes les lèvres.

Évaluer à l’ère de l’IA : traçabilité plutôt que détection

À la rentrée, une question s’impose : comment évaluer quand les copies peuvent être boostées à l’IA ? Les détecteurs automatiques, eux, ne tiennent pas la promesse de fiabilité.

Depuis que les outils d’IA générative sont entrés dans les salles de classe, les enseignants cherchent à distinguer l’authentique de l’artificiel. Mais les détecteurs automatiques se révèlent peu fiables et biaisés, incapables d’offrir une solution juste et universelle. La France a donc publié en 2025 un cadre d’usage éducatif : l’IA peut être utilisée si elle est déclarée et accompagnée d’un travail d’appropriation par l’élève. Le débat se déplace : il ne s’agit plus de traquer les textes “truqués”, mais de rendre l’évaluation traçable. Épreuves hybrides, annexes de prompts, oraux flash et versioning deviennent les nouvelles règles du jeu. L’enjeu dépasse la fraude : il redéfinit la compétence scolaire à l’ère numérique.

La fin du mythe du détecteur infaillible

En 2023, OpenAI a retiré son propre outil de détection d’IA pour une raison simple : sa précision trop faible. Les études menées par Stanford HAI et publiées sur ScienceDirect confirment ces limites. Non seulement ces détecteurs échouent à séparer nettement textes humains et textes générés, mais ils présentent en plus des biais structurels. Les élèves non natifs sont les premiers touchés, accusés à tort d’avoir triché alors qu’ils ont produit un texte authentique.

Cette réalité fragilise l’idée d’une surveillance automatisée. Miser exclusivement sur un score revient à fonder une décision pédagogique sur du sable. La fraude ne peut être jugée sur une seule donnée chiffrée, mais sur un faisceau d’indices cohérents : style, traçabilité, maîtrise orale. Autrement dit, l’évaluation doit évoluer, non pas pour traquer l’IA, mais pour vérifier ce que l’élève a réellement appris et compris.

Le tournant narratif se joue ici. Au lieu de voir l’IA comme une menace invisible, on peut l’intégrer comme un outil balisé. Encore faut-il fixer les règles clairement, ce que la France a entrepris avec son cadre officiel en 2025.

Le nouveau cadre français et l’exemple international

Le ministère de l’Éducation nationale a publié un “cadre d’usage de l’IA en éducation” en 2025. Le principe est simple : l’IA est autorisée si l’enseignant le précise et si l’élève conserve une part active dans l’élaboration du devoir. À l’inverse, un usage dissimulé ou une délégation totale de la rédaction est considéré comme une fraude.

Ce cadre introduit une graduation. À partir de la classe de 4e, les élèves peuvent utiliser certains outils en autonomie, mais toujours sous réserve de règles explicites. Par exemple, recourir à l’IA pour générer un plan ou reformuler des idées est admis, tant que l’élève le mentionne dans une annexe. En revanche, livrer une copie entièrement produite par un modèle reste interdit.

Ce mouvement n’est pas isolé. L’UNESCO, dès 2023, appelait les établissements à formaliser rapidement des chartes locales. Pourtant, moins de 10 % des écoles et universités disposaient alors de consignes claires. Le World Economic Forum rappelait que le vrai danger n’était pas l’IA en elle-même, mais l’incertitude des règles. En pratique, ce flou créait une “loterie disciplinaire” où chaque établissement décidait au cas par cas, avec des sanctions variables et souvent contestées.

Ainsi, la France suit une tendance mondiale : encadrer plutôt qu’interdire, clarifier plutôt que punir aveuglément. Les dispositifs émergents montrent que la solution n’est pas technologique, mais pédagogique et organisationnelle.

Vers une évaluation traçable et hybride

Le cœur de la transformation réside dans la conception d’épreuves adaptées. Plusieurs dispositifs concrets dessinent déjà une nouvelle norme.

D’abord, l’évaluation hybride. Une partie du travail est réalisée en classe (30 à 50 % selon les disciplines), notamment le brouillon, le plan ou l’introduction. L’autre partie, plus développée, est produite à la maison. Cette double étape permet de comparer le style, les sources et la cohérence. Un détecteur d’IA peut être utilisé comme simple indicateur, jamais comme preuve.

Ensuite, l’annexe de traçabilité. L’élève doit y consigner les prompts utilisés, les captures ou l’historique d’édition, ainsi qu’une explication de ce que l’IA a apporté et de ce qu’il a réalisé lui-même. Inspirée des guides de l’UNESCO IA, cette pratique responsabilise l’élève et offre à l’enseignant une visibilité nouvelle sur le processus créatif.

À cela s’ajoute l’oral flash. En trois minutes, l’élève doit justifier un argument, commenter un passage ou défendre une source. Ce format court permet de vérifier la compréhension réelle sans alourdir la charge des enseignants.

Autre levier : les tâches ancrées. Proposer des sujets contextualisés, avec données locales ou corpus fournis en classe, rend plus difficile la délégation à une IA générique. De même, le versioning obligatoire, via un document avec historique intégré (ENT, Pad collaboratif) et un échantillon manuscrit, assure la continuité stylistique.

Enfin, la grille IA explicite. Elle distingue les compétences disciplinaires classiques des compétences d’usage de l’IA : qualité de la requête, vérification des faits, capacité de reformulation. Cette approche reconnaît l’IA comme un outil éducatif, tout en en limitant les dérives.

L’ensemble trace un chemin. L’IA cesse d’être une zone grise. Elle devient un paramètre assumé, intégré à la pédagogie.

Ce qu’il faut éviter : la fausse sécurité et les règles floues

Deux écueils dominent.

Le premier : croire que tout miser sur un détecteur suffira. Ces outils, on l’a vu, sont peu fiables. Ils risquent d’accuser injustement et d’induire une pédagogie policière. Aucune sanction ne doit reposer uniquement sur un score chiffré.

Le second : laisser perdurer des règles vagues. Sans charte claire, chaque enseignant applique sa propre interprétation. L’UNESCO insiste : la transparence et la formation sont indispensables. Une politique commune, même simple, évite l’arbitraire et sécurise élèves comme professeurs.

Une mini-charte IA [IA France] illustre ce que pourrait être une règle opérationnelle : usage autorisé pour la recherche d’idées, les plans, la reformulation et la correction, à condition d’annexer les prompts. Interdiction d’une rédaction intégrale par IA quand le devoir le précise, interdiction des sources inventées. Toute infraction devient fraude.

Le processus disciplinaire, en cas de doute, doit passer par un entretien contradictoire. Aucun élève ne peut être sanctionné sur la base d’un indicateur technique seul.

Bref ! En 2025, la question n’est plus de démasquer une machine, mais de vérifier une compétence. Une bonne copie n’est pas seulement un produit fini, c’est un chemin visible : ce qui a été appris, et comment. L’IA ne disparaîtra pas des salles de classe. Reste à décider si elle sera un allié transparent ou un fantôme soupçonné. La vraie interrogation est donc : jusqu’où l’école saura-t-elle transformer ses méthodes d’évaluation sans perdre sa légitimité ?

Invitation Is All You Need : fausse invitation pour pirater votre vie numérique

Invitation Is All You Need : une simple invitation Google Calendar peut devenir une arme redoutable contre Gemini, l’assistant IA de Google — bienvenue dans l’ère du promptware, où vos appareils sont compromis à votre insu.

Rejoignez-nous sur les réseaux sociaux

Aucun spam – Désinscription en un clic – Vie privée respectée

 

Trois chercheurs israéliens ont mis au jour une faille alarmante dans Gemini, l’assistant IA de Google. En cachant des instructions malveillantes dans le titre d’un événement Google Calendar, ils ont réussi à manipuler l’IA pour exécuter des actions inattendues : prise de contrôle de domotique, suppression de rendez-vous, géolocalisation, déclenchement d’appels, diffusion de messages injurieux et vol de correspondances. Baptisée « Invitation Is All You Need », cette attaque de type promptware démontre à quel point un simple rendez-vous numérique peut devenir une arme d’intrusion. Google a réagi avec filtres, confirmation humaine et détection par apprentissage automatique. Mais l’incident souligne les risques majeurs liés à l’intégration des IA dans nos vies connectées.

Quand une invitation devient une intrusion

Tout commence dans un appartement discret de Tel-Aviv. Les volets motorisés, les lumières connectées et la chaudière semblent fonctionner normalement. Pourtant, au moment précis où un occupant demande à Gemini de lui lire ses prochains rendez-vous, la pièce bascule dans l’étrange : les volets s’ouvrent sans demande, la chaudière s’allume, un appel vidéo se prépare en arrière-plan. La source ? Une simple invitation Google Calendar, envoyée quelques jours plus tôt et soigneusement camouflée pour paraître banale.

Derrière cette démonstration se trouvent Ben Nassi, Stav Cohen et Or Yair, chercheurs en cybersécurité. Leur objectif : prouver qu’un assistant IA peut être manipulé sans interaction directe avec sa victime, en exploitant la manière dont il lit et interprète les informations contextuelles.

Ils ont découvert que Gemini, lorsqu’il lit un événement du calendrier, intègre l’intégralité du titre et de la description dans son « contexte » d’analyse. Si ces informations contiennent des instructions malveillantes, l’IA peut les exécuter, convaincue qu’elles font partie de la demande de l’utilisateur. L’utilisateur, lui, ne voit qu’un résumé anodin… mais déclenche malgré lui une séquence invisible.

L’ombre du promptware

Le terme promptware décrit ces attaques qui n’exploitent pas une faille de code, mais la confiance qu’un système accorde à son entrée textuelle. Dans ce cas, l’entrée n’est pas tapée par l’utilisateur : elle arrive automatiquement par un service tiers, ici Google Calendar. L’équipe a ainsi démontré que l’on pouvait transformer une simple donnée textuelle en levier de compromission.

Les scénarios qu’ils ont simulés donnent le vertige. Un message caché dans un rendez-vous peut ordonner à Gemini d’envoyer un courriel à une liste précise, ce qui permet de diffuser du spam ou de mener des campagnes de phishing. Un autre peut lui demander de supprimer certains événements importants de l’agenda, créant une désorganisation ciblée. Les chercheurs ont aussi montré qu’il est possible d’obtenir la localisation d’un appareil et de la transmettre discrètement à un tiers, ouvrant la voie à une surveillance intrusive.

Ils ont poussé l’expérience plus loin : contrôle d’objets connectés via Google Home, comme allumer une chaudière ou déverrouiller une porte ; déclenchement d’appels vidéo non sollicités ; ou encore insertion de messages offensants dans des conversations. Autant d’actions qui, dans un contexte professionnel ou privé, peuvent provoquer des dommages tangibles, financiers comme psychologiques.

L’efficacité de ces attaques repose sur deux facteurs : leur invisibilité et leur proximité avec l’usage normal de l’IA. Gemini croit agir sur ordre légitime. L’utilisateur, lui, ne soupçonne rien, puisque l’action est liée à une commande vocale qu’il a lui-même donnée, comme « Quels sont mes prochains rendez-vous ? ».

La contrainte technique : pour que l’attaque fonctionne, le rendez-vous piégé doit figurer dans les cinq événements les plus récents de l’agenda. Les chercheurs ont donc imaginé des stratégies pour maintenir l’événement dans cette zone visible, notamment en multipliant les invitations successives, chacune repoussant l’ancienne plus loin dans la liste.

L’alerte cyber et renseignement

Cette faille révèle bien plus qu’un simple problème technique : elle met en lumière la manière dont l’intégration des IA dans nos outils quotidiens peut créer des points d’entrée inattendus pour des opérations de renseignement.

Dans un scénario d’espionnage, une agence malveillante pourrait envoyer à grande échelle des invitations piégées à des cibles précises, déclenchant des actions d’exfiltration ou de sabotage à distance. Contrairement aux campagnes de phishing classiques, il n’est pas nécessaire que la victime clique sur un lien ou télécharge un fichier. Le seul fait de demander à Gemini d’accéder à son calendrier suffit.

L’attaque contourne aussi les défenses humaines : même un utilisateur prudent, conscient des risques des emails suspects, n’imaginerait pas qu’une notification de réunion puisse activer une porte d’entrée vers ses données.

Google, alerté par cette découverte, a réagi en déployant plusieurs contre-mesures. La première : un filtrage de sortie, visant à bloquer la transmission de données sensibles. Ensuite, un système de confirmation humaine avant d’exécuter certaines actions jugées à risque. Enfin, un renforcement de la détection automatique par apprentissage automatique, afin d’identifier les formulations suspectes insérées dans des contenus apparemment anodins.

Ces mesures réduisent le risque immédiat, mais elles ne changent pas la nature fondamentale du problème : la dépendance croissante de nos outils à des IA qui, par conception, obéissent aveuglément au texte qu’elles interprètent.

Une vigilance de tous les instants

Pour se prémunir de ce genre d’attaque, il ne suffit pas de compter sur les correctifs des éditeurs. Les utilisateurs peuvent limiter l’exposition en restreignant l’accès de Gemini aux données sensibles. Examiner régulièrement les nouveaux événements ajoutés au calendrier, surtout lorsqu’ils proviennent de sources inconnues, reste une précaution utile. Dans les paramètres, il est possible de forcer une validation manuelle avant toute action impactant le monde réel, comme contrôler un appareil domestique.

La sensibilisation joue un rôle clé. Comprendre que le promptware peut se glisser dans n’importe quelle interaction avec une IA, même indirecte, aide à repérer des comportements anormaux. Enfin, du côté des développeurs et architectes systèmes, il est urgent de concevoir des IA qui ne puissent pas exécuter d’actions critiques sur la seule base de contenu textuel non vérifié.

Orange et OpenAI : partenar’IA

Orange s’allie à OpenAI pour lancer une nouvelle génération d’intelligences artificielles souveraines, frugales et inclusives. En déployant localement les modèles open-weight gpt-oss-120b et gpt-oss-20b dans ses propres data centers, Orange annonce garantir la confidentialité des données, le respect des réglementations locales et la performance à grande échelle. Cette collaboration pionnière marque une étape stratégique vers une IA qui se veut éthique, adaptée aux besoins des entreprises, des États et des citoyens, notamment en Afrique.

Rejoignez-nous sur les réseaux sociaux

Aucun spam – Désinscription en un clic – Vie privée respectée

 

De la puissance brute à la finesse maîtrisée : l’ambition souveraine d’Orange

Tout a commencé dans les laboratoires d’Orange, bien avant le battage médiatique autour de l’IA générative. En interne, les experts IA du groupe savaient que pour bâtir une stratégie durable, il fallait aller au-delà de la simple intégration d’un assistant conversationnel. Il s’agissait de prendre le contrôle : des données, des performances, des coûts, et surtout, de la souveraineté.

C’est dans cette logique qu’Orange devient l’un des premiers au monde à intégrer les modèles open-weight gpt-oss-120b et 20b de l’américain OpenAI dans ses propres infrastructures. Pas dans un cloud tiers. Pas sous la surveillance d’un acteur externe. Dans ses data centers, en France et dans 26 pays.

Ces modèles ne sont pas juste puissants : ils sont adaptables. Grâce à une architecture « Mixture of Experts » (128 experts, 4 activés par token), ils permettent à Orange d’activer uniquement ce qui est nécessaire. Résultat : performance ciblée, consommation énergétique réduite, et empreinte environnementale maîtrisée. Loin d’être gadget, ce déploiement ouvre la voie à une personnalisation ultra-précise : Orange distille ces IA pour des usages internes (maintenance réseau, cybersécurité, assistance technique) comme pour ses clients B2B, qui attendent une IA aussi puissante que souveraine.

L’intelligence responsable : cybersécurité, écologie, pragmatisme ?

Chez Orange, l’IA est un outil, calibré pour résoudre des problèmes réels : réseau en surcharge, attaques cyber, détection d’anomalies, besoins multilingues, expérience client inégale. Et c’est là que la responsabilité entre en scène. Déployer localement signifie que chaque modèle reste dans un cadre légal strict, avec des données chiffrées, sans exfiltration possible. Dans le contexte européen du RGPD ou face à la fragmentation des normes africaines et moyen-orientales, c’est un atout géopolitique. Orange devient son propre garant.

L’approche frugale — moins de puissance, moins de données, moins d’énergie — est tout sauf naïve. Elle s’ancre dans le réel. Moins de calcul, c’est moins de chaleur, moins de serveurs, moins d’émissions carbone. Dans ses propres centres de données, Orange peut même optimiser la consommation énergétique des modèles, en fonction des heures creuses, ou des pics d’activité. Avec gpt-oss-20b, par exemple, Orange développe des micro-modèles ultra-ciblés pour des tâches précises : tri intelligent de courriels, classification automatisée de tickets réseau, réponse instantanée en langage naturel dans les call centers. Tout cela en restant 100 % souverain.

Enfin, cette IA n’est pas neutre indique Orange : elle se veut aussi cyber-résiliente. Parce que les modèles sont localisés, Orange garde la main sur chaque couche, chaque adaptation. En cas d’attaque ou de vulnérabilité, l’entreprise peut couper, corriger, réentraîner sans dépendre d’un tiers. Une maîtrise rare, dans un secteur où l’IA est souvent opaque. Grâce aux gpt-oss d’OpenAI, Orange peut affiner ses modèles pour intégrer le wolof, le baoulé, le swahili ou le lingala. Cela change tout. Un client peut dialoguer avec un agent IA dans sa langue maternelle. Un service public peut proposer une interface vocale adaptée à sa population. Et demain, ces modèles seront publiés en open source, à disposition des États africains. L’impact est considérable. Dans des pays où l’accès aux services numériques reste inégal, une IA bien entraînée peut devenir un relais d’éducation, de prévention santé, d’accès aux droits. C’est aussi une arme contre la fracture numérique, contre la marginalisation linguistique, contre l’exclusion des femmes, souvent moins exposées aux outils tech.

Les limites du partenariat Orange–OpenAI : cinq points à surveiller

Derrière l’ambition affichée de souveraineté, plusieurs zones de vigilance demeurent. La première concerne la dépendance stratégique à OpenAI. Même si les modèles gpt-oss sont déployés localement dans les data centers d’Orange, ils restent conçus et maintenus par l’américain OpenAI. Cela signifie qu’Orange dépend toujours de ses choix technologiques et de son rythme d’évolution. La souveraineté est donc davantage opérationnelle que technologique.

Deuxième enjeu : les coûts et la complexité opérationnelle. Exploiter des modèles de 20 à 120 milliards de paramètres suppose une infrastructure lourde, énergivore et coûteuse. Les promesses d’efficacité énergétique permettent de limiter l’impact environnemental, mais pas d’effacer l’ampleur des investissements nécessaires, ni les frais de maintenance à long terme. Face aux géants du cloud, dotés de moyens colossaux, Orange devra contenir ses dépenses tout en restant compétitif.

Vient ensuite la question de la scalabilité et des performances réelles. Les modèles open-weight d’OpenAI sont puissants, mais restent derrière les modèles propriétaires les plus avancés. Ils conviennent à des cas d’usage ciblés, mais pourraient montrer leurs limites dans des déploiements massifs auprès du grand public ou pour des services transverses.

Le quatrième point critique touche à la gouvernance et à la transparence. En se posant en garant de ses propres IA, Orange assume une responsabilité directe : encadrer les biais, éviter les dérives et instaurer des mécanismes d’audit. Or, sans supervision externe indépendante, la crédibilité de l’approche pourrait être questionnée.

Enfin, l’impact géopolitique du projet est ambivalent. En Afrique, il peut réduire la fracture numérique et favoriser l’inclusion linguistique. Mais il peut aussi renforcer une dépendance technologique vis-à-vis d’acteurs extérieurs, dans un contexte où la souveraineté numérique africaine est un enjeu majeur.

En somme, le partenariat ouvre des perspectives, mais son succès dépendra de la capacité d’Orange à transformer ces promesses en solutions réellement pérennes et autonomes.