Archives de catégorie : IA

Invitation Is All You Need : fausse invitation pour pirater votre vie numérique

Invitation Is All You Need : une simple invitation Google Calendar peut devenir une arme redoutable contre Gemini, l’assistant IA de Google — bienvenue dans l’ère du promptware, où vos appareils sont compromis à votre insu.

Rejoignez-nous sur les réseaux sociaux

Aucun spam – Désinscription en un clic – Vie privée respectée

 

Trois chercheurs israéliens ont mis au jour une faille alarmante dans Gemini, l’assistant IA de Google. En cachant des instructions malveillantes dans le titre d’un événement Google Calendar, ils ont réussi à manipuler l’IA pour exécuter des actions inattendues : prise de contrôle de domotique, suppression de rendez-vous, géolocalisation, déclenchement d’appels, diffusion de messages injurieux et vol de correspondances. Baptisée « Invitation Is All You Need », cette attaque de type promptware démontre à quel point un simple rendez-vous numérique peut devenir une arme d’intrusion. Google a réagi avec filtres, confirmation humaine et détection par apprentissage automatique. Mais l’incident souligne les risques majeurs liés à l’intégration des IA dans nos vies connectées.

Quand une invitation devient une intrusion

Tout commence dans un appartement discret de Tel-Aviv. Les volets motorisés, les lumières connectées et la chaudière semblent fonctionner normalement. Pourtant, au moment précis où un occupant demande à Gemini de lui lire ses prochains rendez-vous, la pièce bascule dans l’étrange : les volets s’ouvrent sans demande, la chaudière s’allume, un appel vidéo se prépare en arrière-plan. La source ? Une simple invitation Google Calendar, envoyée quelques jours plus tôt et soigneusement camouflée pour paraître banale.

Derrière cette démonstration se trouvent Ben Nassi, Stav Cohen et Or Yair, chercheurs en cybersécurité. Leur objectif : prouver qu’un assistant IA peut être manipulé sans interaction directe avec sa victime, en exploitant la manière dont il lit et interprète les informations contextuelles.

Ils ont découvert que Gemini, lorsqu’il lit un événement du calendrier, intègre l’intégralité du titre et de la description dans son « contexte » d’analyse. Si ces informations contiennent des instructions malveillantes, l’IA peut les exécuter, convaincue qu’elles font partie de la demande de l’utilisateur. L’utilisateur, lui, ne voit qu’un résumé anodin… mais déclenche malgré lui une séquence invisible.

L’ombre du promptware

Le terme promptware décrit ces attaques qui n’exploitent pas une faille de code, mais la confiance qu’un système accorde à son entrée textuelle. Dans ce cas, l’entrée n’est pas tapée par l’utilisateur : elle arrive automatiquement par un service tiers, ici Google Calendar. L’équipe a ainsi démontré que l’on pouvait transformer une simple donnée textuelle en levier de compromission.

Les scénarios qu’ils ont simulés donnent le vertige. Un message caché dans un rendez-vous peut ordonner à Gemini d’envoyer un courriel à une liste précise, ce qui permet de diffuser du spam ou de mener des campagnes de phishing. Un autre peut lui demander de supprimer certains événements importants de l’agenda, créant une désorganisation ciblée. Les chercheurs ont aussi montré qu’il est possible d’obtenir la localisation d’un appareil et de la transmettre discrètement à un tiers, ouvrant la voie à une surveillance intrusive.

Ils ont poussé l’expérience plus loin : contrôle d’objets connectés via Google Home, comme allumer une chaudière ou déverrouiller une porte ; déclenchement d’appels vidéo non sollicités ; ou encore insertion de messages offensants dans des conversations. Autant d’actions qui, dans un contexte professionnel ou privé, peuvent provoquer des dommages tangibles, financiers comme psychologiques.

L’efficacité de ces attaques repose sur deux facteurs : leur invisibilité et leur proximité avec l’usage normal de l’IA. Gemini croit agir sur ordre légitime. L’utilisateur, lui, ne soupçonne rien, puisque l’action est liée à une commande vocale qu’il a lui-même donnée, comme « Quels sont mes prochains rendez-vous ? ».

La contrainte technique : pour que l’attaque fonctionne, le rendez-vous piégé doit figurer dans les cinq événements les plus récents de l’agenda. Les chercheurs ont donc imaginé des stratégies pour maintenir l’événement dans cette zone visible, notamment en multipliant les invitations successives, chacune repoussant l’ancienne plus loin dans la liste.

L’alerte cyber et renseignement

Cette faille révèle bien plus qu’un simple problème technique : elle met en lumière la manière dont l’intégration des IA dans nos outils quotidiens peut créer des points d’entrée inattendus pour des opérations de renseignement.

Dans un scénario d’espionnage, une agence malveillante pourrait envoyer à grande échelle des invitations piégées à des cibles précises, déclenchant des actions d’exfiltration ou de sabotage à distance. Contrairement aux campagnes de phishing classiques, il n’est pas nécessaire que la victime clique sur un lien ou télécharge un fichier. Le seul fait de demander à Gemini d’accéder à son calendrier suffit.

L’attaque contourne aussi les défenses humaines : même un utilisateur prudent, conscient des risques des emails suspects, n’imaginerait pas qu’une notification de réunion puisse activer une porte d’entrée vers ses données.

Google, alerté par cette découverte, a réagi en déployant plusieurs contre-mesures. La première : un filtrage de sortie, visant à bloquer la transmission de données sensibles. Ensuite, un système de confirmation humaine avant d’exécuter certaines actions jugées à risque. Enfin, un renforcement de la détection automatique par apprentissage automatique, afin d’identifier les formulations suspectes insérées dans des contenus apparemment anodins.

Ces mesures réduisent le risque immédiat, mais elles ne changent pas la nature fondamentale du problème : la dépendance croissante de nos outils à des IA qui, par conception, obéissent aveuglément au texte qu’elles interprètent.

Une vigilance de tous les instants

Pour se prémunir de ce genre d’attaque, il ne suffit pas de compter sur les correctifs des éditeurs. Les utilisateurs peuvent limiter l’exposition en restreignant l’accès de Gemini aux données sensibles. Examiner régulièrement les nouveaux événements ajoutés au calendrier, surtout lorsqu’ils proviennent de sources inconnues, reste une précaution utile. Dans les paramètres, il est possible de forcer une validation manuelle avant toute action impactant le monde réel, comme contrôler un appareil domestique.

La sensibilisation joue un rôle clé. Comprendre que le promptware peut se glisser dans n’importe quelle interaction avec une IA, même indirecte, aide à repérer des comportements anormaux. Enfin, du côté des développeurs et architectes systèmes, il est urgent de concevoir des IA qui ne puissent pas exécuter d’actions critiques sur la seule base de contenu textuel non vérifié.

Orange et OpenAI : partenar’IA

Orange s’allie à OpenAI pour lancer une nouvelle génération d’intelligences artificielles souveraines, frugales et inclusives. En déployant localement les modèles open-weight gpt-oss-120b et gpt-oss-20b dans ses propres data centers, Orange annonce garantir la confidentialité des données, le respect des réglementations locales et la performance à grande échelle. Cette collaboration pionnière marque une étape stratégique vers une IA qui se veut éthique, adaptée aux besoins des entreprises, des États et des citoyens, notamment en Afrique.

Rejoignez-nous sur les réseaux sociaux

Aucun spam – Désinscription en un clic – Vie privée respectée

 

De la puissance brute à la finesse maîtrisée : l’ambition souveraine d’Orange

Tout a commencé dans les laboratoires d’Orange, bien avant le battage médiatique autour de l’IA générative. En interne, les experts IA du groupe savaient que pour bâtir une stratégie durable, il fallait aller au-delà de la simple intégration d’un assistant conversationnel. Il s’agissait de prendre le contrôle : des données, des performances, des coûts, et surtout, de la souveraineté.

C’est dans cette logique qu’Orange devient l’un des premiers au monde à intégrer les modèles open-weight gpt-oss-120b et 20b de l’américain OpenAI dans ses propres infrastructures. Pas dans un cloud tiers. Pas sous la surveillance d’un acteur externe. Dans ses data centers, en France et dans 26 pays.

Ces modèles ne sont pas juste puissants : ils sont adaptables. Grâce à une architecture « Mixture of Experts » (128 experts, 4 activés par token), ils permettent à Orange d’activer uniquement ce qui est nécessaire. Résultat : performance ciblée, consommation énergétique réduite, et empreinte environnementale maîtrisée. Loin d’être gadget, ce déploiement ouvre la voie à une personnalisation ultra-précise : Orange distille ces IA pour des usages internes (maintenance réseau, cybersécurité, assistance technique) comme pour ses clients B2B, qui attendent une IA aussi puissante que souveraine.

L’intelligence responsable : cybersécurité, écologie, pragmatisme ?

Chez Orange, l’IA est un outil, calibré pour résoudre des problèmes réels : réseau en surcharge, attaques cyber, détection d’anomalies, besoins multilingues, expérience client inégale. Et c’est là que la responsabilité entre en scène. Déployer localement signifie que chaque modèle reste dans un cadre légal strict, avec des données chiffrées, sans exfiltration possible. Dans le contexte européen du RGPD ou face à la fragmentation des normes africaines et moyen-orientales, c’est un atout géopolitique. Orange devient son propre garant.

L’approche frugale — moins de puissance, moins de données, moins d’énergie — est tout sauf naïve. Elle s’ancre dans le réel. Moins de calcul, c’est moins de chaleur, moins de serveurs, moins d’émissions carbone. Dans ses propres centres de données, Orange peut même optimiser la consommation énergétique des modèles, en fonction des heures creuses, ou des pics d’activité. Avec gpt-oss-20b, par exemple, Orange développe des micro-modèles ultra-ciblés pour des tâches précises : tri intelligent de courriels, classification automatisée de tickets réseau, réponse instantanée en langage naturel dans les call centers. Tout cela en restant 100 % souverain.

Enfin, cette IA n’est pas neutre indique Orange : elle se veut aussi cyber-résiliente. Parce que les modèles sont localisés, Orange garde la main sur chaque couche, chaque adaptation. En cas d’attaque ou de vulnérabilité, l’entreprise peut couper, corriger, réentraîner sans dépendre d’un tiers. Une maîtrise rare, dans un secteur où l’IA est souvent opaque. Grâce aux gpt-oss d’OpenAI, Orange peut affiner ses modèles pour intégrer le wolof, le baoulé, le swahili ou le lingala. Cela change tout. Un client peut dialoguer avec un agent IA dans sa langue maternelle. Un service public peut proposer une interface vocale adaptée à sa population. Et demain, ces modèles seront publiés en open source, à disposition des États africains. L’impact est considérable. Dans des pays où l’accès aux services numériques reste inégal, une IA bien entraînée peut devenir un relais d’éducation, de prévention santé, d’accès aux droits. C’est aussi une arme contre la fracture numérique, contre la marginalisation linguistique, contre l’exclusion des femmes, souvent moins exposées aux outils tech.

Les limites du partenariat Orange–OpenAI : cinq points à surveiller

Derrière l’ambition affichée de souveraineté, plusieurs zones de vigilance demeurent. La première concerne la dépendance stratégique à OpenAI. Même si les modèles gpt-oss sont déployés localement dans les data centers d’Orange, ils restent conçus et maintenus par l’américain OpenAI. Cela signifie qu’Orange dépend toujours de ses choix technologiques et de son rythme d’évolution. La souveraineté est donc davantage opérationnelle que technologique.

Deuxième enjeu : les coûts et la complexité opérationnelle. Exploiter des modèles de 20 à 120 milliards de paramètres suppose une infrastructure lourde, énergivore et coûteuse. Les promesses d’efficacité énergétique permettent de limiter l’impact environnemental, mais pas d’effacer l’ampleur des investissements nécessaires, ni les frais de maintenance à long terme. Face aux géants du cloud, dotés de moyens colossaux, Orange devra contenir ses dépenses tout en restant compétitif.

Vient ensuite la question de la scalabilité et des performances réelles. Les modèles open-weight d’OpenAI sont puissants, mais restent derrière les modèles propriétaires les plus avancés. Ils conviennent à des cas d’usage ciblés, mais pourraient montrer leurs limites dans des déploiements massifs auprès du grand public ou pour des services transverses.

Le quatrième point critique touche à la gouvernance et à la transparence. En se posant en garant de ses propres IA, Orange assume une responsabilité directe : encadrer les biais, éviter les dérives et instaurer des mécanismes d’audit. Or, sans supervision externe indépendante, la crédibilité de l’approche pourrait être questionnée.

Enfin, l’impact géopolitique du projet est ambivalent. En Afrique, il peut réduire la fracture numérique et favoriser l’inclusion linguistique. Mais il peut aussi renforcer une dépendance technologique vis-à-vis d’acteurs extérieurs, dans un contexte où la souveraineté numérique africaine est un enjeu majeur.

En somme, le partenariat ouvre des perspectives, mais son succès dépendra de la capacité d’Orange à transformer ces promesses en solutions réellement pérennes et autonomes.

L’intelligence artificielle redéfinit l’emploi et la formation en cybersécurité

L’automatisation progresse rapidement dans le secteur de la cybersécurité. Selon une récente enquête de l’ISC2, près d’un tiers des entreprises ont déjà intégré l’intelligence artificielle dans leurs opérations, tandis que 42 % évaluent ou testent actuellement ces outils.

Rejoignez-nous sur les réseaux sociaux

Aucun spam – Désinscription en un clic – Vie privée respectée

 

L’enquête de l’ISC2 [lien en bas de l’article], l’une des plus importantes organisations mondiales de professionnels certifiés en cybersécurité, met en lumière l’essor de l’intelligence artificielle dans les stratégies de défense informatique. Ce développement concerne principalement les grandes entreprises, notamment celles comptant plus de 10 000 salariés, ainsi que les sociétés de services informatiques et du secteur industriel. Les administrations publiques apparaissent à la traîne, avec seulement 16 % des structures ayant déjà franchi le cap de l’intégration de l’intelligence artificielle dans leurs dispositifs de cybersécurité.

L’adoption rapide de l’IA s’explique avant tout par la recherche de gains d’efficacité et de réactivité. Selon les résultats de l’enquête, sept équipes sur dix ayant déjà recours à l’IA constatent une nette amélioration de la productivité dans la détection d’intrusions, la surveillance des réseaux et la gestion des vulnérabilités. « Sept équipes sur dix ayant adopté l’IA signalent une hausse sensible de leur productivité. »
La majorité des usages recensés concernent cinq axes principaux : la surveillance réseau et la détection des intrusions, la protection et la réponse aux incidents sur les terminaux, la gestion des vulnérabilités, la simulation des menaces et le test de sécurité. Ces activités étaient auparavant le terrain d’apprentissage privilégié des professionnels débutants du secteur.

Les entreprises interrogées font état d’un intérêt croissant pour l’automatisation, bien que celle-ci s’accompagne d’une certaine prudence. La plupart des groupes sondés précisent qu’ils sont encore en phase de test, cherchant à évaluer les risques et à mesurer les bénéfices réels avant un déploiement généralisé. Toutefois, les responsables de la sécurité de l’information estiment que l’intégration de l’IA devient progressivement incontournable, notamment face à la sophistication croissante des cybermenaces. « Plus de 40 % des équipes sont actuellement en phase de test ou d’évaluation de solutions d’intelligence artificielle. »

Les investissements dans l’IA sont majoritairement concentrés dans les grandes entreprises, qui disposent des moyens financiers et humains nécessaires pour explorer ces nouvelles technologies. Les PME et les administrations restent plus en retrait, invoquant des contraintes budgétaires, un manque de compétences internes et des doutes quant à la maturité des outils disponibles. Ce clivage illustre l’inégalité d’accès à l’automatisation dans le secteur de la cybersécurité.

Un impact direct sur l’emploi débutant et la formation

La progression de l’IA dans les équipes de cybersécurité influe déjà sur la gestion des ressources humaines, en particulier concernant les profils débutants. Selon l’enquête, 52 % des répondants considèrent que l’automatisation pourrait réduire le besoin de recruter des salariés en début de carrière. Par ailleurs, 21 % des entreprises déclarent avoir déjà modifié leur politique de recrutement à la suite de l’introduction d’outils d’IA.

Ce changement suscite des inquiétudes quant à l’avenir des jeunes professionnels du secteur. Les postes d’analyste junior, de support réseau ou de veille sécurité, souvent premiers tremplins dans la filière, risquent d’être moins nombreux à mesure que les solutions automatisées s’imposent. « Plus d’une entreprise sur deux estime que l’IA va limiter le recours aux débutants dans la profession. »

Les experts interrogés rappellent que la formation pratique sur le terrain, au contact des menaces réelles, constitue une étape déterminante dans la montée en compétence des futurs spécialistes. L’absence de cette expérience pourrait freiner le développement de l’intuition, du sens critique et de la capacité à appréhender la complexité des attaques sophistiquées. Certains alertent également sur le risque de voir émerger un déficit de profils qualifiés à moyen terme, susceptible de renforcer la pression sur les équipes expérimentées et d’augmenter les coûts de recrutement.

 

⏳ Jusqu’où tolérerez-vous d’être piraté ?

CTI ZATAZ – Scannez les menaces vous concernant avant qu’il ne soit trop tard.

✅ Scanner mes risques

Confidentiel. Instantané. Sécurisé. Zéro intermédiaire. 100 % Made in France.

L’enquête indique aussi que l’automatisation transforme la nature même des tâches confiées aux débutants. À la place des activités répétitives, comme l’analyse manuelle de logs ou la surveillance continue, les jeunes professionnels se voient confier des missions plus techniques ou hybrides, à l’interface entre l’expertise cybersécurité et la gestion d’outils d’intelligence artificielle.

Face à cette évolution, la plupart des organisations affirment réévaluer leurs programmes de formation interne afin de mieux préparer les recrues aux réalités du nouveau paysage technologique. Les cursus intègrent désormais des modules dédiés à la compréhension du fonctionnement des systèmes automatisés, à l’entraînement des modèles d’IA et à la détection des biais potentiels dans les analyses produites par ces outils.

Des métiers émergents et une adaptation des parcours professionnels

Malgré les incertitudes, de nouvelles opportunités apparaissent. Près de 44 % des entreprises interrogées déclarent que l’intégration de l’intelligence artificielle n’a, à ce stade, eu aucun effet sur leurs politiques de recrutement. De plus, 31 % estiment que l’IA pourrait favoriser l’émergence de postes hybrides, combinant compétences en cybersécurité et maîtrise des outils d’automatisation.

Des fonctions inédites sont en cours de structuration dans de nombreuses équipes : analyste SOC avec appui de l’IA, junior chargé de l’entraînement des modèles, assistant à la vérification des systèmes automatisés, spécialiste du respect éthique des algorithmes, assistant dédié à la maintenance et à l’évolution des processus automatisés, analyste de sécurité cloud épaulé par des plateformes intelligentes.

Cette recomposition du marché du travail pousse les entreprises à revoir leur politique de gestion des talents. Certaines mettent l’accent sur le développement de cursus internes orientés vers l’intelligence artificielle appliquée à la cybersécurité. D’autres multiplient les partenariats avec les écoles d’ingénieurs et les universités afin d’adapter les programmes de formation initiale.

Ce mouvement vise à garantir la continuité des savoir-faire au sein des équipes et à sécuriser l’évolution de la filière. Les organisations les plus avancées investissent également dans la formation continue, notamment pour les salariés déjà en poste, afin de faciliter la transition vers des postes à plus forte valeur ajoutée ou en lien direct avec l’automatisation.

Dans le même temps, les acteurs publics et privés réfléchissent à la manière de préserver les filières d’entrée dans la profession, pour éviter l’apparition d’un goulot d’étranglement au niveau du recrutement de nouveaux spécialistes. Les enjeux sont d’autant plus cruciaux que la demande de compétences en cybersécurité reste largement supérieure à l’offre, en particulier pour les profils experts capables de superviser ou d’auditer des systèmes automatisés.

L’automatisation, un enjeu stratégique pour la pérennité de la cybersécurité

L’intelligence artificielle s’impose progressivement comme un levier majeur d’efficacité dans la lutte contre les cybermenaces. Les solutions automatisées permettent de traiter des volumes de données considérables, d’accélérer la détection des incidents et de renforcer la capacité de réaction des équipes. Toutefois, cette évolution pose la question du maintien des compétences fondamentales, indispensables à la compréhension fine des risques et à la conduite d’investigations complexes.

La structuration des nouveaux métiers, l’adaptation des parcours de formation et la préservation de l’apprentissage sur le terrain constituent les principaux défis identifiés par les entreprises. Les experts du secteur soulignent que la gestion de la transition vers une cybersécurité automatisée doit s’effectuer de manière progressive et réfléchie, afin d’éviter toute rupture dans la chaîne de compétences.

L’enquête de l’ISC2 révèle également que l’automatisation n’a pas vocation à se substituer entièrement à l’humain. Les tâches les plus complexes, la supervision des systèmes intelligents et la prise de décision stratégique restent du ressort des professionnels expérimentés. L’IA apparaît davantage comme un outil d’assistance, permettant d’augmenter la productivité et d’alléger la charge de travail, tout en ouvrant de nouvelles perspectives de carrière.

À mesure que l’écosystème évolue, les entreprises sont amenées à redéfinir les contours de leurs équipes de cybersécurité. Cela suppose une gestion fine de l’équilibre entre automatisation, formation des jeunes talents et valorisation des compétences internes.

Si les investissements dans l’IA sont aujourd’hui portés par les grands groupes, il est probable que les outils automatisés deviendront progressivement accessibles à un plus grand nombre d’organisations.

Rejoignez-nous sur les réseaux sociaux

Aucun spam – Désinscription en un clic – Vie privée respectée

Royaume-uni et openai signent un partenariat pour la sécurité et l’innovation de l’intelligence artificielle

Londres et OpenAI ont signé un accord de partenariat pour renforcer la recherche sur la sécurité de l’intelligence artificielle et explorer de potentielles opportunités d’investissements dans l’infrastructure nationale. Le gouvernement britannique prévoit d’injecter 1 milliard de livres sterling (1,18 milliard d’euros) dans le développement de capacités de calcul destinées à stimuler l’essor de l’IA.

Rejoignez-nous sur les réseaux sociaux

Aucun spam – Désinscription en un clic – Vie privée respectée

 

« L’IA deviendra un vecteur clé des changements à mener à travers tout le pays, qu’il s’agisse de réformer le National Health Service, de lever les obstacles à l’accès ou de soutenir la croissance économique », a déclaré Peter Kyle, ministre britannique chargé de la technologie.

Le partenariat conclu avec OpenAI vise à explorer, selon les termes du gouvernement, des applications concrètes de l’intelligence artificielle dans des domaines stratégiques comme la justice, la défense, la sécurité et l’éducation. Ce rapprochement intervient alors que le Royaume-Uni cherche à consolider sa position de leader européen du secteur et à rivaliser avec les États-Unis et la Chine, qui dominent largement la course mondiale à l’IA.

Accélération de l’investissement et ambitions gouvernementales

Le plan dévoilé par le gouvernement britannique prévoit une multiplication par vingt de la capacité de calcul publique disponible sur le territoire au cours des cinq prochaines années. Cette ambition est intégrée à l’initiative du Premier ministre Keir Starmer, dont l’objectif est de transformer le pays en une superpuissance de l’intelligence artificielle. « Lancement du partenariat stratégique Royaume-Uni – OpenAI pour l’IA », a résumé le communiqué officiel.

Parmi les axes majeurs, le programme comprend des investissements dans la recherche sur les réseaux de neurones, l’amélioration de l’efficacité de la sphère publique, le développement de « zones de croissance IA » réparties géographiquement, et le soutien à la création de centres de traitement de données et de pôles scientifiques. Les autorités britanniques attendent de ces mesures un impact significatif sur l’économie du pays à moyen et long terme.

Selon les chiffres publiés, la réalisation du plan devrait permettre de générer 47 milliards de livres sterling (environ 55,3 milliards d’euros) de valeur économique supplémentaire sur dix ans. Plusieurs entreprises privées ont d’ores et déjà promis d’investir 17 milliards de dollars (environ 15,7 milliards d’euros) et de créer 13 250 emplois afin de soutenir le déploiement de la stratégie nationale d’intelligence artificielle.

« Le secteur de l’IA au Royaume-Uni est évalué à 72,3 milliards de livres sterling (85,1 milliards d’euros), positionnant le pays au troisième rang mondial derrière les États-Unis et la Chine », a souligné le ministère de la Technologie.

⏳ Jusqu’où tolérerez-vous d’être piraté ?

CTI ZATAZ – Scannez les menaces vous concernant avant qu’il ne soit trop tard.

✅ Scanner mes risques

Confidentiel. Instantané. Sécurisé. Zéro intermédiaire. 100 % Made in France.

Le Royaume-Uni est aujourd’hui le principal marché de l’intelligence artificielle en Europe ?

Le dynamisme du secteur se traduit par la présence de plus de 2 300 entreprises technologiques spécialisées dans l’intelligence artificielle et bénéficiant d’investissements en capital-risque. Leur valorisation cumulée a atteint 230 milliards de dollars (213 milliards d’euros) au premier trimestre 2025. Le Royaume-Uni recense également huit “licornes” de l’IA, soit des start-ups valorisées à plus de 1 milliard de dollars (929 millions d’euros). Seuls les États-Unis et la Chine font mieux sur ce critère.

L’activité d’investissement dans la tech britannique s’est maintenue à un niveau élevé, avec 1,03 milliard de dollars (956 millions d’euros) levés par les start-ups spécialisées dans l’IA au premier trimestre 2025, soit un record sur les trois dernières années.

L’un des atouts majeurs du pays réside dans son écosystème de recherche et développement. Des universités et instituts de pointe, tel l’Institut Alan Turing, forment des experts de haut niveau et mènent des recherches avancées dans le domaine. Le pôle technologique londonien attire aussi bien des acteurs nationaux qu’internationaux : Anthropic, OpenAI et Palantir ont choisi la capitale britannique comme base de leurs opérations européennes.

« 76 % des dirigeants d’entreprises technologiques britanniques observent un impact positif de l’IA sur la croissance de leur activité », révèle un rapport officiel.

Les technologies d’intelligence artificielle sont désormais adoptées dans tous les secteurs, du financement à la santé, en passant par la cybersécurité, l’industrie, l’éducation et la création artistique.

Des champions nationaux et une stratégie de souveraineté numérique

L’écosystème britannique compte plusieurs start-ups à succès mondial. DeepMind, fondée à Londres en 2010, s’est imposée comme un pionnier du deep learning et de l’intelligence artificielle. Rachetée en 2014 par Google pour un montant estimé entre 500 et 600 millions de dollars (de 464 à 557 millions d’euros), la société s’est illustrée par la création d’algorithmes capables de battre l’humain dans des jeux de stratégie complexes.

Dans le secteur des biotechnologies et de la santé, BenevolentAI et Exscientia utilisent l’IA pour accélérer la découverte de nouveaux médicaments et collaborent avec de grands laboratoires pharmaceutiques mondiaux.

La société Wayve, issue de l’université de Cambridge, développe à Londres depuis 2017 une approche basée sur “l’intelligence incarnée” (Embodied AI) pour l’apprentissage de la conduite autonome. Dans l’industrie du hardware, Graphcore, start-up fondée à Bristol en 2016, a conçu des processeurs spécifiquement optimisés pour l’IA et levé près de 700 millions de dollars (650 millions d’euros) auprès d’investisseurs majeurs.

Stability AI, également basée à Londres, s’est fait connaître dès 2019 avec la création de Stable Diffusion, un modèle génératif d’images à partir de descriptions textuelles. La société a réuni 101 millions de dollars (94 millions d’euros) de financement en 2022 pour une valorisation à 1 milliard de dollars (929 millions d’euros).

Intégration de l’IA dans la défense et la sécurité nationale

Le développement de l’intelligence artificielle est une priorité affirmée du gouvernement britannique. La National AI Strategy, publiée en septembre 2021, définit trois axes : investissement massif dans la recherche, généralisation de l’adoption dans l’économie et encadrement éthique et réglementaire.

En 2022, le ministère de la Défense a publié sa propre stratégie de l’IA, considérant cette technologie comme un élément clé des armées du futur. Le dernier Strategic Defence Review de 2025 désigne l’intelligence artificielle comme “composante fondamentale de la guerre moderne” et juge indispensable son intégration systématique pour préserver la supériorité opérationnelle.

Si l’IA était d’abord envisagée comme un outil de soutien, la doctrine actuelle prévoit sa généralisation à tous les niveaux, du renseignement à la conduite des opérations sur le terrain. L’une des priorités consiste à développer des modèles linguistiques capables d’accélérer la prise de décision en exploitant en temps réel les données issues du renseignement et du champ de bataille.

Le ministère de la Défense ambitionne de créer une digital targeting network : un réseau unifié d’information, alimenté par des capteurs multiples (satellites, drones, radars, cyber renseignement), pour identifier et répartir automatiquement les cibles prioritaires entre les différentes armes.

Ce système, basé sur l’IA, doit permettre de passer d’une approche fragmentée à des “opérations centrées sur la donnée”, avec une capacité de réaction et de décision accrue pour les forces armées.

Les forces britanniques expérimentent déjà de nombreux prototypes de systèmes autonomes, qu’il s’agisse de drones aériens, de robots terrestres ou de véhicules sous-marins. La Royal Air Force travaille avec ses partenaires industriels sur le projet Tempest (Future Combat Air System), un avion de combat de sixième génération intégrant l’intelligence artificielle pour l’aide à la décision et le pilotage de drones en essaim.

Les forces terrestres testent des concepts d’intégration de drones de reconnaissance et de plateformes robotisées pour l’appui-feu, avec une première détection et désignation des cibles assurées par des algorithmes d’IA. La marine, quant à elle, investit dans des projets de navires autonomes et de sous-marins sans équipage pour la surveillance et la neutralisation de mines.

La prochaine génération de grandes plateformes militaires (avions de combat, navires) sera conçue pour fonctionner en équipages hybrides, combinant opérateurs humains et systèmes d’IA. Les porte-avions en projet devraient ainsi intégrer une proportion croissante de drones contrôlés par IA en coopération avec les avions pilotés.

Dans le champ de la cybersécurité et de la guerre électronique, les réseaux neuronaux occupent une place croissante. Une unité spécialisée dans la guerre électronique a été créée en 2023 pour renforcer la détection automatique et la neutralisation des cyberattaques, la protection des réseaux militaires et la gestion optimisée des brouillages et contre-mesures électroniques.

L’intelligence artificielle permettra d’analyser en temps réel des millions d’événements sur les réseaux militaires, de détecter les comportements suspects et de piloter automatiquement les opérations de perturbation des communications et radars adverses.

L’usage de l’IA s’étend aussi à l’information warfare, avec la surveillance des réseaux sociaux pour identifier les campagnes de désinformation et la création de simulateurs avancés pour l’entraînement à la cybersécurité.

Le Royaume-Uni coordonne ses efforts avec les partenaires de l’Organisation du traité de l’Atlantique nord (OTAN), ayant contribué à l’adoption de principes éthiques pour l’utilisation de l’IA dans les armées. Londres insiste sur le respect de la sécurité, de la stabilité et des valeurs démocratiques dans le déploiement de ces technologies.

Un secteur en pleine structuration malgré des défis persistants

En janvier 2025, le Defence Select Committee du Parlement a publié un rapport sur le développement du potentiel de l’IA de défense, soulignant que le secteur britannique reste à un stade précoce et doit être davantage soutenu par le ministère pour concrétiser ses ambitions.

« Le Royaume-Uni dispose d’un potentiel pour devenir un pôle mondial de l’IA de défense, mais le secteur demeure sous-développé et requiert des mesures incitatives », note le rapport parlementaire.

Le comité recommande d’accélérer la mise en œuvre concrète des projets, afin de réduire l’écart entre la stratégie affichée et la réalité opérationnelle. L’IA est encore perçue comme un domaine expérimental au sein des forces armées, alors même qu’elle a démontré son efficacité dans des conflits récents, notamment en Ukraine pour le traitement des données de renseignement et la gestion des drones.

Le gouvernement a assuré vouloir répondre à ces recommandations, précisant que la dernière revue stratégique de défense vise justement une intégration systématique de l’IA dans l’ensemble des activités du ministère de la Défense.

Les débats d’experts publiés en novembre 2024 ont rappelé les perspectives ouvertes par l’IA sur le champ de bataille, tout en soulignant la nécessité d’une approche pragmatique et d’un investissement massif pour transformer les intentions politiques en résultats concrets.

Rejoignez-nous sur les réseaux sociaux

Aucun spam – Désinscription en un clic – Vie privée respectée

Mode YOLO de lIA Cursor : de graves failles découvertes

Révélation sur le mode YOLO du nouvel outil d’intelligence artificielle Cursor. Il comporte plusieurs failles de sécurité majeures, permettant de contourner aisément les mécanismes de protection censés limiter les actions automatisées du programme.

Rejoignez-nous sur les réseaux sociaux

Aucun spam – Désinscription en un clic – Vie privée respectée

 

Risques concrets liés à l’automatisation avancée du mode YOLO

Le mode YOLO (« you only live once ») de l’outil Cursor permet à l’agent d’exécuter automatiquement des séquences d’actions complexes sans validation systématique par l’utilisateur. Selon la documentation officielle de Cursor, ce mode serait encadré par des garde-fous tels qu’une liste de commandes autorisées, une liste noire de commandes interdites, et une option spécifique pour empêcher la suppression de fichiers. Ce dispositif vise à rassurer les développeurs sur la sécurité de l’automatisation dans les processus de programmation.

« La suppression automatique de fichiers et l’exécution de commandes arbitraires deviennent possibles, malgré les filtres intégrés. »

Cependant, une analyse conduite par Backslash Security a démontré que ces mesures ne résistent pas à des tentatives délibérées de contournement. Les experts en cybersécurité ont identifié quatre techniques principales permettant de déjouer les restrictions imposées par Cursor. Les agents IA peuvent notamment recourir à l’obfuscation du code, exécuter des commandes à travers une sous-couche shell (« subshell »), écrire des scripts sur le disque avant de les lancer, ou encore utiliser des manipulations sophistiquées de guillemets dans bash afin d’échapper aux blocages attendus.

Ces méthodes contournent ainsi facilement les listes noires de commandes. Par exemple, même si la commande « curl » est ajoutée à la liste des interdictions, Cursor peut l’exécuter si elle est chiffrée en Base64 ou intégrée dans une autre commande shell. La protection affichée par l’éditeur apparaît alors comme largement inefficace dans la pratique.

 

⏳ Jusqu’où tolérerez-vous d’être piraté ?

CTI ZATAZ – Scannez les menaces vous concernant avant qu’il ne soit trop tard.

✅ Scanner mes risques

Confidentiel. Instantané. Sécurisé. Zéro intermédiaire. 100 % Made in France.

Les faiblesses structurelles du système de sécurité de Cursor

La possibilité de contourner les garde-fous a des conséquences directes pour les développeurs. En important des instructions ou des modèles d’agents issus de dépôts publics tels que GitHub, il devient possible d’introduire des comportements malveillants dans l’environnement Cursor. Ce risque ne se limite pas aux fichiers exécutables ou scripts manifestes. Un simple commentaire ou un extrait de texte placé dans le README d’un projet peut constituer un vecteur d’attaque si l’agent IA l’interprète et l’exécute sans contrôle supplémentaire.

Par ailleurs, la fonctionnalité censée empêcher l’effacement de fichiers s’avère elle aussi inefficace dès lors que les autres couches de protection sont contournées. Selon le rapport publié, aucune option dans le paramétrage du mode YOLO ne saurait garantir l’intégrité du système si un agent acquiert la capacité de lancer un code malveillant. Les filtres actuels ne constituent donc qu’une barrière symbolique.

Cursor n’a pas fourni de commentaire officiel concernant ces découvertes au moment de la publication de l’enquête. Toutefois l’éditeur prévoit d’abandonner le mécanisme de liste noire jugé inefficace dans la prochaine version majeure 1.3, encore non déployée à ce jour. Ce changement d’approche vise à combler les lacunes structurelles de la solution actuelle, sans qu’aucun détail précis n’ait été communiqué quant aux nouveaux dispositifs de sécurité envisagés.

Tant que les mécanismes de validation ne seront pas revus en profondeur, la seule protection efficace consiste à éviter l’activation de l’exécution automatique pour les tâches critiques, et à vérifier systématiquement l’intégrité des instructions importées depuis des sources tierces. (BS)

Rejoignez-nous sur les réseaux sociaux

Aucun spam – Désinscription en un clic – Vie privée respectée

Usurpation d’identité : la France face à l’explosion des deepfakes

En France, les fraudes par deepfake ont bondi de 700 % depuis 2024, marquant une nouvelle ère de menaces numériques.

Alors que les technologies d’intelligence artificielle progressent rapidement, elles deviennent également des outils de choix pour les cybercriminels. Selon une analyse internationale de la société Sumsub, spécialisée dans la vérification d’identité, les fraudes par deepfakes et documents synthétiques connaissent une croissance exponentielle dans le monde. En France, cette menace est désormais tangible : les deepfakes ont augmenté de 700 % depuis 2024, tandis que les documents d’identité générés par IA ont progressé de 281 % sur la même période, selon les données internes de l’entreprise.

« Le deepfake est désormais l’une des méthodes de fraude à l’identité les plus inquiétantes », alerte la source de DataSecurityBreach.fr. Une conclusion corroborée par d’autres études récentes. Selon le fournisseur d’identité Signicat, les tentatives d’usurpation par deepfake ont augmenté de 2 137 % entre 2020 et 2023.

En Europe, la situation est particulièrement préoccupante. Tandis que la falsification traditionnelle de documents recule dans d’autres régions du globe, elle reste stable, voire en hausse (+33 %), sur le Vieux Continent. La France n’échappe pas à cette tendance, combinant fraude documentaire classique et usage massif de l’intelligence artificielle générative.

« Les menaces en ligne étant de plus en plus sophistiquées, il est important que les organisations publiques et privées revoient leurs protocoles de vérification de l’identité », recommande la société. Car les techniques actuelles s’avèrent souvent inadaptées face à des risques nouveaux et évolutifs. La référence des actualités liées à la Cybersécurité, ZATAZ.COM, est revenu sur plusieurs cyberattaques ayant impacté, par exemple, une boutique dont les données de paiement et biométriques ont été dérobés !

Une menace numérique polymorphe

Les deepfakes permettent aujourd’hui de reproduire à l’identique une identité visuelle ou vocale. Combinés à des documents générés artificiellement, ces outils rendent les usurpations d’identité quasi indétectables par des systèmes de contrôle traditionnels. L’enjeu est critique pour les plateformes d’e-commerce, les banques en ligne et les acteurs de la crypto, qui deviennent des cibles privilégiées.

Les chiffres relevés confirment une bascule globale. Entre le premier trimestre 2024 et le premier trimestre 2025, les cas de fraude par deepfake ont augmenté de 700 % en France, 900 % au Royaume-Uni et 1 100 % en Allemagne. Le phénomène reste cependant circonscrit aux pays disposant d’une forte infrastructure numérique. À l’échelle mondiale, l’Europe enregistre une hausse de 900 %.

Cette fracture numérique mondiale s’observe aussi ailleurs. Alors que l’Asie-Pacifique affiche des croissances spectaculaires (+1 100 % en moyenne, +1 900 % à Hong Kong, +1 500 % à Singapour), l’Amérique du Nord, réputée bien équipée, voit également les tentatives de fraude exploser : +1 100 % aux États-Unis, +3 400 % au Canada.

En revanche, au Moyen-Orient, en Afrique et en Amérique latine, les hausses restent marginales (entre +1 % et +3 %), freinées par des capacités techniques encore limitées pour concevoir des contenus synthétiques crédibles.

L’intelligence artificielle au service de la fraude documentaire

En parallèle, la fraude aux documents synthétiques s’impose comme la menace prédominante. Ces documents d’apparence officielle, générés via des outils d’IA, échappent aux vérifications classiques et remplacent progressivement les falsifications traditionnelles. En Europe, la progression atteint 378 %, contre 356 % aux États-Unis. L’Allemagne affiche une hausse de 566 %, tandis qu’en France, cette progression est de 281 % selon l’étude.

« Grâce à des outils comme ChatGPT ou les générateurs d’images, les fraudeurs peuvent désormais créer des documents d’identité ou de résidence hyperréalistes, jusqu’à produire des photos de profil ou des vidéos falsifiées convaincantes », souligne l’entreprise. L’évolution vers ces méthodes souligne l’urgence pour les entreprises de mettre à jour leurs systèmes comme on peut le voir dans cet article.

Des cibles sectorielles bien identifiées

En France et en Europe, les secteurs les plus touchés par cette fraude nouvelle génération sont clairement identifiés. Le e-commerce est le plus visé avec une augmentation de 176 % des fraudes entre les premiers trimestres 2024 et 2025. Viennent ensuite l’edtech (+129 %), les cryptoactifs (+84 %) et enfin la fintech (+26 %). Ces chiffres illustrent le déplacement des menaces vers des secteurs massivement digitalisés, où l’identification à distance est la norme.

La France, en particulier, se révèle vulnérable. ZATAZ rapporte des affaires récentes spectaculaires, comme une escroquerie de 25 millions d’euros via deepfake dans une entreprise, ou encore une fraude à 19 millions d’euros utilisant des vidéos falsifiées pour duper des responsables en visioconférence.

Les analystes s’accordent à dire que la France n’a pas encore harmonisé ses dispositifs de vérification d’identité numérique à l’échelle des enjeux. Si certaines plateformes adoptent des systèmes biométriques renforcés, beaucoup reposent encore sur des processus déclaratifs ou des contrôles humains, inadaptés face à des usurpations conçues par intelligence artificielle.

EchoLeak : faille inédite pour Microsoft 365 Copilot

Un groupe de chercheurs a identifié une vulnérabilité critique baptisée EchoLeak, capable d’extraire des données confidentielles de Microsoft 365 Copilot sans interaction de l’utilisateur.

Rejoignez-nous sur vos réseaux sociaux

Aucun spam. Désinscription en un clic. Votre vie privée est respectée.

 

EchoLeak est la première attaque documentée exploitant des modèles de langage génératifs pour dérober des informations internes. La faille a été découverte en janvier 2025 par les chercheurs en sécurité de la société Aim Security, et a reçu l’identifiant CVE-2025-32711. Microsoft a classé cette vulnérabilité comme critique et a déployé un correctif en mai 2025. Aucun cas d’exploitation active n’a été détecté jusqu’à présent.

Copilot, intégré dans la suite Microsoft 365, repose sur les modèles GPT d’OpenAI couplés à Microsoft Graph pour répondre à des requêtes à partir de données internes à l’organisation. La vulnérabilité EchoLeak détourne ce mécanisme en exploitant la chaîne de traitement de type RAG (Retrieval-Augmented Generation).

L’attaque commence par l’envoi d’un courriel apparemment anodin, contenant un prompt caché conçu pour contourner les filtres de sécurité de Microsoft. Ce contenu malveillant est injecté dans le contexte conversationnel de Copilot lorsque l’utilisateur interagit avec l’outil, sans qu’il soit nécessaire de cliquer ou d’interagir directement avec le message.

Une fois le contexte contaminé, le modèle LLM peut être amené à insérer involontairement des données sensibles dans des liens ou des images. Certaines syntaxes Markdown peuvent alors envoyer automatiquement ces données vers un serveur distant. La faille repose en partie sur le fait que des URL issues de Microsoft Teams et SharePoint sont considérées comme de confiance, ce qui permet de contourner certaines restrictions.

« Cette attaque révèle une nouvelle classe de menaces spécifiques aux LLM : la violation de leur domaine de contexte« , soulignent les chercheurs.

️ VEILLE ZATAZ, VOTRE RADAR CYBER

Adoptée et approuvée par 96 % de nos abonnés !

Découvrir la veille maintenant

Aucune publicité. Alerte directe. Veille éthique.

Une mise en lumière inédite des faiblesses systémiques des IA génératives

EchoLeak met en évidence un angle mort de la sécurité (CVE 2025-32711) : la confiance implicite accordée aux données internes et la capacité d’un modèle LLM à agir comme vecteur de fuite. Bien que Microsoft ait corrigé le problème en modifiant les paramètres côté serveur, les experts insistent sur la nécessité de mesures complémentaires.

Parmi les recommandations, les chercheurs défendent une filtration plus rigoureuse des entrées et sorties de Copilot, un accès restreint aux sources documentaires exploitées par le RAG et le blocage automatique des réponses contenant des URL externes ou des objets potentiellement exploitables.

Microsoft n’a pas précisé le nombre de clients potentiellement exposés avant le correctif. Aucun signalement de fuite de données ne figure dans les registres officiels à ce jour.

L’incident pose d’importantes questions sur la sécurité des assistants IA intégrés aux plateformes collaboratives. L’exploitation d’un prompt caché montre que la simple présence d’un message dans la boîte de réception suffit à constituer une menace, sans qu’aucune action volontaire de l’utilisateur ne soit nécessaire.

EchoLeak pourrait ainsi marquer un tournant dans la manière dont les entreprises abordent la sécurité des systèmes à base d’IA générative, en révélant leur exposition à des attaques invisibles et silencieuses, d’autant plus redoutables qu’elles s’appuient sur les capacités mêmes de l’outil ciblé.

Google mise sur l’IA locale avec AI Edge Gallery

Une nouvelle application expérimentale permet d’exécuter des modèles d’intelligence artificielle directement sur son téléphone, sans connexion à un serveur distant.

Développée par Google et encore au stade alpha, l’application AI Edge Gallery ambitionne de transformer notre rapport à l’intelligence artificielle en plaçant les modèles au plus près de l’utilisateur. Conçue pour fonctionner hors ligne, elle ouvre la voie à une IA plus privée, plus efficace et potentiellement moins énergivore. Derrière cette initiative, un objectif clair : proposer une alternative à l’omniprésence du cloud dans les usages courants de l’intelligence artificielle. Mais cette approche peut-elle rivaliser avec la puissance centralisée des grands serveurs ?

Lancée discrètement sur GitHub par les équipes de Google, AI Edge Gallery est pour l’instant uniquement disponible sous forme de code source à compiler sur un appareil Android. Son objectif est de proposer une interface simple permettant à tout utilisateur de rechercher, télécharger et exécuter des modèles d’IA capables d’opérer localement, directement sur les processeurs des téléphones, tablettes ou autres appareils périphériques. Ce type de déploiement, encore marginal, prend une importance stratégique croissante pour les géants du numérique. L’approche s’inscrit dans une tendance plus large d’ »edge computing » : faire travailler les appareils eux-mêmes, au lieu de tout déporter vers des serveurs distants.

Selon la page GitHub du projet, l’application fonctionne comme une mini galerie de modèles IA. Une fois installée, elle permet de rechercher un modèle adapté à une tâche précise — par exemple, chatter avec une IA, identifier des objets dans une photo ou générer une image à partir d’une description. Lorsque l’utilisateur sélectionne une tâche, AI Edge Gallery propose une liste de modèles légers (souvent au format TensorFlow Lite), compatibles avec les performances d’un appareil mobile. L’enjeu est double : offrir des performances acceptables tout en assurant que les données restent stockées localement, sans transiter par Internet.

La question de la confidentialité est au cœur de cette nouvelle orientation. Lorsqu’un utilisateur interagit avec un assistant vocal, une IA de correction grammaticale ou une application de retouche photo, les données sont souvent envoyées vers un serveur distant pour traitement. Ce transfert soulève des inquiétudes légitimes en matière de vie privée, notamment dans les domaines sensibles comme la santé, la finance ou l’éducation. Avec une IA locale, les données restent sur l’appareil, ce qui élimine une grande partie des risques liés à l’interception ou à la réutilisation des données personnelles.

Le projet, toutefois, en est encore à ses débuts. Il ne s’agit pas d’une application prête à l’emploi pour le grand public, mais plutôt d’un outil destiné aux développeurs ou aux curieux capables de compiler le projet eux-mêmes. À l’heure actuelle, il n’existe pas encore de version officielle sur le Google Play Store, ni de communiqué de presse confirmant une sortie imminente sur iOS. Google précise que le développement est en phase « alpha expérimentale » et que la stabilité, la compatibilité et la performance des modèles intégrés peuvent varier considérablement selon les appareils.

Cela n’empêche pas AI Edge Gallery de susciter l’intérêt. Le dépôt GitHub est sous licence Apache 2.0, ce qui signifie que d’autres développeurs peuvent le modifier, y contribuer ou l’intégrer dans des applications plus vastes. Cette ouverture pourrait favoriser une communauté dynamique autour des IA locales, à l’image de ce qui s’est déjà produit pour des projets comme Stable Diffusion ou LLaMA, adaptés eux aussi pour une exécution hors ligne sur certains appareils puissants.

Pour que cette approche prenne réellement de l’ampleur, encore faut-il que les modèles soient à la hauteur. Aujourd’hui, les IA locales restent bien souvent moins puissantes que leurs équivalents dans le cloud, faute de puissance de calcul. Un modèle de génération d’images tel que Stable Diffusion Mini peut fonctionner sur un smartphone haut de gamme, mais il demandera plusieurs secondes, voire minutes, pour produire une image. De même, les modèles de type LLM (Large Language Model) fonctionnant en local sont encore limités en vocabulaire, en mémoire contextuelle et en fluidité.

Cela dit, le développement matériel rattrape peu à peu le fossé. De plus en plus de téléphones embarquent des puces dédiées à l’intelligence artificielle, comme les NPU (Neural Processing Unit) intégrés dans les dernières générations de Snapdragon ou Tensor. Ces processeurs permettent d’exécuter des modèles IA plus lourds sans impacter l’autonomie ou les performances générales du téléphone. Google, avec son propre SoC Tensor G3, semble vouloir s’appuyer sur ces capacités pour pousser l’IA locale comme standard futur de ses appareils Pixel.

À travers AI Edge Gallery, Google explore aussi une forme de décentralisation de l’intelligence artificielle. Là où l’IA actuelle repose massivement sur des architectures cloud (comme celles d’OpenAI, d’Anthropic ou de Meta), le choix d’un fonctionnement local déplace l’équilibre. Le traitement des données personnelles devient un choix utilisateur. L’utilisateur télécharge un modèle, l’exécute localement, puis interagit avec lui sans jamais transmettre ses données à un serveur tiers. Ce changement de paradigme est crucial dans le contexte actuel, où la régulation des données personnelles se renforce, notamment en Europe avec le RGPD, ou en Californie avec le CCPA.

L’approche soulève néanmoins des défis. Comment s’assurer que les modèles téléchargés sont sécurisés, non modifiés, ou exempts de biais ? Google indique que l’application AI Edge Gallery pourrait à terme inclure des mécanismes de validation ou de signature des modèles. Mais pour l’instant, cette vérification est laissée à la responsabilité de l’utilisateur ou du développeur tiers.

En toile de fond, se dessine une nouvelle vision de l’intelligence artificielle : plus distribuée, plus personnelle, plus respectueuse de la vie privée. Google n’est pas le seul à explorer cette piste. Apple, avec ses puces Neural Engine, a intégré depuis plusieurs années des fonctions IA directement dans iOS, sans passer par des serveurs externes. Mais l’approche de Google, via AI Edge Gallery, va plus loin : elle propose un écosystème complet pour la recherche, la sélection et le test de modèles IA embarqués.

Il reste à voir si cette vision pourra se généraliser.

Se reconvertir en dix semaines : décryptage d’un bootcamp centré sur la pratique

Comment apprendre à coder sans passer par un long cursus universitaire ? Pour un nombre croissant d’adultes en reconversion, la réponse passe par un bootcamp intensif, format encore récent en France mais désormais bien installé. La Capsule fait partie des pionniers.

Créée en 2017, présente aujourd’hui dans neuf villes en France et en Europe, l’école propose une formation intensive de dix semaines pour devenir développeur web et mobile junior. Son approche est claire : apprendre en codant, chaque jour, sur des projets concrets.

Pauline, qui a terminé la formation developpement web en mars 2025, décrit une expérience à la fois intensive et gratifiante :
« J’ai adoré apprendre en travaillant sur des projets concrets, c’est vraiment motivant et formateur. Le rythme est intense, mais c’est justement ce qui permet de progresser vite et de se dépasser. »

Inspiré des écoles d’informatique, mais accompagné

À La Capsule, la journée commence par un cours théorique en petit groupe, animé par un formateur présent sur place. Ensuite, les élèves passent à la pratique, en autonomie ou en binôme, sur une série d’exercices conçus pour monter progressivement en complexité. Tout au long de la journée, l’équipe pédagogique reste disponible pour répondre aux questions, débloquer les situations et accompagner les apprentissages.

Bastien, ancien élève, y voit un équilibre réussi : « Des exercices et des projets à réaliser toute la journée, validés par un programme de tests. Mais ici, on a en plus un support de cours solide et un excellent professeur, disponible toute la journée. »

L’apprentissage est progressif et structuré. Pauline salue les supports pédagogiques : « Les notions sont super bien expliquées, on sent qu’ils ont été pensés pour vraiment nous aider à comprendre.« 

H2: Une progression rapide grâce au collectif

Au-delà des outils et du contenu, plusieurs élèves insistent sur l’ambiance et l’entraide. Bastien évoque un système de binôme efficace :
« Ceux qui ont plus d’expérience renforcent leurs acquis en expliquant, et ceux qui débutent apprennent encore plus vite. J’ai vu des camarades partir de zéro et progresser à une vitesse impressionnante. » Ce travail collectif culmine dans le projet final : trois semaines de conception et développement en équipe, pour créer une application mobile ou un site web mobilisant l’ensemble des compétences acquises.

Une employabilité affichée comme priorité

Derrière l’intensité de la formation, un objectif : permettre l’insertion rapide dans un secteur en forte demande. La Capsule annonce un taux de retour à l’emploi de 90 %.

Marlène Antoinat, CEO de La Capsule, souligne : « Nous nous adressons à des personnes qui n’ont pas forcément de background tech, mais qui ont besoin d’une formation concrète, rapide, et qui débouche sur un métier. Notre rôle, c’est de leur fournir les bons outils, dans un cadre exigeant mais bienveillant.« 

Un accompagnement structuré est également proposé via le Career Center : coaching personnalisé, ateliers CV, simulations d’entretiens.
Noël Paganelli, CTO, précise : « On apprend à coder, mais aussi à travailler en équipe, à expliquer ses choix techniques, à être autonome. C’est cette posture de développeur opérationnel que nous cherchons à transmettre.« 

Données et intelligence artificielle : un duo sous haute surveillance

La dernière étude de Cisco révèle une confiance accrue dans la protection des données, mais pointe les tensions croissantes entre souveraineté numérique, innovation et gouvernance de l’IA.

Alors que l’intelligence artificielle transforme en profondeur les pratiques numériques, la protection des données personnelles se positionne plus que jamais comme un enjeu stratégique. Dans son “Data Privacy Benchmark 2025”, Cisco explore un équilibre fragile : celui entre la promesse d’une IA performante et les exigences d’une confidentialité renforcée. Réalisée auprès de 2 600 professionnels dans 12 pays, l’étude confirme un paysage en pleine mutation, tiraillé entre prudence réglementaire, volonté de souveraineté et dépendance à l’expertise technologique mondiale. Si la confiance envers les fournisseurs de solutions globales semble s’intensifier, les craintes entourant les dérives potentielles de l’IA, notamment générative, rappellent la nécessité impérieuse d’une gouvernance responsable.

La souveraineté numérique à l’épreuve de la mondialisation

Les résultats du rapport 2025 de Cisco témoignent d’un paradoxe bien réel : les entreprises plébiscitent la localisation des données pour des raisons de sécurité, tout en continuant de faire confiance à des acteurs mondiaux pour leur traitement. En effet, 91 % des organisations interrogées estiment que stocker les données localement renforce leur sécurité, malgré les coûts supplémentaires que cela implique. Dans le même temps, 90 % reconnaissent la fiabilité des fournisseurs globaux pour garantir la confidentialité de leurs données. Ce double constat illustre la complexité du contexte actuel, dans lequel la souveraineté numérique cohabite difficilement avec la logique d’un cloud globalisé.

La dynamique va plus loin qu’un simple enjeu de contrôle. Elle reflète aussi une stratégie de reconquête de la confiance des clients. Comme le souligne Harvey Jang, Directeur de la confidentialité chez Cisco, « l’engouement pour la localisation traduit une volonté affirmée de reprendre le contrôle. Mais une économie numérique performante repose aussi sur des échanges fluides et sécurisés à l’échelle mondiale ». Des initiatives comme le Global Cross-Border Privacy Rules Forum apparaissent alors comme des mécanismes essentiels pour concilier interopérabilité, respect des lois nationales et compétitivité internationale.

La réglementation comme levier d’innovation

Contrairement aux idées reçues, la réglementation sur la confidentialité ne freine pas l’innovation : elle l’encadre. Et pour beaucoup d’entreprises, elle s’impose même comme un facteur de performance. Le benchmark 2025 souligne ainsi que 85 % des répondants considèrent que les lois sur la protection des données ont un impact positif sur leur activité. Mieux encore, 95 % affirment que les investissements en matière de confidentialité se révèlent rentables, tant sur le plan de la sécurité que de la fidélisation client.

En France, cette tendance s’ancre dans une réalité culturelle et politique plus large. D’après l’édition 2024 de l’enquête Cisco sur la vie privée des consommateurs, 73 % des Français déclarent connaître les lois en matière de confidentialité — un taux largement supérieur à la moyenne mondiale. Plus révélateur encore, 92 % estiment que ces lois sont efficaces pour protéger leurs données personnelles. Ces chiffres témoignent d’un environnement où la conscience citoyenne et la régulation vont de pair, imposant aux entreprises une rigueur accrue… mais aussi une opportunité de renforcer leur capital confiance.

95 % des entreprises interrogées considèrent que leurs investissements en protection des données sont rentables, bien au-delà des exigences de conformité.

L’IA générative, une avancée technologique sous surveillance

Avec la montée en puissance de l’IA générative, un nouveau front s’ouvre pour les responsables de la sécurité des données. Si cette technologie est perçue comme un levier d’accélération, elle suscite également des inquiétudes croissantes : fuites de données, mésusages, intrusions involontaires… Le rapport de Cisco montre que seules 48 % des entreprises françaises se déclarent très familières avec l’IA générative, un chiffre qui traduit à la fois la jeunesse de cette technologie et la prudence avec laquelle elle est accueillie.

Les inquiétudes ne sont pas infondées : 70 % des professionnels interrogés redoutent des fuites accidentelles de données sensibles via des outils d’IA. Un tiers d’entre eux reconnaissent même avoir déjà saisi des informations confidentielles dans ces interfaces.

Gouverner l’intelligence artificielle par la donnée

Le virage vers l’intelligence artificielle n’est plus une hypothèse, mais une certitude. Cisco prévoit un quasi-doublement des budgets informatiques consacrés à l’IA dans les mois à venir. Ce redéploiement s’accompagne d’un transfert stratégique : 97 % des répondants envisagent de réaffecter une partie de leur budget dédié à la confidentialité vers des initiatives IA. Ce mouvement n’est pas un désengagement, mais une évolution : gouverner l’IA, c’est désormais garantir la confidentialité par la conception.

Cette perspective est portée par une vision de long terme, dans laquelle les outils d’IA ne peuvent se déployer qu’à la condition d’être régulés et maîtrisés. L’intelligence artificielle ne remplace pas la gouvernance, elle la complexifie. Les entreprises doivent ainsi bâtir des structures hybrides, capables d’intégrer à la fois les impératifs réglementaires, les exigences technologiques et les attentes sociétales. Cette transversalité redéfinit le rôle des équipes sécurité et juridique, qui deviennent des acteurs clés de l’innovation responsable.

Une équation à plusieurs inconnues

À l’échelle internationale, l’étude de Cisco offre un instantané précieux d’un écosystème en pleine transformation. Les lignes bougent, les certitudes vacillent. Alors que les données deviennent le carburant de l’économie numérique, leur protection ne relève plus uniquement de la conformité légale, mais d’un véritable projet d’entreprise. Dans cette équation, chaque acteur — décideur, technicien, juriste, utilisateur — détient une partie de la solution.

Le défi des prochaines années sera donc de conjuguer plusieurs impératifs : localiser sans isoler, innover sans exposer, automatiser sans déresponsabiliser. Car la confidentialité des données, loin d’être un frein, peut devenir un accélérateur de transformation — à condition de la penser comme une démarche globale, éthique et transparente.

Dans un monde de plus en plus piloté par des algorithmes, la confiance reste le meilleur des algorithmes.