Archives par mot-clé : IA

Google muscle Drive avec une IA anti-ransomware

Google ajoute une nouvelle barrière dans Drive : une IA dédiée à stopper le ransomware avant la restauration. Objectif : limiter les dégâts une fois l’antivirus contourné.

Google lance une nouvelle protection dans Drive pour Windows et macOS, destinée à bloquer les attaques de ransomware avant qu’elles ne paralysent tout un réseau. Contrairement aux solutions classiques centrées sur le malware, l’outil repose sur une IA entraînée à détecter les comportements suspects, comme le chiffrement massif de fichiers. Dès alerte, la synchronisation cloud s’interrompt et les données passent en quarantaine. Présentée comme une « nouvelle couche » par Luke Camery, responsable produit chez Google Workspace, la solution complète antivirus et restauration, sans les remplacer. Disponible en bêta ouverte, elle sera intégrée sans surcoût dans la majorité des abonnements Workspace.

Une nouvelle couche face aux rançongiciels

Les ransomwares ont démontré les limites des protections classiques. Les antivirus stoppent une partie des menaces, mais les attaquants réussissent régulièrement à franchir cette barrière. Les solutions de restauration existent, mais elles restent coûteuses et lourdes pour les équipes IT. C’est dans cet interstice que Google place sa nouvelle défense.

« Nous ne remettons pas en cause l’efficacité des acteurs traditionnels, mais force est de constater que l’approche actuelle ne suffit pas », résume Luke Camery. Selon lui, l’erreur du statu quo consiste à ne pas intégrer de détection comportementale en amont de la restauration. L’outil Drive se veut donc une couche distincte, un filet de sécurité supplémentaire, destiné à stopper une attaque en cours avant que le chiffrement ne devienne irréversible.

Le principe est simple : supposer que l’antivirus a échoué, puis intervenir. Google compare cela à une maison protégée par des serrures et des assurances, mais dépourvue d’alarme. Avec ce dispositif, l’alarme se déclenche dès qu’un intrus tente de verrouiller toutes les portes.

Une IA entraînée sur des millions d’exemples

Le cœur de la solution est un modèle d’intelligence artificielle personnalisé. Entraîné sur des millions de cas de ransomware, il ne cherche pas à identifier un code malveillant précis mais à reconnaître des schémas de comportement. L’exemple type : un processus qui tente de chiffrer brutalement de nombreux fichiers.

Dès qu’un tel comportement est repéré, Drive suspend immédiatement la synchronisation avec le cloud. Les fichiers potentiellement compromis sont alors isolés, placés dans une forme de quarantaine. L’objectif est d’empêcher la propagation et de préserver des copies saines.

Cette logique de surveillance permanente et réactive place la solution au-dessus d’un antivirus classique et en dessous d’un outil de restauration. Elle se veut complémentaire : non pas un remplacement, mais une barrière intermédiaire.

En cas d’attaque détectée, l’utilisateur reçoit une alerte sur son poste ainsi qu’un e-mail détaillant les étapes à suivre. Un assistant permet ensuite de restaurer facilement une version non contaminée des fichiers. La démonstration fournie par Google montre un processus aussi simple que de récupérer un document effacé dans la corbeille Windows, sans recours à des outils externes ni réinstallation complexe.

Côté administrateurs, les informations remontent dans la console Admin. Ils disposent d’un journal d’audit et peuvent ajuster la configuration. La fonctionnalité sera activée par défaut, mais les responsables IT gardent la possibilité de désactiver la détection ou la restauration si nécessaire.

L’outil est dès aujourd’hui accessible en bêta ouverte. Il sera intégré sans frais supplémentaires dans la plupart des abonnements Google Workspace commerciaux. Google espère ainsi réduire l’impact des ransomwares qui, malgré les efforts combinés des solutions antivirus et des services de sauvegarde, continuent de frapper organisations publiques et privées.

Sénateurs réclament un briefing sur la sécurité électorale avant les scrutins majeurs

Deux sénateurs redoutent que Tulsi Gabbard ait ralenti la transmission d’alertes sur les opérations d’influence étrangères visant le scrutin américain.

Les démocrates Mark Warner et Alex Padilla pressent la directrice du renseignement national d’expliquer ses choix. Ils craignent que le renseignement électoral soit restreint au moment où des acteurs étrangers affinent leurs campagnes de manipulation grâce à l’intelligence artificielle.

Un courrier d’alerte au renseignement

Les deux élus ont écrit à Gabbard pour obtenir, avant le 10 octobre, une réunion avec les sénateurs. Ils exigent une évaluation des mesures prévues pour protéger les élections locales de novembre et les législatives de l’an prochain. Leur lettre critique également les propos de la responsable sur la sécurité des machines à voter, jugés « infondés et nuisibles ». Des audits indépendants ont montré que les accusations de vulnérabilités sont surtout alimentées par des narratifs forgés par des puissances adverses.

L’administration actuelle cherche à relativiser les conclusions sur l’ingérence russe en 2016. Pourtant, un rapport bipartisan du Sénat avait confirmé que Vladimir Poutine voulait favoriser Donald Trump. Parallèlement, plusieurs structures fédérales de suivi des opérations d’influence ont été démantelées, au motif qu’elles censuraient des contenus en coopération avec les plateformes. La CISA, qui avait certifié la sécurité du scrutin de 2020, a vu ses responsables limogés. Selon Warner et Padilla, ces décisions créent un climat de peur au sein des agents.

Une menace technologique en constante évolution

Les services de renseignement disposent d’outils secrets pour suivre les campagnes de manipulation en ligne. Sous Joe Biden, ils ont régulièrement diffusé des analyses sur les opérations russes, chinoises et autres. Ces campagnes sont désormais dopées par l’IA. Des chercheurs américains ont documenté l’usage, par Pékin, d’entreprises spécialisées comme GoLaxy. Cette société a constitué des dossiers sur 117 parlementaires américains et plus de 2 000 personnalités politiques et intellectuelles.

L’IA renforce l’opacité et la crédibilité des campagnes d’influence étrangères. La question reste entière : les agences américaines ont-elles encore la liberté d’alerter le Congrès sans frein politique ? (NextGov)

ChatGPT accusé à Moscou de transmettre des données au Pentagone

OpenAI est accusée par un responsable russe de partager automatiquement avec les agences américaines les requêtes en russe envoyées via ChatGPT.

Selon le site Caliber, Alexander Asafov, premier vice-président de la commission de la Chambre publique de Moscou sur la société civile, affirme que les demandes en langue russe soumises à ChatGPT seraient transférées « proactivement et automatiquement » au FBI et au Pentagone. Il ajoute que des dirigeants d’entreprises d’intelligence artificielle auraient reçu cette année « des grades au Pentagone ». Aucune preuve n’a été apportée pour étayer ces accusations.

Une rhétorique géopolitique

Cette déclaration s’inscrit dans une série de prises de position russes qui présentent les grands acteurs occidentaux du numérique comme des instruments d’ingérence. En ciblant OpenAI, Moscou met l’accent sur l’usage de l’IA générative en Russie et sur les risques supposés d’espionnage. L’accusation d’un transfert automatique au FBI et au Pentagone relève davantage d’un discours politique que d’une information vérifiée.

L’angle cyber et renseignement

La Russie multiplie les alertes autour de la collecte de données par les plateformes étrangères, qu’elle considère comme un levier de surveillance occidentale. La référence à un lien direct entre OpenAI et le Pentagone illustre une stratégie classique : associer les outils numériques à une infrastructure de renseignement militaire. Cette rhétorique vise autant l’opinion publique russe que les utilisateurs potentiels de l’IA dans la région.

Ni OpenAI ni les autorités américaines n’ont réagi à cette déclaration au moment de la publication. La formulation employée par Asafov — « automatiquement » et « initiative » d’OpenAI — ne repose sur aucune documentation technique accessible. À ce stade, il s’agit d’une accusation politique relayée par la presse locale, sans élément de corroboration indépendant.

La question centrale reste donc : cette accusation relève-t-elle d’une alerte fondée sur des renseignements techniques, ou d’une construction géopolitique destinée à encadrer l’usage de l’IA en Russie ?

Se reconvertir en dix semaines : décryptage d’un bootcamp centré sur la pratique

Comment apprendre à coder sans passer par un long cursus universitaire ? Pour un nombre croissant d’adultes en reconversion, la réponse passe par un bootcamp intensif, format encore récent en France mais désormais bien installé. La Capsule fait partie des pionniers.

Créée en 2017, présente aujourd’hui dans neuf villes en France et en Europe, l’école propose une formation intensive de dix semaines pour devenir développeur web et mobile junior. Son approche est claire : apprendre en codant, chaque jour, sur des projets concrets.

Pauline, qui a terminé la formation developpement web en mars 2025, décrit une expérience à la fois intensive et gratifiante :
« J’ai adoré apprendre en travaillant sur des projets concrets, c’est vraiment motivant et formateur. Le rythme est intense, mais c’est justement ce qui permet de progresser vite et de se dépasser. »

Inspiré des écoles d’informatique, mais accompagné

À La Capsule, la journée commence par un cours théorique en petit groupe, animé par un formateur présent sur place. Ensuite, les élèves passent à la pratique, en autonomie ou en binôme, sur une série d’exercices conçus pour monter progressivement en complexité. Tout au long de la journée, l’équipe pédagogique reste disponible pour répondre aux questions, débloquer les situations et accompagner les apprentissages.

Bastien, ancien élève, y voit un équilibre réussi : « Des exercices et des projets à réaliser toute la journée, validés par un programme de tests. Mais ici, on a en plus un support de cours solide et un excellent professeur, disponible toute la journée. »

L’apprentissage est progressif et structuré. Pauline salue les supports pédagogiques : « Les notions sont super bien expliquées, on sent qu’ils ont été pensés pour vraiment nous aider à comprendre.« 

H2: Une progression rapide grâce au collectif

Au-delà des outils et du contenu, plusieurs élèves insistent sur l’ambiance et l’entraide. Bastien évoque un système de binôme efficace :
« Ceux qui ont plus d’expérience renforcent leurs acquis en expliquant, et ceux qui débutent apprennent encore plus vite. J’ai vu des camarades partir de zéro et progresser à une vitesse impressionnante. » Ce travail collectif culmine dans le projet final : trois semaines de conception et développement en équipe, pour créer une application mobile ou un site web mobilisant l’ensemble des compétences acquises.

Une employabilité affichée comme priorité

Derrière l’intensité de la formation, un objectif : permettre l’insertion rapide dans un secteur en forte demande. La Capsule annonce un taux de retour à l’emploi de 90 %.

Marlène Antoinat, CEO de La Capsule, souligne : « Nous nous adressons à des personnes qui n’ont pas forcément de background tech, mais qui ont besoin d’une formation concrète, rapide, et qui débouche sur un métier. Notre rôle, c’est de leur fournir les bons outils, dans un cadre exigeant mais bienveillant.« 

Un accompagnement structuré est également proposé via le Career Center : coaching personnalisé, ateliers CV, simulations d’entretiens.
Noël Paganelli, CTO, précise : « On apprend à coder, mais aussi à travailler en équipe, à expliquer ses choix techniques, à être autonome. C’est cette posture de développeur opérationnel que nous cherchons à transmettre.« 

DeepSeek : 12 000 Clés API Exposées — L’IA, nouvelle faille de sécurité ?

Une récente analyse a révélé qu’environ 12 000 clés API, mots de passe et jetons d’authentification ont été accidentellement exposés lors de l’entraînement du modèle d’IA de DeepSeek sur des données accessibles en ligne. Cette fuite met en évidence les risques liés à l’utilisation de données publiques pour l’entraînement des modèles d’intelligence artificielle (IA).

Une fuite de grande ampleur

L’incident concerne un jeu de données issu de Common Crawl, une bibliothèque publique qui archive des copies de pages web du monde entier. En décembre 2024, une analyse de ce jeu de données, représentant 400 téraoctets et comprenant 47,5 millions de sites et 2,67 milliards de pages, a permis d’identifier une quantité alarmante d’informations sensibles.

Les chercheurs ont découvert près de 12 000 clés API et informations d’authentification valides. Ces clés donnaient accès à des services critiques comme Amazon Web Services (AWS), Slack et Mailchimp. Une partie des informations trouvées était directement intégrée dans le code source des pages HTML, exposée sans aucune protection.

Un cas frappant concerne une clé API de WalkScore, retrouvée 57 029 fois sur 1 871 sous-domaines différents. Cette diffusion massive d’une seule clé démontre le manque de contrôle dans la gestion des informations sensibles par certaines entreprises.

Une mauvaise gestion des clés API

L’analyse a montré que 63 % des clés d’accès étaient réutilisées dans plusieurs environnements, augmentant considérablement le risque d’attaques en cascade. Si une clé compromise est utilisée sur plusieurs services, un attaquant pourrait exploiter cette faille pour pénétrer plusieurs systèmes simultanément.

Le cas de Mailchimp est particulièrement préoccupant : plus de 1 500 clés API ont été retrouvées dans le jeu de données, directement accessibles dans le code côté client. Une clé Mailchimp exposée pourrait permettre à un pirate d’envoyer des emails de phishing depuis le compte légitime d’une entreprise, augmentant ainsi le taux de réussite des attaques.

Certaines pages web contenaient même des informations de connexion root (administrateur), offrant potentiellement à un attaquant un contrôle total sur le système cible. Une telle situation pourrait entraîner des conséquences dévastatrices, comme la perte de contrôle d’une infrastructure critique.

Le problème structurel de l’entraînement des modèles d’IA

Ce type de fuite met en lumière une faille structurelle dans le développement des modèles d’IA. Les modèles comme DeepSeek sont entraînés sur de vastes ensembles de données issues d’internet, incluant des bases de code, des forums de développeurs et des bases de données publiques. Ces ensembles de données contiennent souvent, par négligence, des informations sensibles comme des clés API ou des mots de passe.

Lorsque ces modèles sont entraînés sur des données contenant des failles de sécurité, ils peuvent reproduire ces vulnérabilités dans le code généré. Certains modèles de langage, comme GitHub Copilot, sont capables de suggérer des clés API ou des mots de passe dans le code généré, simplement parce qu’ils ont été entraînés sur des données comportant ce type d’information.

Cette capacité des modèles d’IA à « imiter » les failles de sécurité pose un défi majeur. Si un modèle reproduit ces vulnérabilités dans un code déployé en production, le risque de voir des attaques ciblées se multiplier devient réel.

Un risque de propagation des failles

L’absorption de données vulnérables par des modèles d’IA soulève le risque d’une propagation des failles à grande échelle. Si un modèle d’IA intègre des clés API ou des mots de passe dans le code qu’il génère, les conséquences pourraient être catastrophiques. Un attaquant pourrait alors exploiter ce code vulnérable pour infiltrer plusieurs systèmes, ouvrant la voie à des attaques en cascade.

Un modèle d’IA entraîné sur des données contenant des failles pourrait également influencer les développeurs à adopter des pratiques risquées, simplement en générant du code qui reproduit ces vulnérabilités.

Vasa-1 : un nouveau modèle d’ia pour créer des avatars animés à partir d’une photo

Microsoft Research Asia a récemment dévoilé VASA-1, un modèle d’intelligence artificielle capable de transformer une simple photo en vidéo animée.

Microsoft a donc décidé de se transformer en Skynet et a tiré sur toutes les ficelles liées à l’IA. Nouveauté du moment, Vasa-1. Cette technologie, présentée par Microsoft Research Asia utilise un fragment audio pour donner vie à une image. Le modèle est conçu pour créer des avatars vidéo réalistes, ce qui peut révolutionner la manière dont nous interagissons avec les médias numériques. C’est surtout inquiétant de se dire que des chercheurs continuent de travailler sur des solutions qui seront rapidement détournées. La régulation concernant l’IA étant moins draconienne en Asie qu’en Europe et aux USA, voilà peut-être pourquoi nos apprentis sorciers de l’IA se sont penchés sur cette possibilité.

Applications potentielles de vasa-1

Selon le rapport de recherche accompagnant la présentation du modèle, VASA-1 ouvre la possibilité de participer à des réunions virtuelles avec des avatars qui reproduisent fidèlement les comportements humains lors d’une conversation. Ca fera beaucoup rire cette comptable qui a été piégée, voilà quelques semaines, dans un tchat vidéo par des pirates et les avatars générés par l’IA. Bref, Vasa-1 soulève des questions sur son utilisation pour manipuler des vidéos afin de faire dire n’importe quoi à n’importe qui.

Comment fonctionne le modèle vasa-1 ?

VASA-1 repose sur l’apprentissage automatique pour analyser une photo statique et générer des vidéos animées réalistes. Le modèle ne clone pas les voix mais anime l’avatar en fonction des sons existants. Il peut ajouter des mouvements de tête, des tics faciaux, et d’autres nuances comportementales qui rendent l’animation étonnamment réelle. Un paradis pour deepfake, des vidéos malveillantes générées par l’IA ?

Le défi des deepfakes

La création de deepfakes, ou hyper-trucages, n’est pas une nouveauté. Cependant, l’approche de VASA-1, qui utilise une seule photo pour y incorporer des émotions et des comportements, est relativement nouvelle. Le modèle se distingue également par une excellente synchronisation labiale et la représentation de mouvements réalistes. Pour son développement, Microsoft Research a utilisé VoxCeleb2, un vaste ensemble de données composé de clips vidéo de célébrités issus de YouTube. Les célébrités ont-elles donné leurs accords pour que leur image et leur voix soient exploitées ? Dans sa démonstration Microsoft Asia a utilisé des portraits générés par StyleGAN2 ou DALL·E-3. « Il s’agit uniquement d’une démonstration de recherche et il n’y a pas de plan de sortie de produit ou d’API. » confirment les 9 chercheurs.

Le potentiel d’abus de VASA-1 est une préoccupation majeure, ce qui explique pourquoi Microsoft a décidé de ne pas publier le code du modèle pour le moment. En combinaison avec la technologie de clonage vocal, des individus mal intentionnés pourraient l’utiliser pour falsifier des vidéos de réunions, menant à des tentatives d’extorsion ou à la propagation de fausses informations. Bref à suivre ! « I’ll be back » dirait même une création de Skynet !

PERSPECTIVES POUR 2024 : LES CYBERCRIMINELS S’OFFRENT DE NOUVEAUX LEVIERS D’ATTAQUE SIMPLIFIÉS

Avec la progression des offres de cybercriminalité en tant que service (CaaS) et l’avènement de l’intelligence artificielle (IA) générative, les auteurs de menaces gagnent en simplicité pour mener à bien leurs attaques. Avec leurs boîtes à outils qui s’enrichissent de nouvelles capacités, les assaillants affûtent leurs armes. Ils lanceront des attaques plus ciblées et furtives, capables de contourner les arsenaux de sécurité en place et gagneront en agilité en rendant chaque tactique d’attaque plus efficace au fil du temps. Voici les perspectives pour 2024.

Dans son rapport 2024 de prédictions sur les menaces, FortiGuard Labs se penche sur une nouvelle ère de la cybercriminalité, examine comment l’IA change la donne en matière d’attaques et livre les nouvelles tendances qui devraient émerger pour l’année à venir et au-delà. Ce rapport propose également des conseils qui permettront aux entreprises dans le monde de renforcer leur résilience face à des menaces qui n’ont pas fini d’évoluer.

Une évolution des techniques traditionnelles d’attaque

Depuis des années, nous observons et échangeons sur les tactiques d’attaque les plus populaires, abordées dans des rapports précédents. Les grands classiques ne disparaissent jamais, mais ils évoluent et progressent à mesure que les assaillants accèdent à de nouveaux outils. Ainsi, en matière de menaces APT (Advanced Persistent Threat), nous anticipons une activité plus dynamique. Au-delà de l’évolution des APT, nous prévoyons qu’en général, les groupuscules cybercriminels diversifieront leurs cibles et leurs playbooks en misant sur des attaques plus sophistiquées et plus destructives, basées notamment sur des dénis de services et autres tentatives d’extorsion.

Les guerres de territoires restent d’actualité au sein de la cybercriminalité. En l’espace de 24 heures ou moins, de nombreux groupuscules se concentrent sur les mêmes cibles en déployant plusieurs variantes de ransomware. Cette multiplication des actions est telle que le FBI américain a lancé un avertissement aux entreprises sur ce sujet en début d’année.

D’autre part, n’oublions pas que l’IA générative évolue et que l’instrumentalisation de l’IA jette de l’huile sur le feu en offrant aux assaillants un moyen simple d’améliorer les nombreuses étapes de leurs attaques. Comme nous l’avions prédit, les cybercriminels font de plus en plus appel à l’IA pour optimiser leurs actions, qu’il s’agisse de déjouer la détection de leurs techniques d’ingénierie sociale ou d’imiter des comportements humains.

Nouvelles tendances pour 2024 et au-delà

Même si les cybercriminels continuent de tirer parti de tactiques éprouvées pour engranger des gains rapides, ils disposent d’un nombre croissant d’outils pour simplifier l’exécution de leurs attaques. À mesure que la cybercriminalité évolue, nous anticipons différentes tendances pour 2024, et au-delà :

Voir plus grand : ces dernières années, les attaques par ransomware ont proliféré dans le monde, ciblant toutes les entreprises, quelles que soient leur taille et leur secteur d’activité. Toutefois, alors des cybercriminels sont toujours plus nombreux à exécuter leurs attaques, ils épuisent rapidement les cibles les plus petites et les plus faciles à pirater. À l’avenir, nous prévoyons que les assaillants adopteront une approche de type « tout ou rien ». Ils se recentreront leurs attaques sur des secteurs critiques (santé, finance, transports et services publics) pour un impact majeur sur l’ensemble de la société et des demandes de rançons bien plus élevées qu’aujourd’hui. Ils élargiront également leur mode opératoire, rendant leurs exactions plus personnalisées, moins prévisibles, plus agressives et donc plus dommageables.

Des vulnérabilités zero-day toujours plus nombreuses : les entreprises intègrent de nouvelles plateformes, applications et technologies pour mener leurs activités. Les cybercriminels disposent ainsi de nouvelles opportunités d’exploiter des vulnérabilités logicielles. Nous avons observé un nombre record de vulnérabilités zero-day et CVE en 2023, et cette tendance s’accélère. Ces vulnérabilités attirent les assaillants et nous nous attendons à ce que des brokers (cybercriminels qui revendent ces vulnérabilités sur le dark web à plusieurs acheteurs) apparaissent au sein de la communauté CaaS. De manière générale, les vulnérabilités N-days continueront à faire courir d’importants risques aux entreprises.

Jouer à domicile : les entreprises renforcent leurs contrôles de sécurité, adoptent de nouvelles technologies et de nouveaux processus pour consolider leurs défenses. Il est donc beaucoup plus difficile d’infiltrer un réseau depuis l’extérieur. Les cybercriminels doivent donc trouver de nouvelles stratégies pour atteindre leurs cibles. Anticipant cette évolution, nous prévoyons que les assaillants continueront à préparer toujours plus en amont leurs exactions (tactiques, reconnaissance et armement). D’ailleurs certains groupuscules n’hésiteront pas à recruter à l’intérieur même des entreprises ciblées pour obtenir un accès initial pour leurs attaques.

L’avènement d’attaques médiatiques : nous nous attendons à ce que les assaillants tirent parti de rendez-vous géopolitiques et événementiels majeurs, tels que les élections américaines de 2024 ou les Jeux olympiques de Paris en 2024. Pour cibler ces événements, les cybercriminels disposent désormais de nouveaux outils, en particulier l’IA générative, pour rendre leurs opérations plus efficaces.

Réduire le champ d’action des TTP : les assaillants continueront inévitablement à élargir l’ensemble des tactiques, techniques et procédures (TTP) qu’ils utilisent pour atteindre leurs cibles. Cependant, les équipes de sécurité en entreprise peuvent prendre l’avantage en identifiant les leviers pour perturber leurs actions. Bien que la majeure partie du travail quotidien des équipes de cybersécurité consiste à traiter les indicateurs de compromission, il est utile d’examiner de près les tactiques, techniques et procédures régulièrement utilisées pour en maîtriser le champ d’action.

La 5G en tant que nouveau terrain de chasse : l’accès à un éventail toujours plus large de technologies connectées entraîne de nouvelles opportunités. Avec la croissance exponentielle de la 5G, nous prévoyons une accélération des attaques connectées. Des attaques réussies contre l’infrastructure 5G sont susceptibles de perturber nombre de secteurs critiques (pétrole et gaz, transports, sécurité publique, finance, santé).

Vivre dans la nouvelle ère de la cybercriminalité

La cybercriminalité impacte chaque citoyen et les conséquences d’un incident sont souvent considérables. Pour autant, les acteurs malveillants ne sont pas nécessairement en capacité de prendre le dessus. Les professionnels de la cybersécurité peuvent prendre de nombreuses mesures pour anticiper les actions des criminels et perturber leurs activités : collaboration entre public et privé pour partager des informations, normalisation des procédures de reporting des incidents, etc.

Les entreprises ont bien sûr un rôle essentiel à jouer dans la lutte contre la cybercriminalité. En premier lieu, il s’agit de favoriser une culture de la cyber résilience pour faire de la cybersécurité le travail de chacun. On peut également penser à des initiatives permanentes telles que des programmes d’information et de formation à l’échelle de l’entreprise, ou encore des activités plus ciblées telles que des simulations ou des études de cas pratiques à l’intention des dirigeants. Un autre axe consiste à pallier le déficit de compétences de cybersécurité en interne en puisant dans de nouveaux viviers de talents pour pourvoir les postes vacants, une approche qui aidera les entreprises à faire face à la surcharge de travail des équipes sécurité et à anticiper l’évolution des menaces. Enfin, le partage de l’information, qui est appelé à gagner en importance, permettra d’activer rapidement les mesures de protection qui s’imposent.

Décret pour de nouvelles normes liées à l’intelligence artificielle

Le 30 octobre, l’administration du président américain Joe Biden a publié un décret établissant de nouvelles normes en matière de sûreté et de sécurité de l’intelligence artificielle.

Ces nouvelles normes décidées par l’administration Biden, alors qu’au même moment, à Londres, un rendez-vous politique tentait de mettre en place une coalition IA, se divise en 26 points, classé en huit groupes, dont chacun vise à garantir que l’IA est utilisée pour maximiser les bénéfices escomptés et minimiser les risques. En outre, la mise en œuvre du document devrait placer les États-Unis à l’avant-garde de l’identification des obstacles à la technologie et de la promotion de la poursuite de la recherche. Bref, la course aux normes reste la course au monopole visant l’IA. « Le décret […] protège la vie privée des Américains, fait progresser l’égalité et les droits civils, protège les intérêts des consommateurs et des travailleurs, encourage l’innovation et la concurrence, fait progresser le leadership américain dans le monde et bien plus encore« , indique la Maison Blanche.

Le document exige que les développeurs des systèmes d’IA « les plus puissants » partagent les résultats des tests de sécurité et les « informations critiques » avec le gouvernement. Pour garantir la sécurité et la fiabilité de la technologie, il est prévu de développer des outils et des tests standardisés. A noter que cet été, lors de la Def Con de Las Vegas, la grande messe du hacking, un village avait été mis en place afin de hacker les IA proposées par les géants américains du secteur.

Le document parle de la croissance de « la fraude et de la tromperie utilisant l’intelligence artificielle« , de la nécessité de créer des outils pour trouver et éliminer les vulnérabilités des logiciels critiques, ainsi que de l’élaboration d’un mémorandum sur la sécurité nationale. Cette dernière est destinée à guider les actions futures dans le domaine de l’IA et de la sécurité.

« Sans garanties, l’intelligence artificielle pourrait mettre encore davantage en danger la vie privée des Américains. L’IA facilite non seulement l’extraction, l’identification et l’utilisation des données personnelles, mais elle incite également davantage à le faire, car les entreprises utilisent les données pour former les systèmes d’IA« , indique l’ordonnance.

Selon le document, une utilisation irresponsable de la technologie peut conduire à la discrimination, aux préjugés et à d’autres abus. En mai, Sam Altman, PDG d’OpenAI, s’était exprimé devant le Congrès américain et avait appelé le gouvernement à réglementer l’utilisation et le développement de l’intelligence artificielle.

En juin, des représentants de l’ONU avaient déclaré que les deepfakes créés par l’IA nuisaient à l’intégrité de l’information et conduisent à l’incitation à la haine dans la société. Des fakes news et autres deepfakes que la Cyber émission de ZATAZ, sur Twitch, présentait aux spectateurs.

Pendant ce temps, en Angleterre, un accord historique s’est conclu à Bletchley Park : 28 pays leaders en intelligence artificielle ont conclu un accord mondial inédit. Cette Déclaration de Bletchley marque une avancée majeure dans le développement responsable et sécurisé de l’IA avancée. Les États-Unis, l’UE et la Chine, réunis par le Royaume-Uni, ont uni leurs forces pour établir une vision commune des opportunités et des risques liés à l’IA frontalière, soulignant ainsi l’impératif d’une collaboration internationale.

La conférence de Bletchley préfigure les futures instances comme l’AIEA dans le nucléaire (l’Agence Internationale de l’Énergie Atomique). « Une excellente façon de mettre toutes les grandes puissances au même diapason sur une même sémantique avant de trouver un référentiel qui permette à chacun d’évaluer la dangerosité de tel ou tel développement. » confirme Stéphane Roder, CEO d’AI Builders. Une façon aussi de se contrôler les uns les autres, de redonner confiance au public, mais surtout de se donner bonne conscience quand on sait que la Chine fait un usage massif de l’IA pour la notation sociale ou que toutes les armées du monde ont des armes contenant de l’IA.

Bard, l’IA de Google qui renifle vos données

A noter que l’intelligence artificielle lancée par Google, Bard, va bientôt renifler les documents et les mails des utilisateurs des produits du géant américain. Google explique qu’il s’agit d’une évolution pratique et positive pour ses clients. Dans sa dernière mise à jour, Bard Extension, l’Intelligence Artificielle de la firme Californienne peut se connecter à Maps, YouTube, Gmail et à votre calendrier Google. Bard va tout voir, tout savoir afin de mieux répondre à vos requêtes de recherche.

Google indique que cette « connexion entre Bard et vos autres applications n’était pas visible par des humains, mais uniquement utilisée pour entraîner Bard au quotidien […] Les informations ne seraient pas utilisées pour entraîner ses modèles ou pour vous noyer sous les publicités ciblées« . Espérons que cela ne sera pas comme son concurrent Microsoft dont plusieurs millions de documents utilisés pour entrainer son IA ont fuité. Le blog ZATAZ, référence de l’actualité dédiée à la cybersécurité, a expliqué dans son émission sur Twitch [zataz émission sur Twitch] avoir vu en vente dans un espace pirate les données IA de Microsoft.

A noter qu’il est possible de bloquer l’IA Bard de Google. Pour cela, ouvrez un navigateur Web et accédez à la page « Gérer les applications et services tiers ayant accès à votre compte ». Connectez-vous à votre compte Google. Dans la liste des applications et services, recherchez « Bard ». Sélectionnez le bouton « Supprimer l’accès ». Voilà, Bard ne pourra plus accéder à vos applications Google. Je vous conseille de vérifier dans chaque application Google que Bard est bien devenu sourd, aveugle et muet. Pour cela, rendez-vous vous dans les paramètres de vos applications. Recherchez « Bard ».

Geneva, le priseur de censure ?

La censure d’Internet par des gouvernements autoritaires interdit un accès libre à l’information. Des millions de personnes dans le monde bloquées. Des chercheurs viennent de présenter Geneva, un tueur de censure ?

Les tentatives pour échapper à une telle censure se sont transformées en une course sans cesse croissante pour suivre le rythme de la censure sur Internet, en constante évolution et de plus en plus sophistiquée. Les régimes de censure ont eu l’avantage dans cette course. Les chercheurs doivent chercher manuellement des moyens de contourner cette censure. Processus qui prend beaucoup de temps.

Des universitaires américains viennent de présenter à Londres Geneva. Un algorithme capable de contourner les outils mis en place pour bloquer la liberté d’expression sur la toile.

De nouveaux travaux dirigés par des informaticiens de l’Université du Maryland vont-ils modifier l’équilibre de la course à la censure ?

Les chercheurs ont développé un outil baptisé Genetic Evasion (Geneva).

Cette IA apprend automatiquement à contourner la censure.

Elle a été testée en Chine, en Inde et au Kazakhstan. Genèva a trouvé des dizaines de façons de contourner la censure en exploitant des bogues.

Des « accès » pratiquement impossibles à trouver manuellement.

Cette intelligence artificielle a été présentée lors de la 26e conférence sur la sécurité des ordinateurs et des communications (ACM – Londres). « Avec Genèva nous avons pour la première fois, un avantage majeur dans cette course, déclare Dave Levin, professeur assistant en informatique à l’UMD. Geneva représente le premier pas contre les censeurs. »

Et gagner cette course signifie permettre la liberté de parole à des millions d’utilisateurs à travers le monde.

Une IA pour combattre le harcèlement sexuel et la discrimination au travail

Les solutions d’Intelligence Artificielle (IA) dédiées aux ressources humaines, que la plupart des entreprises d’envergure internationale développent ou utilisent, sont régulièrement pointées du doigt pour leurs systèmes jugés discriminatoires. A contrario à la Direction des Ressources Humaines du comté de Los Angeles, l’IA est du côté de ceux qui croient en l’équité.  Au cours du 1er trimestre de 2019, un système d’enquête basé sur l’IA, capable de détecter les comportements d’employés suggérant un risque futur, en termes de harcèlement sexuel et de discrimination en entreprise, sera déployé dans le comté de Los Angeles.

La DRH du comté de Los Angeles travaille sur la mise à jour de ses normes et procédures relatives aux relations interpersonnelles, afin de protéger ses 111 000 employés contre tout préjudice. « Nous souhaitons déployer l’Intelligence Artificielle et l’automatisation des processus pour obtenir des informations sur les problèmes comportementaux », explique Murtaza Masood, DHR Assistant Director au comté de Los Angeles. « Mais l’objectif n’est pas le suivi et le profilage individualisés, et c’est là que se croisent les lignes éthique et juridique. La technologie n’est pas encore là pour prédire le comportement individuel », ajoute-t-il.

L’objectif de cette IA est de rechercher les facteurs qui contribuent à certains comportements, de détecter des schémas comportementaux, ainsi que la formation de tendances au fur et à mesure qu’elles apparaissent, afin d’être proactif et de réagir avant, et non pas après le méfait. A terme, cela permettra de créer des normes et des formations internes visant à encourager les bons comportements et à minimiser les mauvais.

Pour ce faire, le comté suit l’activité des employés sur leurs ordinateurs professionnels et leurs e-mails, grâce à la technologie d’OpenText. « L’intelligence artificielle et l’automatisation des processus peuvent réellement aider les enquêteurs – entreprises ou forces de l’ordre – à mieux comprendre et identifier les schémas comportementaux. Cependant, le suivi personnalisé dépasse la technologie disponible et créerait des problèmes éthiques. OpenText collabore avec le comté de Los Angeles afin d’appliquer des analyses permettant d’améliorer les enquêtes sur le harcèlement, d’accélérer le processus de résolution et de donner au comté le pouvoir d’agir de manière plus proactive pour éviter les situations problématiques, » exlique Zachary Jarvinen, head of technology strategy for AI and analytics, OpenText.

Ce système va permettre de migrer entièrement en ligne les enquêtes sur le harcèlement sexuel et la discrimination, et de les analyser par voie numérique. En effet à ce jour, certains dossiers existent uniquement sous format papier.  Il s’agit d’une application conçue sur mesure, fondée sur la plateforme OpenText Documentum xCP intégrant sa technologie Brava!.