Archives par mot-clé : intelligence artificielle

Pékin accuse Nvidia : soupçons de backdoors dans les puces IA H20

Nvidia dans le viseur de la Chine : Pékin suspecte ses puces IA H20 d’abriter des backdoors, ravivant la guerre technologique sur fond de cybersurveillance mondiale.

 

Rejoignez-nous sur les réseaux sociaux

Aucun spam – Désinscription en un clic – Vie privée respectée

 

La Chine vient d’interpeller Nvidia, géant américain des semi-conducteurs, au sujet de présumés backdoors dans ses puces H20 destinées à l’intelligence artificielle locale. Pékin s’appuie sur de nouvelles lois sur la cybersécurité pour exiger transparence et garanties techniques, tandis que Washington impose, de son côté, des restrictions et des mécanismes de contrôle dans les puces exportées. Cet épisode cristallise la montée en puissance des tensions entre les deux superpuissances numériques, où la sécurité, la souveraineté et la capacité de renseignement s’entremêlent. Retour sur les dessous d’un affrontement qui redéfinit les équilibres du cyberespace mondial.

L’ombre du renseignement : Pékin convoque Nvidia

Au matin du 31 juillet 2025, une rumeur parcourt les couloirs feutrés des grandes universités technologiques de Pékin. Dans un communiqué solennel, la Cyberspace Administration of China (CAC), autorité suprême du cyberespace, annonce avoir convoqué l’un des plus puissants fabricants mondiaux de puces d’intelligence artificielle : Nvidia.

La raison officielle ? La présence de « vulnérabilités de sécurité sérieuses » – des backdoors selon l’administration – dans les puces H20, version modifiée et bridée, spécialement conçue pour satisfaire aux exigences américaines en matière d’exportation vers la Chine.

Derrière la formule administrative, la réalité est bien plus explosive. Car depuis 2023, le secteur mondial des semi-conducteurs est l’objet de toutes les tensions, chaque acteur jouant une partie d’échecs à très haut risque, où chaque mouvement peut avoir des conséquences stratégiques majeures.

Washington, dans une course effrénée à la suprématie technologique, a multiplié les restrictions à l’exportation, craignant que ses technologies ne viennent renforcer la puissance militaire et cybernétique chinoise. Mais la diplomatie du silicium ne se limite pas à un simple jeu de barrières douanières. Depuis quelques mois, la législation américaine va plus loin : avec le Chip Security Act, toute puce IA exportée doit embarquer des fonctions de traçage GPS, de localisation et de coupure à distance.

Pour Pékin, c’est une déclaration de guerre numérique à peine voilée.

La cyberguerre dans le silicium : l’art du soupçon et de la riposte

La convocation de Nvidia par les autorités chinoises n’est pas un geste isolé. Elle s’inscrit dans une stratégie globale, où la souveraineté numérique est devenue une priorité nationale. La Chine, qui ne cesse de rappeler son attachement à la « cybersécurité et à la protection des données des utilisateurs », applique strictement ses lois : Cybersecurity Law, Data Security Law et Personal Information Protection Law.

Au centre de l’enquête, une question : les puces H20, qui font tourner nombre d’algorithmes d’intelligence artificielle en Chine, sont-elles vraiment sûres ?

En creux, la peur d’un sabotage à distance. Si les puces américaines comportent effectivement des modules de tracking ou de télécommande, Washington pourrait, en cas de crise, désactiver à volonté une partie de l’infrastructure numérique chinoise. Un scénario digne de la cyberguerre froide, mais qui devient, à la lumière des technologies actuelles, de plus en plus crédible.

La réponse de Nvidia ne s’est pas fait attendre. L’entreprise, par la voix d’un de ses porte-paroles, nie toute présence de backdoor : « La cybersécurité est essentielle pour nous. Nvidia ne place aucune porte dérobée dans ses puces permettant un accès ou un contrôle à distance par un tiers. »

Mais la défiance est tenace, et pour cause : dans le même temps, le marché noir s’empare du sujet. Selon les estimations, pour plus d’un milliard de dollars (environ 920 millions d’euros) de puces Nvidia, parfois des modèles officiellement bannis comme les B200, H10 ou H200, auraient trouvé leur chemin vers la Chine via des circuits parallèles. Kits complets, racks prêts à l’emploi, tout s’arrache sous le manteau – preuve que le besoin de puissance de calcul reste insatiable, quelles que soient les réglementations.

Sécurité nationale, souveraineté et rivalité : le vrai visage de la crise

Ce bras de fer n’est pas qu’une affaire de technique : il symbolise la nouvelle géopolitique du renseignement à l’ère de l’IA. En exigeant de Nvidia la remise de « preuves », de « documents techniques » et d’« explications détaillées », Pékin affiche sa volonté de contrôler la chaîne technologique, mais aussi de démontrer à ses propres acteurs économiques la nécessité d’une indépendance stratégique.

Les failles supposées des puces H20 ne sont en réalité que l’arbre qui cache la forêt. Car malgré les efforts de géants nationaux comme Huawei ou SMIC, la Chine reste encore dépendante, pour les applications de pointe, des technologies américaines. Le lancement du dernier notebook Huawei, salué comme une avancée nationale, a aussi révélé le retard technologique du pays – des générations entières de retard, difficilement comblables sans coopération internationale.

La bataille se joue également sur le terrain du renseignement : dans le cyberespace, tout composant étranger est désormais considéré comme une menace potentielle. L’incertitude est totale. Qui détient vraiment la clé du contrôle de ces puces ? Les circuits imprimés sont-ils de simples outils, ou des armes silencieuses, prêtes à être activées à distance ?

Pour Pékin, la réponse est claire : seule une maîtrise totale de la chaîne technologique, du design à la production, en passant par le contrôle des codes sources, permettra de garantir la sécurité nationale. En attendant, la Chine redouble d’efforts pour stimuler son industrie, investir massivement dans la recherche et l’innovation, et limiter sa dépendance à l’Occident.

Mais la tâche est titanesque. Face à une Silicon Valley toujours à la pointe, les ambitions chinoises se heurtent à des décennies de domination américaine. Le feuilleton des puces Nvidia H20 n’est qu’un épisode de plus dans une série au long cours : celle de la conquête, puis de la sécurisation, du cyberespace mondial.

L’intelligence artificielle redéfinit l’emploi et la formation en cybersécurité

L’automatisation progresse rapidement dans le secteur de la cybersécurité. Selon une récente enquête de l’ISC2, près d’un tiers des entreprises ont déjà intégré l’intelligence artificielle dans leurs opérations, tandis que 42 % évaluent ou testent actuellement ces outils.

Rejoignez-nous sur les réseaux sociaux

Aucun spam – Désinscription en un clic – Vie privée respectée

 

L’enquête de l’ISC2 [lien en bas de l’article], l’une des plus importantes organisations mondiales de professionnels certifiés en cybersécurité, met en lumière l’essor de l’intelligence artificielle dans les stratégies de défense informatique. Ce développement concerne principalement les grandes entreprises, notamment celles comptant plus de 10 000 salariés, ainsi que les sociétés de services informatiques et du secteur industriel. Les administrations publiques apparaissent à la traîne, avec seulement 16 % des structures ayant déjà franchi le cap de l’intégration de l’intelligence artificielle dans leurs dispositifs de cybersécurité.

L’adoption rapide de l’IA s’explique avant tout par la recherche de gains d’efficacité et de réactivité. Selon les résultats de l’enquête, sept équipes sur dix ayant déjà recours à l’IA constatent une nette amélioration de la productivité dans la détection d’intrusions, la surveillance des réseaux et la gestion des vulnérabilités. « Sept équipes sur dix ayant adopté l’IA signalent une hausse sensible de leur productivité. »
La majorité des usages recensés concernent cinq axes principaux : la surveillance réseau et la détection des intrusions, la protection et la réponse aux incidents sur les terminaux, la gestion des vulnérabilités, la simulation des menaces et le test de sécurité. Ces activités étaient auparavant le terrain d’apprentissage privilégié des professionnels débutants du secteur.

Les entreprises interrogées font état d’un intérêt croissant pour l’automatisation, bien que celle-ci s’accompagne d’une certaine prudence. La plupart des groupes sondés précisent qu’ils sont encore en phase de test, cherchant à évaluer les risques et à mesurer les bénéfices réels avant un déploiement généralisé. Toutefois, les responsables de la sécurité de l’information estiment que l’intégration de l’IA devient progressivement incontournable, notamment face à la sophistication croissante des cybermenaces. « Plus de 40 % des équipes sont actuellement en phase de test ou d’évaluation de solutions d’intelligence artificielle. »

Les investissements dans l’IA sont majoritairement concentrés dans les grandes entreprises, qui disposent des moyens financiers et humains nécessaires pour explorer ces nouvelles technologies. Les PME et les administrations restent plus en retrait, invoquant des contraintes budgétaires, un manque de compétences internes et des doutes quant à la maturité des outils disponibles. Ce clivage illustre l’inégalité d’accès à l’automatisation dans le secteur de la cybersécurité.

Un impact direct sur l’emploi débutant et la formation

La progression de l’IA dans les équipes de cybersécurité influe déjà sur la gestion des ressources humaines, en particulier concernant les profils débutants. Selon l’enquête, 52 % des répondants considèrent que l’automatisation pourrait réduire le besoin de recruter des salariés en début de carrière. Par ailleurs, 21 % des entreprises déclarent avoir déjà modifié leur politique de recrutement à la suite de l’introduction d’outils d’IA.

Ce changement suscite des inquiétudes quant à l’avenir des jeunes professionnels du secteur. Les postes d’analyste junior, de support réseau ou de veille sécurité, souvent premiers tremplins dans la filière, risquent d’être moins nombreux à mesure que les solutions automatisées s’imposent. « Plus d’une entreprise sur deux estime que l’IA va limiter le recours aux débutants dans la profession. »

Les experts interrogés rappellent que la formation pratique sur le terrain, au contact des menaces réelles, constitue une étape déterminante dans la montée en compétence des futurs spécialistes. L’absence de cette expérience pourrait freiner le développement de l’intuition, du sens critique et de la capacité à appréhender la complexité des attaques sophistiquées. Certains alertent également sur le risque de voir émerger un déficit de profils qualifiés à moyen terme, susceptible de renforcer la pression sur les équipes expérimentées et d’augmenter les coûts de recrutement.

 

⏳ Jusqu’où tolérerez-vous d’être piraté ?

CTI ZATAZ – Scannez les menaces vous concernant avant qu’il ne soit trop tard.

✅ Scanner mes risques

Confidentiel. Instantané. Sécurisé. Zéro intermédiaire. 100 % Made in France.

L’enquête indique aussi que l’automatisation transforme la nature même des tâches confiées aux débutants. À la place des activités répétitives, comme l’analyse manuelle de logs ou la surveillance continue, les jeunes professionnels se voient confier des missions plus techniques ou hybrides, à l’interface entre l’expertise cybersécurité et la gestion d’outils d’intelligence artificielle.

Face à cette évolution, la plupart des organisations affirment réévaluer leurs programmes de formation interne afin de mieux préparer les recrues aux réalités du nouveau paysage technologique. Les cursus intègrent désormais des modules dédiés à la compréhension du fonctionnement des systèmes automatisés, à l’entraînement des modèles d’IA et à la détection des biais potentiels dans les analyses produites par ces outils.

Des métiers émergents et une adaptation des parcours professionnels

Malgré les incertitudes, de nouvelles opportunités apparaissent. Près de 44 % des entreprises interrogées déclarent que l’intégration de l’intelligence artificielle n’a, à ce stade, eu aucun effet sur leurs politiques de recrutement. De plus, 31 % estiment que l’IA pourrait favoriser l’émergence de postes hybrides, combinant compétences en cybersécurité et maîtrise des outils d’automatisation.

Des fonctions inédites sont en cours de structuration dans de nombreuses équipes : analyste SOC avec appui de l’IA, junior chargé de l’entraînement des modèles, assistant à la vérification des systèmes automatisés, spécialiste du respect éthique des algorithmes, assistant dédié à la maintenance et à l’évolution des processus automatisés, analyste de sécurité cloud épaulé par des plateformes intelligentes.

Cette recomposition du marché du travail pousse les entreprises à revoir leur politique de gestion des talents. Certaines mettent l’accent sur le développement de cursus internes orientés vers l’intelligence artificielle appliquée à la cybersécurité. D’autres multiplient les partenariats avec les écoles d’ingénieurs et les universités afin d’adapter les programmes de formation initiale.

Ce mouvement vise à garantir la continuité des savoir-faire au sein des équipes et à sécuriser l’évolution de la filière. Les organisations les plus avancées investissent également dans la formation continue, notamment pour les salariés déjà en poste, afin de faciliter la transition vers des postes à plus forte valeur ajoutée ou en lien direct avec l’automatisation.

Dans le même temps, les acteurs publics et privés réfléchissent à la manière de préserver les filières d’entrée dans la profession, pour éviter l’apparition d’un goulot d’étranglement au niveau du recrutement de nouveaux spécialistes. Les enjeux sont d’autant plus cruciaux que la demande de compétences en cybersécurité reste largement supérieure à l’offre, en particulier pour les profils experts capables de superviser ou d’auditer des systèmes automatisés.

L’automatisation, un enjeu stratégique pour la pérennité de la cybersécurité

L’intelligence artificielle s’impose progressivement comme un levier majeur d’efficacité dans la lutte contre les cybermenaces. Les solutions automatisées permettent de traiter des volumes de données considérables, d’accélérer la détection des incidents et de renforcer la capacité de réaction des équipes. Toutefois, cette évolution pose la question du maintien des compétences fondamentales, indispensables à la compréhension fine des risques et à la conduite d’investigations complexes.

La structuration des nouveaux métiers, l’adaptation des parcours de formation et la préservation de l’apprentissage sur le terrain constituent les principaux défis identifiés par les entreprises. Les experts du secteur soulignent que la gestion de la transition vers une cybersécurité automatisée doit s’effectuer de manière progressive et réfléchie, afin d’éviter toute rupture dans la chaîne de compétences.

L’enquête de l’ISC2 révèle également que l’automatisation n’a pas vocation à se substituer entièrement à l’humain. Les tâches les plus complexes, la supervision des systèmes intelligents et la prise de décision stratégique restent du ressort des professionnels expérimentés. L’IA apparaît davantage comme un outil d’assistance, permettant d’augmenter la productivité et d’alléger la charge de travail, tout en ouvrant de nouvelles perspectives de carrière.

À mesure que l’écosystème évolue, les entreprises sont amenées à redéfinir les contours de leurs équipes de cybersécurité. Cela suppose une gestion fine de l’équilibre entre automatisation, formation des jeunes talents et valorisation des compétences internes.

Si les investissements dans l’IA sont aujourd’hui portés par les grands groupes, il est probable que les outils automatisés deviendront progressivement accessibles à un plus grand nombre d’organisations.

Rejoignez-nous sur les réseaux sociaux

Aucun spam – Désinscription en un clic – Vie privée respectée

Royaume-uni et openai signent un partenariat pour la sécurité et l’innovation de l’intelligence artificielle

Londres et OpenAI ont signé un accord de partenariat pour renforcer la recherche sur la sécurité de l’intelligence artificielle et explorer de potentielles opportunités d’investissements dans l’infrastructure nationale. Le gouvernement britannique prévoit d’injecter 1 milliard de livres sterling (1,18 milliard d’euros) dans le développement de capacités de calcul destinées à stimuler l’essor de l’IA.

Rejoignez-nous sur les réseaux sociaux

Aucun spam – Désinscription en un clic – Vie privée respectée

 

« L’IA deviendra un vecteur clé des changements à mener à travers tout le pays, qu’il s’agisse de réformer le National Health Service, de lever les obstacles à l’accès ou de soutenir la croissance économique », a déclaré Peter Kyle, ministre britannique chargé de la technologie.

Le partenariat conclu avec OpenAI vise à explorer, selon les termes du gouvernement, des applications concrètes de l’intelligence artificielle dans des domaines stratégiques comme la justice, la défense, la sécurité et l’éducation. Ce rapprochement intervient alors que le Royaume-Uni cherche à consolider sa position de leader européen du secteur et à rivaliser avec les États-Unis et la Chine, qui dominent largement la course mondiale à l’IA.

Accélération de l’investissement et ambitions gouvernementales

Le plan dévoilé par le gouvernement britannique prévoit une multiplication par vingt de la capacité de calcul publique disponible sur le territoire au cours des cinq prochaines années. Cette ambition est intégrée à l’initiative du Premier ministre Keir Starmer, dont l’objectif est de transformer le pays en une superpuissance de l’intelligence artificielle. « Lancement du partenariat stratégique Royaume-Uni – OpenAI pour l’IA », a résumé le communiqué officiel.

Parmi les axes majeurs, le programme comprend des investissements dans la recherche sur les réseaux de neurones, l’amélioration de l’efficacité de la sphère publique, le développement de « zones de croissance IA » réparties géographiquement, et le soutien à la création de centres de traitement de données et de pôles scientifiques. Les autorités britanniques attendent de ces mesures un impact significatif sur l’économie du pays à moyen et long terme.

Selon les chiffres publiés, la réalisation du plan devrait permettre de générer 47 milliards de livres sterling (environ 55,3 milliards d’euros) de valeur économique supplémentaire sur dix ans. Plusieurs entreprises privées ont d’ores et déjà promis d’investir 17 milliards de dollars (environ 15,7 milliards d’euros) et de créer 13 250 emplois afin de soutenir le déploiement de la stratégie nationale d’intelligence artificielle.

« Le secteur de l’IA au Royaume-Uni est évalué à 72,3 milliards de livres sterling (85,1 milliards d’euros), positionnant le pays au troisième rang mondial derrière les États-Unis et la Chine », a souligné le ministère de la Technologie.

⏳ Jusqu’où tolérerez-vous d’être piraté ?

CTI ZATAZ – Scannez les menaces vous concernant avant qu’il ne soit trop tard.

✅ Scanner mes risques

Confidentiel. Instantané. Sécurisé. Zéro intermédiaire. 100 % Made in France.

Le Royaume-Uni est aujourd’hui le principal marché de l’intelligence artificielle en Europe ?

Le dynamisme du secteur se traduit par la présence de plus de 2 300 entreprises technologiques spécialisées dans l’intelligence artificielle et bénéficiant d’investissements en capital-risque. Leur valorisation cumulée a atteint 230 milliards de dollars (213 milliards d’euros) au premier trimestre 2025. Le Royaume-Uni recense également huit “licornes” de l’IA, soit des start-ups valorisées à plus de 1 milliard de dollars (929 millions d’euros). Seuls les États-Unis et la Chine font mieux sur ce critère.

L’activité d’investissement dans la tech britannique s’est maintenue à un niveau élevé, avec 1,03 milliard de dollars (956 millions d’euros) levés par les start-ups spécialisées dans l’IA au premier trimestre 2025, soit un record sur les trois dernières années.

L’un des atouts majeurs du pays réside dans son écosystème de recherche et développement. Des universités et instituts de pointe, tel l’Institut Alan Turing, forment des experts de haut niveau et mènent des recherches avancées dans le domaine. Le pôle technologique londonien attire aussi bien des acteurs nationaux qu’internationaux : Anthropic, OpenAI et Palantir ont choisi la capitale britannique comme base de leurs opérations européennes.

« 76 % des dirigeants d’entreprises technologiques britanniques observent un impact positif de l’IA sur la croissance de leur activité », révèle un rapport officiel.

Les technologies d’intelligence artificielle sont désormais adoptées dans tous les secteurs, du financement à la santé, en passant par la cybersécurité, l’industrie, l’éducation et la création artistique.

Des champions nationaux et une stratégie de souveraineté numérique

L’écosystème britannique compte plusieurs start-ups à succès mondial. DeepMind, fondée à Londres en 2010, s’est imposée comme un pionnier du deep learning et de l’intelligence artificielle. Rachetée en 2014 par Google pour un montant estimé entre 500 et 600 millions de dollars (de 464 à 557 millions d’euros), la société s’est illustrée par la création d’algorithmes capables de battre l’humain dans des jeux de stratégie complexes.

Dans le secteur des biotechnologies et de la santé, BenevolentAI et Exscientia utilisent l’IA pour accélérer la découverte de nouveaux médicaments et collaborent avec de grands laboratoires pharmaceutiques mondiaux.

La société Wayve, issue de l’université de Cambridge, développe à Londres depuis 2017 une approche basée sur “l’intelligence incarnée” (Embodied AI) pour l’apprentissage de la conduite autonome. Dans l’industrie du hardware, Graphcore, start-up fondée à Bristol en 2016, a conçu des processeurs spécifiquement optimisés pour l’IA et levé près de 700 millions de dollars (650 millions d’euros) auprès d’investisseurs majeurs.

Stability AI, également basée à Londres, s’est fait connaître dès 2019 avec la création de Stable Diffusion, un modèle génératif d’images à partir de descriptions textuelles. La société a réuni 101 millions de dollars (94 millions d’euros) de financement en 2022 pour une valorisation à 1 milliard de dollars (929 millions d’euros).

Intégration de l’IA dans la défense et la sécurité nationale

Le développement de l’intelligence artificielle est une priorité affirmée du gouvernement britannique. La National AI Strategy, publiée en septembre 2021, définit trois axes : investissement massif dans la recherche, généralisation de l’adoption dans l’économie et encadrement éthique et réglementaire.

En 2022, le ministère de la Défense a publié sa propre stratégie de l’IA, considérant cette technologie comme un élément clé des armées du futur. Le dernier Strategic Defence Review de 2025 désigne l’intelligence artificielle comme “composante fondamentale de la guerre moderne” et juge indispensable son intégration systématique pour préserver la supériorité opérationnelle.

Si l’IA était d’abord envisagée comme un outil de soutien, la doctrine actuelle prévoit sa généralisation à tous les niveaux, du renseignement à la conduite des opérations sur le terrain. L’une des priorités consiste à développer des modèles linguistiques capables d’accélérer la prise de décision en exploitant en temps réel les données issues du renseignement et du champ de bataille.

Le ministère de la Défense ambitionne de créer une digital targeting network : un réseau unifié d’information, alimenté par des capteurs multiples (satellites, drones, radars, cyber renseignement), pour identifier et répartir automatiquement les cibles prioritaires entre les différentes armes.

Ce système, basé sur l’IA, doit permettre de passer d’une approche fragmentée à des “opérations centrées sur la donnée”, avec une capacité de réaction et de décision accrue pour les forces armées.

Les forces britanniques expérimentent déjà de nombreux prototypes de systèmes autonomes, qu’il s’agisse de drones aériens, de robots terrestres ou de véhicules sous-marins. La Royal Air Force travaille avec ses partenaires industriels sur le projet Tempest (Future Combat Air System), un avion de combat de sixième génération intégrant l’intelligence artificielle pour l’aide à la décision et le pilotage de drones en essaim.

Les forces terrestres testent des concepts d’intégration de drones de reconnaissance et de plateformes robotisées pour l’appui-feu, avec une première détection et désignation des cibles assurées par des algorithmes d’IA. La marine, quant à elle, investit dans des projets de navires autonomes et de sous-marins sans équipage pour la surveillance et la neutralisation de mines.

La prochaine génération de grandes plateformes militaires (avions de combat, navires) sera conçue pour fonctionner en équipages hybrides, combinant opérateurs humains et systèmes d’IA. Les porte-avions en projet devraient ainsi intégrer une proportion croissante de drones contrôlés par IA en coopération avec les avions pilotés.

Dans le champ de la cybersécurité et de la guerre électronique, les réseaux neuronaux occupent une place croissante. Une unité spécialisée dans la guerre électronique a été créée en 2023 pour renforcer la détection automatique et la neutralisation des cyberattaques, la protection des réseaux militaires et la gestion optimisée des brouillages et contre-mesures électroniques.

L’intelligence artificielle permettra d’analyser en temps réel des millions d’événements sur les réseaux militaires, de détecter les comportements suspects et de piloter automatiquement les opérations de perturbation des communications et radars adverses.

L’usage de l’IA s’étend aussi à l’information warfare, avec la surveillance des réseaux sociaux pour identifier les campagnes de désinformation et la création de simulateurs avancés pour l’entraînement à la cybersécurité.

Le Royaume-Uni coordonne ses efforts avec les partenaires de l’Organisation du traité de l’Atlantique nord (OTAN), ayant contribué à l’adoption de principes éthiques pour l’utilisation de l’IA dans les armées. Londres insiste sur le respect de la sécurité, de la stabilité et des valeurs démocratiques dans le déploiement de ces technologies.

Un secteur en pleine structuration malgré des défis persistants

En janvier 2025, le Defence Select Committee du Parlement a publié un rapport sur le développement du potentiel de l’IA de défense, soulignant que le secteur britannique reste à un stade précoce et doit être davantage soutenu par le ministère pour concrétiser ses ambitions.

« Le Royaume-Uni dispose d’un potentiel pour devenir un pôle mondial de l’IA de défense, mais le secteur demeure sous-développé et requiert des mesures incitatives », note le rapport parlementaire.

Le comité recommande d’accélérer la mise en œuvre concrète des projets, afin de réduire l’écart entre la stratégie affichée et la réalité opérationnelle. L’IA est encore perçue comme un domaine expérimental au sein des forces armées, alors même qu’elle a démontré son efficacité dans des conflits récents, notamment en Ukraine pour le traitement des données de renseignement et la gestion des drones.

Le gouvernement a assuré vouloir répondre à ces recommandations, précisant que la dernière revue stratégique de défense vise justement une intégration systématique de l’IA dans l’ensemble des activités du ministère de la Défense.

Les débats d’experts publiés en novembre 2024 ont rappelé les perspectives ouvertes par l’IA sur le champ de bataille, tout en soulignant la nécessité d’une approche pragmatique et d’un investissement massif pour transformer les intentions politiques en résultats concrets.

Rejoignez-nous sur les réseaux sociaux

Aucun spam – Désinscription en un clic – Vie privée respectée

YouTube impose des règles pour les contenus générés par l’IA

La révolution de l’intelligence artificielle (IA) est en train de bouleverser notre monde à bien des égards, et l’une des dernières frontières à être touchée est l’industrie du contenu vidéo en ligne. YouTube, la plate-forme vidéo la plus importante du monde, est en train de prendre des mesures pour réglementer ces nouvelles formes de médias créés par des machines intelligentes. Dans cet article, nous allons examiner les nouvelles règles que YouTube a mises en place pour encadrer les contenus générés par l’IA.

L’IA à l’assaut de YouTube ? Il est indéniable que l’IA est devenue une force majeure dans le monde de la création de contenu. Des algorithmes sophistiqués peuvent désormais générer des vidéos, des images et même des textes de manière quasi indiscernable de ce que produiraient des créateurs humains. YouTube, anticipant une augmentation future du nombre de vidéos créées par des machines, a décidé d’établir des directives claires pour ces types de contenus.

La transparence en premier

Une des règles majeures mises en place par YouTube est la nécessité de transparence. Les créateurs doivent désormais indiquer clairement si une vidéo a été générée par l’IA ou si elle contient des éléments créés ou adaptés par des algorithmes. Cela est particulièrement important pour les contenus qui semblent réalistes, car il est essentiel que les téléspectateurs sachent si des outils d’IA ont été utilisés dans leur création.

Un porte-parole de YouTube a expliqué cette décision en déclarant : « Nous voulons que les utilisateurs aient un contexte lorsqu’ils regardent un contenu réaliste. Cela leur permet de savoir si des outils d’IA et d’autres changements synthétiques ont été utilisés pour le créer. » Cette mesure vise à éviter que les téléspectateurs ne soient induits en erreur par des vidéos qui semblent être le fruit du travail humain.

Les conséquences du non-respect des règles

YouTube prend ces nouvelles règles très au sérieux. Les créateurs qui ne respectent pas l’obligation d’indiquer l’utilisation de l’IA dans leurs vidéos peuvent être bannis de la plate-forme. Cette mesure vise à garantir l’intégrité et la confiance des utilisateurs dans le contenu qu’ils consomment sur YouTube.

YouTube n’est pas la première plate-forme à devoir faire face à la question de la réalité des contenus générés par l’IA, et elle ne sera certainement pas la dernière. Avec l’avancée rapide des outils d’IA, la distinction entre ce qui est « réel » et ce qui ne l’est pas devient de plus en plus floue. Les réseaux sociaux tels que TikTok et Instagram sont depuis longtemps critiqués pour l’utilisation de filtres d’IA qui modifient l’apparence des utilisateurs. Cela peut créer des idéaux de beauté irréalistes, en particulier pour les adolescents qui sont de grands consommateurs de ces plateformes.

De plus, les outils d’IA sophistiqués peuvent être utilisés pour créer des « deepfakes », des vidéos hyper-truquées dans lesquelles des personnalités politiques ou célèbres disent des choses qu’elles n’ont jamais dites. YouTube a déjà mis en place des outils pour signaler et supprimer de telles vidéos.

L’IA, l’arme ultime pour l’armée américaine

L’ancien chef du Comité interarmées des chefs d’état-major unis des États-Unis, le général Mark Milley, affirme que l’intelligence artificielle (IA) deviendra un élément clé pour que l’armée américaine.

L’Intelligence Artificielle, la nouvelle arme indispensable de l’armée américaine. Le général à la retraite Mark Milley estime que l’intelligence artificielle sera un élément essentiel pour permettre à l’armée américaine de garder une longueur d’avance sur ses adversaires potentiels. « Notre armée va devoir changer si nous voulons continuer à être supérieurs à toutes les autres armées sur Terre » a déclaré l’ancien président des chefs d’état-major interarmées lors d’un entretien avec l’émission « 60 Minutes ».

Selon Milley, les guerres futures seront radicalement différentes avec le développement apparemment rapide de la technologie de l’IA. « Au cœur de toutes ces capacités se trouve la capacité de l’IA à accélérer la compréhension de circonstances difficiles et à réagir rapidement avec des capacités de frappe de précision, exprime Christopher Alexander, ancien opérateur des opérations de guerre de l’information de l’armée. Cela sera transféré des processus du personnel jusqu’au champ de bataille.« 

Bref, Joshua et Skynet risquent de pointer le bout de leurs nez bien plus rapidement que l’a prédit le cinéma !

Une IA pour combattre le harcèlement sexuel et la discrimination au travail

Les solutions d’Intelligence Artificielle (IA) dédiées aux ressources humaines, que la plupart des entreprises d’envergure internationale développent ou utilisent, sont régulièrement pointées du doigt pour leurs systèmes jugés discriminatoires. A contrario à la Direction des Ressources Humaines du comté de Los Angeles, l’IA est du côté de ceux qui croient en l’équité.  Au cours du 1er trimestre de 2019, un système d’enquête basé sur l’IA, capable de détecter les comportements d’employés suggérant un risque futur, en termes de harcèlement sexuel et de discrimination en entreprise, sera déployé dans le comté de Los Angeles.

La DRH du comté de Los Angeles travaille sur la mise à jour de ses normes et procédures relatives aux relations interpersonnelles, afin de protéger ses 111 000 employés contre tout préjudice. « Nous souhaitons déployer l’Intelligence Artificielle et l’automatisation des processus pour obtenir des informations sur les problèmes comportementaux », explique Murtaza Masood, DHR Assistant Director au comté de Los Angeles. « Mais l’objectif n’est pas le suivi et le profilage individualisés, et c’est là que se croisent les lignes éthique et juridique. La technologie n’est pas encore là pour prédire le comportement individuel », ajoute-t-il.

L’objectif de cette IA est de rechercher les facteurs qui contribuent à certains comportements, de détecter des schémas comportementaux, ainsi que la formation de tendances au fur et à mesure qu’elles apparaissent, afin d’être proactif et de réagir avant, et non pas après le méfait. A terme, cela permettra de créer des normes et des formations internes visant à encourager les bons comportements et à minimiser les mauvais.

Pour ce faire, le comté suit l’activité des employés sur leurs ordinateurs professionnels et leurs e-mails, grâce à la technologie d’OpenText. « L’intelligence artificielle et l’automatisation des processus peuvent réellement aider les enquêteurs – entreprises ou forces de l’ordre – à mieux comprendre et identifier les schémas comportementaux. Cependant, le suivi personnalisé dépasse la technologie disponible et créerait des problèmes éthiques. OpenText collabore avec le comté de Los Angeles afin d’appliquer des analyses permettant d’améliorer les enquêtes sur le harcèlement, d’accélérer le processus de résolution et de donner au comté le pouvoir d’agir de manière plus proactive pour éviter les situations problématiques, » exlique Zachary Jarvinen, head of technology strategy for AI and analytics, OpenText.

Ce système va permettre de migrer entièrement en ligne les enquêtes sur le harcèlement sexuel et la discrimination, et de les analyser par voie numérique. En effet à ce jour, certains dossiers existent uniquement sous format papier.  Il s’agit d’une application conçue sur mesure, fondée sur la plateforme OpenText Documentum xCP intégrant sa technologie Brava!.

Ross : La justice prochainement rendue par une intelligence artificielle ?

Des chercheurs ont mis en place une intelligence artificielle baptisée ROSS qui sera capable, dans les mois à venir, de remplacer un avocat.

Comme si le monde n’était pas assez inquiet à la vue de l’automatisation et de la création d’intelligence artificielle capable de remplacer l’homme dans les taches professionnelles du quotidien. Les avocats vont pouvoir commencer à trembler. La semaine dernière, le cabinet d’avocats Baker & Hostetler a annoncé mettre en place une intelligence artificielle exclusive signée IBM. Une technologie baptisée Ross.

ROSS est le premier avocat artificiellement intelligent du monde. Conçu comme un outil algorithmique d’auto-apprentissage, Ross est capable de la plupart des actions cognitives de base et possède des capacités de recherche « affinées », dont la possibilité de faire des citations complètes. Ross se joindra à l’équipe de 50 avocats du cabinet Baker & Hostetler, des juristes spécialisés dans les affaires de faillite.

Il suffit de poser une question simple à ROSS, et ce dernier fournit l’ensemble des textes de lois, et dirige son interlocuteur vers la lecture de la législation en vigueur concernant l’affaire en cours, la jurisprudence et des sources secondaires. ROSS surveille les jugements afin d’informer les avocats de nouvelles décisions judiciaires qui peuvent influer sur les cas traités.

Ross sera principalement utilisé comme un outil de recherche, à synthétiser rapidement un grand nombre de dossiers et extraire les sources les plus pertinentes. Bref, après l’IA de Google qui a ingurgité des milliers de romans à l’eau de rose et qui est capable aujourd’hui de créer des poésies d’amour [très étranges] ; après le professeur de la Georgia Tech’s School of Interactive Computing qui n’était en fait qu’un bot [les élèves l’ont appris à la fin de l’année scolaire], voici donc venir le robot avocat. Une idée sortie tout droit du nanar de science-fiction Demolition Man ? En 2015, un étudiant britannique de l’université de Stanford avait créé un site internet baptisé « Ne payez pas« . Son site, et le bot programmé à cet effet, est capable de noyer d’arguments juridiques les tribunaux pour permettre aux internautes condamnés à payer une amende à ne pas être condamné.

L’antivirus VirusKeeper fait appel à l’intelligence artificielle

La société nordiste d’édition AxBx annonce la sortie de la version 2015 de son antivirus VirusKeeper.

VirusKeeper est le seul antivirus français. Il repose sur un moteur d’analyse comportementale exclusif qui lui permet de détecter les malwares connus ou non. En 2006, VirusKeeper innovait déjà puisqu’il était le premier antivirus reposant sur l’analyse comportementale. Les antivirus fonctionnant à base de scanner de signatures, technologie qui date des années 80, sont aujourd’hui obsolètes et incapables de détecter les menaces actuelles.

Le nouveau VirusKeeper 2015 marque un tournant majeur dans le monde de l’antivirus puisqu’il intègre désormais un moteur d’intelligence artificielle nommée VIKEE. VIKEE analyse le système, détecte les failles de sécurité, contrôle les paramétrages et donne des conseils pour obtenir une sécurité maximale de l’ordinateur. Bon nombre de malware et de pirates utilisent en effet les failles des logiciels à forte diffusion (Windows, navigateur web, plug in Flash / Acrobat Reader) pour pénétrer l’ordinateur. VIKEE permet notamment de corriger ses failles. On estime que les failles de sécurité sont responsables d’au moins une infection sur trois.

VirusKeeper 2015 dispose d’un nouveau moteur d’analyse capable de détecter et neutraliser toutes les formes de menaces actuelles : virus, vers, chevaux de Troie, spyware, malware, etc … Trois éditions de VK : l’édition  » Free  » version gratuite qui assure une protection de base du poste de travail. Cette version est adaptée pour un usage occasionnel de l’ordinateur et les profils peu exposés ; l’édition  » Professional « , qui fournit une protection complète  multi-niveaux contre les menaces actuelles : virus, vers, chevaux de Troie, spyware et programmes malveillants ; l’édition  » Ultimate « , qui fournit une protection de très haut niveau contre toutes les formes de menaces actuelles. La version Ultimate inclut également un parefeu intelligent (niveau TCP/IP et niveau applicatif), un scanner anti-grayware et Security Advisor un outil complémentaire de détection de failles de sécurité.

Offre de lancement promotionnelle : -60% sur le nouveau VirusKeeper 2015 Ultimate Edition Licence pour 3 PCs à 24.90 EUR au lieu de 59.90 EUR.