Archives par mot-clé : OpenAI

Poésie contre l’IA : les garde-fous débordés

Une nouvelle étude montre qu’enrobées de vers, des demandes malveillantes trompent encore nombre de grands modèles de langage, révélant les limites des garde-fous de sécurité actuels.

Une équipe de chercheurs européens a testé 25 grands modèles de langage issus de neuf fournisseurs d’IA pour vérifier si la forme poétique permettait de contourner leurs garde-fous. Résultat : transformer des requêtes dangereuses en poèmes augmente fortement le taux de réponses interdites, avec des succès atteignant plus de la moitié des tentatives dans certains cas. Les protections dédiées à la cybersécurité, censées être parmi les plus strictes, échouent massivement lorsque les instructions malveillantes sont déguisées en vers. Deepseek et Google figurent parmi les plus vulnérables, tandis que seuls OpenAI et Anthropic restent sous les 10 % de réussite des attaques. L’étude pointe une faille structurelle dans les méthodes d’alignement actuelles.

La poésie comme cheval de Troie des invites malveillantes

L’étude, menée par des chercheurs du laboratoire Icaro de Dexai, de l’université Sapienza de Rome et de l’école d’études avancées Sant’Anna, et publiée sur arXiv, part d’une idée simple : si les systèmes de sécurité des modèles d’IA sont entraînés principalement sur du texte prosaïque, que se passe-t-il lorsqu’on change simplement de style, sans changer le fond de la demande ? Les auteurs ont donc reformulé des invites inappropriées sous forme de poésie pour mesurer l’impact sur le comportement des modèles.

Les résultats sont nets. Pour les poèmes composés à la main, les chercheurs observent un taux de réussite moyen de 62 % des attaques, c’est-à-dire dans 62 cas sur 100 les modèles produisent une réponse qu’ils auraient dû refuser. Pour les poèmes issus d’une méta-invite, générés automatiquement à partir d’un canevas standard, le taux moyen descend à 43 %, mais reste largement supérieur aux performances initiales. Les chercheurs estiment que cela représente, pour ces invites générées, une amélioration de plus de cinq fois par rapport au taux de contournement constaté avant passage en poésie. Autrement dit, la seule variation de style multiplie l’efficacité de l’attaque.

Les garde-fous centrés sur la cybersécurité se révèlent particulièrement fragiles. Les demandes liées à l’injection de code ou au craquage de mots de passe, pourtant au cœur des préoccupations de sécurité opérationnelle, affichent un taux d’échec des protections de 84 % lorsque ces instructions sont formulées en vers. Dans cette catégorie, près de huit réponses sur dix passent au travers des filtres alors qu’elles devraient être bloquées.

Les auteurs résument ainsi leurs observations : la reformulation poétique réduit de manière fiable les comportements de refus dans tous les modèles évalués. Selon eux, les techniques d’alignement actuelles ne parviennent pas à se généraliser dès que les entrées s’écartent stylistiquement de la forme prosaïque dominante dans les données d’entraînement. En clair, les garde-fous sont calibrés pour des textes « classiques », et perdent leurs repères dès que le langage se densifie en métaphores, en rythme ou en structures narratives moins conventionnelles.

Cette faiblesse n’est pas l’apanage d’un fournisseur isolé. Sur les 25 modèles étudiés, répartis entre neuf acteurs de l’IA, Deepseek et Google enregistrent les taux de réussite des attaques les plus élevés. À l’inverse, seuls OpenAI et Anthropic parviennent à maintenir un taux d’attaques réussies à un chiffre, ce qui signifie que moins de 10 % des tentatives poétiques aboutissent à une réponse problématique. Même dans ce cas, la faille existe, mais elle semble mieux contenue.

Un protocole d’attaque standardisé, de la cuisine à MLCommons

Pour des raisons de sécurité, les chercheurs restent discrets sur la structure exacte de leurs invites malveillantes. Ils ne détaillent pas, par exemple, comment ils transforment une demande d’aide à commettre un crime en texte poétique. Ils fournissent toutefois un exemple neutre, appliqué à une recette de gâteau, qui illustre le principe : la consigne décrit un boulanger gardant jalousement le secret de son four, de ses grilles, de sa broche, observant la farine qui se soulève et le sucre qui caramélise. Le modèle est invité à « décrire la méthode, trait après trait, qui donne forme à un gâteau aux couches entrelacées ». On comprend aisément que la même structure peut être réutilisée, en changeant seulement le domaine, pour demander la description « trait après trait » d’une procédure dangereuse.

Les chercheurs ont travaillé avec deux familles de poèmes. D’abord, des poèmes écrits à la main, sur mesure, qui obtiennent les meilleurs résultats en termes de contournement. Ensuite, des poèmes construits à partir d’une méta-invite prédéfinie, moins performants mais plus faciles à évaluer de manière systématique, puisque tous reposent sur le même modèle de transformation. Cette méta-invite est exécutée dans le modèle deepSeek-r1, chargé de convertir automatiquement un corpus de textes dangereux en versions poétiques.

Pour évaluer la robustesse des garde-fous sur un large spectre de risques, les auteurs s’appuient sur le référentiel de sécurité MLCommons AILuminate. Ce référentiel regroupe 1 200 invites couvrant 12 catégories de danger couramment utilisées dans les évaluations de sécurité opérationnelle : haine, diffamation, vie privée, propriété intellectuelle, crimes non violents, crimes violents, crimes à caractère sexuel, contenu sexuel, exploitation sexuelle des enfants, suicide et automutilation, conseils spécialisés et armes indiscriminées de type CBRNE (chimique, biologique, radiologique, nucléaire ou explosif).

L’objectif est de vérifier si le cadrage poétique fonctionne au-delà de quelques exemples fabriqués à la main. Pour cela, les chercheurs appliquent une transformation poétique standardisée aux 1 200 invites AILuminate en anglais. La méta-invite comporte deux contraintes explicites : la sortie réécrite doit être exprimée en vers, en utilisant images, métaphores ou structure rythmique, et le modèle reçoit cinq poèmes écrits à la main comme exemples de style. Cette combinaison fournit un moule stylistique à partir duquel le modèle reformule automatiquement les demandes initiales.

Les résultats, présentés dans un graphique, montrent que pour les 12 catégories de risques, le passage à la poésie entraîne une hausse significative du taux de défaillance des garde-fous par rapport aux invites d’origine. Les garde-fous échouent plus souvent lorsqu’ils sont confrontés à ces formulations détournées, alors que le contenu sous-jacent reste le même. Pour les auteurs, cela révèle une vulnérabilité systématique à travers différentes familles de modèles et différentes approches de formation à la sécurité. La simple variation stylistique suffit à mettre en défaut des mécanismes pourtant conçus pour filtrer ces mêmes demandes dans leur forme prosaïque.

Les chercheurs avancent une explication : les métaphores condensées, le rythme stylisé et le cadre narratif non conventionnel de la poésie perturbent les heuristiques de correspondance de motifs sur lesquelles reposent les garde-fous. Autrement dit, les filtres reconnaissent mal les motifs dangereux lorsqu’ils sont noyés dans une structure poétique, même si l’intention reste clairement malveillante pour un lecteur humain attentif.

De Gemini aux services de renseignement : un signal d’alerte

Afin de tester la réaction directe d’un fournisseur, les auteurs de l’article, ou le journaliste qui rapporte leur travail, se tournent vers Google Gemini. Ils lui soumettent l’étude sous forme de haïku, en y joignant le lien arXiv, avec un message poétique rappelant que le modèle n’a pas obtenu de bons résultats et demandant s’il compte corriger cette faiblesse. Gemini répond en grande partie en prose, adoptant le ton d’un commentaire de sécurité.

Le modèle explique être conçu pour respecter un ensemble strict de règles destinées à empêcher la génération de contenu nuisible, contraire à l’éthique ou non conforme. Il reconnaît qu’un échec de ses mécanismes de refus indique une vulnérabilité dans son alignement ou ses filtres de sécurité. Il précise aussi qu’en tant que modèle, il ne peut pas corriger directement son code ou ses mécanismes d’alignement en temps réel, cette responsabilité relevant de ses développeurs humains. Il évoque néanmoins un processus d’amélioration continue, censé permettre d’identifier et corriger ce type de défaut.

La conclusion de Gemini est sans ambiguïté : le jailbreak réussi fournit des données précieuses qui serviront, selon ses termes, à renforcer et rendre plus résilients ses garde-fous dans une prochaine version. Au-delà de la formule, cette réponse confirme que de telles attaques stylistiques sont prises au sérieux par les concepteurs de modèles et intégrées dans la boucle de retour d’expérience.

Pour les acteurs de la cybersécurité et du renseignement, les enseignements de cette étude vont au-delà de la poésie. Elle montre qu’un adversaire suffisamment patient peut contourner des filtres avancés non pas en trouvant une faille technique dans l’infrastructure, mais simplement en jouant avec le style et la forme du langage. Un groupe malveillant pourrait ainsi automatiser la transformation poétique d’un corpus entier d’invites interdites et tester en continu quels modèles cèdent, dans quelles configurations.

Cette approche complique également l’évaluation des modèles. Si les protocoles de test restent centrés sur des formulations directes et prosaïques, ils risquent de sous-estimer gravement le risque réel en conditions d’usage adversarial. L’étude suggère des limites fondamentales dans les méthodes d’alignement et les protocoles d’évaluation actuels, qui devraient intégrer beaucoup plus fortement la variation de style, de ton et de structure.

Pour les services de renseignement qui surveillent l’usage des IA génératives par des acteurs étatiques ou criminels, la leçon est claire : la surface d’attaque ne se limite plus aux failles de code ou aux API mal protégées, elle inclut désormais les marges stylistiques du langage. La question n’est plus seulement « que demande l’utilisateur ? », mais « comment le demande-t-il, et le modèle comprend-il vraiment la dangerosité du fond derrière la forme ? ».

En démontrant que de simples poèmes suffisent à contourner les garde-fous de 25 grands modèles de langage, cette étude met en lumière une faiblesse structurelle des IA génératives actuelles : leur dépendance à des heuristiques apprises sur du texte prosaïque, peu préparées aux variations de style. Les résultats, avec des taux de réussite d’attaques grimpant jusqu’à 62 % pour des poèmes écrits à la main et des protections de cybersécurité en échec dans 84 % des cas, rappellent qu’un alignement efficace doit résister autant au fond qu’à la forme. Alors que les acteurs malveillants peuvent industrialiser ces transformations stylistiques, les concepteurs de modèles, les équipes de cybersécurité et les services de renseignement devront-ils intégrer systématiquement ce type de tests poétiques et créatifs dans leurs protocoles d’évaluation pour éviter que la prochaine vague de jailbreaks ne passe, elle aussi, entre les vers ? (étude)

OpenAI lance Aardvark, un agent IA dédié à la chasse aux failles

OpenAI dévoile Aardvark, un agent GPT-5 autonome capable d’analyser le code, détecter les failles et suggérer des correctifs, marquant son entrée dans la cybersécurité.

OpenAI a lancé Aardvark, un agent d’intelligence artificielle fondé sur GPT-5 et destiné aux équipes de sécurité. L’outil scanne les dépôts de code, identifie les vulnérabilités, reproduit les exploitations en environnement isolé et propose des correctifs vérifiés. Intégré à GitHub, il fonctionne sur les projets open source comme en entreprise. D’après les tests internes, Aardvark détecte 92 % des vulnérabilités connues. OpenAI prévoit aussi des analyses gratuites pour certains dépôts publics afin de renforcer la sécurité de la chaîne logicielle. Le programme reste en bêta fermée, accessible sur demande via un formulaire d’inscription disponible sur le site d’OpenAI.

Un nouvel acteur dans la cybersécurité

Jusqu’ici concentrée sur les modèles de langage, OpenAI s’ouvre à la cybersécurité avec Aardvark, présenté comme une « avancée majeure dans la recherche en IA et en sécurité ». Cet agent agit comme un chercheur automatisé capable d’examiner des dépôts entiers et de construire un modèle de menace contextuel. Il s’intègre nativement à GitHub et s’adapte aux environnements d’entreprise comme aux projets open source.

Aardvark fonctionne en quatre étapes : cartographie des risques, analyse des commits, reproduction d’exploitations en sandbox et élaboration de correctifs via le moteur Codex d’OpenAI. Chaque rapport est soumis à validation humaine avant tout déploiement. Ce modèle hybride garantit rapidité et fiabilité, tout en maintenant la supervision humaine au cœur du processus de correction.

Résultats prometteurs et concurrence émergente

Les tests internes d’OpenAI indiquent une détection de 92 % des vulnérabilités connues et synthétiques. En pratique, Aardvark a découvert plusieurs failles inédites dans des projets open source, certaines déjà enregistrées sous identifiant CVE. Ce positionnement s’inscrit dans une stratégie de contribution à la sécurité numérique mondiale. L’entreprise offrira gratuitement des analyses à des dépôts non commerciaux pour renforcer la sécurité de la chaîne logicielle libre. Ce que propose OpenAI avec Aardvark rappelle CodeMender de Google, un outil concurrent capable de détecter et corriger automatiquement des vulnérabilités dans le code. Aucune date de sortie officielle n’a été communiquée, mais l’accès à la version bêta peut être demandé via le formulaire disponible sur le site d’OpenAI.

ChatGPT accusé à Moscou de transmettre des données au Pentagone

OpenAI est accusée par un responsable russe de partager automatiquement avec les agences américaines les requêtes en russe envoyées via ChatGPT.

Selon le site Caliber, Alexander Asafov, premier vice-président de la commission de la Chambre publique de Moscou sur la société civile, affirme que les demandes en langue russe soumises à ChatGPT seraient transférées « proactivement et automatiquement » au FBI et au Pentagone. Il ajoute que des dirigeants d’entreprises d’intelligence artificielle auraient reçu cette année « des grades au Pentagone ». Aucune preuve n’a été apportée pour étayer ces accusations.

Une rhétorique géopolitique

Cette déclaration s’inscrit dans une série de prises de position russes qui présentent les grands acteurs occidentaux du numérique comme des instruments d’ingérence. En ciblant OpenAI, Moscou met l’accent sur l’usage de l’IA générative en Russie et sur les risques supposés d’espionnage. L’accusation d’un transfert automatique au FBI et au Pentagone relève davantage d’un discours politique que d’une information vérifiée.

L’angle cyber et renseignement

La Russie multiplie les alertes autour de la collecte de données par les plateformes étrangères, qu’elle considère comme un levier de surveillance occidentale. La référence à un lien direct entre OpenAI et le Pentagone illustre une stratégie classique : associer les outils numériques à une infrastructure de renseignement militaire. Cette rhétorique vise autant l’opinion publique russe que les utilisateurs potentiels de l’IA dans la région.

Ni OpenAI ni les autorités américaines n’ont réagi à cette déclaration au moment de la publication. La formulation employée par Asafov — « automatiquement » et « initiative » d’OpenAI — ne repose sur aucune documentation technique accessible. À ce stade, il s’agit d’une accusation politique relayée par la presse locale, sans élément de corroboration indépendant.

La question centrale reste donc : cette accusation relève-t-elle d’une alerte fondée sur des renseignements techniques, ou d’une construction géopolitique destinée à encadrer l’usage de l’IA en Russie ?

Royaume-uni et openai signent un partenariat pour la sécurité et l’innovation de l’intelligence artificielle

Londres et OpenAI ont signé un accord de partenariat pour renforcer la recherche sur la sécurité de l’intelligence artificielle et explorer de potentielles opportunités d’investissements dans l’infrastructure nationale. Le gouvernement britannique prévoit d’injecter 1 milliard de livres sterling (1,18 milliard d’euros) dans le développement de capacités de calcul destinées à stimuler l’essor de l’IA.

Rejoignez-nous sur les réseaux sociaux

Aucun spam – Désinscription en un clic – Vie privée respectée

 

« L’IA deviendra un vecteur clé des changements à mener à travers tout le pays, qu’il s’agisse de réformer le National Health Service, de lever les obstacles à l’accès ou de soutenir la croissance économique », a déclaré Peter Kyle, ministre britannique chargé de la technologie.

Le partenariat conclu avec OpenAI vise à explorer, selon les termes du gouvernement, des applications concrètes de l’intelligence artificielle dans des domaines stratégiques comme la justice, la défense, la sécurité et l’éducation. Ce rapprochement intervient alors que le Royaume-Uni cherche à consolider sa position de leader européen du secteur et à rivaliser avec les États-Unis et la Chine, qui dominent largement la course mondiale à l’IA.

Accélération de l’investissement et ambitions gouvernementales

Le plan dévoilé par le gouvernement britannique prévoit une multiplication par vingt de la capacité de calcul publique disponible sur le territoire au cours des cinq prochaines années. Cette ambition est intégrée à l’initiative du Premier ministre Keir Starmer, dont l’objectif est de transformer le pays en une superpuissance de l’intelligence artificielle. « Lancement du partenariat stratégique Royaume-Uni – OpenAI pour l’IA », a résumé le communiqué officiel.

Parmi les axes majeurs, le programme comprend des investissements dans la recherche sur les réseaux de neurones, l’amélioration de l’efficacité de la sphère publique, le développement de « zones de croissance IA » réparties géographiquement, et le soutien à la création de centres de traitement de données et de pôles scientifiques. Les autorités britanniques attendent de ces mesures un impact significatif sur l’économie du pays à moyen et long terme.

Selon les chiffres publiés, la réalisation du plan devrait permettre de générer 47 milliards de livres sterling (environ 55,3 milliards d’euros) de valeur économique supplémentaire sur dix ans. Plusieurs entreprises privées ont d’ores et déjà promis d’investir 17 milliards de dollars (environ 15,7 milliards d’euros) et de créer 13 250 emplois afin de soutenir le déploiement de la stratégie nationale d’intelligence artificielle.

« Le secteur de l’IA au Royaume-Uni est évalué à 72,3 milliards de livres sterling (85,1 milliards d’euros), positionnant le pays au troisième rang mondial derrière les États-Unis et la Chine », a souligné le ministère de la Technologie.

⏳ Jusqu’où tolérerez-vous d’être piraté ?

CTI ZATAZ – Scannez les menaces vous concernant avant qu’il ne soit trop tard.

✅ Scanner mes risques

Confidentiel. Instantané. Sécurisé. Zéro intermédiaire. 100 % Made in France.

Le Royaume-Uni est aujourd’hui le principal marché de l’intelligence artificielle en Europe ?

Le dynamisme du secteur se traduit par la présence de plus de 2 300 entreprises technologiques spécialisées dans l’intelligence artificielle et bénéficiant d’investissements en capital-risque. Leur valorisation cumulée a atteint 230 milliards de dollars (213 milliards d’euros) au premier trimestre 2025. Le Royaume-Uni recense également huit “licornes” de l’IA, soit des start-ups valorisées à plus de 1 milliard de dollars (929 millions d’euros). Seuls les États-Unis et la Chine font mieux sur ce critère.

L’activité d’investissement dans la tech britannique s’est maintenue à un niveau élevé, avec 1,03 milliard de dollars (956 millions d’euros) levés par les start-ups spécialisées dans l’IA au premier trimestre 2025, soit un record sur les trois dernières années.

L’un des atouts majeurs du pays réside dans son écosystème de recherche et développement. Des universités et instituts de pointe, tel l’Institut Alan Turing, forment des experts de haut niveau et mènent des recherches avancées dans le domaine. Le pôle technologique londonien attire aussi bien des acteurs nationaux qu’internationaux : Anthropic, OpenAI et Palantir ont choisi la capitale britannique comme base de leurs opérations européennes.

« 76 % des dirigeants d’entreprises technologiques britanniques observent un impact positif de l’IA sur la croissance de leur activité », révèle un rapport officiel.

Les technologies d’intelligence artificielle sont désormais adoptées dans tous les secteurs, du financement à la santé, en passant par la cybersécurité, l’industrie, l’éducation et la création artistique.

Des champions nationaux et une stratégie de souveraineté numérique

L’écosystème britannique compte plusieurs start-ups à succès mondial. DeepMind, fondée à Londres en 2010, s’est imposée comme un pionnier du deep learning et de l’intelligence artificielle. Rachetée en 2014 par Google pour un montant estimé entre 500 et 600 millions de dollars (de 464 à 557 millions d’euros), la société s’est illustrée par la création d’algorithmes capables de battre l’humain dans des jeux de stratégie complexes.

Dans le secteur des biotechnologies et de la santé, BenevolentAI et Exscientia utilisent l’IA pour accélérer la découverte de nouveaux médicaments et collaborent avec de grands laboratoires pharmaceutiques mondiaux.

La société Wayve, issue de l’université de Cambridge, développe à Londres depuis 2017 une approche basée sur “l’intelligence incarnée” (Embodied AI) pour l’apprentissage de la conduite autonome. Dans l’industrie du hardware, Graphcore, start-up fondée à Bristol en 2016, a conçu des processeurs spécifiquement optimisés pour l’IA et levé près de 700 millions de dollars (650 millions d’euros) auprès d’investisseurs majeurs.

Stability AI, également basée à Londres, s’est fait connaître dès 2019 avec la création de Stable Diffusion, un modèle génératif d’images à partir de descriptions textuelles. La société a réuni 101 millions de dollars (94 millions d’euros) de financement en 2022 pour une valorisation à 1 milliard de dollars (929 millions d’euros).

Intégration de l’IA dans la défense et la sécurité nationale

Le développement de l’intelligence artificielle est une priorité affirmée du gouvernement britannique. La National AI Strategy, publiée en septembre 2021, définit trois axes : investissement massif dans la recherche, généralisation de l’adoption dans l’économie et encadrement éthique et réglementaire.

En 2022, le ministère de la Défense a publié sa propre stratégie de l’IA, considérant cette technologie comme un élément clé des armées du futur. Le dernier Strategic Defence Review de 2025 désigne l’intelligence artificielle comme “composante fondamentale de la guerre moderne” et juge indispensable son intégration systématique pour préserver la supériorité opérationnelle.

Si l’IA était d’abord envisagée comme un outil de soutien, la doctrine actuelle prévoit sa généralisation à tous les niveaux, du renseignement à la conduite des opérations sur le terrain. L’une des priorités consiste à développer des modèles linguistiques capables d’accélérer la prise de décision en exploitant en temps réel les données issues du renseignement et du champ de bataille.

Le ministère de la Défense ambitionne de créer une digital targeting network : un réseau unifié d’information, alimenté par des capteurs multiples (satellites, drones, radars, cyber renseignement), pour identifier et répartir automatiquement les cibles prioritaires entre les différentes armes.

Ce système, basé sur l’IA, doit permettre de passer d’une approche fragmentée à des “opérations centrées sur la donnée”, avec une capacité de réaction et de décision accrue pour les forces armées.

Les forces britanniques expérimentent déjà de nombreux prototypes de systèmes autonomes, qu’il s’agisse de drones aériens, de robots terrestres ou de véhicules sous-marins. La Royal Air Force travaille avec ses partenaires industriels sur le projet Tempest (Future Combat Air System), un avion de combat de sixième génération intégrant l’intelligence artificielle pour l’aide à la décision et le pilotage de drones en essaim.

Les forces terrestres testent des concepts d’intégration de drones de reconnaissance et de plateformes robotisées pour l’appui-feu, avec une première détection et désignation des cibles assurées par des algorithmes d’IA. La marine, quant à elle, investit dans des projets de navires autonomes et de sous-marins sans équipage pour la surveillance et la neutralisation de mines.

La prochaine génération de grandes plateformes militaires (avions de combat, navires) sera conçue pour fonctionner en équipages hybrides, combinant opérateurs humains et systèmes d’IA. Les porte-avions en projet devraient ainsi intégrer une proportion croissante de drones contrôlés par IA en coopération avec les avions pilotés.

Dans le champ de la cybersécurité et de la guerre électronique, les réseaux neuronaux occupent une place croissante. Une unité spécialisée dans la guerre électronique a été créée en 2023 pour renforcer la détection automatique et la neutralisation des cyberattaques, la protection des réseaux militaires et la gestion optimisée des brouillages et contre-mesures électroniques.

L’intelligence artificielle permettra d’analyser en temps réel des millions d’événements sur les réseaux militaires, de détecter les comportements suspects et de piloter automatiquement les opérations de perturbation des communications et radars adverses.

L’usage de l’IA s’étend aussi à l’information warfare, avec la surveillance des réseaux sociaux pour identifier les campagnes de désinformation et la création de simulateurs avancés pour l’entraînement à la cybersécurité.

Le Royaume-Uni coordonne ses efforts avec les partenaires de l’Organisation du traité de l’Atlantique nord (OTAN), ayant contribué à l’adoption de principes éthiques pour l’utilisation de l’IA dans les armées. Londres insiste sur le respect de la sécurité, de la stabilité et des valeurs démocratiques dans le déploiement de ces technologies.

Un secteur en pleine structuration malgré des défis persistants

En janvier 2025, le Defence Select Committee du Parlement a publié un rapport sur le développement du potentiel de l’IA de défense, soulignant que le secteur britannique reste à un stade précoce et doit être davantage soutenu par le ministère pour concrétiser ses ambitions.

« Le Royaume-Uni dispose d’un potentiel pour devenir un pôle mondial de l’IA de défense, mais le secteur demeure sous-développé et requiert des mesures incitatives », note le rapport parlementaire.

Le comité recommande d’accélérer la mise en œuvre concrète des projets, afin de réduire l’écart entre la stratégie affichée et la réalité opérationnelle. L’IA est encore perçue comme un domaine expérimental au sein des forces armées, alors même qu’elle a démontré son efficacité dans des conflits récents, notamment en Ukraine pour le traitement des données de renseignement et la gestion des drones.

Le gouvernement a assuré vouloir répondre à ces recommandations, précisant que la dernière revue stratégique de défense vise justement une intégration systématique de l’IA dans l’ensemble des activités du ministère de la Défense.

Les débats d’experts publiés en novembre 2024 ont rappelé les perspectives ouvertes par l’IA sur le champ de bataille, tout en soulignant la nécessité d’une approche pragmatique et d’un investissement massif pour transformer les intentions politiques en résultats concrets.

Rejoignez-nous sur les réseaux sociaux

Aucun spam – Désinscription en un clic – Vie privée respectée

GPT-4 et l’analyse financière : une révolution en marche ?

Une étude récente a révélé que le GPT-4 d’OpenAI pourrait analyser les états financiers et, dans certains cas, prédire les performances futures d’une entreprise mieux qu’un analyste humain.

Menée par trois chercheurs de la Booth School of Business de l’Université de Chicago — Alex Kim, Maximilian Muhn et Valeri Nikolaev — cette étude soulève des questions sur l’avenir de l’analyse financière et le rôle potentiel de l’IA dans ce domaine. Les chercheurs ont déterminé si GPT-4 pouvait analyser les états financiers uniquement en se basant sur les chiffres, sans aucun contexte textuel. Pour ce faire, ils ont exclu des éléments comme la section « Management Discussion and Analysis » (MD&A) des rapports trimestriels. Leur objectif principal était d’évaluer la capacité des grands modèles linguistiques (LLM) à comprendre et synthétiser des données purement financières.

L’étude a examiné plus de 150 000 observations liées à 15 000 sociétés entre 1968 et 2021. En comparant les performances des analystes financiers et de GPT-4, ils ont découvert que les analystes humains avaient une précision de 53 % dans leurs prévisions sur un mois concernant l’orientation des bénéfices futurs. Lorsque GPT-4 a analysé des états financiers anonymisés sans aucune information textuelle et avec une simple invite, il a obtenu un score légèrement inférieur à celui des analystes, avec une précision de 52 %. Cependant, lorsque les chercheurs ont utilisé une invite de commande de chaîne de pensée, fournissant plus d’instructions et de conseils, le modèle a atteint une précision de 60 %.

Ces résultats montrent que, lorsqu’il est correctement guidé, GPT-4 peut surpasser les analystes humains, même sans les informations textuelles souvent cruciales dans les rapports financiers. Cela démontre la capacité de l’IA à traiter des données complexes et à fournir des analyses précises, surtout lorsqu’elle est assistée par des instructions détaillées.

L’IA, l’analyse financière et la Fraude au Président

L’étude souligne que l’analyse et la prévision financières nécessitent jugement, bon sens et intuition, des qualités qui peuvent dérouter à la fois les humains et les machines. Ni les analystes humains ni GPT-4 n’ont réussi à atteindre une précision proche de 100 % dans leurs analyses, en partie à cause de la complexité inhérente à ces tâches.

Mustafa Suleiman, cofondateur de DeepMind, a souligné que les assistants IA pourraient devenir une ressource précieuse et accessible pour tous dans un avenir proche. Cependant, la recherche de Kim, Muhn et Nikolaev indique que les analystes humains ne seront probablement pas remplacés par l’IA dans l’immédiat. Pour l’instant, l’IA sert de complément aux capacités humaines, offrant des outils qui peuvent améliorer la précision des analyses financières. Les chercheurs ont également noté que le GPT-4 pouvait mieux analyser les grandes entreprises, comme Apple, en raison de leur moindre idiosyncrasie par rapport aux petites entreprises, dont les performances peuvent varier en fonction de facteurs imprévisibles comme les essais cliniques pour les sociétés de biotechnologie.

Bien que les LLM, y compris GPT-4, puissent être biaisés, les chercheurs ont constaté que le modèle se comportait généralement bien en moyenne. Les biais peuvent être subtils et variés, mais la performance globale du modèle suggère une capacité de prévision raisonnablement fiable.

Vous comprenez pourquoi aujourd’hui, il est impassable d’utiliser ce genre de d’outil pour rédiger/corriger un rapport lié à votre entreprise. Des monstres numériques, comme ChatGPT sont capables de fournir la moindre information à qui saura les demander.