Archives par mot-clé : start-up

Réseaux sociaux professionnels, nouvelles armes d’ingérence

Utilisés pour recruter, réseauter ou lever des fonds, les réseaux sociaux professionnels deviennent aussi un terrain d’ingérence, d’escroqueries sophistiquées et de collecte discrète d’informations sensibles.

Les réseaux sociaux professionnels sont désormais centraux pour recruter, chercher un emploi ou nouer des partenariats. Mais la même mécanique de visibilité, fondée sur la mise en avant des parcours, projets et intérêts, expose chercheurs, dirigeants et salariés à des approches malveillantes. Un flash Ingérence 2025 de la DGSI détaille plusieurs scénarios concrets : faux investisseurs, mécénats imaginaires portés par des célébrités, usurpation d’identité de collaborateurs pour soutirer des informations stratégiques. Derrière ces démarches se trouvent des escrocs, des réseaux criminels ou des acteurs liés à des puissances étrangères. L’enjeu n’est plus seulement la cybersécurité technique, mais la maîtrise de son exposition numérique et la protection du renseignement économique et scientifique.

Réseaux sociaux professionnels, un angle mort de la sécurité

Les plateformes dédiées à la vie professionnelle sont devenues incontournables pour les trajectoires de carrière, la chasse de talents ou la mise en relation entre entreprises et chercheurs. Leur logique encourage toutefois à dévoiler bien plus que son simple CV, en exposant centres d’intérêt, projets, technologies maîtrisées, partenariats envisagés sans parler des égoscentricité diverses.

Cette surabondance de données en libre accès offre un terrain idéal à des acteurs malveillants. Escrocs, réseaux criminels organisés ou intermédiaires agissant pour le compte d’États étrangers peuvent y repérer des profils, cartographier des écosystèmes entiers et préparer des approches ciblées. Les informations utilisées pour bâtir le scénario de manipulation proviennent le plus souvent des contenus que la victime a elle-même publiés.

La DGSI souligne que cet usage non contrôlé des réseaux sociaux professionnels touche tous les niveaux, du jeune salarié au dirigeant d’entreprise, en passant par les chercheurs et cadres intermédiaires. Les motivations varient, mais se recoupent : escroquerie financière, déstabilisation d’une structure, captation d’informations économiques, technologiques ou scientifiques sensibles.

Le caractère dématérialisé de ces approches joue en faveur des attaquants. Une demande de connexion, un message flatteur ou une opportunité d’investissement semblent moins menaçants qu’un rendez-vous en face à face. La distance numérique atténue le sentiment de risque et abaisse la vigilance, alors même que les conséquences possibles sont lourdes : pertes financières, fuite de données, atteinte durable à la réputation.

Aux yeux de la DGSI, ces événements, souvent perçus comme des incidents isolés par ceux qui les subissent, s’inscrivent pourtant dans des stratégies plus larges. Une même campagne peut viser simultanément plusieurs chercheurs, différentes start-up d’un même secteur ou divers services au sein d’un groupe industriel, sans que chacun n’ait conscience d’être pris dans un ensemble coordonné.

L’obligation de discrétion inhérente à une recherche d’emploi ou à une discussion de partenariat complique encore la détection interne. Un salarié ou un responsable de laboratoire hésitera à alerter sa hiérarchie sur une approche ambiguë de peur de dévoiler des démarches personnelles. Ce silence crée un angle mort dont les attaquants tirent parti.

SERVICE DE VEILLE ZATAZ

Nous retrouvons vos données volées/perdues avant qu’elles ne se retournent contre vous.

Fuites de données, Veille web & dark web, alertes exploitables, priorisation des risques.

 
DÉCOUVRIR LA VEILLE

Dédiée aux entreprises, institutions et particuliers.

A PARTIR DE 0,06€ PAR JOUR

Du faux investisseur au faux collègue, trois scénarios révélateurs

Le premier cas mis en avant par la DGSI concerne une start-up française en difficulté financière, active dans un secteur jugé sensible. Son dirigeant est approché sur un réseau social professionnel par un cabinet de conseil étranger qui se présente comme l’intermédiaire d’un fonds d’investissement. Le discours est calibré : promesse de capital, discours rassurant, vocabulaire professionnel.

Très vite, le cabinet réclame une présentation détaillée des activités de la jeune pousse, au motif d’évaluer un futur investissement. Le dirigeant, en quête de solutions, partage même un projet de nouveau produit encore en conception. Sans exiger de documents financiers solides, sans poser de questions approfondies, l’intermédiaire transmet une offre d’investissement très avantageuse pour la start-up. Cette absence de curiosité économique réelle constitue un premier signal d’alerte.

Lorsque le service juridique de l’entreprise engage une due diligence, les incohérences se multiplient. Les adresses électroniques des membres du prétendu cabinet de conseil ne correspondent pas au nom de la structure. L’identité de l’investisseur final ne peut être confirmée. Le montage financier proposé comporte, lui aussi, des zones d’ombre. La DGSI, sollicitée, confirme que ni le cabinet ni le fonds ne possèdent d’existence légale dans leurs pays d’origine et n’apparaissent dans aucune base de données officielle. Le dirigeant met immédiatement fin aux échanges, évitant à la fois une escroquerie potentielle et une exposition de ses informations sensibles.

Le deuxième scénario illustre une approche à mi-chemin entre ingénierie sociale et escroquerie classique, habillée en mécénat prestigieux. Un responsable de centre de recherche reçoit, via un réseau social professionnel, un message d’un individu se présentant comme le chargé de communication d’une célébrité internationale. Or le chercheur venait justement de publier un message signalant son intérêt pour cette personnalité, ce qui a probablement servi de déclencheur.

L’interlocuteur affirme que la célébrité souhaite financer les travaux du centre à hauteur de plusieurs millions d’euros, en cohérence avec ses engagements caritatifs. En sources ouvertes, les dons récents de cette star, relayés massivement sur les réseaux, semblent effectivement orientés vers un domaine proche de celui du laboratoire. Pour le chercheur, cette concordance entre le discours du contact et les informations publiques accroît la crédibilité du récit, au point qu’il poursuit la discussion.

Puis le scénario bascule vers un schéma d’escroquerie bien connu. Avant tout versement, le prétendu chargé de communication demande au chercheur de régler une taxe locale de plusieurs milliers d’euros, officiellement nécessaire pour débloquer le don. La DGSI, alertée, rappelle qu’il s’agit d’un mode opératoire typique des fraudes sur Internet et conseille fermement au chercheur de cesser immédiatement tout échange. Si la tentative échoue, elle révèle la capacité des attaquants à exploiter l’ego, la notoriété et l’actualité médiatique pour paraître crédibles.

Le troisième exemple met en lumière les dangers de l’usurpation d’identité interne. Dans une société développant des technologies sensibles, le dirigeant découvre sur un réseau social professionnel un profil se faisant passer pour un comptable de l’entreprise. Ce faux collaborateur tente de se connecter à un grand nombre de salariés. Grâce à un message d’alerte diffusé rapidement en interne, aucune interaction significative n’a lieu et le profil est identifié comme frauduleux.

Quelques mois plus tard, un second faux compte apparaît, cette fois encore en se présentant comme salarié de la même société. Plus discret, plus patient, ce profil parvient à engager le dialogue avec plusieurs collaborateurs sur des sujets professionnels. Un employé récemment recruté commet alors une imprudence : il communique des éléments stratégiques, notamment le calendrier de développement de certaines activités et le niveau d’avancement de technologies clés.

Le service sûreté de l’entreprise intervient pour sensibiliser ce salarié et rappeler les règles de protection de l’information. Le faux profil est signalé à l’ensemble du personnel. L’épisode illustre la fragilité particulière des nouveaux arrivants, moins familiers de la culture de sécurité de la structure, et montre qu’un simple échange en ligne peut suffire à livrer des renseignements à forte valeur ajoutée.

De la sensibilisation à la réaction, la stratégie défensive de la DGSI

Face à cette montée en puissance des approches malveillantes sur les réseaux sociaux professionnels, la DGSI insiste d’abord sur la prévention. Une hygiène numérique régulière doit être intégrée dans la culture de l’entreprise ou du laboratoire. Les services chargés de la sécurité des systèmes d’information peuvent organiser des sessions de formation internes, rappeler les bonnes pratiques et expliquer les mécanismes de l’ingénierie sociale. Les collaborateurs sont également invités à suivre les modules en ligne et le guide des bonnes pratiques proposés par l’Agence nationale de la sécurité des systèmes d’information. La DGSI, de son côté, mène des conférences de sensibilisation sur les risques numériques dans les environnements économiques et scientifiques.

La prévention passe aussi par une utilisation plus réfléchie des réseaux sociaux professionnels. La DGSI recommande d’ajuster les paramètres de confidentialité pour limiter l’accès du grand public aux informations du profil. Les personnes occupant des fonctions stratégiques doivent particulièrement éviter de publier des détails trop précis sur leurs responsabilités, leurs projets, leurs partenaires ou leurs technologies. Chaque information partagée peut, à terme, nourrir un scénario d’approche hostile.

Sur le plan opérationnel, l’identification des profils à risque devient une compétence clé. Les profils nouvellement créés, dotés de très peu de relations professionnelles et d’un parcours lacunaire ou incohérent, doivent immédiatement éveiller la méfiance. L’usage d’outils de recherche d’images inversées permet de repérer les photos issues de banques d’images ou volées à d’autres utilisateurs. Des vérifications simples sur Internet ou sur l’intranet de l’organisation peuvent aussi confirmer ou infirmer l’existence réelle d’un contact prétendument rattaché à une entité connue.

La vigilance ne doit pas se limiter au moment de la demande de connexion. Toute sollicitation d’informations, qu’elles soient personnelles ou professionnelles, doit pousser l’utilisateur à s’interroger sur l’identité et les intentions de son interlocuteur. Tant que cette identité n’est pas clairement confirmée, le téléchargement et l’ouverture de pièces jointes envoyées via ces plateformes sont à proscrire, sous peine de risquer une infection ou une fuite de données.

Même un faux profil soigneusement construit, maîtrisant les codes des réseaux professionnels, reste rarement indétectable. Il est possible de recouper sa réputation en interrogeant d’autres membres de son propre réseau ou en observant le réseau de la personne suspecte. Un premier échange par téléphone ou en visioconférence peut offrir des indices supplémentaires sur la réalité de l’interlocuteur, même si cette étape ne suffit pas toujours à lever tous les doutes.

En cas d’approche suspecte, la DGSI recommande plusieurs réflexes. Il est préférable d’ignorer une invitation plutôt que de la refuser explicitement, car une invitation laissée sans réponse empêche l’émetteur de relancer ultérieurement. Lorsqu’un faux profil est détecté, les personnes visées doivent alerter leur responsable sûreté, leur fonctionnaire de sécurité défense ou la direction. Cette remontée d’information permet de prévenir l’ensemble des collaborateurs et de repérer d’éventuels cas similaires.

Les services d’assistance des principaux réseaux sociaux professionnels disposent, selon la DGSI, de dispositifs de signalement dédiés aux faux profils et aux contenus frauduleux. Les utiliser systématiquement contribue à assainir l’écosystème numérique de l’entreprise. Enfin, lorsqu’une société ou un organisme de recherche actif dans un domaine sensible détecte une campagne ou des approches répétées, il est encouragé à prendre contact avec la DGSI via l’adresse securite-economique@interieur.gouv.fr, afin d’être accompagné dans l’analyse et la réponse à apporter.

Les réseaux sociaux professionnels concentrent désormais une part croissante du renseignement exploitable sur les organisations, leurs projets et leurs talents. Faute de maîtrise de cette exposition numérique, dirigeants, chercheurs et salariés deviennent des cibles accessibles pour des acteurs dont la frontière entre criminalité, espionnage économique et ingérence étrangère est parfois floue. La réponse ne se résume plus à la protection des systèmes d’information : elle implique une culture partagée de vigilance, un encadrement clair de ce qui peut être publié et une capacité à détecter les signaux faibles d’une approche hostile. Reste une question centrale pour les années à venir : les organisations sauront-elles traiter leurs traces numériques professionnelles comme un actif stratégique à protéger au même titre que leurs secrets industriels ?

News & alertes actualités cyber

Enquêtes, cyberveille, fuites, actu sécurité : recevez nos informations cyber là où vous êtes.

S’abonner à la NewsLetter ZATAZ

Chaque samedi matin, le meilleur moyen de ne rater aucune info cyber.

YouTube
LinkedIn
GNews
Autres

Royaume-uni et openai signent un partenariat pour la sécurité et l’innovation de l’intelligence artificielle

Londres et OpenAI ont signé un accord de partenariat pour renforcer la recherche sur la sécurité de l’intelligence artificielle et explorer de potentielles opportunités d’investissements dans l’infrastructure nationale. Le gouvernement britannique prévoit d’injecter 1 milliard de livres sterling (1,18 milliard d’euros) dans le développement de capacités de calcul destinées à stimuler l’essor de l’IA.

Rejoignez-nous sur les réseaux sociaux

Aucun spam – Désinscription en un clic – Vie privée respectée

 

« L’IA deviendra un vecteur clé des changements à mener à travers tout le pays, qu’il s’agisse de réformer le National Health Service, de lever les obstacles à l’accès ou de soutenir la croissance économique », a déclaré Peter Kyle, ministre britannique chargé de la technologie.

Le partenariat conclu avec OpenAI vise à explorer, selon les termes du gouvernement, des applications concrètes de l’intelligence artificielle dans des domaines stratégiques comme la justice, la défense, la sécurité et l’éducation. Ce rapprochement intervient alors que le Royaume-Uni cherche à consolider sa position de leader européen du secteur et à rivaliser avec les États-Unis et la Chine, qui dominent largement la course mondiale à l’IA.

Accélération de l’investissement et ambitions gouvernementales

Le plan dévoilé par le gouvernement britannique prévoit une multiplication par vingt de la capacité de calcul publique disponible sur le territoire au cours des cinq prochaines années. Cette ambition est intégrée à l’initiative du Premier ministre Keir Starmer, dont l’objectif est de transformer le pays en une superpuissance de l’intelligence artificielle. « Lancement du partenariat stratégique Royaume-Uni – OpenAI pour l’IA », a résumé le communiqué officiel.

Parmi les axes majeurs, le programme comprend des investissements dans la recherche sur les réseaux de neurones, l’amélioration de l’efficacité de la sphère publique, le développement de « zones de croissance IA » réparties géographiquement, et le soutien à la création de centres de traitement de données et de pôles scientifiques. Les autorités britanniques attendent de ces mesures un impact significatif sur l’économie du pays à moyen et long terme.

Selon les chiffres publiés, la réalisation du plan devrait permettre de générer 47 milliards de livres sterling (environ 55,3 milliards d’euros) de valeur économique supplémentaire sur dix ans. Plusieurs entreprises privées ont d’ores et déjà promis d’investir 17 milliards de dollars (environ 15,7 milliards d’euros) et de créer 13 250 emplois afin de soutenir le déploiement de la stratégie nationale d’intelligence artificielle.

« Le secteur de l’IA au Royaume-Uni est évalué à 72,3 milliards de livres sterling (85,1 milliards d’euros), positionnant le pays au troisième rang mondial derrière les États-Unis et la Chine », a souligné le ministère de la Technologie.

⏳ Jusqu’où tolérerez-vous d’être piraté ?

CTI ZATAZ – Scannez les menaces vous concernant avant qu’il ne soit trop tard.

✅ Scanner mes risques

Confidentiel. Instantané. Sécurisé. Zéro intermédiaire. 100 % Made in France.

Le Royaume-Uni est aujourd’hui le principal marché de l’intelligence artificielle en Europe ?

Le dynamisme du secteur se traduit par la présence de plus de 2 300 entreprises technologiques spécialisées dans l’intelligence artificielle et bénéficiant d’investissements en capital-risque. Leur valorisation cumulée a atteint 230 milliards de dollars (213 milliards d’euros) au premier trimestre 2025. Le Royaume-Uni recense également huit “licornes” de l’IA, soit des start-ups valorisées à plus de 1 milliard de dollars (929 millions d’euros). Seuls les États-Unis et la Chine font mieux sur ce critère.

L’activité d’investissement dans la tech britannique s’est maintenue à un niveau élevé, avec 1,03 milliard de dollars (956 millions d’euros) levés par les start-ups spécialisées dans l’IA au premier trimestre 2025, soit un record sur les trois dernières années.

L’un des atouts majeurs du pays réside dans son écosystème de recherche et développement. Des universités et instituts de pointe, tel l’Institut Alan Turing, forment des experts de haut niveau et mènent des recherches avancées dans le domaine. Le pôle technologique londonien attire aussi bien des acteurs nationaux qu’internationaux : Anthropic, OpenAI et Palantir ont choisi la capitale britannique comme base de leurs opérations européennes.

« 76 % des dirigeants d’entreprises technologiques britanniques observent un impact positif de l’IA sur la croissance de leur activité », révèle un rapport officiel.

Les technologies d’intelligence artificielle sont désormais adoptées dans tous les secteurs, du financement à la santé, en passant par la cybersécurité, l’industrie, l’éducation et la création artistique.

Des champions nationaux et une stratégie de souveraineté numérique

L’écosystème britannique compte plusieurs start-ups à succès mondial. DeepMind, fondée à Londres en 2010, s’est imposée comme un pionnier du deep learning et de l’intelligence artificielle. Rachetée en 2014 par Google pour un montant estimé entre 500 et 600 millions de dollars (de 464 à 557 millions d’euros), la société s’est illustrée par la création d’algorithmes capables de battre l’humain dans des jeux de stratégie complexes.

Dans le secteur des biotechnologies et de la santé, BenevolentAI et Exscientia utilisent l’IA pour accélérer la découverte de nouveaux médicaments et collaborent avec de grands laboratoires pharmaceutiques mondiaux.

La société Wayve, issue de l’université de Cambridge, développe à Londres depuis 2017 une approche basée sur “l’intelligence incarnée” (Embodied AI) pour l’apprentissage de la conduite autonome. Dans l’industrie du hardware, Graphcore, start-up fondée à Bristol en 2016, a conçu des processeurs spécifiquement optimisés pour l’IA et levé près de 700 millions de dollars (650 millions d’euros) auprès d’investisseurs majeurs.

Stability AI, également basée à Londres, s’est fait connaître dès 2019 avec la création de Stable Diffusion, un modèle génératif d’images à partir de descriptions textuelles. La société a réuni 101 millions de dollars (94 millions d’euros) de financement en 2022 pour une valorisation à 1 milliard de dollars (929 millions d’euros).

Intégration de l’IA dans la défense et la sécurité nationale

Le développement de l’intelligence artificielle est une priorité affirmée du gouvernement britannique. La National AI Strategy, publiée en septembre 2021, définit trois axes : investissement massif dans la recherche, généralisation de l’adoption dans l’économie et encadrement éthique et réglementaire.

En 2022, le ministère de la Défense a publié sa propre stratégie de l’IA, considérant cette technologie comme un élément clé des armées du futur. Le dernier Strategic Defence Review de 2025 désigne l’intelligence artificielle comme “composante fondamentale de la guerre moderne” et juge indispensable son intégration systématique pour préserver la supériorité opérationnelle.

Si l’IA était d’abord envisagée comme un outil de soutien, la doctrine actuelle prévoit sa généralisation à tous les niveaux, du renseignement à la conduite des opérations sur le terrain. L’une des priorités consiste à développer des modèles linguistiques capables d’accélérer la prise de décision en exploitant en temps réel les données issues du renseignement et du champ de bataille.

Le ministère de la Défense ambitionne de créer une digital targeting network : un réseau unifié d’information, alimenté par des capteurs multiples (satellites, drones, radars, cyber renseignement), pour identifier et répartir automatiquement les cibles prioritaires entre les différentes armes.

Ce système, basé sur l’IA, doit permettre de passer d’une approche fragmentée à des “opérations centrées sur la donnée”, avec une capacité de réaction et de décision accrue pour les forces armées.

Les forces britanniques expérimentent déjà de nombreux prototypes de systèmes autonomes, qu’il s’agisse de drones aériens, de robots terrestres ou de véhicules sous-marins. La Royal Air Force travaille avec ses partenaires industriels sur le projet Tempest (Future Combat Air System), un avion de combat de sixième génération intégrant l’intelligence artificielle pour l’aide à la décision et le pilotage de drones en essaim.

Les forces terrestres testent des concepts d’intégration de drones de reconnaissance et de plateformes robotisées pour l’appui-feu, avec une première détection et désignation des cibles assurées par des algorithmes d’IA. La marine, quant à elle, investit dans des projets de navires autonomes et de sous-marins sans équipage pour la surveillance et la neutralisation de mines.

La prochaine génération de grandes plateformes militaires (avions de combat, navires) sera conçue pour fonctionner en équipages hybrides, combinant opérateurs humains et systèmes d’IA. Les porte-avions en projet devraient ainsi intégrer une proportion croissante de drones contrôlés par IA en coopération avec les avions pilotés.

Dans le champ de la cybersécurité et de la guerre électronique, les réseaux neuronaux occupent une place croissante. Une unité spécialisée dans la guerre électronique a été créée en 2023 pour renforcer la détection automatique et la neutralisation des cyberattaques, la protection des réseaux militaires et la gestion optimisée des brouillages et contre-mesures électroniques.

L’intelligence artificielle permettra d’analyser en temps réel des millions d’événements sur les réseaux militaires, de détecter les comportements suspects et de piloter automatiquement les opérations de perturbation des communications et radars adverses.

L’usage de l’IA s’étend aussi à l’information warfare, avec la surveillance des réseaux sociaux pour identifier les campagnes de désinformation et la création de simulateurs avancés pour l’entraînement à la cybersécurité.

Le Royaume-Uni coordonne ses efforts avec les partenaires de l’Organisation du traité de l’Atlantique nord (OTAN), ayant contribué à l’adoption de principes éthiques pour l’utilisation de l’IA dans les armées. Londres insiste sur le respect de la sécurité, de la stabilité et des valeurs démocratiques dans le déploiement de ces technologies.

Un secteur en pleine structuration malgré des défis persistants

En janvier 2025, le Defence Select Committee du Parlement a publié un rapport sur le développement du potentiel de l’IA de défense, soulignant que le secteur britannique reste à un stade précoce et doit être davantage soutenu par le ministère pour concrétiser ses ambitions.

« Le Royaume-Uni dispose d’un potentiel pour devenir un pôle mondial de l’IA de défense, mais le secteur demeure sous-développé et requiert des mesures incitatives », note le rapport parlementaire.

Le comité recommande d’accélérer la mise en œuvre concrète des projets, afin de réduire l’écart entre la stratégie affichée et la réalité opérationnelle. L’IA est encore perçue comme un domaine expérimental au sein des forces armées, alors même qu’elle a démontré son efficacité dans des conflits récents, notamment en Ukraine pour le traitement des données de renseignement et la gestion des drones.

Le gouvernement a assuré vouloir répondre à ces recommandations, précisant que la dernière revue stratégique de défense vise justement une intégration systématique de l’IA dans l’ensemble des activités du ministère de la Défense.

Les débats d’experts publiés en novembre 2024 ont rappelé les perspectives ouvertes par l’IA sur le champ de bataille, tout en soulignant la nécessité d’une approche pragmatique et d’un investissement massif pour transformer les intentions politiques en résultats concrets.

Rejoignez-nous sur les réseaux sociaux

Aucun spam – Désinscription en un clic – Vie privée respectée