Archives de catégorie : Cloud

Une vulnérabilité Streamlit menace les marchés financiers

Une faille critique dans Streamlit expose des dashboards boursiers aux manipulations, facilitant la prise de contrôle de comptes cloud mal configurés et déstabilisant potentiellement les marchés.

 

Rejoignez-nous sur les réseaux sociaux

Aucun spam – Désinscription en un clic – Vie privée respectée

 

Cato Networks révèle une faille grave dans le widget st.file_uploader de Streamlit : l’absence de validation côté serveur permet d’exploiter cette vulnérabilité pour prendre le contrôle d’instances cloud mal configurées. À travers une démonstration, les chercheurs montrent comment cette faille peut être utilisée pour falsifier des tableaux de bord financiers en temps réel et déclencher des chocs artificiels sur les marchés. Bien que patchée dans la version 1.43.2, cette vulnérabilité souligne les risques liés à de mauvaises pratiques de configuration en environnement cloud. Vigilance, compartimentation et corrections rapides sont essentielles pour éviter tout scénario de manipulation malveillante.

Origine et nature de la vulnérabilité Streamlit

Streamlit, outil open source largement adopté pour la visualisation de données, intègre une fonction de téléchargement de fichiers, st.file_uploader, censée restreindre les types de fichiers acceptés. Or, cette vérification était uniquement exécutée côté client, dans le navigateur. Une faille majeure : en interceptant la requête, un attaquant pouvait facilement modifier l’extension du fichier envoyé, contournant ainsi la sécurité supposée.

L’équipe de Cato CTRL a mis en lumière cette vulnérabilité en février 2025. Elle permettait, entre autres, d’envoyer un fichier Python masqué sous une extension autorisée (ex. .txt), puis exécuté à distance. Cette négligence de validation côté serveur est d’autant plus critique qu’elle concerne un outil utilisé dans de nombreux dashboards de monitoring, y compris dans le secteur financier.

Scénario d’exploitation et conséquences financières

Imaginez une interface de trading qui affiche des données fausses en temps réel : cours erronés, signaux d’achat déclenchés artificiellement, volatilité non justifiée. C’est exactement ce que la démonstration de Cato a mis en scène.

En chargeant un fichier piégé dans une instance Streamlit exposée sans protections réseau (pare-feu, authentification, segmentation), l’attaquant peut obtenir un shell, escalader les privilèges et altérer les données affichées aux analystes financiers. Dans des conditions réelles, cela pourrait provoquer des prises de décisions erronées par des investisseurs, avec des impacts économiques significatifs, voire des déclenchements d’ordres automatiques sur les marchés.

La faille a été corrigée dans la version 1.43.2 de Streamlit en mars 2025. Pourtant, la plateforme a refusé de la qualifier de vulnérabilité de sécurité, estimant que la responsabilité de validation incombait aux développeurs d’applications, et non au framework. Cato Networks a donc tenté de faire enregistrer une CVE via MITRE – en vain jusqu’à aujourd’hui.

Cette faille met en lumière une vérité souvent négligée dans les environnements cloud : la configuration est aussi critique que le code. La vulnérabilité n’exploitait pas une faille dans l’infrastructure cloud sous-jacente (AWS, Azure, GCP), mais dans le déploiement de l’application elle-même. Dans le modèle de responsabilité partagée, c’est bien au client qu’incombe la protection de ses assets.

Il faut donc :

Isoler les instances Streamlit derrière des contrôles d’accès forts ;

Appliquer le principe du moindre privilège dans les autorisations ;

Mettre à jour systématiquement les dépendances open source ;

Effectuer des tests de sécurité sur les entrées utilisateur, y compris les fichiers.

Cato Networks recommande en outre d’utiliser des solutions capables de détecter les comportements anormaux dans les processus cloud, comme les accès non légitimes ou les modifications suspectes de fichiers backend. Ce cas rappelle que même une fonction d’apparence banale peut devenir un vecteur d’attaque dévastateur, surtout dans un contexte de finance algorithmique et de visualisation temps réel. L’ingénierie logicielle ne peut se permettre de reléguer la sécurité à un second plan.

Législation européenne sur le cloud : Un changement favorable aux fournisseurs américains

Dans un revirement surprenant, il semble que l’Europe n’exige finalement pas que les fournisseurs de cloud soient exemptés des lois non européennes. Cette évolution est une bonne nouvelle pour les entreprises américaines cherchant à offrir plus facilement leurs services aux gouvernements.

Bien que la loi n’ait pas encore été finalisée, la dernière version, selon Reuters, ne précise plus que les règles de cybersécurité pour les contrats cloud doivent éviter les lois non européennes.

Cela marque un changement par rapport à une version précédente, qui exigeait que les entreprises américaines souhaitant fournir des services cloud à l’Europe ou à ses États membres établissent une coentreprise avec une entité européenne. Dans le cadre de cette collaboration, les données des clients européens devaient être stockées et traitées au sein de l’Union.

Ces principes ont été vivement critiqués, non seulement par les fournisseurs de cloud, mais aussi par les banques, les chambres de compensation, les assureurs et les start-ups, qui préféraient des exigences techniques à des règles politiques et de souveraineté générales.

Ce changement représente une évolution positive pour les fournisseurs de cloud américains. Précédemment soumises à la législation américaine, ces entreprises pouvaient, dans des cas exceptionnels, être contraintes de coopérer avec les enquêtes américaines. De plus, elles n’étaient peut-être pas autorisées à divulguer de telles informations à leurs clients européens.

Selon Reuters, la version adaptée est actuellement examinée par les états membres. La version finale devrait suivre ultérieurement.

Les hébergeurs web sont-ils sécurisés ?

Les hébergeurs web sont indispensables au bon fonctionnement des activités sur internet. Sans ces serveurs, les sites en ligne ne peuvent pas être visibles par le grand public. Toutes les données (ou la majorité) essentielles au bon fonctionnement de ces plateformes se retrouvent donc sur les serveurs servant à leur hébergement. Ces derniers représentent donc une cible parfaite pour les pirates qui cherchent à s’introduire dans les systèmes informatiques pour dérober des données personnelles.

Pour éviter de se faire pirater, les hébergeurs utilisent des process de sécurité assez sophistiqués. Cependant, cela ne suffit pas, car des hackers trouvent parfois le moyen de pirater leurs serveurs. Quelles sont les techniques utilisées par les cybercriminels pour parvenir à leurs fins ? Comment les hébergeurs web peuvent-ils récupérer les données volées par les pirates ?

Comment les pirates attaquent-ils les hébergeurs web ?

Pour protéger les sites qu’ils hébergent, les hébergeurs web tels que PlanetHoster mettent en place des protocoles de sécurités très complexes. Ceux-ci ne peuvent donc pas être détruits par les attaques courantes perpétrées par les cybercriminels tels que le phishing, le malware, etc.

En général, les pirates utilisent des méthodes plus avancées telles que les attaques DDos. Un déni de service attribué ou une attaque DDoS (Distributed Denial of Service) est un piratage qui exploite les failles ou les limites de capacité particulières s’appliquant aux ressources d’un serveur d’hébergement.

Cette attaque consiste à envoyer de nombreuses requêtes à la ressource web qui subit l’attaque en vue d’entraver l’aptitude du serveur à gérer les requêtes et à bloquer son fonctionnement. Les cibles principales des attaques DDoS sont les e-commerces, les casinos en ligne ainsi que les sociétés fournissant des prestations internet comme les sites d’hébergement.

Le serveur web d’un hébergeur ne peut gérer de manière simultanée qu’un nombre limité de requêtes. En dehors de ces capacités, le canal qui relie le serveur au réseau possède également une bande passante, qui renseigne sur la limite de sa capacité. En conséquence, lorsque le nombre de demandes dépasse la capacité maximale de la ressource, la réponse aux demandes est beaucoup plus lente que d’habitude ou alors les requêtes des utilisateurs sont complètement ignorées.

L’objectif d’un pirate qui lance une attaque DDos est de bloquer le fonctionnement du serveur de l’hébergeur et exiger de l’agent pour arrêter sa manœuvre. Toutefois, dans certains cas, le déni de service attribué est perpétré pour jeter du discrédit sur l’entreprise d’hébergement qui est attaquée. En effet, si un tel problème de sécurité se pose, la crédibilité de l’hébergeur peut être remise en cause, ce qui n’est pas bon pour l’image de l’entreprise. L’attaque DDos prend donc la forme de nuisance à l’égard des activités d’un concurrent.

Comment est lancée une attaque DDos ?

Pour transmettre un nombre très important de demandes au serveur de l’hébergeur, le hacker crée souvent un « réseau zombie » via des ordinateurs infectés. S’il arrive à prendre le contrôle des ordinateurs de plusieurs employés de la société d’hébergement, grâce au piratage de leurs mots de passe, le cybercriminel peut mener des actions depuis ces appareils et lancer une attaque dont l’envergure aura raison des ressources web de sa cible.

Quelles sont les conséquences de ces cyberattaques pour les sites hébergés ?

Lorsque le serveur d’un hébergeur est attaqué, les premières victimes sont les propriétaires de sites web. Effectivement, la cyberattaque peut ralentir le fonctionnement de leurs plateformes ou les mettre hors ligne.

Une telle situation est catastrophique pour les sites web, notamment pour les boutiques en ligne. Celles-ci peuvent perdre beaucoup de clients à cause des actions menées par les pirates au niveau de l’hébergeur web. De plus, les données personnelles des utilisateurs peuvent être copiées et exploitées par les pirates pour frauder ou réaliser des opérations illégales.

En général, les données volées sont le nom, le prénom, l’adresse, le pays, la ville, le numéro de fax, le numéro de téléphone, l’identifiant et le mot de passe du compte. Problème majeur : beaucoup de personnes sur internet utilisent le même mot de passe pour tous leurs comptes en ligne. De fait, si un cybercriminel parvient à mettre la main sur cette information sensible, il peut pirater les comptes de la victime. Une véritable catastrophe sur le plan financier et moral.

Avec les autres données personnelles dérobées comme le nom, le prénom, l’adresse, la ville, etc., l’utilisateur peut être victime d’une usurpation d’identité. En d’autres termes, le pirate fait usage de l’identité de cette personne pour réaliser des opérations pouvant la mettre dans une position très inconfortable.

Par ailleurs, le piratage du serveur d’un hébergeur web peut détruire le référencement naturel des sites hébergés. Si les plateformes sont mises hors ligne ou fonctionnent mal, il est fort probable qu’elles perdent leurs positions dans les résultats de recherche. Ceci peut causer un réel préjudice aux activités de l’administration du site web, parce qu’un bon référencement naturel est un travail de longue haleine, impliquant du temps, de l’argent et beaucoup d’efforts. Par conséquent, la perte de position sur les moteurs de recherche peut ralentir considérablement l’évolution des activités de la société qui exploite la plateforme en ligne.

Comment l’hébergeur peut-il récupérer les données et les sites de ses clients ?

Afin de récupérer les données volées et réparer le tort causé aux sites des clients, il faudra retrouver l’auteur des faits. Pour ce faire, l’hébergeur web peut déposer une plainte auprès des autorités judiciaires afin qu’une enquête soit réalisée et que le cybercriminel soit arrêté.

Outre cette action, la société d’hébergement doit informer ses clients de la situation et leur demander de changer leurs identifiants et mots de passe pour empêcher le hacker de prendre le contrôle de leurs comptes en ligne. Toutefois, la meilleure arme dont disposent les hébergeurs web pour récupérer les données et les sites de leurs utilisateurs est le renforcement de leurs protocoles de sécurité.

Les prestataires ne doivent laisser aucune faille pouvant être exploitée par les pirates. Ainsi, le système informatique de l’entreprise doit être complètement sécurisé pour limiter les intrusions extérieures.

Premaccess protège vos besoins en cloud

En cette période particulière de confinement solidaire pour combattre le corona virus, petit tour du côté de ceux qui continuent de travailler, dans l’ombre de l’informatique.

Opter pour un espace nuagique sécurisé, un cloud, peut devenir une réflexion durant ces longs jours de confinement solidaire pour lutter contre la prolifération du COVID-19. Réfléchir à un espace de stockage et de partage des documents de confiance et sur le territoire Français.

Il est fortement conseillé d’évitez les serveurs de stockage en réseau. Les NAS, faits maison, sont certes « sympas » mais il vaut mieux se tourner vers des compétences appropriées et sécurisantes. Dans le cas de ce confinement, les employés comme leur direction doivent se souvenir à chaque courriel ouvert, chaque fichier sauvegardé peuvent tomber sous le coup du Règlement Général de la Protection des Données. Vous êtes responsable des documents et de leurs contenus. Bilan, à la maison, avez-vous mis en place des protocoles de base, comme le chiffrement. Ne nous voilons pas la face. Soit vous entendrez le cri perdu d’un utilisateur vous indiquant « Le chiffre… quoi ? » ou encore le « C’est trop compliqué à mettre en place ». Je ne parle même pas de ceux qui ont, mais qui n’utilisent pas car « c’est contraignant ton merdier coco! ».

Faire appel à des pros pour ses sauvegardes

Installée à Paris et à Fribourg, en Suisse, la société Premaccess possède comme client Safran, La Compagnie des Alpes ou encore la Mutuelle Lamie. Que ces grands noms ne vous fasse pas fuir. A chacun ses solutions, à chacun son budget. Dans les propositions qui nous intéressent aujourd’hui, la bonne gestion de ses services managés cloud. Premaccess propose un accompagnement, vous guide dans la mise en place d’architectures informatiques sur mesure. L’optimisation de vos ressources et le suivi, pas à pas, de ce que vous avez besoin de migrer vers les services nuagiques qui vous seront utiles.

Côté sécurité, le transfert, la sauvegarde, le chiffrement, la protection des données sont pris en compte. Il ne pourrait en être autrement. Premaccess affiche « un niveau de sécurité et un service-level agreement sans équivalent pour vous protéger de la cybercriminalité et mettre vos actifs critiques à l’abri. Nous sommes intransigeants sur la sécurité et notre expérience forgée auprès des systèmes financiers suisses nous permet de mettre les infrastructures à l’abri tout en permettant d’y accéder chaque fois qu’il le faut« .

La sauvegarde pour se protéger du rançonnage

Nous l’indiquons très souvent, la sauvegarde extérieure, sécurisée, est l’une des protections et roue de secours indispensable en cas de cyber attaque par rançonnage réussie. Ne jamais oublier que les développeurs de logiciels malveillants sont actifs sur les sites de médias sociaux, qu’ils diffusent par exemple de faux fichiers administratifs (banque, …). De plus, désactivez les macros dans les programmes Office et ne les activez jamais, sauf si cela est essentiel. Il devient donc indispensable de penser sauvegarde. Une sauvegarde obligatoirement à éloigner des postes informatiques des utilisateurs. Si nous parlons de rançonnage, la défaillance peut aussi intervenir lors d’un bug. Ce petit grain de sable qui va détruire ou rendre illisible vos documents.

Nous vous recommandons d’effectuer des sauvegardes périodiques des fichiers ; de les maintenir isolés du réseau. A cela, un antivirus toujours à jour doit être installé sur chaque poste. L’antivirus doit être mis à jour, sinon son utilité sera limitée ! Les derniers correctifs logiciels doist également être appliqués. Que vous soyez sous Windows, Mac, Android … Pensez aussi à couper les connexions Bureau à distance. Elles ne sont nécessaires ? Ne les laissez pas branchées.

Faire appel à des professionnels de la sauvegarde est fortement conseillé. Ils vous permettrons de mettre en place un plan de sauvegarde. Un plan qui vous donnera l’occasion de vérifier votre bonne mise en place de vos obligations légales concernant la sauvegarde informatique, d’autant plus si vous êtes une entreprise. Ne pas oublier que l’archivage des données est une obligation légale. Pour rappel, contrats, commandes clients, factures … doivent être archivés sur une durée de 10 ans sur le territoire Français. Votre ordinateur et le disque dur qu’il transporte seront-ils encore là, dans dix ans ?

Bref, comme vous l’aurez compris, la sauvegarde et les bénéfices qu’apportent le cloud ne sont plus à démontrer. A vous de choisir la meilleure des solutions !

L’évolution des menaces dans les Clouds

Un rapport met en lumière les vulnérabilités des clouds, les tactiques des cyber-attaquants, où et comment les menaces font surface dans le contexte actuel, celui du passage généralisé aux l’infrastructures clouds, sans négliger de plonger dans le DevSecOps.

Ces 18 derniers mois, L’U42 a constaté un changement radical dans la façon dont les équipes DevOps déploient leurs infrastructures cloud. Les entreprises adoptent en masse l’infrastructure as code (IAC) en essayant d’automatiser au maximum leurs processus dans le cloud. Quand les équipes passent à l’IaC, elles évitent la création et la configuration manuelle de leur infrastructure en passant par des lignes de codes à la place. Même si ce n’est pas une nouveauté, comme de nombreuses sociétés utilisent cette méthode pour la première fois, de nouveaux risques se présentent.

Les recherches montrent qu’alors que l’IaC propose aux équipes une façon programmable d’implanter les standards de sécurité informatique, cette fonctionnalité puissante reste largement sous-utilisée.

199 000 templates non sécurisés sont en usage. Pourquoi est-ce important ? Les chercheurs ont trouvé un nombre incroyable de templates présentant des failles de sécurité avec des menaces moyennes à hautes. Il suffit d’une de ces mauvaises configurations pour compromettre tout un environnement cloud.

Tout comme il suffit d’une fenêtre ouverte ou d’une porte non verrouillée pour laisser entrer un voleur

Ce taux élevé explique pourquoi dans un précédent rapport, L’Unit42 a montré que 65 % des incidents liés au cloud étaient dus à de mauvaises configurations utilisateurs. Sans utilisations de templates IAS sécurisées dès le départ, les environnements cloud sont mûrs pour des attaques.

43 % des bases de données dans le cloud ne sont pas chiffrées. Pourquoi est-ce important? Avoir des données en clair revient à avoir une maison avec des murs de verre.

Quelqu’un peut venir et voir exactement ce qu’il se passe à l’intérieur. Garder ses données chiffrées empêche les attaquants d’accéder à l’information stockée. Le chiffrement des données est également obligatoire dans certains standards comme PCI DSS ou HIPAA. Les récentes failles de Vistaprint et MoviePass en démontrent l’importance.

60 % des services de stockage dans le cloud ont leur procédure d’identification désactivée. Pourquoi est-ce important? Une société n’accepterait jamais d’avoir plus de la moitié de ses entrepôts sans surveillance ni contrôle d’accès, car cela rendrait impossible de savoir qui entre ou sort dans les lieux. En désactivant la procédure d’identification pour le stockage dans le cloud, des cybercriminels comme CloudHopper ou FancyBear pourraient entrer dans le réseau sans que personne ne le sache. Cette identification est cruciale pour déterminer l’étendue des dégats dans des incidents comme la fuite des listes électorales états-uniennes, ou la fuite de données de la National Credit Foundation.

Les templates IaC les plus couramment utilisés
37% Terraform
24 % des templates CloudFormation
39 % K8s YAML

Les templates IaC les plus vulnérables
22% Terraform
42 % des templates CloudFormation
9 % K8s YAML

Dans le rapport précédent, il était notifié que les sociétés devaient améliorer la supervision centralisée et la mise en place des configurations cloud sécurisées. En dehors des templates IaC, dans les mois qui ont suivi ce rapport, nous avons constaté que les entreprises ont mis du temps à apporter ces améliorations. Pire, il semblerait que certaines s’engagent dans la mauvaise vois.

Les principaux changements depuis le dernier rapport

76 % des charges dans le cloud ont une exposition SSH (port 22), en hausse de 20 % par rapport à l’édition précédente rapport.

Pourquoi est-ce important?

Exposer ses serveurs SSH à l’ensemble d’Internet est une pratique à risque. Les attaquants ciblent les services SSH, car ils fournissent des accès distants aux environnements clouds. Les équipes de sécurité devraient laisser tomber les modèles d’accès basés sur la confiance avec des comptes et des mots de passe. « Ne jamais se fier, toujours vérifier » comme le préconise l’approche Zero-trust. Il est inquiétant de voir que cette exposition des services est une tendance en hausse.

69 % des entreprises exposent leurs postes de travail distants (RDP) (Port 3389), en hausse de 30 % par rapport à la précédente édition rapport.

Pourquoi est-ce important?

Faites votre choix : le poste de travail distant ou SSH. Exposé publiquement, chacun de ces services permet aux attaquants de frapper à votre porte alors qu’ils ne devraient même pas connaître votre adresse. Les chercheurs déconseillent fortement d’exposer les postes de travail distants publiquement sur Internet. De nombreuses solutions existent comme Azure Bastion, un service PaaS proposé par Microsoft. Cette tendance dangereusement à la hausse est à surveiller attentivement d’ici le prochain rapport.

27 % des sociétés utilisent des versions dépassées de TLS (Transport Layer Security), en baisse de 34 % par rapport au précédent rapport.

Pourquoi est-ce important ?

TLS v1.1 a été abandonné en 2008 en raison de sa vulnérabilité croissante aux attaques. En plus de ne plus respecter les demandes de certains standards comme PCI DSS, les entreprises qui l’utilisent encore mettent en danger les données de leurs clients. Voir baisser cette tendance est une bonne chose pour la sécurité des clients et le respect de leur vie privée.

Les bonnes pratiques à avoir

Avoir et maintenir une visibilité pluri clouds

Il est très difficile de sécuriser ce qui n’est pas vu ou su. Les équipes de sécurité doivent être les premiers à réclamer des plateformes cloud sécurisées dès le départ (CNSPs). Une visibilité à travers les clouds publics, privés ou hybrides, mais également les conteneurs, les déploiements « serverless » et les pipelines CI/CD  indispensables.

Respecter les standards

La sécurité à l’échelle du cloud demande un respect strict des standards.  Et cela à travers les environnements cloud publics, privés ou hybrides.

Pas encore de norme de sécurité ? La société peut consulter les benchmarks créés par le Center for Internet Security (CIS).

Un standard sur le papier c’est bien… mais il faut s’assurer qu’il est régulièrement mis en applications.

Toujours plus tôt

La sécurité « shif-left » consiste à prendre en compte la sécurité le plus tôt possible dans le développement. Travaillez avec les équipes DevOps pour que ses standards de sécurité soient compris dans les templates IaC qu’elles utilisent. C’est une situation gagnante tant pour le DevOps que pour les responsables sécurité.

Buckets open cloud : 52 secondes suffisent pour qu’un Serveur Cloud se fasse attaquer par des pirates

Buckets open cloud : Une étude indique qu’il suffirait de 52 secondes pour qu’un serveur cloud soit sous les tirs d’une cyberattaque. L’étude porte sur 10 serveurs cloud honeypots, répartis dans le monde. L’enquête révèle un réel besoin en visibilité et de sécurité pour protéger ce que les entreprises mettent sur des plateformes hybrides et tout-cloud.

Il a fallu moins de 40 minutes en moyenne pour que des cybercriminels attaquent des serveurs cloud honeypots déployés sur 10 sites différents répartis dans le monde entier, le site de São Paolo au Brésil faisant l’objet de l’attaque la plus rapide, au bout de 52 secondes seulement. Les serveurs basés à Paris ont subi une première tentative de connexion malveillante au bout de 17 minutes et 20 secondes seulement, ce qui fait de Paris la ville d’Europe touchée le plus rapidement par ces attaques (et la 4ème ville au niveau mondial).

Paris est la deuxième ville d’Europe la plus ciblée en terme de nombre d’attaques – les honeypots hébergés sur des serveurs à Paris ont subi 612 885 attaques en trente jours (juste derrière l’Irlande avec 616 232 attaques). Les serveurs cloud ont été, en moyenne, la cible de 13 tentatives d’attaque par minute et par honeypot.

5 millions d’attaques

Plus de 5 millions de tentatives d’attaques ont été détectées sur tous les honeypots, et ce sur une période de 30 jours.

Ces 10 centres de données parmi les plus populaires au niveau d’Amazon Web Services (AWS) dans le monde, ont été testés pendant 30 jours. On compte parmi eux des emplacements à Paris, à Francfort, à Londres, en Irlande, en Californie, en Ohio, à Mumbai, à São Paulo, Singapour ou encore à Sydney.

Les résultats montrent ainsi comment les cybercriminels recherchent automatiquement les buckets open cloud vulnérables. Si les attaquants réussissent à entrer, les entreprises peuvent alors voir des données vulnérables exposées. Les cybercriminels utilisent également des serveurs cloud compromis comme relais pour accéder à d’autres serveurs ou réseaux.   « Le rapport Sophos ‘Exposed: Cyberattacks on Cloud Honeypots’ identifie les menaces auxquelles font face les entreprises qui migrent vers des plateformes hybrides et tout-cloud. La rapidité et l’ampleur des attaques contre les honeypots prouvent le niveau de menace persistant des cybercriminels et montrent qu’ils utilisent des botnets pour cibler les plateformes cloud d’une entreprise. Il peut s’agir parfois d’attaquants humain, mais quoi qu’il en soit, les entreprises ont besoin d’une stratégie de sécurité pour protéger ce qu’elles mettent sur le cloud », déclare Matthew Boddy, spécialiste cybersécurité chez Sophos. « La question de la visibilité et de la sécurité au niveau des plateformes cloud est un défi majeur pour les entreprises. Et avec la migration croissante vers le cloud, cette tendance se confirme ».    

 

Le casse tête de la sauvegarde de données pour PME

La sauvegarde informatique plus que jamais est devenue un élément indispensable pour les utilisateurs de données numériques. Si pour les particuliers la question ne se pose pas trop à la vue du nombre de possibilités « gratuites » mises en place, il n’en va pas de même pour les PME confrontées aux problématiques du coût/sécurité/efficacité/souplesse.

L’idée de ce petit article est venue en rencontrant de nombreux responsables de PME/PMI. Sur cinquante représentants croisés, plus de la moitié se contentaient d’une sauvegarde approximative. Par ce terme, comprenez sans redondance, sans chiffrement et le disque dur/NAS perpétuellement connecté à l’ordinateur sauvegardé.

Autant dire que cela me parait inquiétant. Un tiers faisait confiance au commercial, à la secrétaire, … Dix m’ont avoué passer par des ‘cloud’ généralistes, dont les américains Drive et Dropbox.

Bref, il est impératif que les PME et PMI s’inventent une réelle stratégie de sauvegarde de leurs données. D’autant plus qu’à la moindre fuite, la moindre modification, perte… une nouvelle épée de Damoclès apparait, le Règlement Général des Données Personnelles, le RGPD.

Pour rappel, derrière ces quatre lettres, et en cas de faute grave, cela pourra coûter jusqu’à 4% du chiffre d’affaire de la PME. Avez-vous vraiment envie de jouer avec le feu ? Il existe de nombreuses solutions de sauvegarde, vous pouvez trouver de nombreuses possibilités dans ses colonnes. Aujourd’hui, petit détour du côté de chez Beemo.

L’entreprise, basée à Paris, propose des solutions complètes pour assurer la sauvegarde des données et la reprise d’activité en cas de sinistre. Autant dire que face à un ransomware par exemple, et dites-vous que cela n’arrive pas qu’autres, la sauvegarde sera votre unique bouée de sauvetage.

Beemo propose par exemple, Bee2Cloud. La solution s’annonce sécurisée grâce à la triple sauvegarde des données. Chiffrement et rapport qualité/prix en font un partenaire intéressant à suivre. Plusieurs Data Centers basés en France (conforme RGPD) et plus précisément à Lyon et Marseille. Rassurant, le contrôle quotidien des sauvegardes par les équipes techniques.

Bref, une solution française à suivre de prés. Pour en savoir plus site beemotechnologie.com.

Espionnage des conducteurs de voiture via leur autoradio

Les habitudes d’écoute de milliers de conducteurs de voitures surveillées, sans consentement, durant 3 mois. But final, diffuser des publicités ciblées !

Environ 90 000 conducteurs de véhicules General Motors ont été surveillés par le constructeur de voitures. Les propriétaires et leurs passagers ont été surveillés durant 3 mois alors qu’ils voyageaient sur les routes de Chicago et de Los Angeles. C’est l’équipe Detroit Free Press qui a révélé cet espionnage qui s’est déroulé en 2017. General Motors a confirmé cette « écoute » qui aurait été mis en place dans le cadre de son programme de suivi de radio. La société a reconnu collecter des données afin de les utiliser manière intelligente. Bref, traduisez par la diffusion de publicités ciblées. Vous comprenez maintenant pourquoi le fait de savoir que Renault a choisi Google comme moteur de recherche peut inquiéter les utilisateurs. Google connaîtra l’ensemble des comportements des conducteurs de voiture de la marque française. Qwant aurait été parfait pour éviter ce ciblage.

Via le Wi-Fi des voitures

Pour général Motors, lors de son test de trois mois, l’espionnage a utilisé le Wi-Fi proposé dans les voitures pour suivre les habitudes de certains de ses conducteurs dans l’espoir de voir s’il existait un lien entre ce que les conducteurs écoutent et ce qu’ils achètent. GM, avec 10 millions de voitures en circulation, est l’un des premiers constructeurs à entreprendre une telle étude. A noter que les 90 000 conducteurs de Los Angeles et de Chicago impactés avaient accepté de participer à une « proof of concept » sans connaitre la finalité de cette preuve de concept. « Les données sont ensuite agrégées et anonymisées. Les résultats obtenus sur un très grand échantillon et n’incluent aucune information personnellement identifiable » indique General Motors.

Espionnage dans nos voitures

L’espionnage, via les automobiles, n’est pas une nouveauté. Je vous passe les contenus que sont capables de stocker les « clés » sans fil des voitures. En 2015, Chevrolet proposait aux parents un logiciel d’espionnage, Teen Driver, intégré dans ses voitures. Raison invoquée, permettre aux parents de suivre leurs enfants conducteur ! Mais aussi être averti si la vitesse est dépassée (vitesse choisie par les parents). Recevoir des rapports sur les véhicules. Limiter le volume audio de l’auto radio.

Les 4 piliers pour maîtriser l’environnement multi-Cloud

Il existe quelques fondamentaux à respecter pour gagner en liberté et en sécurité et permettre à l’entreprise de tirer le meilleur parti de ses applications.

Le Cloud, qu’il soit public, privé ou hybride, ne cesse de gagner du terrain. Il offre aux entreprises une formidable opportunité de se développer rapidement et de fournir des services à valeur ajoutée pour répondre à la demande croissante des clients. Selon un récent rapport d’IDC, 86 % des entreprises adopteront une stratégie multi-Cloud d’ici deux ans. Cette évolution exerce de fortes pressions sur les départements informatiques, qui se voient contraints de réduire les coûts, d’assurer la protection des données et de sécuriser les applications critiques. Pour maîtriser l’univers multi-Cloud, l’accent doit être mis sur quatre piliers fondamentaux : stratégie, marché, opérations et valeur.

Stratégie du multi-cloud

Un plan de migration stratégique vers le Cloud aide les entreprises à aller de l’avant grâce à une architecture efficace qui sécurise les applications critiques, optimise le potentiel de l’entreprise, garantit la conformité des données et préserve l’expérience utilisateur. La question que doivent se poser les responsables est de savoir si la stratégie de migration vers le Cloud fournit le socle nécessaire à l’innovation, la croissance de l’activité et l’apport de valeur ajoutée aux clients. Les entreprises ont besoin de résultats tangibles qui ont un impact positif sur l’activité. La sécurité est une composante centrale de tout projet de migration, en particulier lorsque ce dernier intègre des services Cloud natifs s’appuyant sur des règles incompatibles avec les services déployés sur site. Parallèlement, investir dans des outils avancés et du personnel qualifié renforce la maîtrise technologique et l’alignement de la stratégie globale.

Marché

Une compréhension du marché des fournisseurs de services Cloud est fondamentale pour créer de la valeur et optimiser les performances. D’après le rapport State of Applications Delivery 2017 publié par F5, une entreprise sur cinq prévoit d’héberger plus de 50 % de ses applications dans le Cloud, ce qui ne fera qu’amplifier le problème de la sécurité des applications.

D’où l’importance de choisir une solution Cloud et un fournisseur de sécurité appropriés. Il est par exemple possible de combiner services sur site, services de Cloud public/privé et services SaaS (Software-as-a-Service). Le marché offre de nombreuses possibilités. Que l’entreprise opte pour le transfert des applications existantes vers le Cloud (migration de type « lift and shift ») ou pour des applications Cloud natives, il est important d’éviter toute dépendance vis-à-vis de fournisseurs de services Cloud spécifiques. Déployer la bonne combinaison de solutions dans le ou les bons environnements accélère la mise sur le marché, atténue les menaces et assure la cohérence, quel que soit le scénario opérationnel.

Opérations

Un modèle multi-Cloud transforme le département informatique en courtier de services, aidant ainsi les entreprises à renforcer la sécurité des applications tout en optimisant le rendement de l’infrastructure existante via la normalisation. Les entreprises prospères adoptent une approche intégrée du Cloud et évitent les silos départementaux. La sécurité des applications dépend de l’ensemble de l’architecture applicative, y compris de l’infrastructure réseau. Tout l’écosystème doit protéger pleinement les données et services vitaux en constante évolution. La sécurité ne doit pas être l’affaire d’un seul individu ni d’une seule fonction de l’entreprise. Pour une transition en douceur, toutes les parties prenantes doivent se synchroniser entre elles et parfaitement saisir les objectifs commerciaux. Une collaboration plus étroite entre les équipes DevOps et NetOps est attendue. De leur côté, les architectes des nouvelles solutions et nouveaux services applicatifs doivent mieux sensibiliser les dirigeants. Avantages de la migration vers le Cloud et aux aspects à normaliser.

Valeur

Il est indispensable de mettre en place des dispositifs de mesure, de surveillance et de gestion. Un écosystème de solutions de sécurité intégrées est requis. Il doit protéger les applications vitales contre des risques majeurs, où qu’elles résident.

Recourir à des outils robustes. Appréhender le paysage des menaces. Mettre à la disposition des spécialistes de la sécurité tous les moyens nécessaires aide les entreprises à protéger les données sensibles. Il doit faciliter le contrôle des accès en vue d’une meilleure expérience client.

Une mesure et une surveillance étroites des performances d’un projet Cloud permettent d’identifier les menaces. Connatre leur impact sur le bilan de l’entreprise.

L’adoption de technologies Cloud doit également être un moyen pour les entreprises de lancer de nouveaux services et d’innover. Croissance de l’activité, accélération de la mise sur le marché, flexibilité/efficacité opérationnelles et optimisation des performances applicatives sont des facteurs essentiels. Au final, le Cloud doit être une source de fierté pour l’entreprise et renforcer la réputation de la marque.

Conclusion : maîtriser ou subir son multi-cloud

De plus en plus d’entreprises adoptent un modèle multi-Cloud. Si elles ne veulent pas être laissées pour compte dans un monde numérique en rapide mutation, elles doivent agir. Ce sont la réputation de leur marque et la confiance des clients qui sont en jeu. En l’absence de vision et de stratégie, elles se laisseront dépasser par la complexité. Elles finiront par rejoindre les rangs des victimes de la cybercriminalité. Il est temps pour elles de devenir maîtres de leur destin. (Par Laurent Pétroque, expert sécurité chez F5 Networks)

Cadres, le RGPD pourrait vous coûter votre carrière

Le nouveau règlement sur les données privées, le RGPD, pourrait ralentir la carrière des cadres supérieurs dans le monde entier.

Les cadres supérieurs mettent en danger leur avancement de carrière en raison d’un grand manque de connaissances concernant la nouvelle législation sur la confidentialité des données. C’est ce que révèle une nouvelle étude internationale : si les cadres ne contribuent pas à l’hébergement de leurs données par des chasseurs de tête, ils risquent de manquer des opportunités de carrière cruciales et donc les augmentations de salaire typiques lorsque le Règlement général sur la protection des données (RGPD) sera entré en vigueur, en mai 2018.

Les cadres supérieurs risquent de passer à côté d’opportunités de carrière cruciales

L’étude Conséquences inattendues – Pourquoi le RGPD pourrait ralentir la carrière des cadres supérieurs dans le monde entier, a été réalisée par GatedTalent, un outil de mise en conformité avec le RGPD destiné au secteur du recrutement, auprès de plus de 350 cabinets de recrutement autour du monde. Elle montre que les cadres supérieurs sont généralement contactés par des chasseurs de tête au moins une fois par an, 32 % des répondants s’attendant même à être contactés trois à cinq fois par an. Pour que cela puisse être le cas, les cabinets de recrutement doivent pouvoir stocker les données reçues de cadres et dirigeants – mais le RGDP implique que bon nombre de recruteurs vont devoir changer la façon dont ils opèrent actuellement.

C’est le sentiment qu’exprime le Dr Bernd Prasuhn, de l’entreprise de recrutement Ward Howell, interviewé dans le cadre de la recherche : « Les cadres supérieurs qui espèrent atteindre un poste de direction un jour doivent être sur le radar des entreprises de recrutement des cadres, faute de quoi ils n’y parviendront jamais ».

Un manque considérable de connaissances sur le RGPD

Malgré tout, peu de cabinets de recrutement ayant participé à l’étude estiment que les cadres supérieurs sont conscients de la façon dont le RGPD risque d’affecter leur avancement. Jens Friedrich de l’entreprise de recrutement SpenglerFox, qui a été interrogé dans le cadre de l’étude, ne pense pas que les cadres supérieurs, qui comptent sur les chasseurs de tête pour leur proposer un nouveau poste, soient pleinement conscients de la façon dont le RGPD est susceptible d’affecter leurs options professionnelles, surtout quand on sait qu’un cadre supérieur change généralement de travail tous les 3 ou 4 ans. « Je pense que cela dépendra beaucoup des circonstances personnelles, à savoir s’ils travaillent dans un secteur susceptible d’être fortement affecté, par exemple, ou s’ils ont déjà été informés par une entreprise de recrutement. Cela variera vraisemblablement d’un pays à l’autre mais j’ai le sentiment que la prise de conscience sera minimale chez les cadres supérieurs ».