Tous les articles par Damien Bancal

Damien Bancal, expert reconnu en cybersécurité Damien Bancal est une figure incontournable de la cybersécurité, reconnu à l’international pour son expertise et son engagement depuis plus de 30 ans. Fondateur de ZATAZ.com en 1989 (et DataSecurityBreach.fr en 2015), il a fait de ce média une référence majeure en matière de veille, d’alertes et d’analyses sur les cybermenaces. Auteur de 17 ouvrages et de plusieurs centaines d’articles pour des médias comme Le Monde, France Info ou 01net, il vulgarise les enjeux du piratage informatique et de la protection des données personnelles. Lauréat du prix spécial du livre au FIC/InCyber 2022, finaliste du premier CTF Social Engineering nord-américain (2023), et vainqueur du CTF Social Engineering du HackFest Canada (2024), il est reconnu pour sa capacité à allier pratique du terrain et transmission pédagogique. Le New York Times ou encore Le Big Data ont salué son parcours, et l’agence Tyto PR l’a classé parmi les 500 personnalités tech les plus influentes en 2023. Il est aujourd’hui 9ᵉ influenceur cyber en Europe. Chroniqueur à la radio et à la télévision (France Info, RTL, M6, Medi1...), il est également réserviste citoyen au sein de la Gendarmerie Nationale (Lieutenant-Colonel - Unité Nationale Cyber) et de l'Éducation Nationale (Hauts-de-France). Médaillé de la Défense Nationale (Marine) et des réservistes volontaires, il poursuit son engagement au travers de son entreprise veillezataz.com, lancée en 2022.

Le secteur technologique serait devenu le plus cyber attaqué

Selon un énième rapport, on découvre que le secteur technologique représenterait 43% de l’ensemble des cyberattaques en France et 25% des attaques mondiales.

Je ne sais pas pour vous, mais découvrir que les cybercriminels innovent plus rapidement pour lancer des attaques faisant appel à l’intelligence artificielle et au Machine Learning et en investissant dans l’automatisation me fait doucement sourire. A croire que les experts découvrent l’automatisation des attaques informatiques. S’il ne fallait qu’en citer deux, souvenez-vous du Virus « Leonard de Vinci » ou plus récent, il y a 20 ans, le virus « I Love You« . Bref, deux époques ou la cyber sécurité n’était qu’un petit mot, en soirée.

La dernière en date, indique que les cybercriminels font évoluer leurs techniques grâce à de nouvelles innovations et automatisent de plus en plus leurs attaques. Selon le rapport GTIR (Global Threat Intelligence Report) 2020 de NTT Ltd, une entreprise spécialisée dans les services technologiques, le secteur technologique devient pour la première fois le secteur le plus attaqué, que se soit en France, mais aussi au niveau mondial.

Le secteur technologique, n°1 des secteurs les plus touchés

Si le volume des attaques a augmenté dans tous les secteurs l’an passé, le secteur technologique apparaît pour la première fois comme l’une des industries les plus attaquées au niveau mondial représentant 25 % de l’ensemble des attaques (contre 17 % l’année précédente). Plus de la moitié des attaques dirigées contre ce secteur étaient spécifiques à des applications (31 %) ou de type DoS/DDoS (25 %), tandis que les attaques militarisées contre l’Internet des objets (IoT) se sont multipliées.

En France, les entreprises technologiques sont les premières cibles des attaques, et de loin, avec 43%, suivie par les services professionnels à 23%, et par l’industrie qui complète le podium avec 22% de l’ensemble des attaques. Les auteurs des attaques innovent, en faisant appel à l’intelligence artificielle et au Machine Learning ainsi qu’en investissant dans l’automatisation. Environ 21 % des malwares détectés ont pris la forme d’un scanner de vulnérabilités, confirmant que l’automatisation est l’une des priorités des assaillants.

Le rapport démontre également la militarisation des attaques contre l’IoT : des botnets tels que Mirai, IoTroop et Echobot ont progressé en matière d’automatisation, améliorant ainsi leurs capacités de propagation. Mirai et IoTroop sont également réputés pour se répandre via des attaques IoT, puis se diffuser par l’utilisation de scanners et l’infection qui s’ensuit des hôtes identifiés comme vulnérables.

Mark Thomas, qui dirige le Global Threat Intelligence Center de NTT Ltd., commente : « Les années précédentes, nous avions observé que la plupart des attaques visaient le secteur financier mais, cette année, la situation a changé puisque le secteur technologique a enregistré une hausse de 70 % des attaques. La militarisation des attaques contre l’IoT a également contribué à cette augmentation et, si aucun botnet ne domine à lui seul, nous avons noté d’importants volumes d’activité provenant à la fois de Mirai et IoTroop. Les attaques contre les administrations ont quasi doublé, notamment avec des bonds des attaques de reconnaissance ou applicatives, menées par des acteurs malveillants qui profitent de l’intensification des services en ligne offerts aux citoyens au niveau local. »

Des failles, partout !

Les vulnérabilités anciennes demeurent une cible active : les attaques ont exploité des failles vieilles de plusieurs années mais toujours non corrigées par les entreprises, par exemple HeartBleed, qui a contribué à faire d’OpenSSL le deuxième logiciel le plus ciblé (par 19 % des attaques au niveau mondial). Au total, 258 nouvelles vulnérabilités ont été identifiées dans les frameworks et logiciels Apache ces deux dernières années, faisant de cette plateforme la troisième la plus visée en 2019 (victime de plus de 15 % de l’ensemble des attaques observées). Les attaques sur les systèmes de gestion de contenu (CMS) ont représenté environ 20 % du total : ciblant des plateformes CMS répandues telles que WordPress, Joomla!, Drupal et noneCMS, les cybercriminels s’en sont servis comme porte d’entrée dans les entreprises afin de leur dérober de précieuses informations et d’y lancer des attaques supplémentaires. En outre, plus de 28 % des technologies ciblées (à l’image de ColdFusion et Apache Struts) participent au fonctionnement des sites web. La vitesse de création de sites web se présentant comme une source « officielle » d’informations COVID-19, mais hébergeant des kits d’exploitation et/ou des logiciels malveillants – dépassant parfois 2 000 nouveaux sites par jour.

Zoom acquiert Keybase, spécialiste du chiffrement, et annonce son objectif de développer l’offre de chiffrement de bout en bout la plus utilisée par les entreprises

Zoom acquiert Keybase, spécialiste du chiffrement, et annonce son objectif de développer l’offre de chiffrement de bout en bout la plus utilisée par les entreprises

Zoom Video Communications, Inc., spécialiste de la visioconférence dans le cloud et Keybase annoncent aujourd’hui que Zoom a fait l’acquisition de Keybase, un service de messagerie et de partage de fichiers sécurisé. L’acquisition de ce spécialiste en sécurité et en chiffrement permettra d’accélérer le plan que Zoom s’est fixé pour construire un chiffrement de bout en bout pouvant accompagner la croissance actuelle de la société.

« Il existe aujourd’hui des plateformes de communication chiffrées de bout en bout, des plateformes dont la sécurité peut être facilement déployée et des plateformes répondant aux besoins des entreprises à très grande échelle. Nous pensons toutefois qu’aucune offre sur le marché ne propose actuellement tous ces éléments réunis. Et c’est ce que Zoom souhaite construire, en offrant à ses utilisateurs, dans un même produit, sécurité, facilité d’utilisation et évolutivité. », a déclaré Eric S. Yuan, PDG et fondateur de Zoom. « La première étape consiste à réunir les bonnes personnes. Keybase apporte à Zoom une expertise approfondie en matière de chiffrement et de sécurité, et nous sommes ravis d’accueillir Max et son équipe. L’arrivée d’un groupe cohésif d’ingénieurs en sécurité comme celui-ci fait considérablement avancer notre plan de 90 jours pour renforcer nos efforts en matière de sécurité ».

« Keybase est ravie de rejoindre l’équipe Zoom », a déclaré Max Krohn, co-fondateur et développeur de Keybase.io. « Notre équipe est passionnée par la sécurité et le respect de la vie privée. C’est un honneur de pouvoir apporter notre expertise en matière de chiffrement à une plateforme telle que Zoom qui est utilisée par des centaines de millions de participants par jour ».

Intégrée à l’équipe d’ingénieurs en charge de la sécurité de Zoom, Keybase jouera un rôle clé dans l’articulation du plan de 90 jours que Zoom s’est fixé pour identifier et traiter les failles potentielles, et ainsi améliorer les capacités de sécurité et de confidentialité de sa plateforme. Max Krohn prend la tête de l’équipe d’ingénieurs en charge de la sécurité de Zoom. Il relèvera directement d’Eric Yuan. Les dirigeants de Zoom et de Keybase travailleront ensemble pour déterminer l’avenir du produit Keybase. Les termes de la transaction n’ont pas été divulgués.

Keybase est une entreprise qui se consacre à la sécurité, au chiffrement, à l’identification forte et à la protection de la vie privée. Keybase propose des services de chat chiffré de bout en bout, de partage de fichiers et d’hébergement de codes, tous basés sur une plateforme de chiffrement capable de supporter plusieurs appareils par utilisateur et des équipes importantes et dynamiques.

A noter que la ville de New-York a levé l’interdiction d’utiliser ZOOM dans les établissements scolaires de la Grosse Pomme.

Vous avez effacé des données par mégarde ? Voici EaseUS Data Recovery Wizard

Vous avez effacé un fichier, un dossier par mégarde ? L’erreur qui fait souvent froid dans le dos. Il existe de nombreux logiciels de récupération de documents effacés. Nous allons tester aujourd’hui la version gratuite de EaseUS Data Recovery Wizard.

En 2016, nous vous avions proposé les tests de plusieurs logiciels de récupération de fichiers que vous aviez malencontreusement effacés. Quatre ans plus tard, revenons sur ces outils. Leur évolution, les mises à jour, les nouveautés. Nous allons commencer cette série avec EaseUS Data Recovery Wizard et sa version gratuite.

En quatre ans, l’outil a gagné en puissance, aidé par de nouveaux algorithmes et des disques dur plus rapide. Toujours aussi pratique, il vous permet de lancer une recherche concernant tous les fichiers que vous avez pu effacer. Textes, vidéos, photos … l’outil se lancera dans une recherche qui se veut efficace. Mais l’est-elle vraiment ? Le logiciel pése au téléchargement 1,47Mo. 5Mo une fois installé.

Oui, incontestablement ! Nous avons effacé six fichiers de tailles et formats différents. Un MP3 (musique), une vidéo en .MP4 et des textes sous les formats de Word, Excel ou encore OpenOffice. Sur une durée de 72 heures, le temps de travailler, effacer d’autres fichiers et documents, nous avons lancer EaseUS Data Recovery Wizard à la recherche des « effacés ». 100% de réussite, même sur le document écrasé par un congénère portant le même nom. Vitesse de recherche non négligeable, il nous aura fallu 1 heures pour remonter toutes les informations effacés sur une clé USB de 250Go ; Deux heures pour une disque dur interne de 500Go.

Depuis 2016, l’outil fonctionne aussi dorénavant pour PC (sous Windows) et MAC. Pour « la Pomme », l’outil travaille sur le disque dur, SSD, disque Fusion drive, lecteur de sauvegarde Time Machine et comme le PC, recherche sur carte sd, carte mémoire, clé USB, appareil photo, etc. Plus de 15 millions d’utilisateurs l’utilisent pour récupérer des fichiers, des e-mails, des photos, des vidéos, etc. supprimés, perdus ou formatés. Deux versions sont disponibles. Pour les particuliers, une version gratuite. Et pour les entreprises, une version payante. Compter une licence à vie pour 146€ (mise à jour comprise). Compter 96€ pour une année. Le prix peut paraitre élevé mais pour retrouver des données perdues, facilement, le ratio coût d’achat/coût de perte est rapidement fait.

Pour finir, EaseUS Data Recovery Wizard recherche tous les fichiers récupérables à partir de tout périphérique de stockage inaccessible, le terrible RAW, et terminera la récupération des fichiers. A noter que nous avons réussi à vous avoir une réduction de -50% sur les versions pro pour Windows et MacOS (nous ne touchons aucun pourcentage sur les ventes).

Connexion à distance et double authentification

Dans une telle période, la protection souvent inadéquate des connexions Active Directory expose les entreprises à un risque cyber significatif. Et maintenant, alors que la majorité des entreprises se tournent vers le travail à distance, cette surface de menace s’est rapidement étendue.

En activant l’authentification à deux facteurs (2FA), vous protégez les ressources réseau contre ces accès non autorisés. Si un facteur est compromis, un attaquant doit encore franchir une barrière avant de pénétrer dans le système cible.

Une solution pour sécuriser le télétravail

IS Decisions, fournisseur de logiciels de gestion des accès, a annoncé une mise à jour importante de son produit phare, UserLock. La situation de COVID-19 actuelle, qui force les entreprises à pratiquer le travail à distance, a poussé IS Decisions à développer une nouvelle version afin d’aider les administrateurs informatiques à mieux sécuriser le télétravail. UserLock propose désormais la 2FA pour les connexions à distance (RDP) qui proviennent uniquement de l’extérieur du réseau d’entreprise, ou pour toute connexion RDP à l’intérieur ou à l’extérieur du réseau.

Outre cette nouvelle fonctionnalité, UserLock prend désormais en charge les YubiKey en plus des applications d’authentification mobiles.

Authentification à deux facteurs UserLock – YubiKey

Travaillant aux côtés d’Active Directory, UserLock s’intègre de manière transparente au processus de connexion pour fournir une authentification à deux facteurs avec YubiKey, des restrictions contextuelles et une gestion de session en temps réel pour toutes les tentatives de connexion.

  • Hébergement sécurisé sur site: Avec son intégration YubiKey, UserLock travaille aux côtés d’Active Directory pour offrir une solution MFA sur site sécurisée et complète, sans avoir besoin d’un accès Internet.
  • Maximisez la productivité et la sécurité des utilisateurs: UserLock peut personnaliser la fréquence et les circonstances de l’authentification YubiKey. Combinez la 2FA avec les restrictions UserLock basées sur le contexte de connexion pour sécuriser davantage tous les accès utilisateur.
  • Facile pour tous les utilisateurs d’Active Directory: UserLock et YubiKey fonctionnent ensemble pour faciliter la sécurisation de toutes les connexions utilisateur Active Directory, y compris les comptes système et administrateur les plus privilégiés.

En activant l’authentification à deux facteurs, les restrictions contextuelles et les informations en temps réel sur les ouvertures de session des comptes d’utilisateurs Active Directory, UserLock permet de garantir l’utilisation appropriée des systèmes critiques et des données sensibles pour éviter une violation ou une non-conformité.

Solidaires face à la crise

IS Decisions a pris la décision d’offrir UserLock gratuitement pendant 3 mois afin d’aider les entreprises à faire face à la situation actuelle. Vous pouvez désormais  sécuriser l’ensemble des connexions à un réseau informatique Microsoft Active Directory, et en particulier les accès à distance des télétravailleurs.

Téléchargez la solution Userlock ici puis envoyez un email à l’adresse suivante en demandant de bénéficier de l’offre de gratuité (sales@isdecisions.com). Vous recevrez une clef d’activation valide pour une durée de 3 mois.

Zoom renforce la sécurité de sa solution en intégrant des outils de verrouillage et de protection des réunions

Après plusieurs révélations sur des problèmes de confidentialité, Zoom intègre de nouvelles fonctionnalités de sécurité visant, entre autres, à protéger les réunions organisées sur sa plateforme des risques de meeting bombing. Elles simplifient notamment l’accès aux différentes options de sécurité et masquent les ID de meeting.

Zoom Video Communications Inc., le spécialiste de la visioconférence dans le cloud a déployé le 9 avril une mise à jour pour renforcer la sécurité de sa plateforme. Cette mise à jour intègre la fonctionnalité Security qui simplifie la manière dont les animateurs peuvent trouver et activer de nombreuses fonctionnalités de sécurité de Zoom pour protéger leurs réunions d’éventuel meeting bombing. À Security, s’ajoute également le masquage natif des ID de meeting ainsi que diverses mesures comme l’instauration obligatoire des mots de passe et le verrouillage des alias pour certains comptes.

Visible uniquement par les animateurs et co-animateurs, la fonctionnalité Security permet d’accéder rapidement à des fonctions de sécurité avancées de Zoom pendant les réunions afin de les protéger plus facilement, dont :

  • Verrouiller la réunion

  • Activer la salle d’attente (si elle n’est pas déjà activée)

  • Supprimer des participants

  • Limiter la capacité des participants à :

    • Partager leurs écrans

    • Chatter en réunion

    • Se renommer

    • Annoter sur le contenu partagé de l’hôte

Pour empêcher les participants à une réunion de voir les numéros d’identité des réunions actifs quand des captures d’écran Zoom sont par exemple affichées publiquement, l’identifiant des réunions Zoom n’est dorénavant plus affiché sur la barre de titre. Il est remplacé par une mention « Zoom » pour toutes les réunions.

Autres mesures de sécurité

D’autres mesures de sécurité ont été introduites avec cette mise à jour. L’équipe Zoom a également mis à jour plusieurs fonctionnalités pour des types de comptes spécifiques :

Salles d’attente : La fonction Salle d’attente est maintenant activée par défaut pour les comptes Basic et Pro sous licence unique gratuite, ainsi que pour les comptes éducation inscrits à notre programme K-12.

Mots de passe : Les mots de passe pour les réunions sont activés par défaut pour les comptes Basic gratuits et les comptes Pro sous licence unique, ainsi que pour les comptes éducation inscrits à notre programme K-12. Le paramètre par défaut ne peut pas être modifié pour ces comptes d’éducation.

Contacts de domaine : Pour les comptes Basic gratuits et les comptes Pro à licence unique avec des domaines non gérés, les contacts dans le même domaine ne seront plus visibles. Nous avons également supprimé l’option permettant de remplir automatiquement votre liste de contacts avec des utilisateurs du même domaine. Pour conserver ces contacts, les utilisateurs peuvent les ajouter en tant que contacts externes.

Renommer les participants : Les administrateurs de compte et les animateurs peuvent désormais désactiver la possibilité pour les participants de se renommer (pour chaque réunion) au niveau du compte, du groupe et de l’utilisateur dans le portail web.

L’icône de sécurité et ces mises à jour sont disponible dans notre dernière version (version 4.6.10) pour les utilisateurs de Zoom sur desktop (Mac & Windows), mobile (iOS & Android), l’iPad, et dans le client web.

COMMENT EVITER ET DÉTECTER LA FALSIFICATION DE FICHIERS ?

Dans le secteur de la justice, les entreprises travaillent sur des affaires particulièrement délicates et importantes. Le risque que certains fichiers soient falsifiés est important car cela les rendrait inutilisables aux yeux de la loi. Les entreprises de l’industrie juridique doivent donc surveiller de près les dossiers sensibles ainsi que contrôler et limiter les accès.

C’est le cas de cette division d’un organisme gouvernemental d’application de la loi qui a décidé d’utiliser FileAudit afin de protéger ses fichiers et dossiers sensibles.

Découverte de cet outil qui permet de sécuriser certains éléments de votre informatique professionnel.

Les options de configuration : la boîte de Pandore des pirates

Les détails revêtent d’une importance cruciale en matière de sécurité d’entreprise. En effet, disposer seulement des meilleurs équipements technologiques ne suffisent plus à s’assurer une fiabilité totale.

Pour les pirates informatiques, l’environnement idéal pour une attaque est celui qui demande aussi peu d’effort que possible à infiltrer. Ces opportunités s’expliquent par des systèmes, des équipements peu ou mal configurés et entraînent une vulnérabilité totale de l’environnement et de ses données.

Voici les cinq principales erreurs de configuration qui peuvent entraîner des failles de sécurité.

1. Ne pas reconfigurer les identifiants par défaut

L’une des erreurs les plus courantes, et pourtant les plus évidentes, consiste à ne pas reconfigurer les noms d’utilisateur et les mots de passe par défaut des bases de données, des installations et des équipements. C’est un problème tellement basique qu’il est comparable à des clés laissées sur une porte verrouillée. Et quand cela arrive, les informations d’identification par défaut sont l’une des erreurs de configuration les plus faciles à exploiter.

Les scanners de vérification des mots de passe peuvent en effet permettre aux pirates d’accéder aux équipements clés du réseau, comme les pare-feu et les routeurs. Même les systèmes d’exploitation peuvent se trouver exposés à cause d’informations d’identification par défaut. Les attaques de force brute scriptées peuvent également fournir accès aux divers équipements en ciblant des noms d’utilisateur et des mots de passe par défaut, ou des options basiques comme « 12345 », « azerty » ou « password ».

Le processus est également automatisé jusqu’à un certain point. Les chercheurs ont récemment découvert un scanner web en Python appelé Xwo, en mesure de balayer facilement le web à la recherche de services web exposés et de mots de passe par défaut. Après avoir collecté les informations d’identification par défaut pour MySQL, MongoDB, Postgre SAL et Tomcat, le scanner transfère les résultats à un serveur de commande et contrôle pour poursuivre son action.

2. Retarder la mise à jour des logiciels

Les prestataires technologiques et les spécialistes de la sécurité répètent ce message essentiel à la sécurité depuis des années. Pourquoi ? Parce que c’est efficace. Des systèmes d’exploitation mis à jour à l’aide des derniers correctifs peuvent avoir un impact crucial sur la prévention des failles.
Certes, il peut être difficile de suivre le rythme des correctifs. Ces éléments peuvent changer tous les jours, et le défi s’étoffe à mesure que les environnements se complexifient. Mais si les administrateurs n’assurent pas une maintenance correcte sur le plan des correctifs, ils ne font qu’attendre un accident inévitable.

Et les attaquants continueront à exploiter les vieux bugs tant qu’ils seront efficaces. Bien que la détection et la prévention des vulnérabilités de type « Zéro Day » suscitent une attention justifiée, les vulnérabilités les plus couramment exploitées remontent, par comparaison, à l’âge de pierre du numérique.

3. Appliquer les mêmes mots de passe sur différents périphériques

Bien que des mots de passe forts et complexes constituent l’un des piliers de toute stratégie de sécurité basique, même lorsqu’ils sont mis en place, leur utilisation est discutable. Les environnements utilisent souvent le même compte utilisateur et le même mot de passe sur tous les périphériques d’un parc de terminaux.

L’une des principales raisons est que cela facilite la gestion. Mais, et c’est un inconvénient majeur, c’est également pratique pour les malveillants, et cela peut leur permettre de compromettre toutes les machines à partir d’une faille sur une seule d’entre elles. À partir de là, ils peuvent utiliser des programmes d’extraction des informations d’identification pour révéler les mots de passe, voire leurs hachages. C’est alors que les vrais problèmes commencent. La réutilisation des mots de passe doit être évitée à tout prix, et les comptes non indispensables doivent être désactivés avant de pouvoir fournir un accès.

4. La mauvaise configuration des interfaces à distance

Tout appareil en contact avec l’extérieur et connecté à Internet doit faire l’objet d’une protection particulièrement soignée. Des services tels que le protocole propriétaire RDP (Remote Desktop Protocol) développé par Microsoft peuvent fournir aux administrateurs une interface permettant de contrôler les ordinateurs à distance. Mais leur mauvaise configuration offre aux cybercriminels une possibilité d’accéder aux systèmes.

Par exemple, des ransomwares ont déjà ciblé les entreprises via des ports RDP ouverts, en utilisant des attaques par force brute et par dictionnaire. Les administrateurs doivent utiliser une combinaison de mots de passe forts et complexes, de pare-feu et de listes de contrôle d’accès pour réduire le risque de compromission.

5. Désactiver la journalisation ou la cape d’invisibilité des pirates

Bien que la désactivation de la journalisation ne permette pas nécessairement à un attaquant d’accéder à un système, cela lui permet d’agir en restant inaperçu sur la machine. Lorsque la journalisation est désactivée, les pirates informatiques peuvent se déplacer latéralement sur un réseau à la recherche de données ou d’actifs à exploiter, sans laisser de trace de leur activité.

Cela complique énormément le travail des analystes judiciaires et des intervenants en cas d’incident lorsqu’ils doivent reconstituer ce qui s’est produit lors d’un incident ou d’une intrusion. En revanche, il peut être très bénéfique d’activer la journalisation et d’en envoyer les données vers un emplacement centralisé, par exemple une plateforme de gestion des informations et des événements de sécurité (SIEM). Ces données fourniront les indices nécessaires aux analystes judiciaires lors d’une enquête pour reproduire l’attaque et comprendre l’ampleur de l’intrusion.

Tout périphérique, toute plateforme laissé(s) dans un état par défaut ou mal configuré facilite d’autant le travail d’un criminel. Bien que ces vulnérabilités n’entraînent pas nécessairement de problèmes tout de suite, les pirates informatiques les découvriront probablement à un moment donné et les exploiteront pour obtenir un accès non autorisé. La mise en place de configurations de sécurité appropriées pour protéger les applications, les serveurs et les bases de données peut aider les entreprises à préserver leurs données et leur éviter de devenir une cible facile.

Hameçonnage du compte d’un employé de GoDaddy

Le phishing, ça n’arrive pas qu’aux autres. Un employé de la société GoDaddy, entreprise spécialisée dans les noms de domaine, se fait piéger par un hameçonnage. Le pirate en profite pour modifier des pages de clients.

Voilà un piratage qu aurait pu faire de gros dégâts dans les mains d’un pirate informatique « professionnel ». Il y a quelques jours Un employé de la société GoDaddy, un fournisseur de noms de domaine (Registar), s’est fait piéger par un hameçonnage. A la suite de ce phishing, le pirate en a profité pour usurper un client du registar.

Une fois l’employé usurpé, autant dire que la cible n’était pas n’importe qui, le malveillant le pirate a modifié six DNS de plusieurs sociétés, dont Escrow.com. GoDaddy n’a pas précisé le nombre d’adresse web impactées par la fraude. Le pirate, un Malaisien, a modifié l’affichage des sites. Une modification possible via le remplacement des DNS d’origine d’un serveur légitime vers un serveur malveillant. Il aurait pu afficher une fausse page de collecte de données ou intercepter les courriels.

Le pirate a été contacté par téléphone. Se dernier a avoué que son attaque avait débuté par son hameçonnage. GoDaddy a assuré aux clients du fait que seuls les domaines appartenant à l’entreprise elle-même étaient compromis et que toutes les données des clients étaient totalement sécurisées.

Sauvegarde : 39 % des Français n’en font pas !

Plus d’un tiers des Français ne réalisent pas de sauvegarde, et près de la moitié parce qu’ils estiment que leurs données ou leurs fichiers ne sont pas suffisamment importants.

Un éditeur d’antivirus a réalisé une enquête en ligne dans le cadre de la Journée mondiale de la sauvegarde qui s’est tenue fin mars. Les résultats de l’enquête révèlent que, selon Avats, 39 % des Français ne sauvegardent pas leurs données ou leurs fichiers, s’exposant ainsi à une perte en cas de destruction ou de suppression. Parmi les personnes qui ne sauvegardent pas leurs données, près de la moitié (46 %) affirment ne pas disposer de données ou de fichiers suffisamment importants pour être sauvegardés. 27 % ne savent pas comment sauvegarder leurs données ; 16 % veulent le faire, mais oublient ; 11 % veulent le faire, mais n’en ont pas le temps. (Enquête en ligne menée auprès de 2 020 utilisateurs des antivirus Avast et d’AVG, du 20 février au 4 mars 2020.)

Les raisons invoquées par les propriétaires d’appareils Android et iPhone pour ne pas faire de sauvegarde sont également légèrement différentes. Les propriétaires d’iPhone semblent accorder plus de valeur à leurs données que les propriétaires d’Android. 44 % des propriétaires d’iPhone ne font pas de sauvegarde parce qu’ils pensent que leurs données ne sont pas importantes, contre 38 % des propriétaires d’Android qui partagent cette opinion. Le pourcentage de propriétaires de smartphones qui ne savent pas comment sauvegarder leurs données ne varie pas beaucoup entre les propriétaires d’iPhone et d’Android, puisque 19 % et 20 % d’entre eux, respectivement, affirment ne pas savoir comment faire.

L’étude d’Avast  indique aussi que 11 % des propriétaires d’iPhone et 19 % des propriétaires d’Android oublient d’effectuer une sauvegarde. Pour ce qui est du manque de temps à consacrer aux sauvegardes, 11 % des propriétaires d’iPhone et 16 % des propriétaires d’Android ont invoqué cette raison.

Comment optimiser la sauvegarde de ses données ?

Sauvegarder à deux endroits: lorsqu’il s’agit de sauvegarder des données, on n’est jamais trop prudent. S’il arrive quelque chose à un certain type de sauvegarde, tout pourrait être perdu. Il est donc recommandé de le faire à deux endroits différents, comme dans le cloud, et un stockage physique, comme un disque dur externe.

Déconnecter: les disques durs externes devraient être déconnectés après une sauvegarde afin de les protéger contre les logiciels malveillants tels que les ransomwares, qui peuvent se propager de l’ordinateur aux périphériques connectés.

Sauvegarder automatiquement: la plupart des services de stockage dans le cloud proposent une option de sauvegarde automatique, qu’il est conseillé d’activer, afin que les données soient automatiquement sauvegardées et sécurisées.

Le partage des responsabilités est primordial à la sécurité du cloud

« Jusqu’en 2025, au moins 99 % des incidents de sécurité liés au cloud seront imputables au client. » indiquait Gartner dans un analyse. L’entité tire ainsi la sonnette d’alarme quant à l’importance du partage des responsabilités en matière de sécurité cloud. Cet avertissement sous-entend que les organisations elles-mêmes – et non pas les fournisseurs de services cloud – doivent veiller à l’exhaustivité de leur approche en matière de sécurité.

En entreprise, la question de la migration des données sur le cloud divise l’opinion. Certains estiment que la sécurité accrue des données dans le cloud constitue l’une des principales raisons en faveur d’une migration. D’autres redoutent au contraire le manque de sécurité. Les deux parties ont en réalité raison. La sécurité constitue en effet l’aspect le plus important de l’offre d’un fournisseur de services cloud : un seul incident peut provoquer des pertes financières colossales.

Aucune organisation ne peut assumer à elle seule l’entière responsabilité de la sécurité des données. Organisations, utilisateurs, professionnels de la sécurité informatique et fournisseurs de services cloud ont pour mission commune de s’assurer que toutes les parties impliquées emploient le cloud de façon sûre.

À l’ère de l’économie numérique, la mise en œuvre d’un modèle de responsabilité est synonyme de confiance client, de risques réduits, de réputation  et plus généralement de succès opérationnel pour les entreprises.

Une clarification indispensable

Une sécurité optimale du cloud requiert plusieurs niveaux de protection. Les différents acteurs doivent s’occuper de chaque composant de la « pile des responsabilités » de façon individuelle, tout en interagissant comme une structure unifiée. Sécurité des infrastructures, contrôle du réseau, vérifications applicatives, gestion des identités et des accès, protection des terminaux, classification des données, contrôle des utilisateurs/périphériques/données, contrôle de la collaboration : la liste est longue et potentiellement effrayante pour tout service informatique, quelle que soit sa taille.

La protection proposée par les fournisseurs de services cloud ne garantit malheureusement pas une parfaite sécurité des données. Microsoft, Amazon, Google et autres grands noms précisent à juste titre que la responsabilité ne leur incombe pas entièrement et que les entreprises doivent se faire à l’idée d’une responsabilité partagée. Microsoft a par exemple publié son modèle pour Azure. Amazon applique une approche similaire pour AWS.

Dans un cas comme dans l’autre, la sécurité de l’infrastructure repose sur les actions mises en œuvre par le client afin de garantir la sécurité et la conformité du système.

Les fournisseurs de services cloud divisent traditionnellement les responsabilités en deux : ils énumèrent les fonctionnalités de sécurité proposées et laissent au client le soin de s’occuper du reste. Cette division est un bon début, mais elle peut être source d’incertitudes pour les entreprises clientes : comment déterminer et répartir les aspects relevant de leur responsabilité ? Dans chaque organisation, il est aujourd’hui indispensable de clarifier les rôles et les responsabilités de chaque acteur (sécurité informatique, risque et conformité, développeurs, acheteurs de services cloud et utilisateurs).

Cloud et location de véhicule : la responsabilité partagée de la sécurité comme point commun

La location d’une voiture illustre parfaitement le partage des responsabilités. Tout d’abord, le constructeur est dans l’obligation d’assurer que le véhicule est en état de rouler à sa sortie de la chaîne de montage. Les freins, roues et airbags doivent fonctionner comme il se doit. Une fois la voiture réceptionnée par l’agence de location, cette dernière ne vérifie pas les airbags, le locataire non plus : tous deux partent du principe que ces équipements fonctionnent correctement. Quand le véhicule n’est plus tout neuf, l’agence doit entretenir le véhicule et garantir qu’il est en état de marche.

Le locataire suppose que toutes les vérifications sur les équipements soient « ok » ; malheureusement, lorsque ce n’est pas le cas, il ne le découvre qu’au moment d’un problème avec le véhicule.

Pour les ceintures de sécurité, le principe est le même. Le constructeur doit les installer, l’agence de location les entretenir, mais c’est au conducteur qu’il revient de l’attacher et de vérifier que tous les passagers ont fait de même.

La location d’un véhicule implique ainsi une répartition des responsabilités entre cinq catégories de personnes. Chacun de jouer son rôle. Ignorer un niveau de sécurité peut avoir des conséquences désastreuses.

La responsabilité associée à la gestion des risques incombe à l’entreprise

Microsoft, Amazon et les autres fournisseurs de services cloud s’efforcent d’appliquer systématiquement des modèles de partage des responsabilités, mais les utilisateurs finaux – l’organisation en elle-même, les responsables de la sécurité des données, l’équipe de sécurité informatique, les utilisateurs – doivent assumer davantage de responsabilités.

Les dirigeants et responsables informatiques ne peuvent garantir la protection des informations dans le cloud que si les modules de sécu sont compris, en fonction et correctement mises en oeuvre !

C’est ce que démontre, depuis des semaines, des violation,  conséquence d’une mauvaise configuration des règles AWS pour des serveurs accessibles au public.

De manière générale, les responsables technologiques doivent déterminer à qui incombent la vérification et la gestion des configurations cloud, des flux de données entre différents services cloud, du comportement des utilisateurs, ou encore des contrôles relatifs à la collaboration, aux accès et aux périphériques.

Responsabilité associée

En définitive, la responsabilité associée à la gestion des risques incombe à l’entreprise, car c’est avant tout elle qui se charge de la collecte et de la sécurité.

Le fournisseur de services cloud joue certes un rôle important, mais contrairement à l’organisation cliente, il n’est pas en contact direct avec le public et n’assume pas le risque à la gestion de ces informations sensibles.

Les membres de l’équipe informatique doivent jouer le rôle de gardiens de la sécurité et de la conformité pour l’entreprise. Ils doivent travailler de concert avec le RSSI et les autres dirigeants pour comprendre et définir les politiques en matière de contrôle des données, coopérer avec les différents services pour catégoriser précisément les données, assurer la conformité réglementaire, faciliter les décisions du service des achats, définir les services cloud accessibles aux utilisateurs et garantir l’exhaustivité de la formation des utilisateurs.

En l’absence de processus stricts et de responsabilités clairement définies, une décision opérationnelle comme le déploiement d’un nouveau service de cloud public peut fortement exposer une entreprise à une violation de données ou à des incidents de sécurité connexes. À l’inverse, une démarche de partage des responsabilités permet de veiller à ce que chacun accomplisse son rôle.

CDN et DDoS : Ne pas mettre tous les œufs dans le même panier

Les réseaux de diffusion de contenu, les Content Delivery Network (CDN) ont été conçus pour optimiser les performances en matière de distribution de contenus sur Internet et pour optimiser les coûts de bande passante pour celui qui produit ce contenu, afin de faire face à des demandes de plus en plus nombreuses, et à une volumétrie de données à fournir, en forte croissance. Nous entendons souvent l’argument que la protection contre les attaques DDoS fournie par un CDN est LA solution permettant de se protéger : Voyons sur quoi se base cet argument.

En simplifiant, un CDN est constitué d’un ensemble de serveurs interconnectés, largement distribués du point de vue géographique et mais aussi logique au sein du maillage de l’Internet. Le CDN utilise ces serveurs distribués pour cacher le contenu de leurs clients et le diffuser à leurs utilisateurs. Une utilisation astucieuse du routage permet de s’appuyer sur les « caches » les plus proches de chaque client, permettant une livraison plus rapide du contenu, et d’éviter ainsi de consommer des ressources – y compris la bande passante – du serveur d’origine hébergeant le contenu original.

Quand un client demande une première fois une ressource – une image ou une page web, le CDN doit chercher ce contenu auprès du serveur d’origine pour servir le client. Par contre, à partir de ce moment, la ressource reste « en cache », distribuée au sein du CDN, afin de servir toute nouvelle demande, par n’importe quel client, à partir de ces caches.

Les CDN cachent typiquement le contenu statique, qui ne change pas, comme justement les images d’un site web. Cependant, les CDN ne peuvent pas ou sont plus limités en leur capacité de cacher du contenu dynamique, comme les informations concernant les stocks et les commandes d’un site de vente.

Le contenu dynamique typiquement hébergé par le site d’origine. Le site d’origine sollicité, non pas par ses utilisateurs, mais par le CDN, d’une part pour du contenu statique pas encore caché et d’autre part pour le contenu dynamique, qui ne peut pas être caché.

CDN ET PROTECTION CONTRE LES ATTAQUES DDOS

De par sa nature, le CDN dispose des mécanismes qui peuvent être utiles en face d’attaques par déni de service distribuée. Par exemple, un CDN dispose souvent de ressources importantes en termes de capacité réseau et de serveurs, lui permettant souvent tout simplement d’absorber une quantité plus importante de requêtes que le serveur d’origine.

De plus, par les mêmes mécanismes de distribution et de routage qui lui permettent de distribuer la charge des utilisateurs, les attaques distribuées amenées à viser non plus une cible unique, mais une cible distribuée en fonction de la localisation de chaque source d’attaque.

« THE DEVIL IS IN THE DETAILS »

Par contre, malgré ces couches de protection utiles, le fonctionnement même d’un CDN peut ouvrir de nouveaux vecteurs d’attaque ou rendre la défense du serveur d’origine plus

difficile. Par exemple, si une attaque, faisant usage d’un botnet, sollicite un site web pour des ressources non-existantes, et donc non-cachées, cela peut amener le CDN à solliciter à son tour le serveur d’origine à répétition pour ces ressources et provoquer une condition de déni de service pour le serveur d’origine.

En plus, l’attaque vue par le serveur d’origine semble provenir du CDN lui même ! Dans cette situation, il peut être difficile au serveur d’origine de se protéger car le CDN est en même temps l’origine de l’attaque et des requêtes légitimes: Des approches simples s’appuyant sur le blacklisting des sources au niveau du serveur d’origine ne peuvent plus être utilisées dans ce cas.

D’autre part, il ne faut pas oublier que les protections fournies par le CDN ne couvrent que le contenu caché. Le serveur d’origine, ainsi que plus généralement, l’entreprise à qui le site appartient, aura probablement besoin d’une connectivité fonctionnelle. Au-delà du serveur d’origine qui doit pouvoir fournir le contenu non-caché et dynamique pour le CDN, le service aura peut-être besoin d’interagir avec d’autres sites, l’entreprise de pouvoir envoyer et réceptionner des emails, ses équipes d’accéder aux services de Voix sur IP ou de se connecter à Internet d’une manière générale pour accéder à des services cloud comme Google GSuite ou Microsoft Office 365.

Tout cela nécessite que des services on-site ou à minima l’accès Internet de l’entreprise, qui ne peuvent pas être protégés par un CDN, continuent à fonctionner.

Protections de type volumétriques

De plus, en fonction du CDN, les protections fournies limitées aux protections de type volumétriques, alors que des attaques applicatives plus sophistiquées risquent de traverser le CDN et d’atteindre le site d’origine. En somme, la situation est souvent bien plus complexe qu’imaginée au premier abord.

Premièrement, il est important de bien comprendre le fonctionnement, pas seulement de son site Internet, mais de son entreprise dans sa globalité et d’effectuer une analyse de risque pour identifier les différentes menaces. Ensuite, selon les risques impliquant la disponibilité et/ou la qualité de service des communications, des services réseau et/ou des applications, il peut être utile de s’appuyer sur des fonctionnalités de protection fournies par son CDN – potentiellement plus capables pour des grosses attaques volumétriques – ou utiliser des protections plutôt de type « On-Premise », potentiellement plus précises et capables pour des attaques applicatives.

Souvent une protection optimale implique une protection hybride, combinant la précision et rapidité d’une solution « On-Premise », avec des capacités volumétriques suffisamment élevés proposées par un fournisseur de service de mitigation.

Dans certains cas le CDN peut-être un composant adapté, dans d’autres vous aurez besoin d’une capacité de protection volumétrique importante capable aussi à protéger votre site local. (Par Jouni Viinikka, Directeur R&D chez 6cure ; Frédéric Coiffier, Ingénieur Développement Logiciel chez 6cure)