Archives de catégorie : Cloud

TOP 10 des méthodes de piratage

L’ingénierie sociale serait la méthode la plus utilisée, suivie par la compromission de comptes et les attaques web de type injections SQL/de commandes selon une étude de Balabit.

BalaBit, fournisseur européen de technologies de sécurité contextuelle, a présenté lors de la 15è édition des Assises de la Sécurité, les résultats d’une étude menée auprès des participants de la Black Hat en août dernier, conférence de référence mondiale en matière de sécurité de l’information. BalaBit a interrogé 349 professionnels de la sécurité afin de définir le top 10 des méthodes de hacking actuellement les plus populaires. Cette étude offre aux entreprises l’opportunité de mieux connaître leurs ennemis en identifiant les méthodes et les vulnérabilités les plus utilisées par les hackers lorsqu’il s’agit de s’attaquer à leurs données sensibles. Cette base de connaissance est la première étape fondamentale pour toute entreprise souhaitant mettre en place une stratégie de sécurité IT efficace, et cela quelque soit son secteur d’activité.

Attaquant interne ou externe ? Pas si évident…
Les menaces sont différentes et plus sophistiquées aujourd’hui et la frontière entre les menaces internes et externes est devenue très étroite. La majorité des attaquants externes tentent de pénétrer le réseau, d’acquérir des niveaux d’accès basiques et d’utiliser leurs droits pour petit à petit remonter jusqu’à des niveaux d’accès privilégiés. Dans la plupart des cas, ils restent invisibles dans le réseau pendant plusieurs mois, puisqu’ils parviennent à s’identifier comme des utilisateurs internes. Qu’en est-il des utilisateurs internes malveillants ? : Sont-ils conscients des conséquences de leurs actes lorsqu’ils partagent leurs identifiants ou lorsqu’ils cliquent sur des liens de phishing – dans ce cas, la fuite de données est-elle le résultat d’actions intentionnelles ou accidentelles ? Doivent-ils être considérés comme malveillants seulement si leur action était intentionnelle ? Cela a t-il vraiment beaucoup d’importance si la fuite de données est très grave ?

70% des personnes interrogées considèrent les menaces internes comme les plus risquées.
54% des personnes interrogées déclarent avoir très peur des hackers qui pénètrent au sein du réseau de l’entreprise via leur pare-feu, alors même que 40% d’entre elles déclarent qu’un pare-feu n’est pas assez efficace pour empêcher les hackers d’entrer.

Les participants ont également été interrogés sur les attaquants – internes ou externes – qu’ils considèrent les plus à risques : Les résultats soulignent un point important en vue de la définition d’une stratégie de défense efficace : 70% des personnes interrogées considèrent que les utilisateurs internes présentent le plus de risques (et seulement 30% estiment que les attaquants externes posent plus de risques). Une chose est sûre : les attaquants externes cherchent à devenir des utilisateurs internes, et les utilisateurs internes les aident pour y parvenir – accidentellement ou intentionnellement. Quelque soit la source de l’attaque, la liste des 10 méthodes de piratage les plus populaires -présentées ci-dessous – démontre qu’il est crucial pour les entreprises de savoir ce qu’il se passe sur leur réseau en temps réel. Qui accède à quoi ; est-ce le bon utilisateur derrière l’identifiant et le mot de passe ou est-ce un attaquant externe utilisant un compte compromis ?

Le top 10 des méthodes de piratage les plus utilisées :

1. Ingénierie sociale (ex : phishing).
2. Compromission de comptes (sur la base de mots de passe faibles par exemple).
3. Attaques web (ex : injection SQL/de commandes).
4. Attaques de clients de l’entreprise ciblée (ex: contre des destinataires de documents, navigateurs web).
5. Exploits avec des mises à jour de serveurs connus (ex: OpenSSL, Heartbleed).
6. Terminaux personnels non sécurisés (manque de politique de sécurité BYOD, datasecuritybreach.fr vous en parle très souvent).
7. Intrusion physique.
8. Shadow IT (utilisation personnelle de services Cloud à des fins professionnelles).
9. Attaque d’une infrastructure outsourcée en ciblant un fournisseur de services externe.
10. Attaque de données hébergées sur le Cloud (via l’IaaS, le PaaS).

CLOUD : la gestion des mots de passe devient une priorité pour les PME

Les petites et moyennes entreprises transfèrent de plus en plus souvent leurs outils de travail dans le Cloud. De plus, la frontière entre l’usage personnel et l’usage professionnel de la technologie est de plus en plus floue à mesure que les employés choisissent d’utiliser leurs applications préférées au bureau.

Malgré les économies et les gains de productivité liés au passage des outils de travail dans le Cloud, la réalité reste un cauchemar logistique pour les responsables quoi doivent désormais gérer toute un arsenal d’identifiants et de mots de passe associés à ces applications. Ajouter à cela les choix de mots de passe faibles d’une bonne partie de la population, et vous obtenez un trou béant dans la sécurité qui séduirait même le plus novice des hackers.

La possibilité de travailler à tout moment, n’importe où et sur n’importe quel appareil est devenu le mantra des employés d’aujourd’hui, et cela pousse les entreprises à adopter le Cloud. Selon une étude récente menée par Enterprise Strategy Group et LogMeIn, près de 3 quarts des employés qualifiés – ceux qui gèrent les informations – affirment que la mobilité est cruciale ou importante pour être productif dans leur travail, avec 70% d’entre eux travaillant ailleurs que dans un bureau plusieurs jours par semaine. Pourtant, 60% des PME n’ont pas mise en place de politique de sécurité pour répondre à la hausse de l’utilisation des applications Cloud sur le lieu de travail.

La saga des mots de passe
Si la gestion des mots de passe n’est pas un nouveau défi pour les PME, c’est un problème qui devient très complexe étant donné qu’en moyenne les utilisateurs possèdent des mots de passe pour plus de 25 applications qu’ils utilisent au travail. Et les enjeux pour les PME sont plus importants que jamais, étant donné que presque 80% des applications Cloud et des services contiennent des données sensibles, régulées ou confidentielles. Il suffit d’un seul piratage pour paralyser une entreprise, le Gartner estime que seulement 6% des entreprises sortent indemne d’un piratage de données alors que 43% mettant la clé sous la porte.

Même s’il semblerait que conserver un mot de passe unique fort soit contre-productif, il existe quelques moyens pour que les PME rendent plus simple le choix de mots de passe de leurs employés et qu’ils arrêtent leurs mauvaises habitudes.

1. Eviter les groupes populaires. Il est choquant de devoir encore le répéter, mais les PME ne devraient jamais, sous aucun prétexte, utiliser des mots de passe faciles à deviner pour protéger des informations sensibles. Les mots de passe les plus utilisés en 2014 étaient « mot de passe » et « 123456 ». Les mots de passe devraient être une combinaison de lettres en capitale et en minuscule, de nombres et de symboles.

2. Conserver vos mots de passe dans un coffre-fort. Si vous pouvez vous souvenir des identifiants et des mots de passe de toutes les applications que vous utilisez, soit vous avez une très bonne mémoire photographique, soit vous utilisez les mêmes pour toutes vos applications. Puisque chaque application devrait avoir un mot de passe unique, un gestionnaire de mot de passe sûr vous aidera à les gérer et vous encouragera à utiliser des mots de passe forts que vous n’aurez pas à retenir.

3. Déployer une solution de gestion des accès. Non seulement cela aidera vos employés à mieux gérer leurs mots de passe, mais cette solution sera également être utiles aux entreprises. Les PME pourront gérer l’accès pour que les employés qui rejoignent l’entreprise puissent obtenir un accès rapide – ou le retirer sans problèmes à ceux qui partent – et permettre le partage des comptes sans partager les mots de passe.

4. Utiliser l’authentification à deux facteurs. En ajoutant un niveau de sécurité via une authentification à deux facteurs, il sera plus difficile pour un hacker de compromettre un mot de passe, en particulier quand surtout pour les utilisateurs qui changent de navigateurs et de localisation.

Quand il s’agit de sécuriser les données de l’entreprise dans le Cloud, il n’y a pas de solution miracle. Cependant, les humains seront toujours le maillon le plus faible de la chaîne, donc, encourager une meilleure gestion des mots de passe – autant au niveau des employés qu’à celui du département informatique est un bon début pour réduire les risques. Il est temps de faire de la gestion des mots de passe une priorité pour garder les données de votre entreprise et de vos clients en sécurité. (Par Alain Logbo, Directeur Commercial Entreprises EMEA de LogMeIn)

Quand les incidents de sécurité coûtent cher aux entreprises

Il est souvent difficile pour les victimes elles-mêmes d’estimer le coût total d’un incident de sécurité en raison de la diversité des dommages. Mais une chose est sûre, l’addition monte vite.

Une enquête mondiale réalisée en 2015 par Kaspersky Lab auprès de 5 500 entreprises, en coopération avec B2B International révèle également que les fraudes commises par les employés, les cas de cyber espionnage, les intrusions sur le réseau et les défaillances de prestataires extérieurs représentent les incidents de sécurité les plus coûteux. Selon ce rapport, le budget moyen nécessaire aux grandes entreprises pour se remettre d’un incident de sécurité serait de 551 000 et 38 000 dollars pour les PME.

« Définir le coût d’une attaque est une tâche très difficile à réaliser car le périmètre d’impact est variable d’une entreprise à l’autre. Cependant, ces chiffres nous rappellent que les coûts d’une attaque ne se limitent pas au remplacement du matériel, et nous obligent à nous interroger sur son impact à long terme. A noter également que toutes les entreprises ne sont pas égales : certaines attaques visent à stopper l’activité commerciale d’une entreprise quand d’autres ciblent l’exfiltration de données secrètes, par exemple. Il ne faut pas oublier non plus que l’onde de choc générée par l’annonce publique d’une attaque ou d’une fuite de données à des conséquences directes sur la réputation d’une entreprise, et ce qui est alors perdu est souvent inestimable » explique à DataSecurityBreach.fr Tanguy de Coatpont, directeur général de Kaspersky Lab France.

Facture moyenne d’un incident pour une entreprise :

  • Services professionnels (informaticiens, gestion du risque, juristes) : il existe 88% de chance d’arriver à une facture pouvant atteindre jusqu’à 84 000 dollars
  • Perte d’opportunités commerciales : dans 29 % cela peut représenter jusqu’à 203 000 dollars
  • Interruption d’activité : jusqu’à 1,4 million de dollars, soit 30 %
  • Total moyen : 551 000 dollars
  • Dépenses indirectes : jusqu’à 69 000 dollars
  • Atteinte à la réputation : jusqu’à 204 750 dollars

Les PME et les grandes entreprises ne sont pas logées à la même enseigne

Neuf entreprises sur dix ayant participé à notre enquête ont fait état d’au moins un incident de sécurité. Cependant, tous les incidents n’ont pas le même niveau de gravité et n’aboutissent pas à la perte de données sensibles. Le plus souvent, un incident grave résulte d’une attaque de malware ou de phishing, de fuites imputables à des employés ou de l’exploitation de vulnérabilités dans des logiciels. L’estimation des coûts permet de considérer la gravité des incidents de sécurité informatique sous un nouvel angle et fait apparaître une perspective légèrement différente entre les PME et les entreprises.

Les grandes entreprises encourent un préjudice nettement plus élevé lorsqu’un incident de sécurité est le fait d’une défaillance d’une tierce partie, les autres types d’incidents coûteux étant liés à des fraudes commises par les employés, des cas de cyber espionnage ou des intrusions sur le réseau. Les PME tendent à subir un préjudice important sur pratiquement tous les types d’incidents, qu’il s’agisse d’espionnage, d’attaques DDoS ou de phishing.

Pour télécharger le rapport complet sur le coût des incidents de sécurité, cliquez ici.

Cloud hybride, gare à la récupération !

Le Cloud Computing va provoquer un véritable séisme dans le secteur informatique et certains acteurs historiques espèrent sauver leurs acquis en communicant sur une vision qui leur est très personnelle du Cloud hybride.

Avec l’essor des solutions de stockage dans le Cloud, avec l’arrivée d’offres Iaas (Infrastructures as a Service) performantes à faible coût, le Cloud Computing est en train de changer la donne sur le marché informatique. Les DSI considèrent de plus en plus le Cloud comme la meilleure alternative à l’achat et à la maintenance de serveurs dans leurs murs et, pour certaines applications comme le CRM, le Cloud s’est imposé comme la norme en vigueur. Une bonne nouvelle pour les entreprises et les budgets informatiques, une bonne nouvelle pour les DSI qui vont pouvoir consacrer leurs ressources davantage aux nouveaux projets et moins de ressources pour le « run », cette gestion de l’existant si couteuse pour les entreprises.

Le cloud hybride, un moyen pour les fournisseurs de maintenir l’emprise sur leurs clients ?
Ce basculement vers le Cloud est inéluctable et ce n’est pas sans conséquences tant pour les acteurs de l’informatique traditionnelle. Incapables de lutter contre le sens de l’histoire, ceux-ci ont dû se résoudre plus ou moins rapidement à lancer à leur tour leurs propres services Cloud. C’est le moyen qu’ils ont trouvé pour ne pas perdre tout à fait leurs clients « historiques », un moyen aussi de leur proposer d’autres services. Cette stratégie, ils l’ont maquillée sous le terme de Cloud hybride. Leur idée est simple : continuer à fournir des serveurs traditionnels, leur associer des services Cloud complémentaires et proposer une console d’administration pseudo-unifiée pour gérer l’ensemble. Du fait de leur poids sur le marché, ils se permettent de redéfinir ce qu’est le Cloud hybride. Ils se livrent à une véritable préemption du terme afin de garantir le « vendor lock-in », cette emprise qu’ils exercent sur leurs clients depuis des dizaines d’années. Un verrouillage du marché qui est tout autant pratiqué par d’autres acteurs de l’informatique traditionnelle, tels les grossistes. Contraints de réinventer leur business model face à des clients qui se détournent du matériel au profit du service, ils répliquent leur modèle du passé. Sans avoir ni les compétences ni les infrastructures, ils mettent en place une offre parcellaire et très sélective, uniquement basée sur leurs accords commerciaux passés et donc pas nécessairement en phase avec les attentes réelles du client final.

Or, le Cloud hybride n’est en rien une prolongation de pratiques aujourd’hui datées. Le Cloud hybride, c’est bien plus être capable de faire coexister une infrastructure legacy avec des technologies plus modernes. Le Cloud devient une extension du datacenter de l’entreprise. Elle va pouvoir étendre les capacités de son infrastructure interne avec un Cloud public ou privé externe sans remettre en question son existant. Le Cloud hybride tel que nous le concevons chez Aruba, ce n’est pas s’appuyer sur un fournisseur unique, ce n’est en aucun cas le concept figé tel que les fournisseurs historiques tentent d’imposer.

Une Cloud, c’est avant tout s’appuyer sur des standards
Pour profiter des vrais avantages du Cloud Computing, il faut avant tout privilégier des offres souples, adaptées au contexte et aux contraintes de chaque client. Quand une entreprise choisit un service Cloud, elle doit opter pour un fournisseur ouvert aux standards du marché. C’est uniquement comme cela qu’elle pourra profiter à plein de la souplesse et de l‘adaptabilité du Cloud et faire sauter ce « vendor lock-in » que font peser sur elle ses fournisseurs depuis des décennies. C’est la raison pour laquelle certaines offres Cloud s’appuient tant sur les offres VMware, la plateforme de virtualisation la plus utilisée par les entreprises, que sur Hyper-V la solution Microsoft ou encore Hyper-V low cost. C’est le fait d’être agnostiques en termes de technologies, d’être multi-hyperviseurs, qui nous permet aujourd’hui d’apporter cette souplesse à nos clients, ce n’est que comme cela que l’on peut assurer une garantie de portabilité et de réversibilité. Faire le choix des standards du marché, c’est le seul moyen pour une entreprise, et tout particulièrement pour une PME dont les ressources techniques sont les plus modestes, de pouvoir tirer profit du Cloud tant dans une approche hybride que 100% externalisée.

La localisation d’un Datacenter a toute son importance
Autre critère à prendre en compte pour un projet de Cloud hybride comme pour un projet 100% Cloud, c’est la proximité avec son fournisseur. Le discours ambiant des fournisseurs de Cloud américains, notamment, c’est de dire que les distances ne comptent plus, que le Cloud abolit toute notion de localisation. C’est faux, tant sur le plan des performances réseau que sur la qualité du support offert. Quant aux garanties liées à la confidentialité des données, l’actualité a montré les limites de leurs promesses. Outre les gains en performances réseau, choisir un opérateur d’infrastructure de Cloud européen a de vraies conséquences tant techniques que juridiques. C’est comme cela que nous concevons le Cloud Hybride. (Eric Sansonny, Directeur Général Aruba Cloud)

Améliorer la sécurité et l’expérience utilisateur avec l’authentification sans contact

Du fait de la marche inexorable engagée vers un univers orienté mobilité et cloud, les données des entreprises sont devenues de plus en plus difficiles à protéger.

Les attentes de leurs collaborateurs ont également évolué : ceux-ci veulent pouvoir accéder à des applications, données et services en mode cloud n’importe où, n’importe quand, sur l’équipement de leur choix. Des attentes qui, virtuellement, risquent de rendre les réseaux considérablement plus vulnérables aux failles de sécurité. Le seul recours à des mots de passe ne suffit pas. À partir du moment où des pirates dérobent le nom d’utilisateur et le mot de passe d’un employé, ils n’ont aucune difficulté à s’introduire sur le réseau et à charger des logiciels malveillants sur d’autres systèmes en passant inaperçus. Aujourd’hui, avec l’avènement d’un modèle de sécurité dit d’authentification sans contact « par effleurement », il est possible de garantir un contrôle d’accès aux données via un procédé nettement plus pratique, en utilisant le même badge d’identification donnant accès aux locaux/sites d’une entreprise.

Avec l’authentification sans contact, il suffit aux utilisateurs d’approcher leurs cartes à puce d’un ordinateur portable, d’une tablette, d’un téléphone mobile et d’autres équipements à capacité NFC (Near Field Communication) pour accéder aisément et commodément à des ressources réseau, applications cloud et services via le web. Nettement plus simple et mieux sécurisée qu’un mot de passe, cette technique se veut aussi plus rapide, plus fluide et plus pratique que l’emploi de mots de passe à usage unique (OTP), token ou carte hybride (displaycards) et d’autres dispositifs physiques. Et elle est surtout commode pour les utilisateurs puisqu’elle leur permet d’avoir accès à des données et applications en mode cloud avec la même carte servant à l’ouverture de portes.

Dimensionnement du problème
Les menaces ne sont pas près de décroître. Et le coût des fuites de données non plus. Récemment, IBM a révélé dans son rapport Security Services Cyber Security Intelligence Index Report, que l’usurpation d’identité, les logiciels malveillants et autres cybermenaces coûtent aujourd’hui aux entreprises jusqu’à 19 % de leurs recettes, et représentent 21 % de pertes de productivité, entre autres impacts financiers. Protéger l’accès aux données de l’entreprise devient, par conséquent, encore plus crucial.

L’une des premières problématiques est la confiance excessive dans les mots de passe. Jusqu’ici, la procédure d’identification et de validation des identités du personnel était relativement simple : un nom d’utilisateur et un mot de passe devaient être saisis sur leur PC par les utilisateurs pour qu’ils puissent s’authentifier à la fois sur leur poste et sur le réseau. Un seul mot de passe était attribué aux utilisateurs de matériel informatique, utilisable à un seul endroit : sur leur poste de travail, au bureau ou à la maison. Après authentification, l’utilisateur avait accès à toutes les applications nécessaires pour mener sa mission à bien.

Mais aujourd’hui, le contexte de l’entreprise est en rapide évolution. Nous vivons désormais dans un monde orienté mobilité et cloud, au sein duquel l’accès aux données et services d’entreprise ne s’effectue plus à partir d’un seul et même équipement. De surcroît, les politiques de sécurité des entreprises ont changé, obligeant les utilisateurs à s’authentifier plus souvent. Parallèlement, les utilisateurs comptent bien bénéficier aujourd’hui d’un accès immédiat aux données et services de leur entreprise, en tout lieu et à tout moment, depuis leur terminal mobile. Concrètement, cela signifie que les collaborateurs qui recourent à une authentification classique, mais déficiente, par nom d’utilisateur et mot de passe exposent par inadvertance leurs entreprises à nombre de cybermenaces complexes.

Principes de fonctionnement de l’authentification sans contact
L’authentification sans contact permet d’accéder à plusieurs applications et services sur des terminaux différents, sans avoir à mémoriser ni à ressaisir d’autres codes et mots de passe. Le procédé ne nécessite que trois étapes simples. Premièrement, l’utilisateur ouvre un navigateur sur son terminal NFC et saisit l’URL de l’application à laquelle il souhaite accéder. Deuxièmement, il saisit ses nom d’utilisateur et mot de passe. Troisièmement, il approche sa carte de contrôle d’accès à l’arrière de la tablette ou du terminal mobile NFC pour fournir le second facteur d’authentification. La carte peut alors être « lue » sans qu’il soit nécessaire de l’insérer physiquement dans un lecteur.

Outre sa commodité, ce modèle d’authentification par effleurement tire parti du système de contrôle d’accès existant pour garantir une expérience utilisateur fluide sur l’ensemble de l’infrastructure correspondante, physique et informatique. Résultat ? Un système de gestion des identités et des accès résolument plus efficace et économique. En centralisant ainsi la gestion des identités et des accès, les entreprises peuvent regrouper leurs tâches et réduire leurs charges d’exploitation, et sont également en mesure d’adapter leurs capacités en les faisant passer à l’échelle supérieure, pour en retirer une plus-value croissante pour l’entreprise.

Approcher l’avenir
Les entreprises s’acheminent vers des solutions convergées qui peuvent servir à sécuriser l’ensemble des accès ? portes, ordinateurs, données, applications et services en mode cloud. Volet phare de la réalisation de cet objectif, l’authentification sans contact conjugue tout à la fois commodité et simplicité. Les utilisateurs ont d’ores et déjà troqué des clés mécaniques contre les cartes à puce permettant l’ouverture de portes et de portails. À présent, ces mêmes cartes peuvent aussi se substituer à des solutions OTP dédiées, au sein d’un système de contrôle des accès qui continuera à s’adapter et à passer très facilement à l’échelle supérieure, en offrant une plus-value croissante à l’entreprise. Les investissements qui sont réalisés dans les systèmes aujourd’hui peuvent être préservés au fil du temps à mesure que les entreprises se développent, évoluent et renforcent perpétuellement leur sécurité pour combattre les menaces sans cesse plus versatiles qui planent sur leurs locaux, leur sécurité informatique et la confidentialité de leurs informations. (Par Franck Tognée, Directeur des ventes Europe du Sud HID Global).

Fonctions analytiques de sécurité

HP a annoncé pouvoir protéger les entreprises numériques avec de nouvelles fonctions analytiques de sécurité. De nouvelles solutions identifient rapidement les menaces à haut risques et les IoC (indicators of compromise) afin d’aider à protéger les échanges entre utilisateurs, applications et données.

A l’occasion de HP Protect, la conférence annuelle sur la sécurité informatique d’entreprise, HP a dévoilé de nouvelles solutions centrées sur l’analyse de données de sécurité conçues pour aider les entreprises à passer des méthodes traditionnelles de sécurité à une approche moderne basées sur la protection des interactions entre les utilisateurs, les applications et les données, et sécuriser ainsi leurs actifs les plus précieux.

Les entreprises sont quotidiennement submergées par des données portant sur la sécurité. Elles doivent réussir à traduire ces données en informations utiles pour gérer de manière proactive les menaces qui engendrent un risque certain. Face à la complexité et le volume croissants des données, une plate-forme de sécurité intelligente est donc essentielle. Celle-ci doit être en mesure d’exploiter la puissance des solutions de Security Information and Event Management (SIEM) et d’effectuer une surveillance active avec l’analyse de données de sécurité extraites de cas d’usages, et capables d’être dérivées en actions de prévention concrètes.

« La détection des failles de sécurité est la préoccupations principale des acheteurs de solutions de sécurité. Les fabricants des solutions techniques se vantant d’identifier les failles ou de détecter des attaques sophistiquées font toujours plus de bruit » déclare Eric Ahlm, directeur de recherches chez Gartner, dans un récent communiqué de presse. « Les plateformes d’analyse de données de sécurité s’efforcent de conduire à une prise de conscience des événements de sécurité en collectant et en analysant un ensemble de données toujours plus large, de façon à ce que les événements les plus nuisibles pour les entreprises soient détectés et classés par ordre de priorité avec une efficacité accrue.»

Tirer parti de l’analyse des données de sécurité pour automatiser l’analyse des menaces
Les entreprises reçoivent chaque semaine en moyenne 17 000 alertes de programmes malveillants, et dépensent chaque année en moyenne 1,27 million US$ en temps et en ressources pour répondre à des menaces 2 provenant de données imprécises ou erronées. En raison du volume de données que les professionnels de la sécurité d’entreprise doivent surveiller, on estime à environ quatre pour cent, seulement, les alertes de logiciels malveillants faisant l’objet d’investigations 2, laissant ainsi une faille importante dans la gestion des problèmes de sécurité. En outre, les solutions traditionnelles périmétrique et les actions manuelles ne sont pas capables d’intercepter toutes les infections critiques dues à des programmes malveillants et laissent ainsi les entreprises encore plus exposées aux risques.

Pour les aider à automatiser l’analyse des données relatives aux menaces, HP annonce HP DNS Malware Analytics (DMA), une solution unique conçue pour identifier les systèmes infectés en analysant le trafic sur les serveurs DNS de l’entreprise. Cette solution sans agent a été développée en partenariat avec les HP Labs, les laboratoires de recherche d’HP, et le centre interne HP Cyber Defense Center. Travaillant à partir d’algorithmes, elle répertorie les serveurs infectés sans logiciel installé sur les composants périmétriques, et aide les clients à détecter rapidement les menaces à haut risque, réduire l’impact des failles de sécurité et améliorer leur politique globale de sécurité.

« Aujourd’hui les organisations doivent faire face à des volumes croissants de données de sécurité. Sans avoir la possibilité de séparer les signaux réels du bruit ambiant, les entreprises peuvent être victimes d’attaques malveillantes non détectées aux conséquences graves à la fois en termes financiers et opérationnels » déclare Sue Barsamian, Senior Vice-Président et Directeur Général de l’entité HP Enterprise Security Products. « La nouvelle solution HP DNS Malware Analytics (DMA) utilise les techniques de traitement des données pour détecter des malwares à partir de larges volumes d’événements fournis par les serveurs DNS. HP DMA est une solution packagée simple et très efficace adaptée aux grandes et moyennes entreprises. Combinée à la plateforme HP ArcSight SIEM, elle apporte des fonctionnalités de nouvelle génération qui renforcent la protection de l’entreprise. »

HP DMA identifie rapidement les cibles infectées comme les serveurs, les postes de travail et les appareils mobiles, afin de pouvoir les isoler avant qu’ils ne se connectent au réseau. La solution propose un algorithme unique en son genre – ce qui la différencie de la plupart des offres bâties sur des règles – capable d’analyser un très grand nombre d’enregistrements DNS. Ceci permet la détection d’un nouveau malware inconnu tout en réduisant par 20 le nombre de faux positifs par rapport aux autres offres de détection de malware sur le marché 3. Les entreprises économisent ainsi du temps et des ressources IT, et peuvent répondre aux risques les plus élevés en fonction des priorités qu’elles auront définies.

Avec un paramétrage simple et un reporting dans le cloud, HP DMA peut être déployé rapidement pour offrir une vigilance permanente face aux menaces. La solution s’intègre de façon transparente avec la plateforme the HP ArcSight SIEM, ce qui permet d’exploiter la capacité des systèmes SIEM, en tirant parti des déploiements de ArcSight Enterprise Security Management (ESM) afin de corréler d’autres données contextuelles, de donner des alertes et de proposer des actions appropriées.

Intégrer les données de sécurisation des applications pour élargir la couverture de sécurité
En prolongement de son engagement sur les offres de sécurité basées sur l’utilisation de données, HP annonce également HP Fortify scan analytics, une technologie unique qui exploite la puissance des données de sécurité issues des applications afin d’améliorer l’acuité et l’efficacité des solutions de sécurisation des applications. En traitant un volume croissant d’enregistrements fournis par des scans applicatifs et en réduisant la quantité d’éléments demandant l’analyse d’un spécialiste, la solution permet aux entreprises de concentrer leurs ressources sur un nombre plus faible de tâches plus prioritaires. Cette technologie analytique s’intègre de façon transparente dans les workflows existants de tests de sécurité des applications, ce qui contribue à augmenter à la fois l’efficacité du processus d’audit de la sécurité des applications et la pertinence des résultats.

Tirer parti de l’analyse prédictive pour accélérer la détection de menaces internes
Les nouvelles offres analytiques HP DMA et Fortify renforcent les capacités analytiques d’HP autour de l’analyse comportementale annoncées au cours de cette année. HP User Behavior Analytics (UBA) offre aux clients une meilleure visibilité dans le comportement des utilisateurs afin d’identifier les plus négligents ou les plus malveillants, ou de détecter les attaques externes qui infectent les comptes des utilisateurs de l’entreprise. En classant les anomalies détectées et les risques associés, HP UBA permet aux clients de concentrer leurs efforts et leurs ressources sur les activités, les utilisateurs et les applications qui présentent les risques les plus élevés pour l’entreprise.

Nouvelle loi en Russie impose la sauvegarde de toutes les données

Internet – Collecte de données obligatoire pour les entreprises Russes.

Une nouvelle loi russe, adoptée mardi 1er septembre 2015, oblige les entreprises à stocker les données qu’elles recueillent sur les citoyens russes. Des données collectées officiellement sur le territoire Russe. La nouvelle loi a créé de l’incertitude chez les entreprises et suscite des craintes sur la surveillance et la vie privée. D’autant qu’un site Internet russe qui reçoit des visiteurs de France, Chine ou États-Unis collectera et sauvegardera aussi les dites données.  La loi russe pourrait impacter plus d’un million d’entreprises locales. Certains experts craignent que cette nouvelle législation soit une tentative du gouvernement russe d’accéder à des informations personnelles à des fins de sécurité et de surveillance. Un détail loin d’être négligeable qui a du effleurer l’esprit de Vladimir Poutine ! [FT]

Smart Cities : Pourquoi l’identité est la clé des villes vraiment intelligentes

Il ne fait aucun doute que la montée en puissance de l’internet des objets (IoT) change fondamentalement la façon dont nous interagissons avec le monde. Que ce soient les smartphones, les tablettes, les réfrigérateurs ou les ampoules, presque tout type d’équipement est désormais doté d’une connexion internet destinée à rendre notre vie plus facile et efficace. Cependant, alors que la révolution IoT s’est fortement accélérée ces dernières années, elle est limitée par un défaut significatif : les équipements IoT ne peuvent généralement pas communiquer entre eux. Par Ludovic Poitou, Directeur Général Forgerock, France

Cette impossibilité de communiquer vient du manque d’identité numérique de ces équipements. En tant qu’individu, notre identité est ce qui nous rend unique et ce qui indique aux autres qui nous sommes. Sans elle, nous ne serions qu’un numéro indiscernable de ceux qui nous entourent. Le même concept s’applique aux équipements connectés. Or parmi les 4,9 milliards d’équipements qui font désormais partie de l’IoT (avec une augmentation à 25 milliards prévue en 2025), un grand nombre souffre actuellement d’une crise d’identité.

Cela change cependant. Le développement de la technologie de gestion d’identité numérique signifie que l »on peut désormais attribuer leur propre identité à ces équipements à travers l’écosystème de l’internet des objets. Ils peuvent reconnaitre les autres identités numériques, interagir avec elles en toute sécurité et établir des relations numériques connues entre utilisateurs, entre objets connectés, et entre utilisateurs et objets connectés. Le résultat de cette nouvelle forme de communication est la forte amélioration de l’utilité des équipements connectés à internet chez les particuliers, dans les bureaux et même dans les villes.

Protéger la ville intelligente de demain

Envisagez une ville où les services publics y compris les systèmes de prévention de catastrophes et les systèmes d’alerte sont connectés à l’aide de l’identité. Un ouragan approche ? Alors, le système d’alerte se déclenche, il envoie un message crypté aux services des urgences municipales pour les prévenir du danger. L’identité du système d’alerte est rapidement vérifiée et des plans d’action en cas d’urgence préétablis sont mis en œuvre. Quelques minutes après le signal d’alerte initial, on peut fermer automatiquement les ponts et les systèmes de transport à risque et les services anti-incendie peuvent être envoyées pour évacuer des immeubles dangereux rapidement et efficacement. Les équipes anti-incendies possèdent elles-mêmes leur propre identité ainsi on peut suivre leurs mouvements à travers la ville et les véhicules peuvent être envoyés vers les lieux mal desservis à travers un itinéraire non encombré. Les feux de circulation réagissent à l’arrivée des pompiers afin de limiter les bouchons et on peut vérifier l’authenticité de l’identité de chaque pompier lorsqu’ils arrivent sur site.

Comme le montre cet exemple, l’introduction de l’identité numérique à chaque étape de la réponse d’urgence peut rapidement transformer une opération très complexe avec beaucoup de mouvements en une réponse automatique qui peut sauver de nombreuses vies. Sans identité attachée à chacun des équipements et des systèmes impliqués, cela serait tout simplement impossible.

Equiper la ville intelligente de demain

En plus de nous protéger de l’imprédictible, l’identité numérique peut être aussi utilisée pour rendre plus rapides et plus faciles des aspects plus banals de notre vie. Les voyages et la logistique sont deux des domaines qui devraient bénéficier le plus d’une approche basée sur l’identité. Par exemple, les systèmes intelligents de services routiers peuvent collecter des données en temps réel sur le trafic, la vitesse et les dangers. Ces systèmes peuvent alors mettre en œuvre une signalétique réactive pour guider les voyageurs vers des itinéraires moins encombrés (à travers leurs identités numériques), pour les avertir des retards sur leur itinéraire habituel et pour leur suggérer des alternatives. Les données collectées par ce type d’activité peuvent aussi servir aux planificateurs urbains pour les futurs développements de routes et de transports en commun en indiquant précisément quels sont les points critiques des systèmes actuels.

Ailleurs, les systèmes de parking intelligents peuvent indiquer automatiquement aux conducteurs les places libres dès qu’ils arrivent à proximité, ce qui évite de faire le tour. Une fois la voiture garée, le système intelligent peut surveiller la durée du stationnement à l’aide du GPS du véhicule, déterminer la somme à payer dès que la voiture redémarre et prélever automatiquement la somme à l’aide d’un compte préenregistré. Dans le même temps, la ville peut surveiller la demande globale de stationnement et y répondre par des prix indexés à la demande, ce qui réduit la pollution et le trafic tout en optimisant les revenus.

L’identité est la clé

Ce ne sont que quelques exemples du rôle central que peut jouer l’identité dans les villes intelligentes de demain. La possibilité qu’ont les équipements intelligents à se connecter et à communiquer les uns avec les autres améliorera beaucoup la qualité des services publics et la planification des villes. Pour les citoyens, cela signifiera de nouveaux services efficaces qui amélioreront presque tous les aspects de la vie urbaine, et tout cela sera rendu possible par l’identité et l’internet des objets.

Les attaques « Man In the Cloud » exploitent les principaux services de synchronisation de fichiers

Les attaques de dernière génération transforment facilement les services cloud les plus communément utilisés en outils d’attaque dévastateurs.

Imperva, Inc., société spécialisée dans la protection des données critiques des entreprises et des applications sur site et dans le cloud, publie son nouveau rapport d’information sur les hackers portant sur une nouvelle forme d’attaque : « Man in the Cloud Attacks » ou MTIC (en anglais).

Avec « Man in the Cloud » (MITC), un hacker parvient à s’introduire discrètement dans les services de synchronisation de fichiers les plus communément utilisés, tels que Google Drive et Dropbox, pour les transformer en outils d’attaque dévastateurs, que les mesures de sécurité usuelles parviennent difficilement à détecter. Le rapport souligne que cette attaque de dernière génération n’implique pas l’usurpation du compte ou du mot de passe cloud des utilisateurs.

Les services de synchronisation cloud, tels que Box, Dropbox, Google Drive et Microsoft OneDrive, peuvent être facilement exploités et transformés en infrastructure visant à compromettre les points d’accès, en offrant un canal pour les communications de commande et contrôle, l’exfiltration des données et l’accès à distance.

Des attaques basées sur cette architecture ont déjà été identifiées
Les mesures de sécurité au niveau des points d’accès et du périmètre réseau sont insuffisantes pour la détection et l’atténuation de cette menace, car aucun code malveillant n’est stocké sur le point d’accès et aucun canal de trafic sortant anormal n’apparaît sur le réseau. Les organisations doivent consacrer davantage d’efforts à la surveillance et à la protection de leurs ressources de données critiques d’entreprise, dans le cloud et sur site. En détectant les comportements d’accès abusif à ces ressources, les entreprises peuvent se protéger contre cette nouvelle génération d’intrusions.

« Notre étude met simplement au grand jour à quel point il est facile pour les cybercriminels d’utiliser des comptes de synchronisation cloud et à quel point il est difficile de détecter ce nouveau type d’attaque, et d’y résister », indique Amichai Shulman, directeur de la technologie chez Imperva. « Depuis que nous avons identifié l’existence des attaques MITC, nous savons que les organisations qui protègent leurs systèmes contre les infections à l’aide d’outils de détection de code malveillant ou de détection des communications de commande et contrôle font face à de sérieux risques, les attaques MITC utilisant l’infrastructure de partage et de synchronisation des fichiers d’entreprise existante pour les communications de commande et contrôle, et l’exfiltration des données. »

En raison de l’utilisation croissante des appareils mobiles, des tablettes, des VPN, de l’accès à distance et des applications SaaS, les données sont désormais stockées dans le cloud, dans un périmètre qui s’étend au-delà des frontières traditionnellement définies par les entreprises. Ce passage au cloud, qu’il concerne des particuliers ou des entreprises, est bien illustré par le recours aux services de synchronisation de fichiers. L’utilisation de Box, Dropbox, Google Drive et Microsoft OneDrive dans un environnement professionnel souligne l’importance des conclusions de cette étude.

Les entreprises ont la possibilité de se protéger contre les attaques MITC en adoptant une approche en deux temps. D’une part, elles doivent s’appuyer sur une solution de courtage d’accès au service cloud (CASB, Cloud Access Security Broker) qui surveille l’accès et l’utilisation de leurs services cloud d’entreprise. D’autre part, les organisations peuvent déployer des contrôles, tels que des solutions de surveillance de l’activité des données (DAM, Data Activity Monitoring) et de surveillance de l’activité des fichiers (FAM, File Activity Monitoring), au niveau de leurs ressources de données d’entreprise pour identifier l’accès anormal et abusif aux données critiques.

Le centre de défense des applications (ADC, Application Defense Center) d’Imperva est le premier organisme de recherche consacré à l’analyse de la sécurité, à la détection des vulnérabilités et à l’expertise en matière de mise en conformité. Cette cellule allie tests approfondis en laboratoire et tests pratiques en environnement réel pour améliorer les produits d’Imperva, le tout grâce à une technologie avancée dédiée à la sécurité des données, dans le but d’offrir une protection optimale contre les menaces et une automatisation de la mise en conformité inégalée. L’équipe réalise régulièrement des études sur l’évolution du paysage des menaces, notamment le rapport consacré à son initiative d’information sur les hackers et le rapport sur les attaques visant les applications Web. La version intégrale de ce rapport du mois d’août.

État des lieux de l’Internet du 2ème trimestre 2015

Akamai Technologies, Inc., leader mondial des services de réseau de diffusion de contenu (CDN), annonce la disponibilité de son rapport de sécurité « État les lieux de l’Internet » du 2ème trimestre 2015. Il livre une analyse et un éclairage sur les cyber-menaces qui pèsent sur la sécurité cloud à l’échelle mondiale.

« La menace des attaques par déni de service distribué (DDoS) et applicatives web ne cesse de s’intensifier chaque trimestre », précise John Summers, vice-président, Cloud Security Business Unit d’Akamai. « Les acteurs malveillants brouillent perpétuellement la donne en changeant de tactique, en dénichant de nouvelles vulnérabilités, voire en remettant au goût du jour des techniques considérées comme obsolètes. En analysant les attaques observées sur nos réseaux, nous sommes en mesure d’inventorier les menaces et tendances naissantes et de communiquer au public les informations indispensables à la consolidation de leurs réseaux, sites web et applications, et à l’amélioration de leurs profils de sécurité cloud. »

Dans ce rapport sont analysés deux vecteurs d’attaques applicatives web supplémentaires, mais aussi examiné les menaces représentées par le trafic TOR (routage en oignon) et même mis au jour certaines vulnérabilités dans des modules externes WordPress tiers, en cours de publication dans le dictionnaire CVE », ajoute-t-il. « Plus les menaces de cybersécurité sont documentées, mieux la défense d’une entreprise peut être opérée.

Panorama de l’activité des attaques DDoS
Sur les trois derniers trimestres, il apparaît que le nombre d’attaques DDoS double d’une année sur l’autre. Si, au cours de ce trimestre, les pirates ont privilégié les attaques de moindre débit mais de plus longue durée, toujours est-il que le nombre de méga-attaques ne cesse de croître. Au 2ème trimestre 2015, 12 attaques à un débit supérieur à 100 Gb/s ont été recensées et 5 autres culminant à plus de 50 Mp/s (millions de paquets par seconde). Très peu d’entreprises sont capables de résister par elles-mêmes à des attaques de cette ampleur.

L’attaque DDoS la plus massive au 2ème trimestre 2015, mesurée à plus de 240 Gb/s, a duré plus de 13 heures. Le débit crête est généralement limité à une fenêtre d’une à deux heures. Sur cette même période, l’une des attaques présentant le débit de paquets le plus élevé jamais encore enregistré sur le réseau Prolexic Routed a également été déclenchée (à un pic de 214 Mp/s). Ce volume d’attaques est capable de paralyser des routeurs de niveau 1 comme ceux utilisés par les fournisseurs d’accès Internet.

L’activité des attaques DDoS a établi un nouveau record au 2ème trimestre 2015, en hausse de 132 % à trimestre comparable un an auparavant, et de 7 % par rapport au 1er trimestre 2015. Si le débit crête et le volume maximal moyens des attaques ont légèrement progressé au 2ème trimestre 2015 comparativement au trimestre précédent, ils demeurent nettement en-deçà des valeurs maximales relevées au deuxième trimestre 2014.

SYN et SSDP (Simple Service Discovery Protocol) sont les vecteurs les plus couramment utilisés ce trimestre, chacun d’eux représentant approximativement 16 % du trafic d’attaques DDoS. Eu égard à la prolifération d’équipements électroniques de loisirs non sécurisés, connectés à Internet via le protocole UPuP (Universal Plug & Play), leur utilisation comme réflecteurs SSDP demeure attrayante. Quasiment inexistant il y a encore un an, le SSDP s’est imposé comme l’un des principaux vecteurs d’attaques ces trois derniers trimestres. Quant à la technique par saturation de type « SYN flood », elle continue à dominer les attaques volumétriques et ce, depuis la première édition du rapport de sécurité parue au troisième trimestre 2011.

Le secteur des jeux en ligne demeure une cible privilégiée depuis le 2ème trimestre 2014, systématiquement visé par environ 35 % des attaques DDoS. Au cours des deux derniers trimestres, la majorité du trafic d’attaques ne provenant pas d’adresses usurpées a continué à émaner de la Chine, pays qui figure dans le trio de tête depuis la parution du premier rapport au troisième trimestre 2011.

Activité des attaques applicatives web
Des statistiques sur les attaques applicatives web ont commencé à être publiées par Akamai au premier trimestre 2015. Ce trimestre, deux autres vecteurs d’attaques ont été analysés : les failles Shellshock et XSS (cross-site scripting).

Shellshock, vulnérabilité logicielle présente dans Bash mise au jour en septembre 2014, a été exploitée dans 49 % des attaques applicatives web ce trimestre. En réalité, 95 % des attaques Shellshock ont visé un seul client appartenant au secteur des services financiers, dans le cadre d’une campagne qui a duré plusieurs semaines en début de trimestre. Généralement menée sur HTTPS, cette campagne a rééquilibré l’utilisation des protocoles HTTPS et HTTP. Au premier trimestre 2015 en effet, seulement 9 % des attaques avaient été dirigées sur HTTPS, contre 56 % ce trimestre.

Par ailleurs, les attaques par injection SQL (SQLi) représentent 26 % de l’ensemble des attaques, soit une progression de plus de 75% des alertes de ce type rien qu’au deuxième trimestre. À l’inverse, les attaques de type LFI (inclusion de fichier local) s’inscrivent en net recul. Principal vecteur d’attaques applicatives web au premier trimestre 2015, LFI n’est plus à l’origine que de 18 % des alertes au deuxième trimestre 2015. L’inclusion de fichier distant (RFI), l’injection PHP (PHPi), l’injection de commandes (CMDi), l’injection OGNL Java (JAVAi) et le chargement de fichier malveillant (MFU) comptent, pour leur part, pour 7 % des attaques applicatives web.

Comme au premier trimestre 2015, ce sont les secteurs des services financiers et du commerce et de la grande distribution qui ont été les plus fréquemment touchés par les attaques.

La menace des modules externes et thèmes WordPress tiers
WordPress, plate-forme la plus en vogue dans le monde pour la création de sites web et de blogues, est une cible de choix pour des pirates qui s’attachent à exploiter des centaines de vulnérabilités connues pour créer des botnets, disséminer des logiciels malveillants et lancer des campagnes DDoS.

Le code des modules externes tiers est très peu, voire nullement, contrôlé. Afin de mieux cerner les menaces, Akamai a testé plus de 1 300 modules externes et thèmes parmi les plus répandus. Résultat : 25 d’entre eux présentaient au moins une vulnérabilité nouvelle. Dans certains cas, ils en comprenaient même plusieurs puisque 49 exploits potentiels ont été relevés au total. Une liste exhaustive des vulnérabilités mises au jour figure dans le rapport, accompagnée de recommandations pour sécuriser les installations WordPress.

Les forces et les faiblesses de TOR
Le projet TOR (The Onion Router, pour « routage en oignon ») fait en sorte que le nœud d’entrée ne soit pas identique au nœud de sortie, garantissant ainsi l’anonymat des utilisateurs. Bien que nombre des utilisations de TOR soient légitimes, son anonymat présente de l’intérêt pour les acteurs malveillants. Pour évaluer les risques liés à l’autorisation de trafic TOR à destination de sites web, Akamai a analysé ce trafic web à l’échelle de sa base de clients Kona sur une période de sept jours.

L’analyse a révélé que 99 % des attaques émanaient d’adresses IP non-TOR. Néanmoins, une requête sur 380 issues de nœuds de sortie TOR était malveillante, contre une sur 11 500 seulement en provenance d’adresses IP non-TOR. Ceci dit, le blocage de trafic TOR pourrait se révéler préjudiciable sur le plan économique. Toutefois, les requêtes HTTP légitimes vers les pages d’e-commerce correspondantes font état de taux de conversion équivalents entre nœuds de sortie TOR et adresses IP non-TOR. Le rapport.