Archives de catégorie : Securite informatique

Piratage pour Forrester Research : des rapports clients volés

Le site Internet de la société Forrester Research, Forrester.com, a été infiltré. Une vulnérabilité qui a donné accès à un pirate à des informations commercialisées par FR.

Une faille de sécurité dans le site web de Forrester Research a permis à un pirate informatique d’avoir accès à des informations sensibles commercialisées par la société spécialisée dans les audits et analyses économiques.

Le pirate a trouvé un accès à l’espace permettant d’accéder aux rapports produits par FR et mis à disposition, pour les clients, sur le site Forrester.com. Les attaquants ont été détectés après l’intrusion. Les comptes créés pour l’occasion par les malveillants ont effacé du système. Le cabinet de conseil, l’un des plus influents du monde, a indiqué qu’aucunes données clients n’avaient été impactées. Les pirates ont infiltré l’infrastructure hébergeant le site Forrester.com. Un espace qui permet également aux clients de télécharger des études de marché. Des accès en fonction de leurs contrats avec Forrester Research. Autant dire une manne d’information stratégique pour qui sait s’en servir.

Les sociétés d’audits et autres études de marché sont des cibles VIP+ pour les espions du numérique. A l’image des agences de presse spécialisée dans l’économie, porteuses de communiqués de presse non encore diffusés ou mis sous embargo.

En 2015, cinq personnes étaient arrêtées aux États-Unis pour s’être fait une spécialité boursière pas comme les autres. Ils pirataient des agences de presse spécialisées. Le but, de mettre la main sur des données encore publiées concernant des sociétés cotées en bourse. Les pirates mettaient en vente les informations volées auprès d’acheteurs initiés aux arnaques financières. Les malveillants proposaient aussi d’accéder aux serveurs compromis, soit ils offraient la possibilité de consulter des listes « d’achats » et de « souhaits » à partir d’informations qui devaient être diffusées par les agences. Une infiltration qui va durer 5 ans !

Un procédé qui ressemble comme deux gouttes d’eau à l’action pirate menée contre Forrester Research.

Analyses des Cyber-menaces 2017

Nouveau rapport relatif à l’analyse des cyber-menaces enregistrées au cours du second trimestre 2017. Malwares, ransomwares, mobiles en pleine forme !

Le nouveau rapport dédié aux cyber-menaces baptisé McAfee Labs Threats Report : September 2017, revient sur les récentes attaques WannaCry et NotPetya, met en lumière la puissance de frappe du cheval de Troie Faceliker et révèle les secteurs d’activités les plus ciblés par les pirates informatiques. On y découvre que les campagnes de ransomware [WannaCry et NotPetya] n’ont pas tant échoué que cela. Raj Samani, Chief Scientist chez McAfee explique qu’il « est tout aussi probable que leur motivation première [les diffuseurs des deux ransomwares cités] n’ait pas été l’argent, mais de perturber. Auquel cas, les deux campagnes ont été incroyablement efficaces. Nous vivons désormais dans un monde où chaque motif derrière un ransomware n’est plus simplement de gagner de l’argent, mais dans l’univers du pseudo-ransomware. »

Au deuxième trimestre 2017, Facebook a émergé comme un vecteur d’attaques notable et lieu de cyber-menaces. Faceliker a contribué, à hauteur de 8,9 %, aux 52 millions d’échantillons de logiciels malveillants nouvellement détectés. Ce cheval de Troie infecte le navigateur d’un utilisateur lorsqu’il visite un site malveillant ou compromis. Il détourne alors les « j’aime » et favorise le contenu à l’insu de l’internaute. A grande échelle, le système peut générer d’importants revenus pour les malfaiteurs derrière Faceliker. Les clics détournés pouvant faire apparaître un contenu (article, vidéo, site Web ou annonce) plus populaire/fiable qu’il ne l’est vraiment.

Le secteur public a été le plus ciblé au cours du second trimestre 2017

L’analyse trimestrielle révèle que le secteur public a été le plus ciblé au cours du second trimestre 2017, et plus particulièrement en Amérique du Nord depuis un an et demi. Le rapport révèle également que le domaine de la santé est demeuré parmi les plus visés avec une hausse de 26 % enregistrée sur le deuxième trimestre. Cette tendance a commencé au premier trimestre 2016 lorsque de nombreux hôpitaux ont subi des attaques par ransomware. Ces dernières ont paralysé plusieurs services et ont contraint, dans certains cas, les hôpitaux à transférer des patients et à retarder des opérations. Si les fuites de données dans le domaine de la santé sont aussi probablement le résultat de diffusions accidentelles et d’erreurs humaines, le secteur continue d’enregistrer un nombre croissant de cyberattaques.

Les principaux faits marquants en matière de cyber-menaces

311 incidents de sécurité rendus publiques, soit une augmentation de 3% par rapport au trimestre précédent. Une grande majorité (78%) a eu lieu sur le continent américain. Cibles verticales. Les secteurs publics, de la santé et de l’éducation représentaient plus de 50% des incidents répertoriés. En Asie, c’est davantage le secteur public qui est ciblé, suivi par les domaines des services financiers et des technologies. En Europe, c’est le secteur public qui remporte la première place, suivi des domaines du divertissement, de la santé, des finances et des technologies.

Le détournement de compte fait figure du premier vecteur d’attaque le plus divulgué. Il est suivi des DDoS, des fuites de données, des attaques ciblées, des malwares et injections SQL. Le volume de nouveaux échantillons de logiciels malveillants découvert au second trimestre a atteint les 52 millions. Une augmentation de 67%. Une telle hausse est en partie due à une croissance significative des programmateurs de logiciels malveillants et de Faceliker.

Sur les 12 derniers mois, le nombre total d’échantillons de malwares a croit de 23 % plafonnant à près de 723 millions d’échantillons. Les nouveaux échantillons de ransomware ont encore fortement augmenté ce trimestre (+54%). Leur volume total s’est accru de 47% au cours des 4 derniers trimestres pour atteindre 10,7 millions d’échantillons. Depuis un an, le nombre de malware mobile augmente de 61% et représente 18,4 millions d’échantillons. Les appareils Apple ne sont pas oubliés. Les malwares ciblant Mac OS sont en hausse de 4%, avec 27 000 nouveaux échantillons.

Les cyber-menaces basées sur des scripts

Les chercheurs révèlent également l’augmentation notable de malware basé sur des scripts depuis ces deux dernières années. Le langage de script Microsoft est utilisé pour automatiser les tâches d’administration telles que l’exécution des commandes en arrière-plan, la vérification des services installés sur le système, la fin des processus et la gestion des configurations des systèmes et serveurs. Les scripts malveillants PowerShell arrivent habituellement sur le poste d’un utilisateur par un courrier indésirable, en s’appuyant sur l’ingénierie sociale plutôt que sur des vulnérabilités logicielles. Ils tirent ensuite partie des capacités des scripts pour compromettre le système. Cette tendance comprend également l’armement de JavaScript, VBScript et d’autres types de modules non exécutables utilisant .doc, PDF, .xls, HTML.

Les pays et villes qui abritent des repères de bots

La France repère de bots ? L’hexagone est le 8e pays au monde où le volume d’attaques contre les objets connectés est le plus élevé. 6,7 millions de bots en plus et à travers le monde sur l’année 2016 ont été recensés.

Les repères de bots dans le monde ! Un an après la première attaque majeure du botnet Mirai, qui a paralysé et mis à l’arrêt une grande partie de l’internet, Norton by Symantec révèle les villes et pays (lien) qui ont involontairement accueilli un grand nombre d’infections de bots et fait le point sur leur évolution afin de mieux comprendre ce phénomène. 6,7 millions de bots supplémentaires ont rejoint le nid en 2016 au niveau mondial ; l’Europe représente plus d’un cinquième (18,7 %) de la population totale bots dans le monde.

Selon l’étude, la France est désormais le 16e pays le plus important en volume de bots en Europe et se classe au 8e rang mondial des pays ayant connu le plus d’attaques contre les objets connectés ; La ville de Paris est la première ville de France en volume de bots avec 28,18 % du nombre total de bots en France, suivie de Roubaix (8,31 %), Aubervilliers (3,40 %) et Marseille (3,33 %) ; Le Vatican, le plus petit pays au monde, possède la plus haute densité de bots en comparant le nombre d’infections par utilisateur d’internet. 5 personnes par bot.

Pour Roubaix, dans le Nord de la France, cela s’explique rapidement. OVH s’y trouve. Il est le plus important hébergeur d’Europe. Et ils sont aussi d’une efficacité loin d’être négligeable dés qu’il s’agit d’alerter et de prendre des mesures face aux sites infiltrés et exploités dans des attaques. Data Security Breach peut en témoigner avec une alerte, il y a 15 jours et une équipe OVH efficace pour informer, contrôler et bloquer si besoin. Pour le Vatican, un chiffre à prendre avec des pincettes, et pour cause, la population est de 451 personnes !

Contrôlées à distance par des cybercriminels et faisant partie d’un réseau global de bots, ces « machines zombies » sont utilisées pour réaliser des attaques par déni de services (ou DDoS – des attaques qui ont pour objectif de rendre indisponible un site Internet), envoyer du spam, perpétrer des fraudes au clic ainsi que de nombreux actes de cybercrime, à l’insu du propriétaire du terminal infecté. Ces botnets, disponibles à la location sur des forums spécialisés et sur le darknet, peuvent coordonner des millions de terminaux connectés pour des attaques massives et coordonnées. « L’an passé, 13,7 millions de Français ont été victimes d’actes de cybercriminalité, les bots et repères de bots étant un outil clé dans l’arsenal du cyber attaquant, », explique Laurent Heslault, expert en cyber sécurité chez Norton by Symantec. « Tout périphérique connecté à Internet peut être exposé à une infection de bots et donc vulnérable. Ce ne sont pas seulement les ordinateurs qui fournissent aux cybercriminels une armée de robots. En 2016, nous avons remarqué que les cybercriminels utilisaient de plus en plus les smartphones et les objets connectés pour renforcer leurs rangs de bots. Les serveurs offrent également une capacité de bande passante beaucoup plus grande pour une attaque DDoS que les PC grand public traditionnels. »

Selon les experts, l’émergence des appareils connectés pourraient expliquer la hausse des infections de bots en 2016 à travers le monde. Au cours de son apogée l’année dernière, lorsque le repère de bots Mirai se développait rapidement, composé de près d’un demi-million d’appareils connectés tels que les caméras IP et les routeurs à domicile, des attaques contre les objets connectés avaient lieu toutes les deux minutes. À l’insu des propriétaires d’appareils, près d’un tiers (31 %) des attaques proviennent de dispositifs en Europe seulement. La France se classe au 8e rang des pays concernés par l’émission d’attaques contre les objets connectés. Cependant, le lieu de résidence d’un bot n’est pas obligatoirement le lieu de sa création. Par exemple, un dispositif infecté en Europe pourrait contribuer à une attaque en Asie tout en étant contrôlé par un cybercriminel situé aux États-Unis.

Les pays de l’Est, repères de bots ?

La Russie a accueilli le plus grand nombre de bots dans toute l’Europe avec 13,6 % des dispositifs infectés par le virus en Europe qui y résident. Cependant, avec la plus grande population connectée à internet en Europe, la « densité de bots » de la Russie est relativement faible. La « densité de bots » ou les « bots par personne connectée » est une comparaison entre le nombre d’internautes d’un pays et le volume des infections par bots. Il vise à préciser quels pays ont un taux d’infection plus élevé. Avec un bot pour tous les 41 internautes, la Russie se classe au 31e rang en Europe et 94e au monde pour la densité de bots.

Ce taux d’infection relativement faible peut être influencé dans une certaine mesure par les codes de conduite de la communauté de piratage de la Russie. « Les Russes infectant les Russes sont considérés comme un faux pas en cyber criminalité, » commente Candid Wueest. « Il y a eu des cas dans le passé où les cyber-attaquants étaient « doxxed » ou livrés à la police par la communauté de cyber-attaquants pour avoir infecté des terminaux locaux. »

Le Saint-Siège de Rome, le pays le plus petit au monde, a la plus forte densité de bots, non seulement en Europe, mais également dans le monde entier. Le nombre de résidents étant significativement bas, cela signifie qu’une personne connectée au Vatican a une chance sur cinq d’utiliser un dispositif « zombie » permettant aux cybercriminels de lancer des attaques, propager des spams, le tout, à son insu.

Les villes de Madrid, Istanbul et Moscou seraient des repères de bots dans leurs villes que la grande majorité des nations ont dans leur pays. Madrid, avec 4,64 % de la population européenne de bots, Istanbul, avec 4,62 %, et Moscou avec 4,59 % ont eu plus de bots que les Pays-Bas, le 8e pays infecté par le virus en Europe.

Les RSSI craignent les failles de sécurité dans le cloud public

Selon une récente étude, les RSSI craignent les failles de sécurité dans le cloud public, mais seule une entreprise sur six chiffre toutes ses données.

Selon une récente étude publiée par la société Bitdefender, neuf professionnels de l’informatique sur dix se disent inquiets de la sécurité dans le cloud public, et près de 20 % d’entre eux n’ont pas déployé de système de sécurité pour les données sensibles stockées hors de l’infrastructure de l’entreprise. La moitié des personnes interrogées admet que la migration vers le cloud a significativement élargi le nombre de points qu’ils ont à défendre, tandis que seule une sur six chiffre les données déjà migrées. Cette enquête a été menée auprès de 1 051 professionnels en informatique de grandes entreprises comptant plus de 1 000 PC et des datacenters ; aux États-Unis, au Royaume-Uni, en France, en Italie, en Suède, au Danemark et en Allemagne.

Parmi les nouvelles exigences, l’obligation de protéger correctement les données, et en cas de violation, l’obligation pour les entreprises d’avoir en place des systèmes de notification conformes aux critères de la RGPD. L’adoption grandissante du cloud hybride – un mélange de services de cloud public et de datacenters privés, déjà en place dans 70 % des entreprises dans le monde – donne naissance à de nouveaux défis en matière de sécurité et oblige les RSSI à adopter diverses technologies pour contrer les exploits de type Zero-day, les menaces persistantes avancées et autres types de cybercrimes dévastateurs.

Qui dit cloud hybride dit problèmes hybrides
Près de 81 % des RSSI estiment que les logiciels de sécurité sont le dispositif de sécurité le plus efficace pour protéger les données stockées dans le cloud public, suivi de près par le chiffrement (mentionné par 77 % des répondants) et les sauvegardes (jugées fiables par près de la moitié des personnes interrogées).

Selon cette enquête, un grand nombre d’entreprises françaises – quatre sur dix – protègent de 31 à 60 % des données stockées dans le cloud public, tandis que seules 17 % d’entre elles chiffrent l’intégralité de celles-ci. Autre sujet d’inquiétude : 19 % des RSSI ne déploient pas de sécurité dans le cloud public, et le même pourcentage ne chiffre pas les données en transit entre leur propre datacenter et les datacenters externes.

Les spécialistes en cybersécurité de Bitdefender recommandent que tous les transferts de données entre le client et le prestataire de services cloud soient chiffrés pour éviter les attaques de type man-in-the-middle susceptibles d’intercepter et de déchiffrer toutes les données transmises. En outre, toutes les données stockées en local ou dans le cloud doivent être chiffrées pour empêcher les cybercriminels de les lire en cas de violation de données ou d’accès non autorisé.

Pour se conformer à la RGPD, les entreprises doivent identifier les données qui relèvent du règlement – « toute information se rapportant à une personne physique identifiée ou identifiable » –, consigner la manière dont ces données sont protégées et définir des plans d’intervention en cas d’incident.

L’enquête montre également que 73 % des responsables informatiques utilisent une solution de sécurité pour endpoint afin de protéger les infrastructures physiques et virtuelles, mais que 24 % ont mis en place d’autres outils. Parmi ceux-ci, 77 % l’ont fait pour protéger des clients sensibles et des données de clients, 70 % citent la conformité aux exigences internes et réglementaires, et 45 % veulent empêcher les interruptions de service suite à une attaque.

Une sécurité sur mesure face aux cyberarmes les plus élaborées
Les spécialistes Bitdefender conseillent fortement aux RSSI d’utiliser une infrastructure de sécurité centralisée, à la fois pour les environnements physiques et virtuels, mais étant capable de s’adapter à l’environnement sur lequel elle est déployée, et ce pour éviter trois inconvénients majeurs :

– L’augmentation des coûts généraux : l’installation d’une solution pour endpoint sur plusieurs machines virtuelles hébergées sur le même serveur impacte les ressources en exécutant en permanence des applications redondantes telles que les agents de sécurité.

– La réduction significative des performances : celle-ci sera inévitable si des outils de sécurité pour environnements virtualisés ne sont pas déployés. En effet ceux-ci utilisent des agents optimisés intégrés à des appliances virtuelles de sécurité sur le ou les serveurs, pour que les fichiers déjà analysés ne soient pas réanalysés à chaque fois qu’un utilisateur en a besoin.

– L’absence de protection lors du démarrage : les environnements virtuels ont souvent à faire face à des cyberarmes plus sophistiquées que celles observées pour les environnements physiques, telles que les menaces persistantes avancées ou les attaques ciblées, qui visent aussi bien les entreprises que les entités gouvernementales (exemple APT-28, et plus récemment Netrepser). En la matière, une sécurité adaptée aux environnements virtuels est de loin la solution la plus efficace pour détecter et combattre ces menaces complexes.

Ce qui est stocké dans le cloud public ne doit pas être rendu public

Les entreprises françaises sauvegardent principalement dans le cloud public des informations relatives à leurs produits (52 %), à leurs clients (44 %) et à leurs finances (45 %) et évitent de sauvegarder hors site ce qu’elles considèrent comme des données plus sensibles, telles que les recherches sur de nouveaux produits ou la concurrence (respectivement 40 % et 32 %) ou ce qui touche à la propriété intellectuelle (17 %). Elles chiffrent donc plus souvent des informations et caractéristiques de produits (36 %), des informations sur leurs clients (29 %), des informations financières (35 %) que leurs sauvegardes (17 %), leurs recherches sur la concurrence (17 %) et les informations relatives à la propriété intellectuelle (12 %).

« Le risque de ne pas être conforme à la RGPD implique non seulement une mauvaise publicité et une atteinte à la réputation des entreprises, comme c’est déjà le cas, mais également des pénalités qui peuvent atteindre 4 % du chiffre d’affaires annuel d’une entreprise », explique Bogdan Botezatu, Analyste senior des e-menaces chez Bitdefender. « 2017 ayant déjà établi de nouveaux records en termes de magnitude des cyberattaques, les comités de direction doivent réaliser que leur entreprise connaitra sans doute, sous peu, une violation de données, car la plupart d’entre elles ne sont pas correctement protégées. »

Lors de la sélection d’une solution de cloud hybride, les spécialistes Bitdefender recommandent aux entreprises d’analyser le type de données qu’elles traitent et d’en évaluer le caractère sensible – aussi bien pour l’entreprise que pour ses clients. Les données critiques, personnelles et privées touchant à la propriété intellectuelle doivent être enregistrées sur site, et n’être accessibles qu’au personnel autorisé.

Les entreprises qui traitent des données sensibles ou confidentielles, ou des données relatives à la propriété intellectuelle, doivent veiller à ce que leur infrastructure de cloud privé reste privée. Aucune personne hors du réseau local ne devrait être en mesure d’accéder à ces données et seul le personnel autorisé doit avoir les accès nécessaires pour les traiter. Le cloud privé doit être complètement isolé de l’Internet public pour empêcher les pirates d’accéder à distance, aux données via des vulnérabilités.

En ce qui concerne les défis à relever, 32 % des RSSI français considèrent le cloud public comme leur principale priorité, un pourcentage quasiment identique au pourcentage de RSSI préoccupés par le cloud privé (34 %). 16% déclarent accorder une même importance aux deux, et 15 % estiment que le cloud hybride est leur principale source d’inquiétude.

La moitié des entreprises interrogées considère le manque de prédictibilité, le manque de visibilité sur les menaces, ainsi que le manque de plateformes de sécurité multi-environnements, comme étant les principaux défis de sécurité en ce qui concerne l’adoption du cloud.

La biométrie dans le transport aérien : vers une nouvelle expérience passager

L’arrivée de la biométrie est en train de transformer radicalement l’« expérience passager » dans les aéroports. Cette nouvelle technologie, alliée aux nouvelles solutions en libre-service, devient le moyen de répondre aux défis sécuritaires actuels, à la recherche de la qualité de service et au phénomène de croissance soutenue du nombre de voyageurs aériens.

Ces deux dernières décennies, de profonds bouleversements politiques et économiques ont changé les pratiques du voyage aérien. Planifiés de longue date, les accords de Schengen (1995), puis l’élargissement de l’Europe (mai 2004) pour une meilleure fluidité au sein de l’Union, doivent aujourd’hui prendre en compte un contexte sécuritaire de plus en plus exigeant. Les attentats de New York de 2001 par exemple, ont été le prélude à une longue série de malveillances qui ont nécessité des contrôles passagers renforcés. Mais les directives initiées par un certain nombre de pays sur les données de voyages (Advance Passenger Information ou API, et d’un autre côté les données des dossiers passagers ou en anglais PNR) ne seront efficaces que si l’on sait identifier les personnes suspectes dans les aéroports.

Sur un autre plan, le transport aérien s’impose comme un acteur clé de l’économie. Déplacements professionnels et tourisme constituent une source de richesse et de création d’emplois. Aussi les acteurs du secteur aérien (aéroports, compagnies aériennes, autorités nationales et internationales, industriels de la sécurité) se trouvent-ils confrontés à plusieurs exigences : assurer la fluidité de voyageurs « fiables », limiter le temps d’attente et les retards des passagers, renforcer les contrôles de façon à parer à d’éventuelles menaces et maîtriser les coûts.

Pourquoi la biométrie est-elle intimement liée à l’identité des personnes ?
Les statistiques sont sans appel : il y aura près de 4 milliards de passagers aériens en 2017 et plus du double dans les vingt années à venir .

A l’image des banquiers à qui la réglementation demande de mieux connaître ses clients (KYC – Know Your Customer), les prestataires aéroportuaires découvrent aujourd’hui le formidable potentiel de la biométrie, qui dépasse largement les applications strictement sécuritaires. Laissons de côté les préoccupations – très légitimes – de fraude à l’identité et de terrorisme, et intéressons-nous au voyageur, un sujet central dans ce monde des objets connectés, sujet en vogue aujourd’hui.

IATA, l’association internationale des compagnies aériennes, soucieuse de rendre au voyage ses lettres de noblesse – confort, agrément et plus – se fait le porte-parole du client, le passager dont elle revendique une expérience positive. L’association est à l’origine de ce concept novateur d’« identité unique » permettant de s’authentifier, non plus pour un voyage particulier, mais, une fois pour toute, pour l’ensemble des déplacements. La biométrie devient dans ce cas de figure, le garant de l’identité grâce à une carte pouvant être utilisé dans tous les aéroports.
Les Australiens par exemple, ont même récemment dépassé la proposition IATA en dématérialisant les passeports pour les stocker dans le cloud de façon à faciliter les voyages avec leurs voisins de Nouvelle Zélande.

Le voyage de demain : le libre-service de bout en bout grâce à la biométrie
Face à un trafic aérien toujours plus dense, les aéroports et compagnies aériennes ont déjà très largement opté au cours des 15 dernières années pour le déploiement de dispositifs automatiques avec comme objectif le désengorgement des flux des passagers – très problématiques durant les heures de pointe – en simplifiant l’enregistrement.

Ces dispositifs, notamment les bornes d’enregistrement automatiques ou dépose bagages automatisés, ont révolutionné le processus d’enregistrement, permettant aux voyageurs pressés de procéder eux-mêmes à leur enregistrement et réduisant par la même occasion le temps d’attente aux traditionnels guichets de 30% .
Des études montrent que le taux de satisfaction des passagers est d’ailleurs autant plus élevé que l’utilisation de la technologie est accessible et permet d’améliorer le parcours au sein de l’aéroport.

L’identification biométrique consiste à se présenter, comme dans le monde réel, physiquement ou à partir d’un document portant une mention d’état civil. Le destinataire peut stocker cette information par une prise de vue ou la stocker dans une base de données, si la législation le permet. En comparaison à l’authentification, qui demande à une personne de prouver qu’elle est bien celle qu’elle prétend (avec le code PIN par exemple, pour retirer de l’argent), la biométrie constitue un moyen imparable pour confirmer la ressemblance entre le postulant et une référence stockée en local ou à distance.

Le stockage local, désigné en anglais par l’acronyme de MOC, Match On Card – consiste à détenir son empreinte biométrique dans un document (une carte ou un badge par exemple) présenté et lu à la manière de la technologie sans contact (NFC) utilisée pour les paiements par carte de crédit. Grâce à ce type d’identification, chacun porte en lui son habilitation ; les temps de réponse sont réduits au minimum, vu que le postulant est confronté à sa propre biométrie. Il s’agit de la procédure mise en œuvre par les sas biométriques de contrôle de frontières, les célèbres eGates PARAFE, le voyageur est authentifié par rapport à son passeport. En cas de perte ou de vol du précieux document – badge, passeport, carte – l’impétrant ne pourra plus s’authentifier.

Le parcours biométrique : qu’en attendre ?
Toutes ces initiatives vont aujourd’hui dans le sens d’une automatisation des procédures de contrôle. En effet, le voyageur actuel, passe beaucoup de temps à surfer sur le web pour vérifier un cours de bourse, consulter ses mails ou encore la météo. Réserver son voyage, s’enregistrer, et embarquer, tout en souriant à l’application biométrique de son téléphone, intervient comme une suite logique aux nouvelles habitudes de vie initiées par les nouvelles technologies.

Avec 1000 millions de passeports électroniques aujourd’hui en service dans le monde, soit 1 milliard de portraits normalisés accessibles par les systèmes de reconnaissance faciale, les eGates, citées plus haut, constituent la solution biométrique la plus prometteuse et déjà mise en place dans un nombre grandissant d’aéroports. Les récentes études ont confirmé des pourcentages de l’ordre de 80% de gain de temps sur le parcours grâce à des procédures automatisées .

A terme, ces innovations permettront d’augmenter l’efficacité, limiter le temps d’attente des voyageurs et permettre au personnel des aéroports et des compagnies aériennes de se concentrer sur d’autres tâches comme le bon fonctionnement du service et de la sécurité ou encore à venir en aide aux passagers novices. (Par Nora Blomefield, Responsable Marketing chez Gemalto pour les solutions de biométrie pour l’authentification des passagers et l’automatisation des services dans les aéroports)

Source : IATA (The International Air Transport Association)
2 Source : http://www.airportimprovement.com/article/automated-self-serve-bag-drop-saves-travelers-time-increases-airline-efficiency-halifax-int-l
3 Source : The Airport IT Trends Survey – 2016 report from SITA

Données personnelles : L’Europe et les États-Unis dans des directions opposées

Depuis l’élection de Donald Trump à la tête des États-Unis, la confidentialité des données personnelles est au cœur des préoccupations des deux côtés de l’Atlantique. Et il semble que les États-Unis et l’Union Européenne aient des idées divergentes sur la direction à suivre.

Nous utilisons tous des outils numériques au quotidien. Souvent, sans même nous en rendre compte, nous échangeons nos données personnelles contre la gratuité des services. En effet, l’ensemble de nos activités sur le web et même l’utilisation d’objets connectés génèrent des données que collectent et monétisent de grandes entreprises. Lorsqu’il s’agit de simples recherches sur le Web ou de la visite de sites et réseaux sociaux, il est rare de se soucier des traces que nous laissons. Mais qu’en est-il lorsqu’il est question de dossiers médicaux, juridiques, ou financiers ? Ceux-ci relèvent non seulement de la vie privée mais plus encore, de l’intimité des individus. Le problème est que la frontière entre ce qui est public et ce qui doit rester privé est relativement flou.

Alors les dispositions mises en place favorisent-elles trop souvent les entreprises ? Les citoyens doivent-ils reprendre la main sur l’exploitation de leurs données ? Jusqu’où les entreprises peuvent-elles utiliser nos données ? Autant de question à soulever et que l’on retrouve en Europe comme aux USA. C’est l’UE qui a choisi de légiférer afin de protéger ses citoyens avec l’entrée en vigueur en mai prochain du Règlement Général sur la Protection des Données (RGPD), mais pas seulement. Un autre règlement de l’UE destiné à protéger les données personnelles lors de communications électroniques va s’appliquer.

Ce projet de loi est à l’opposé de l’ordonnance du président américain qui vient supprimer la nouvelle loi de protection des données privées qui devait s’appliquer d’ici la fin de l’année. Promulguée sous le mandat Obama, elle aurait obligé les fournisseurs d’accès à Internet (FAI) à recueillir clairement le consentement des utilisateurs pour partager des données personnelles. Cela concernait les informations telles que la géolocalisation, les informations financières, de santé, sur les enfants, les numéros de sécurité sociale, l’historique de navigation Web, de l’utilisation d’une application et le contenu des communications. En outre, les FAI se seraient vu contraints de permettre à leurs clients de refuser le partage d’informations moins sensibles, comme une adresse électronique par exemple.

Mais les conflits entre les États-Unis et l’UE portant sur la protection des données, ne reposent pas seulement sur cette ordonnance. Les actualités récentes autour de l’immigration ont quelque peu masqué une autre législation qui remet en cause l’avenir du Privacy Shield. Remplaçant de l’accord « Safe Harbor », Privacy Shields a été imaginé avec le RGPD à l’esprit, ce qui signifie que l’application de l’un sans l’autre rend illégal le traitement de données issues d’entreprises européennes par des entreprises américaines… avec par conséquent un impact important sur les services cloud.

Pour le Royaume-Uni, la situation se compliquera aussi en 2019 car, en quittant l’Union Européenne, il quittera également le Privacy Shield.

La protection de la vie privée est donc intrinsèquement liée aux données et les prestataires doivent pouvoir offrir des garanties à leurs clients. Le Privacy Shield par exemple, permet de chiffrer facilement et de déplacer les données et les charges de travail entre les fournisseurs de cloud. Cela donne une assurance face aux incertitudes actuelles qui touchent les entreprises de l’UE et des États-Unis. Dans le même temps, des acteurs comme Microsoft ou Amazon renforcent leurs capacités de stockage de données en Europe, pour faire face aux demandes éventuelles d’entreprises européennes à déplacer leurs données sur le Vieux Continent au cas où les choses resteraient floues ou empireraient.

Les informations personnelles font partie intégrante de l’activité moderne et l’on ne peut pas ignorer ce fait. LE RGPD va être le nouveau point de référence pour leur protection et le conflit entre ceux qui voudront protéger les données privées et les autres souhaitant les exploiter est bien parti pour durer ! (Par Philippe Decherat, Directeur Technique chez Commvault)

Vidéosurveillance et Stockage : quel disque choisir ?

Lorsque se produit un événement de grande ampleur, les journalistes du monde entier se mettent en quête d’images de vidéosurveillance de l’incident, aussi isolé puisse-t-il paraître. Avec en moyenne une caméra pour vingt-neuf Terriens, il n’est donc guère surprenant qu’avec un peu de persévérance, un journaliste, un enquêteur, voire un simple particulier, finisse souvent par découvrir ces images. Selon une estimation, ce chiffre atteindrait même une caméra pour onze habitants sur des marchés développés tels que les États-Unis ou le Royaume-Uni. Un nombre aussi élevé de systèmes de vidéosurveillance actifs en permanence, génère une quantité gigantesque de données (brutes). Selon une étude de HIS Inc., en 2015, ce sont quelques 566 pétaoctets de données qui ont été produits en à peine une journée par toutes les caméras de surveillance nouvellement installées à travers le monde.

Avec l’accroissement de la demande de systèmes de vidéosurveillance, les clients rechercheront toujours les « meilleures » caractéristiques qui leur sont familières, à savoir les caméras et les logiciels de surveillance. Mais ils passeront peut-être à côté de l’aspect moins tangible – mais tout aussi important – du stockage des données collectées. De fait, bien que conçus pour l’enregistrement en continu de vidéo HD ou Full HD par des caméras multiples, de nombreux systèmes emploient encore des disques qui n’ont pas été spécifiquement testés pour les besoins particuliers des installations modernes de vidéosurveillance. Un disque optimisé pour des systèmes de vidéosurveillance doit pouvoir supporter la charge liée à ces systèmes afin de limiter les risques d’erreurs et de perte d’images. Un disque optimisé doit consommer un minimum d’énergie, donc dégager moins de chaleur et être moins sujet aux pannes. Une surchauffe pénalise les opérations de lecture-écriture dans un système de vidéosurveillance et réduit par ailleurs la durée de vie du disque. Si le coût d’un disque conçu pour des systèmes de vidéosurveillance peut s’avérer plus élevé au départ, celui-ci sera compensé par des gains de performances et une fiabilité accrue.

Un disque bureautique consomme en moyenne de 6 à 8 W tandis qu’un disque de vidéosurveillance, à l’instar du modèle WD Purple Surveillance, se contente de 3 à 5 W. La solution idéale de stockage pour ce type d’application doit tout à la fois offrir des niveaux élevés de performance, d’efficacité et de capacité pour des environnements difficiles. Mais comment faire la différence ?

Plusieurs critères spécifiques sont à examiner au moment de déterminer si un disque a été conçu dans l’optique de la vidéosurveillance :

* Fonctionnement en continu : un système de vidéosurveillance fonctionne souvent 24 heures sur 24, 7 jours sur 7. Le disque doit donc être conçu et testé pour des cycles d’écriture intensifs. En comparaison, un disque bureautique est typiquement prévu pour n’être actif que 8 heures sur 24 les jours ouvrés.

 Fiabilité des performances : certains disques, tels ceux de la gamme WD Purple Surveillance, intègrent une technologie spéciale (en l’occurrence AllFrame 4K™) qui contribue à améliorer les performances en lecture ainsi qu’à réduire les erreurs et les pertes d’images.  Capacité RAID : pour plus de sérénité, il est aussi préférable de rechercher un disque offrant une capacité RAID. Un système de ce type peut combiner deux disques durs ou plus pour assurer la redondance en cas de défaillance de l’un d’entre eux, de sorte que l’enregistrement puisse se poursuivre. Cela réduit les interruptions et les risques de perte de données.

* Faible consommation : si ce critère n’apparaît pas dans la liste des priorités concernant le choix d’un disque dur, la nécessité d’un fonctionnement en continu le rend crucial. Certains disques sont conçus dans un souci de basse consommation, ce qui est synonyme de plus grande fiabilité et d’économies.

* Prise en charge d’un grand nombre de caméras : un système NVR est conçu pour prendre en charge un nombre élevé de caméras IP et aura probablement besoin d’une plus grande capacité de stockage. La vidéo 4K consomme beaucoup plus d’espace disque que la définition standard, ce qui accroît considérablement la charge de travail et le volume d’écriture de données par seconde. Les disques de vidéosurveillance sont disponibles dans des capacités allant jusqu’à 10 téraoctets pour permettre une plus longue durée de conservation et un travail plus intensif.

* Prise en charge d’un grand nombre de baies système : à mesure que des disques durs sont ajoutés dans un système, les vibrations augmentent dans le châssis, ce qui est inévitable en raison de la rotation des plateaux. Un disque adapté doit intégrer une technologie destinée à compenser les vibrations afin de contribuer à en préserver les performances.

* Compatibilité étendue avec différents systèmes : des différences dans la conception interne du châssis et du logiciel peuvent créer des problèmes d’installation physique du disque dans une baie ou encore de reconnaissance de sa capacité complète. Il faut donc rechercher des disques compatibles avec son fabricant de systèmes DVR et NVR.

Compte tenu de l’importance du stockage dans les systèmes de vidéosurveillance, il peut aussi être utile de faire appel à un calculateur de capacité pour aider à déterminer le disque et la capacité les mieux adaptés à ses besoins.

A mesure que le nombre de caméras de vidéosurveillance continuera d’augmenter, il en ira de même pour la complexité des systèmes associés. Les installateurs doivent veiller à bien connaître les différentes options disponibles et à fournir les meilleurs conseils à leurs clients afin que ceux-ci bénéficient du niveau de fiabilité, de coût et de performances qu’ils attendent.

(Jermaine Campbell, Sales Manager North Europe, Western Digital, est spécialisé dans la gestion du marketing, la planification commerciale, les ventes, la gestion de la relation client (CRM) et la stratégie Go-to-Market.)

Accompagnement de cybersécurité au profit des structures de santé

Accompagnement de cybersécurité dans le monde de la santé ! Le ministère des Solidarités et de la Santé annonce la mise en place d’un dispositif national d’appui au profit des organismes concernés par la déclaration des incidents sur les systèmes d’information de santé : la Cellule Accompagnement Cybersecurite des Structures de Santé (Cellule ACSS).

Accompagnement de cybersécurité dans les établissement de santé ! La sécurité numérique est au cœur des préoccupations du ministère des affaires sociales et de la santé. L’interconnexion, la multiplication des échanges et le partage des données entre la ville et l’hôpital multiplient les risques liés à la sécurité : piratage, vols ou détournements de données, blocage des systèmes…

Au regard de l’augmentation du nombre d’attaques sur les systèmes numériques des établissements de santé, l’amélioration des actions de prévention et d’assistance portée devient prioritaire. La sécurité des systèmes d’information de santé permet que les données de santé soient disponibles, confidentielles, fiables, partagées et traçables. La protection des données de santé est indispensable pour assurer une meilleure coordination des soins et une prise en charge optimale des patients.

Un portail unique pour déclarer les incidents de sécurité à partir du 1er octobre 2017

A partir du 1er octobre 2017, les structures de santé concernées devront déclarer leurs incidents de sécurité via le portail de signalement des évènements sanitaires indésirables depuis l’espace dédié aux professionnels de santé : signalement.social-sante.gouv.fr

Celles-ci devront signaler toute action ou suspicion d’action malveillante causant une indisponibilité partielle ou totale de leurs systèmes d’information, une altération ou une perte de leurs données et plus généralement ayant un impact sur le fonctionnement normal de l’établissement.

Une cellule d’accompagnement de cybersécurité opérationnelle pour aider les structures de santé

Afin d’apporter un appui et un accompagnement aux organismes concernés par la déclaration de ces incidents, le ministère des solidarités et de la Santé, en lien avec les agences régionales de santé (ARS) et l’ASIP Santé, met en place un dispositif pour traiter les signalements d’incidents de sécurité de leurs systèmes d’information.

L’ASIP Santé est désignée comme le groupement d’intérêt public (GIP) en charge d’apporter un appui au traitement de ces incidents, au travers de la Cellule Accompagnement Cybersécurité des Structures de Santé (Cellule ACSS), ouverte le 1er octobre 2017 et placée sous la responsabilité du Fonctionnaire en charge de la sécurité des systèmes d’informations (FSSI) auprès du secrétaire général des ministères chargés des affaires sociales, haut fonctionnaire de défense et de sécurité (HFDS).

Les objectifs visés par ce dispositif d’accompagnement de cybersécurité vont permettre de :

  • renforcer l’analyse et le suivi des incidents pour le secteur santé ;
  • alerter et informer l’ensemble des acteurs de la sphère santé en cas de menaces ;
  • partager les bonnes pratiques sur les actions de prévention, ainsi que sur les réponses à apporter suite aux incidents, afin de réduire les impacts et de mieux protéger les systèmes.

Pour ce faire, un portail dédié à l’information et la veille sera également disponible à partir du 1er octobre 2017 à l’adresse suivante : https://www.cyberveille-sante.gouv.fr

Ce portail informera sur l’actualité SSI (Sécurité des Systèmes d’information), les vecteurs de menaces et les bonnes pratiques en matière de sécurité numérique. Il présentera des bulletins de veille sur certaines vulnérabilités logicielles critiques ou des menaces sectorielles, des fiches réflexes et des guides pour répondre à différents types d’incidents. Ce portail mettra également à disposition de la communauté SSI en santé un espace privé pour le partage entre spécialistes de la cybersécurité.

Ce nouveau dispositif national découle de l’article 110 de la loi de santé 2016 qui prévoit, pour les établissements de santé, les hôpitaux des armées, les centres de radiothérapie ainsi que les laboratoires de biologie médicale, l’obligation de signalement des incidents de sécurité de leurs systèmes d’information à compter du 1er octobre 2017.

Admission Post-bac (APB) : mise en demeure pour plusieurs manquements

La Présidente de la CNIL met en demeure le ministère de l’Enseignement Supérieur, de la Recherche et de l’Innovation de cesser de prendre des décisions concernant des personnes sur le seul fondement d’un algorithme et de faire preuve de plus de transparence dans son utilisation.

Mise en demeure ! En 2016, la CNIL a été saisie d’une plainte à l’encontre du traitement « Admission Post-Bac » (APB) dont l’objet est le recueil et le traitement des vœux des candidats à une admission en première année d’une formation post-baccalauréat.

La Présidente de la CNIL a décidé en mars 2017 de diligenter des contrôles afin de s’assurer de la conformité de ce dispositif à la loi « Informatique et Libertés ». Les investigations menées ont révélé plusieurs manquements aux règles gouvernant la protection des données personnelles.

  • S’agissant des formations non sélectives, seul l’algorithme détermine automatiquement, sans intervention humaine, les propositions d’affectation faites aux candidats, à partir des trois critères issus de l’article L. 612-3 du code de l’éducation : le domicile du candidat, sa situation de famille et l’ordre de préférence des vœux qu’il a formulés. Or, l’article 10 de la loi Informatique et Libertés précise qu’aucune « décision produisant des effets juridiques à l’égard d’une personne ne peut être prise sur le seul fondement d’un traitement automatisé de données destiné à définir le profil de l’intéressé ou à évaluer certains aspects de sa personnalité ».
  • L’information des candidats sur le portail APB est insuffisante, au regard des exigences de l’article 32 de la loi Informatique et Libertés, s’agissant notamment de l’identité du responsable de traitement, de la finalité du traitement et des droits des personnes.
  • La procédure de droit d’accès ne permet pas aux personnes d’obtenir des informations précises relatives à l’algorithme et à son fonctionnement, notamment la logique qui sous-tend le traitement APB ou le score obtenu par le candidat. En effet, l’article 39 de la loi Informatique et Libertés stipule que les personnes qui exercent leur droit d’accès doivent pouvoir obtenir « Les informations permettant de connaître et de contester la logique qui sous-tend le traitement automatisé en cas de décision prise sur le fondement de celui-ci et produisant des effets juridiques à l’égard de l’intéressé ».

La CNIL ne remet pas en cause le principe même de l’utilisation des algorithmes dans la prise de décision, notamment par les administrations. Cependant, compte tenu des enjeux éthiques qu’ils soulèvent, le législateur a prévu que l’utilisation des algorithmes ne pouvait exclure toute intervention humaine et devait s’accompagner d’une information transparente des personnes.

En conséquence, la Présidente de la CNIL a décidé de mettre en demeure le ministère de l’enseignement supérieur, de la recherche et de l’innovation de se mettre en conformité avec la loi  dans un délai de trois mois. La réforme récemment annoncée du dispositif APB devra donc s’inscrire dans l’objectif d’un strict respect, conformément à cette mise en demeure, de la loi Informatique et Libertés.

Il a été décidé par ailleurs de rendre publique cette mise en demeure compte tenu du nombre important de personnes concernées par ce traitement (853 262 élèves de terminale et étudiants ont formulé au moins un vœu d’orientation sur le site Web APB en 2017 selon le ministère) et de l’impact de celui-ci sur leurs parcours.

Elle rappelle en outre que cette mise en demeure n’est pas une sanction. Aucune suite ne sera donnée à cette procédure si le ministère se conforme à la loi dans le délai imparti. Dans ce cas, la clôture de la procédure fera également l’objet d’une publicité.

Si le ministère ne se conforme pas à cette mise en demeure dans le délai imparti, la Présidente pourra désigner un rapporteur qui, le cas échéant, pourra établir un rapport proposant à la formation restreinte de la CNIL, chargée de sanctionner les manquements à la loi Informatique et Libertés, de prononcer une sanction.

10 mythes et idées reçues à oublier au sujet des malwares

Les malwares font « jazzer » comme le disent nos amis Quebecois. Mais au fait, c’est quoi un malware ? Envie d’avoir quelques conseils afin de pouvoir faire la différence entre un Blue Screen of Death causé par un matériel défectueux et un vrai malware infectant vos équipements ? iTrust revient  sur quelques points qui vous y aideront, en décryptant les idées reçues et mythes qui gravitent autour des malwares depuis quelques années.

  • Mythe #1: Les cyberattaques sont récentes, peu nombreuses, massives et font toujours la une de l’actualité

Vous avez sûrement déjà entendu parler des cyberattaques causées par Petya, Wannacry ou plus récemment des incidents de sécurité informatique connus par Equifax. En seulement un an, ces cyberattaques massives ont fait des millions de victimes à travers le monde (notamment au sein de grandes entreprises), faisant les gros titres de l’actualité.

Cependant, si nous n’entendons pas parler d’autres attaques, cela ne signifie pas forcément qu’elles n’existent pas : des millions de tentatives (ou réussites) de piratage informatique visent les petites, moyennes et grandes entreprises au quotidien, utilisant des procédés qui passent du petit malware encodeur au vicieux malware effaceur.

Aussi, il est souvent dit que chaque cyberattaque menée est unique en son genre et qu’elle est composée d’une manière complexe et différente à chaque fois : s’il est vrai que ces attaques sont de plus en plus sophistiquées, il est à souligner que la plupart sont basées sur les mêmes procédés et changent peu dans leur composition.

  • Mythe #2: Les petites et moyennes entreprises ne sont pas une cible de choix pour les hackers  

Vous pensez que votre entreprise est bien trop petite pour attirer l’attention des hackers ? Grosse erreur.

Même si vous ne constituez pas la cible la plus lucrative aux yeux des hackers, votre entreprise n’en reste pas moins une cible de choix : elle constitue pour eux une cible facile à atteindre en peu de temps.  En effet, les petites et moyennes entreprises ont souvent des mesures de sécurité moins développées (voire inexistantes), qui permettent ainsi aux hackers de récupérer plus facilement nombre de données.

  • Mythe #3: Vous saurez immédiatement si votre ordinateur est infecté

Si certains types de malwares sont visibles au premier coup d’œil (comme par exemple les rançongiciels, qui bloquent tout accès à votre équipement ou encore certains malwares ralentissant de manière visible le fonctionnement de votre ordinateur), la plupart d’entre eux fonctionnent sans même que vous vous en rendiez compte, restant cachés au sein de vos équipements parfois durant des années.

La seule façon de vraiment savoir si votre ordinateur est infecté est de dépasser le stade d’une protection minimale de vos appareils en utilisant des solutions de cyber sécurité dynamiques, et non plus seulement statiques (type antivirus). En effet, les antivirus vous protègent seulement des attaques qu’ils ont déjà été recensées auparavant : mais qu’en est-il si un malware jusqu’alors inconnu s’infiltre dans vos équipements ? C’est alors que les solutions de sécurité informatique dites « dynamiques » entrent en jeu, sous la forme d’analyses de comportement utilisateurs. Pour en savoir plus, n’hésitez pas à lire notre article sur la détection d’analyses comportementales, ici.

D’autres mythes à découvrir sur le blog de iTrust.