Archives de catégorie : Chiffrement

123456, le mot de passe number 1 des internautes en 2015

Les mots de passe 2015 : pas de doute la majorité des utilisateurs méritent de finir en slip à force de prendre à la légère leur précieux sésames.

Comme chaque année, la société SplashData a présenté son classement annuel des pires mots de passe. Dans le top 10, le manque d’inspiration s’exprime avec des classiques indétrônables comme « 123456 » (1er du classement) mais également les passions, « football » en tête (10ème place du classement). Nos mots de passe seraient-ils révélateurs d’un manque d’hygiène digitale généralisé ? Accorde-t-on si peu d’importance à notre intimité en ligne, pour si mal la protéger ?  A la lecture de de ce classement, il démontre que l’utilisateur pense que le piratage de ses données, via son mot de passe, n’arrive jamais. C’est bien connu, ce genre de chose n’arrive qu’aux autres.

D’après IFOP et Kaspersky Lab, et pour illustrer le paradoxe qui existe entre volonté de protéger son intimité et difficultés à accepter les contraintes qui s’y rattachent, un sondage a été effectué auprès d’internautes français vis-à-vis de leurs mots de passe et de leurs sous-vêtements. En moyenne, 32% des Français reconnaissent avoir déjà partagé leurs sous-vêtements avec un proche, ou être prêts à le faire. Ils sont en revanche 51% à avouer avoir déjà communiqué leurs mots de passe. 76% des Français sont plus angoissés à l’idée de savoir que certaines de leurs informations ou comptes personnels en ligne sont accessibles sans mot de passe plutôt que de devoir sortir de chez eux sans sous-vêtements.

Nous avons tendance à considérer les mots de passe comme une protection inutile, une norme contraignante imposée par le secteur du numérique pour nous offrir l’illusion de la confidentialité. En réalité, certains cybercriminels sont prêts à investir beaucoup de temps et d’argent afin de récupérer les mots de passe qui protègent nos informations les plus confidentielles. « L’étude que nous avons réalisée avec l’IFOP est intéressante car elle illustre bien la relation complexe et contradictoire que nous entretenons avec les mots de passe et les informations qu’ils protègent. Parfois réellement privés, parfois sans intérêt, ces informations ont une valeur relative et nous préférons accepter le risque théorique de les voir exposés plutôt que de s’imposer des contraintes liées à leur protection. Pourtant la sécurité tient parfois à quelques règles simples : un mot de passe ne se partage pas, ne se montre pas et se change régulièrement, tout comme les sous-vêtements« , souligne Tanguy de Coatpont, Directeur Général de Kaspersky Lab France et Afrique du Nord.

Quels changements se profilent dans le paysage de la sécurité pour 2016 ?

Le changement le plus important concerne la manière dont les équipes chargées de la sécurité traiteront « l’inflation » de données, d’équipements, de fonctionnalités et de menaces. La croissance rapide de l’Internet des Objets va ajouter énormément d’équipements et de capteurs sur les réseaux informatiques.

Nombre d’équipes chargées de la sécurité informatique se sentent dépassées par le traitement des données, la sécurité de leurs réseaux informatiques actuels ainsi que par les responsabilités associées. Se contenter d’ajouter des solutions de sécurité informatique n’aidera pas les entreprises à contrôler l’afflux de données qui se profile. Il serait plutôt intéressant de voir comment les équipes IT seraient capables de gérer dix fois plus d’équipements et de données en partant de zéro. Cela leur permettrait de réfléchir à une stratégie sur le long terme et à la manière adéquate de suivre ce rythme effréné.

Toujours plus d’entreprises ont conscience de l’importance de l’informatique dans les environnements Cloud pour leurs activités. Les services à faible valeur tels que l’infrastructure de messagerie évoluent de plus en plus vers le Cloud et sont de moins en moins gérés en interne. En effet, la plupart des entreprises ne sont pas contraintes de se soumettre à des obligations de conformité ou de sécurité à ce niveau. Après tout, la plupart des courriers électroniques sont envoyés via Internet sans être chiffrés. Alors à quoi bon héberger ces messages en interne ? Les ressources monopolisées pour ce faire pourraient être utilisées à meilleur escient, par exemple pour réfléchir à la manière dont l’équipe IT pourrait accompagner plus efficacement l’activité de l’entreprise.

Puisqu’un nombre toujours plus important d’applications et de services migrent vers le Cloud, le suivi des actifs peut également passer dans le Cloud. Les terminaux des utilisateurs sont plus mobiles qu’avant et l’environnement dans lequel les collaborateurs souhaitent ou doivent travailler peut changer à tout moment. Une liste précise d’actifs informatiques indiquant l’état de tous les équipements et logiciels autorisés, ainsi que ceux non autorisés à rejoindre le réseau, offre un meilleur point de départ à l’équipe informatique chargée de la sécurité. En parallèle, rechercher en permanence les failles possibles sur l’ensemble des points d’extrémité est désormais indispensable.

Comment évoluent les cibles ?
Contrairement à ce que peuvent prêcher la plupart des fournisseurs de solutions de sécurité informatique, le mobile sera sans doute la principale cible en termes de sécurité en 2016. Bien qu’ils aient aussi leurs problèmes, iOS et Android restent malgré tout mieux protégés contre les malware commerciaux que les traditionnels terminaux informatiques. Les équipements mobiles pourraient être la cible privilégiée d’une surveillance et d’attaques commanditées par un Etat. En effet, ces équipements nous localisent et nous transportons en permanence avec nous un micro et un appareil-photo activables à distance. Quant aux PC et ordinateurs portables, ils sont dans le viseur des éditeurs de malware commerciaux qui y voient un retour sur investissement.

L’informatique traditionnelle, en particulier les systèmes de contrôle industriels et les applications SCADA pour la production, est de plus en plus connectée à Internet. Cela représente un risque important dans la mesure où ces systèmes ont été conçus à une époque où les utilisateurs étaient des collaborateurs fiables et compétents. Connecter ces systèmes de contrôle industriels ou ces applications SCADA à l’Internet public peut les exposer facilement à des attaques externes lancées par des individus malveillants, non autorisés et hors du contrôle de l’entreprise. Des attaques continueront d’être lancées tant que ces vieux systèmes seront simplement « connectés » à Internet.

Comment évoluent les stratégies de prévention ?
Les stratégies évoluent de plus en plus car les traditionnelles approches en matière de sécurité informatique sont moins efficaces et plus problématiques qu’avant. Ces dernières ne sont plus à la hauteur et constituent un échec. Il faut plutôt s’intéresser à l’avenir de l’informatique et à la façon d’intégrer la sécurité partout et par défaut.

Par exemple, les utilisateurs consomment davantage d’applications dans le Cloud qu’auparavant. Les entreprises utilisent des solutions telles que SalesForce pour leurs systèmes CRM et Office 365 pour leur communication. Cette approche réduit le nombre d’applications tributaires du réseau interne et plus les applications et les services seront consommés auprès de fournisseurs opérant dans le Cloud public, plus la surface d’attaque des réseaux internes sera réduite.

Les équipes informatiques vont devoir réfléchir à la manière de concevoir la sécurité dans un monde où les utilisateurs s’appuient uniquement sur leur équipement plutôt que sur le réseau de l’entreprise. Chaque point d’extrémité doit pouvoir être fiable et sécurisé, peu importe où se trouvent les utilisateurs ou la façon dont ils souhaitent travailler.

Sept stratégies pour défendre les systèmes de contrôle industriel

Le rapport du ministère américain de la Sécurité intérieure intitulé « Sept stratégies pour défendre les systèmes de contrôle industriel » recommande les solutions matérielles de sécurité unidirectionnelle.

Le rapport du ministère américain de la Sécurité intérieure indique : « Pour de nombreux systèmes de contrôle industriel (ICS), la question n’est pas de savoir si une intrusion va avoir lieu, mais quand ». Les technologies comme celles de Waterfall Security sont à présent recommandées. Waterfall Security Solutions, un leader mondial de technologies de cybersécurité pour les infrastructures critiques et les systèmes de contrôle industriel, a annoncé aujourd’hui la prise en compte des technologies de communication unidirectionnelle dans les stratégies recommandées par le ministère de la Sécurité intérieure des États-Unis.

Intitulé Sept stratégies pour défendre les ICS et publié en décembre 2015 par le National Cybersecurity and Communications Integration Center (NCCIC), ce rapport souligne le nombre en augmentation des intrusions réussies dans les systèmes d’infrastructure critiques des États-Unis et la forte probabilité que de futures tentatives d’intrusion se produisent à l’avenir. En réponse à cette constatation, le rapport détaille ses sept meilleures stratégies de défense des systèmes de contrôle industriel (ICS) contre les cyberattaques.

Le rapport indique : « Au cours de l’année fiscale 2015, 295 incidents ont été rapportés à la Industrial Control Systems Cyber Emergency Response Team (ICS-CERT), et de nombreux autres n’ont pas été rapportés ni détectés. » Il recommande sept stratégies qui auraient pu prévenir toutes les intrusions et auraient protégé la sûreté et la fiabilité des opérations industrielles affectées. Trois de ces sept stratégies recommandent d’utiliser des communications matérielles unidirectionnelles, une technologie créée par Waterfall Security Solutions. Depuis 2007, les passerelles unidirectionnelles de Waterfall ont été déployées et éprouvées par des sites industriels, des unités de fabrication, des infrastructures critiques et des fabricants d’équipements industriels dans le monde entier.

« Ce dernier rapport publié par le ministère américain de la Sécurité intérieure soutient clairement notre technologie et notre mission en tant qu’entreprise de rehausser le niveau de cybersécurité des systèmes de contrôle industriel et des infrastructures de réseaux critiques », a déclaré Lior Frenkel, PDG et co-fondateur de Waterfall Security Solutions. « Le rapport du ministère de la Sécurité intérieure est clair : vous devez faire des passerelles unidirectionnelles votre premier choix. La sécurité logicielle, comme les pare-feu, ne vous sauvera pas. »

La taux élevé des nouveaux déploiements de passerelles unidirectionnelles de Waterfall Security dans les centrales,les pipelines, les raffineries, les systèmes de transport et les réseaux d’alimentation en eau à travers l’Amérique du Nord et l’Europe, en plus de l’expansion rapide de sa clientèle en Asie-Pacifique, démontrent que de nombreux industriels et décideurs sont déjà d’accord avec les recommandations du ministère.

Angler Exploit Kit : 90.000 sites piratés, des millions d’internautes ciblés

Le code malveillant Angler aurait déjà infecté plus de 90.000 sites Internet dont 30 présents dans le top 100.000 d’Alexa.

AEK, connu aussi sous le nom d’Angler Exploit Kit, n’a pas fini son petit bonhomme de chemin. Comme l’indiquent les analyses de Palo Alto Networks, déjà 90.000 sites Internet ont été touchés par ce code pirate.

Dans cette liste, 30 serveurs web sont placés dans le top 100.000 d’Alexa, soit des millions de cibles potentielles pour le logiciel malveillant. Une opération parfaitement orchestrée. AEK se met à jour périodiquement, et cela sur l’ensemble des sites corrompus. Le script caché sur les sites se déclenche au bon vouloir des « contrôleurs », rendant sa détection très difficile.

Du 5 au Novembre 2015, 90 558 domaines Internet uniques étaient déjà infectés et utilisés par AEK. Le 14 décembre, seulement 2 850 sites étaient considérés comme dangereux pour les sondes de détections d’espaces malveillants.

L’attaque se fait par le biais d’Internet Explorer et d’une version flash non mise à jour (Ce qu’à fait Adobe, d’urgence, en décembre). La nouvelle version d’AEK s’attaque aussi à Firefox et Chrome.

Comme un grand nombre de kits pirate, Angler Exploit Kit vise les internautes selon une géolocalisation, par l’IP, décidée par le pirate. AEK se charge ensuite de télécharger une charge numérique dans le pc de sa victime. La plupart du temps, un ransomware.

Les prochains ordinateurs fonctionneront uniquement sous Windows 10

Microsoft vient d’indiquer que les nouveaux ordinateurs ne fonctionneront que sous Windows 10. Les « vieux » Windows n’y auront plus y évoluer.

Microsoft vient d’annoncer que les prochaines machines ne tourneront plus que sous Windows 10. Adieu Windows 7, 8, 8.1. « En plus de nos partenaires OEM, tout au long de la conception de Windows 10, nous avons travaillé en étroite collaboration avec nos partenaires de silicium, y compris Intel, AMD, Nvidia et Qualcomm » indique la firme américaine.

L’Américain se félicite de son partenariat avec Intel et sa génération de processeurs Intel Core (Version 6, Skylake). Bilan, les machines qui sortiront dans le futur ne pourront faire tourner que la version 10 (et plus) de l’OS de Microsoft. Skylare sera le dernier a accepté autre chose. Une transition douce car ensuite, il ne sera plus possible de ne pas suivre le chemin tracé par la firme de Redmond.

Même son de cloche pour AMD, son « Bristol Ridge » ne pourra faire tourner que Windows 10. De même pour le 8996 de Qualcomm. Bref, Microsoft continue sa marche en avant de l’utilisateur forcé. Pour la bonne cause affirme Microsoft « Une meilleure intégration du software et du hardware« .

Les Data Centers face aux risques : des menaces contrôlées

Le Cloud a réussi à convaincre de nombreux adeptes grâce à ses différents atouts : simplicité, adaptabilité, ou encore coûts contrôlés. Pour protéger au mieux les données qui leur sont confiées, les fournisseurs éthiques suivent une règle d’or : prévoir l’imprévisible pour pouvoir assurer la sécurité des données.  

En effet, les data centers – comme toute autre installation – sont confrontés à différents risques et cela peut effrayer les entreprises et les particuliers.  Cependant, les serveurs des centres de données sont souvent bien plus sécurisés que les propres structures informatiques des entreprises. Plusieurs menaces existent, et les fournisseurs de Cloud disposent de spécialistes afin d’analyser et d’anticiper chacun de ses risques.

Le risque physique et le vandalisme
Il s’agit du risque lié à une intrusion physique sur le lieu : vol de matériel contenant des données, incendies criminels, ou encore casse des serveurs. Pour répondre à ce risque, des systèmes de vidéosurveillance mais aussi de détection volumétrique de mouvements au sein du périmètre de sécurité sont mis en place.  De plus, l’entrée du bâtiment est sécurisée par un contrôle d’accès strict avec différents niveaux de droits selon les pièces.  En cas de problèmes, les droits d’accès peuvent être rapidement révoqués et les badges désactivés automatiquement. Le bâtiment est également équipé de portes blindées, de systèmes de détection des chocs sur les portes et les fenêtres. Toute cette installation vise à pouvoir réagir très rapidement en cas de tentative d’effraction, avec une prise en charge rapide par le personnel sur site présent 24h/24 7J/7 et par les forces de l’ordre.

Pour pallier la menace d’incendie, des détecteurs sont mis en place. Les Data Centers sont par ailleurs équipés de système d’extinction automatique par gaz, si un départ de feu est confirmé par 2 détections simultanées, des bouteilles seront percutées instantanément afin de remplir la salle informatique d’un gaz empêchant la réaction chimique de l’incendie et bloquer tout incendie en cours.

Le risque météorologique
Cette catégorie regroupe tous les dangers liés à des conditions climatiques extrêmes: inondation, foudre ou encore canicule. Afin de prévenir d’éventuels sinistres, ce risque est étudié avant même l’implantation du Data Center afin d’éviter la construction en zone inondable. Le bâtiment est également entouré par des paratonnerres, et les armoires électriques équipées de parafoudres pour protéger le lieu en cas de tempête. Les climatisations sont spécifiquement choisies afin de fonctionner même lorsqu’elles sont soumises à de très hautes températures.

Les risques intrinsèques et électriques
Pour la partie électrique, les onduleurs sont présents pour palier une éventuelle micro-coupure ; en cas de problème plus conséquents – comme une panne totale de l’arrivée électrique principale Haute Tension– les Data Centers sont équipés d’un groupe électrogène pouvant assurer leurs autonomies. Des audits annuels sont par ailleurs réalisés pour assurer une sécurité optimale du lieu. Une caméra thermique permet de vérifier qu’il n’y a pas de points chauds pouvant potentiellement créer un départ d’incendie et les câblages sont également vérifiés une fois par an. Enfin, en cas de fuite d’eau, un système automatisé permet de couper l’arrivée d’eau dans la salle informatique.

Le risque numérique
Les menaces numériques regroupent tous les risques liés au piratage informatique.  Pour cela, les serveurs peuvent—être équipés d’un antivirus, d’un firewall, mais aussi d’une solution visant à bloquer les attaques DDoS.  Ainsi, un large spectre de vecteurs d’attaques est contrôlé. Il s’agit là des précautions prises pour un unique Data Center par chaque fournisseur. La mise en place d’un deuxième Data Center, notamment s’il est utilisé pour effectuer des plans de reprises d’activité, exige également quelques bonnes pratiques. Les deux bâtiments ne doivent pas être éloignés de plus de 50 kms l’un de l’autre, dans l’idéal, afin d’avoir un délai de latence faible pour la synchronisation des données. Mais ils ne doivent pas non plus appartenir aux mêmes réseaux électriques, car si une longue coupure intervient, les deux seraient alors potentiellement impactés. (par Aurélien Poret, responsable Infrastructure – Ikoula)

Nouveau Point d’Accès WiFi Sécurisé à la norme 802.11ac

Le nouvel AP300 combine les fonctions WiFi les plus avancées avec un très haut niveau de sécurité pour mieux protéger les utilisateurs contre les attaques via Internet.

WatchGuard Technologies, spécialiste des boîtiers de sécurité réseau multifonctions, annonce l’AP300, un nouveau point d’accès WiFi sécurisé. Conçu pour fonctionner avec les boîtiers UTM (Unified Threat Management) Firebox de WatchGuard, l’AP300 délivre des accès réseau sans fil haute performance combinés avec des services de sécurité avancés pour aider les utilisateurs à mieux protéger leurs accès Internet via les réseaux WiFi. L’AP300 supporte la norme 802.11ac, le standard WiFi le plus récent et intègre une série de nouvelles fonctionnalités réseau sans fil conçues pour les entreprises dont le ‘Fast Roaming’ pour améliorer la qualité des transmissions pour les clients en voix sur IP ; le ‘Fast Handover’, qui permet de forcer des postes clients à basculer d’un point d’accès à un autre pour bénéficier d’un meilleur signal ; et ‘Band Steering’ pour basculer des postes clients vers la bande des 5 GHz moins encombrée.

Les réseaux sans fil deviennent omniprésents dans les entreprises, les magasins et les espaces publics. D’autre part, de plus en plus d’organisations offrent à leurs clients des accès WiFi gratuits afin qu’ils se connectent à Internet via des smartphones, des ordinateurs portables et d’autres équipements. Toutefois, la sécurité est un élément souvent négligé bien que critique dans l’explosion actuelle des accès WiFi. Et au fur et à mesure de l’augmentation de leur nombre, leur vulnérabilité aux attaques, qu’elles soient opportunistes ou ciblées, s’accroît aussi.

“Les organisations dans tous les secteurs font face à une demande croissante de la part de leurs clients, de leurs partenaires et de leurs employés pour des accès réseau sans fil. Malheureusement les ‘hackers’ ne cessent également d’essayer de pénétrer sur ces réseaux,” a déclaré Ryan Orsi, director of product management chez WatchGuard. “Les entreprises doivent améliorer leurs défenses, spécialement sur le sans fil. Celles qui négligent la sécurité de leurs réseaux WiFi, à commencer par leurs hotspots invités, s’exposent à de nombreux risques. Notre nouvel AP300 combine les technologies sans fil les plus récentes et les fonctions de sécurité les plus avancées afin d’aider nos clients à se protéger contre les menaces en ligne via les réseaux WiFi.”

Les menaces de sécurité qui peuvent toucher les réseaux sans fil comprennent:
·         Usurpation de mots de passe Wi-Fi : Les points d’accès sans fil qui utilisent toujours d’anciens protocoles de sécurité, tels que le WEP, sont des cibles faciles car les mots de passe sont réputés faciles à ‘craquer’.

·         Hotspots pirates: Rien n’empêche physiquement un cyber criminel d’implanter un point d’accès pirate à proximité d’un hotspot officiel avec un SSID correspondant, invitant les utilisateurs à s’y connecter. Les victimes de ce point d’accès pirate peuvent recevoir du code malveillant, qui passe souvent inaperçu.

·         Implantation de malwares: Des clients accédant à un réseau sans fil invité sont susceptibles de repartir avec des malwares non désirés, délivrés par des utilisateurs mal intentionnés à proximité. Une tactique couramment utilisée par les ‘hackers’ est d’installer une porte dérobée sur le réseau, qui leur permet d’y ré accéder plus tard pour voler des données sensibles.

·         Mise sur écoute: Les invités prennent le risque que leurs communications privées soient interceptées par des cyber espions lorsqu’ils sont sur des réseaux sans fil non protégés.

·         Vols de données: Rejoindre un réseau sans fil peut exposer les utilisateurs au risque de vol de documents privés par des individus interceptant les données transmises via le réseau.

·         Usages inappropriés et illégaux: Les entreprises offrant des accès WiFi à leurs invités risquent d’accueillir une large variété de communications illégales et potentiellement dangereuses. Des contenus inappropriés peuvent offenser d’autres utilisateurs à proximité, et des téléchargements illégaux peuvent exposer l’entreprise à des poursuites judiciaires.

·         Voisins dangereux: Le nombre d’utilisateurs connectés aux réseaux sans fil ne cesse de s’accroître, et avec lui le risque que des terminaux déjà infectés pénètrent sur le réseau. Des attaques via les mobiles, telles que Stagefright d’Android, peuvent se répandre d’un mobile à un autre, même si la victime initiale n’a pas conscience d’avoir été attaquée.

WatchGuard protège contre toutes ces menaces, en permettant aux réseaux sans fil de diriger tout leur trafic au travers de l’ensemble des services de sécurité intégrés dans les boîtiers UTM de WatchGuard, dont l’anti-virus (AV), la prévention d’intrusions (IPS), WebBlocker, spamBlocker, App Control, Reputation Enabled Defense, APT Blocker, and Data Loss Prevention. Chacun de ces services est géré par une seule et même console d’administration, et peut être exécuté sans sacrifier les performances et les débits réseau.

2015 : L’année du fléau Ransomware

55.8 % de tous les fichiers malveillants visant les internautes français contenaient une forme de ransomware.

Après avoir analysé des e-mails infectés visant des utilisateurs lors des douze derniers mois et détecté une proportion considérable de malwares de type ransomware, Bitdefender, société de technologies de sécurité Internet innovantes protégeant plus de 500 millions d’utilisateurs dans le monde entier, publie un aperçu de ce que pourrait être l’amplitude de cette menace.

En juin 2015, le FBI a lancé un avertissement à propos de Cryptowall 4.0, le décrivant comme le ransomware le plus « actif et menaçant, visant les particuliers et entreprises américaines ». L’étude de Bitdefender confirme cette tendance : 61,8% de toutes les attaques de malwares via e-mails aux États-Unis ont diffusé du ransomware (la plupart du temps Cryptowall et Cryptolocker).

En France, un peu plus de la moitié (55.8%) de tous les fichiers malveillants diffusés via e-mail contenaient une forme de ransomware.

À l’échelle mondiale, près du tiers des attaques de malwares par e-mails contenaient une forme de ransomware, dont la majorité aux États-Unis (11.9%) et environ 2% en France. Le reste des e-mails propageant d’autres types de malwares : chevaux de Troie, spywares et autres programmes malveillants.

Comme souvent, les internautes américains sont les plus ciblés par des infections ransomwares via mail (21.2%). La France arrive en 4e position des cibles privilégiées par les cybercriminels (3.85%).

Les cybercriminels à l’origine de ces ransomwares ont donc fait des États-Unis leur priorité, rejoignant ainsi les craintes des DSI américains davantage préoccupés par les ransomwares que par les menaces 0-day1. Ce pays représente en effet un marché hautement profitable pour ce type d’attaque. En 2015, les créateurs du tristement célèbre ransomware CryptoWall ont extorqué plus de 325 millions de dollars (près de 300 millions d’euros) aux victimes américaines, selon diverses études. Un des facteurs importants qui explique ces gains est l’utilisation d’algorithmes de chiffrement sophistiqués qui ne laisse bien souvent d’autre choix aux victimes que de payer la rançon. Le FBI lui-même a parfois encouragé des entreprises à payer.

Les ransomwares sont probablement la menace la plus importante pour les internautes depuis 2014 et resteront l’un des plus importants vecteurs de cybercriminalité en 2016. Alors que certains pirates préfèrent l’approche du chiffrement de fichiers, certaines versions plus novatrices se concentreront sur le développement de « l’extortionware » (malware qui bloque les comptes de services en ligne ou expose les données personnelles aux yeux de tous sur Internet).

Clé USB perdue pour un hôpital, 29 000 patients concernés

La fuite de bases de données peut prendre de multiples formes. La perte d’un support de stockage contenant des informations sensibles médicaux par exemple.

Ca n’arrive pas qu’aux autres – 29 000 patients de l’hôpital universitaire Arnett de l’Indianna viennent d’être alertés d’un problème concernant leurs dossiers médicaux. Le centre hospitalier a alerté la justice de l’Etat à la suite de la « perte » d’une clé USB. Dans le support de stockage de l’University Health Arnett Hospital, des informations de santé de milliers de patients. La clé n’était pas chiffrée, n’avait pas de mot de passe. Le document n’était pas protégé contre les lectures non autorisées. Plus grave encore, les données couraient de novembre 2014 à novembre 2015. Quid des autres sauvegardes et de la sécurité de ces dernières ?

A noter, qu’en France, ce mardi 11 janvier, un hébergeur Lillois a été attaqué par un pirate informatique Turc. Des cabinets dentaires, des sites d’infirmiers et infirmières Français ont été impactés par cette attaque. Impossible de savoir si des données sensibles ont été collectées par le malveillant.

Quelles sont les nouvelles missions de la DSI à l’ère du cloud ?

Ce n’est plus une surprise aujourd’hui que le recours au cloud représente une transformation importante et stratégique pour les entreprises et va parfois de pair avec certaines inquiétudes concernant la place de la DSI. Les questions qui découlent de cette stratégie technologiques sont nombreuses : la DSI a-t-elle encore un rôle à jouer à l’ère du cloud ? Ce rôle doit-il évoluer et si oui, dans quelle(s) direction(s) ?

Dans de nombreuses entreprises, la DSI cherche avant tout à créer un socle informatique commun à l’ensemble des salariés : ce dernier doit être stable, afin d’éviter les interruptions de l’activité et permettre à chacun d’acquérir une excellente maîtrise des outils ; il doit aussi être sécurisé, afin de garantir une confidentialité optimale des données. De ces impératifs résultent des cycles informatiques longs, pouvant durer entre 3 et 5 ans avant que l’on n’envisage de changements significatifs des outils utilisés. Aujourd’hui, ce cycle long montre ses limites face à une économie toujours plus réactive où le time-to-market se réduit et où l’on recherche une plus grande agilité. Les entreprises doivent souvent faire preuve de rapidité pour répondre aux besoins du marché, une rapidité à laquelle leur infrastructure n’est pas toujours adaptée.

La DSI est donc confrontée à un paradoxe : d’un côté, offrir à l’entreprise de la stabilité afin qu’elle gagne en productivité et en sécurité ; de l’autre, s’adapter à de nouveaux usages dans un contexte où tout concorde pour que l’environnement soit instable. Un paradoxe d’autant plus présent dans les secteurs où les entreprises traditionnelles sont concurrencées par des start-up très agiles.

Mais alors, quelles craintes font naître ces évolutions ?
Tout d’abord il y a le « shadow IT ». La DSI y est confrontée de manière quasi récurrente : les salariés souhaitent décider eux-mêmes des outils les plus appropriés pour accomplir leurs missions ; il leur arrive ainsi d’en adopter certains sans l’aval des services informatiques, créant alors une véritable «informatique de l’ombre». Par conséquent, la DSI hérite souvent de la maintenance de ces dispositifs qu’elle n’a pas choisis et de la gestion des problèmes de compatibilité.

Puis vient la perte d’influence. Pendant longtemps, seule la DSI a eu le pouvoir sur les outils utilisés dans l’entreprise lui permettant de s’opposer à l’utilisation d’un logiciel si elle estimait qu’il ne répondait pas aux critères établis. Aujourd’hui, comme l’illustre la présence du shadow IT, les entreprises sont beaucoup plus ouvertes sur l’extérieur. Les directions métier, par exemple, ont accès à un large panel d’applications web qu’elles peuvent mettre en place en quelques clics. Le processus de décision est donc souvent plus rapide que la chronologie traditionnelle (évaluation des ressources techniques et budgétaires nécessaires, étude des risques, prise de décision, planification, déploiement) qui exigeait souvent plusieurs semaines voire plusieurs mois. En conséquence, la DSI peut craindre une certaine perte d’influence.

Enfin, reste l’automatisation. La plupart du temps, les logiciels basés sur le cloud hébergent les données au sein d’un datacenter extérieur à l’entreprise, dont la gestion est donc assurée par des tiers. De même, ces logiciels permettent souvent d’automatiser ou de simplifier des tâches autrefois placées sous le contrôle de la DSI : l’allocation des ressources, la configuration de chaque poste, le déploiement de nouvelles applications, etc. Ainsi, bien souvent, la DSI n’est plus la seule à impulser des décisions quant aux choix technologiques de l’entreprise. Les directions métier s’invitent aussi dans le débat, suggérant l’adoption de nouveaux outils. C’est sur ce type de projet que la DSI est la plus susceptible de ressentir une perte d’influence. Le risque est moindre lorsque les projets concernent l’entreprise dans son ensemble car la DSI conserve alors son pouvoir de prescription et de décision.

DSI, métiers, vers un juste équilibre ?
La situation actuelle entre DSI et directions métier n’est pas si préoccupante que l’on pourrait le croire. En effet, une étude menée par Verizon a démontré que seules 16% des entreprises étaient prêtes à investir dans le cloud sans l’aval de la DSI. A l’inverse, pour 43% d’entre elles, ce type de décision implique toujours une validation préalable de la DSI tandis que 39% prennent une décision collégiale associant directions métier et DSI. Le fait d’associer la DSI aux décisions ne se résume pas à valider la sécurité des choix technologiques, au contraire. La DSI permet, pour plus de la moitié des entreprises interrogées, d’optimiser les coûts et de réduire la complexité du processus. En réalité, il ne s’agit pas de créer un clivage entre DSI et directions métier mais de les réunir autour d’un objectif qui les rapproche : assurer la croissance de l’entreprise. Cela passe souvent par la mise en place de nouveaux business models permettant de développer le portefeuille clients ou de fidéliser les clients existants. Dans la poursuite de cet objectif, le cloud apporte une agilité accrue.

Le fait de solliciter l’IT offre à toute entreprise des bénéfices qui restent indéniables :
La DSI se porte garante du bon fonctionnement du système – Si le téléchargement d’un logiciel classique peut se faire à l’insu de l’IT, le cloud implique nécessairement de se pencher sur des questions comme la sécurité, la bande passante, l’interopérabilité. Sur ces sujets pointus, seule la DSI est en mesure d’intervenir afin de mettre en place de nouvelles fonctionnalités tout en préservant la cohérence du système d’information. Elle a en effet la maîtrise des questions de gouvernance : proposer de nouveaux produits et services, améliorer les processus et la fluidité des échanges…

La DSI peut apporter un accompagnement – Tout changement fait naître des inquiétudes et de manière générale, les utilisateurs n’acceptent un nouveau système que lorsque celui-ci apporte une amélioration significative de leurs conditions de travail. A l’inverse, si ce système se révèle plus complexe que le précédent, on accroît le risque de shadow IT. Il est donc primordial de faire coopérer la DSI et les métiers.

La DSI a un réel pouvoir de prescription – elle n’a pas pour seule mission de répondre à des besoins exprimés par les directions métier. Elle cherche aussi à les anticiper. Sa position la place à l’écoute des évolutions technologiques, elle est aussi gardienne de la mémoire des systèmes d’information de l’entreprise et peut donc impulser des innovations pour que l’entreprise gagne en modernité et en efficacité.

En conclusion, il ressort de ces constats que la DSI, loin d’être menacée par le développement du cloud, peut au contraire tirer profit de sa maîtrise technologique pour accompagner les directions métier et leur proposer des solutions à forte valeur ajoutée. Elle retrouve ainsi toute sa place dans la stratégie de l’entreprise. (Par Philippe Motet – Directeur Technique chez Oodrive)