Plusieurs cabinets d’analyse prédisent annuellement les tendances technologiques IT. Pour l’année 2015, les fonctionnalités technologiques qui rapprochent les mondes réels et numériques auront un impact stratégique sur les économies mondiales. Les réseaux pilotés par software, stockage, emplacement des données et sécurité numérique vont tuer la « vieille » informatique.
La virtualisation généralisée décolle
Les fonctions de la virtualisation des réseaux informatiques et même ceux des télécommunications prennent leurs envols, et ce, parfois, sans recourir aux technologies SDN (Software Defined Networking). L’année 2015 verra la poursuite du développement de ces technologies, rassemblées autour de la même idée : le logiciel pilotant les actions de l’infrastructure IT d’où l’adoption de l’acronyme SDx (SDN pour le réseau, SDI pour l’infrastructure, SDDC pour les data center…). Pour rappel, les fonctions du réseau virtualisé permettent de fournir, d’une manière dynamique, des capacités réseaux lorsque le besoin existe. Tous les cabinets d’études internationaux estiment que le besoin continu de la data analyse en temps réel favorise l’essor des technologies de Big Data. Ce qui mènera inévitablement vers la montée en puissance des technologies de la data virtualisation. Mais les technologies SDN seront la grande évolution du datacenter. Les prévisions d’IDC pour 2015 et 2016 annoncent des chiffres dix fois supérieurs à ceux de 2013 pour le marché du SDN, soit de 360 millions de dollars US à près de 3,7 milliards.
Les violations de données augmentent en volume et fréquence
Malheureusement, le rythme inflexible de violations de données des années 2013 et 2014 se poursuivra en 2015. Selon l’édition la plus récente du rapport ISTR de Symantec (Internet Security Threat Report), qui analyse l’ensemble des menaces de sécurité Internet, le nombre de violations de données de grande ampleur a été multiplié par huit entre 2012 à 2013, totalisant 552 millions d’identités exposées soit autant de risques d’atteinte aux informations personnelles des consommateurs (numéros de cartes bancaires, mots de passe, coordonnées, etc.). Les attaques ciblées ont augmenté de 91 % en un an. Les tactiques traditionnelles de la sécurité de l’information numérique, comme celles utilisées dans la sécurisation des périmètres de stockage, qualifiés de «sensibles», et le management des terminaux mobiles, n’ont plus d’effets, et ne ralentissent plus les actions des cybercriminels. Les entreprises digitales doivent orienter leurs investissements consacrés à ce secteur vers la détection des intrusions et la réaction à tenir face aux attaques. L’étape stratégique de l’amélioration de la visibilité dans les applications, réseaux et terminaux est considérée par les prévisionnistes comme le premier défi à lever pour amorcer une e-politique de sécurisation globale d’une infrastructure numérique. En clair, établir une base de référence de tout ce qui est «numériquement normal» aide à isoler les menaces actuelles et à réagir en conséquence.
Les architectures hybrides deviennent la norme
Même si l’expansion du Cloud Computing et de l’hébergement physique des données (sur des serveurs) se poursuivra cette année, l’architecture hybride deviendra une réalité au cours et au-delà de l’année 2015. La pile de l’infrastructure hybride résultante va créer des défis pour la plupart des entités technologiques et économiques qui devront faire face aux «collisions» architecturales qui se produiront entre les composantes hétérogènes des réseaux physiques. Les modèles des développement et déploiement des solutions de réseaux actuels se heurtent à des disfonctionnements avec le Cloud, notamment dans la gestion des identités des utilisateurs finaux. Lever ces défis revient à approuver des modèles, des politiques, de contrôles identité et d’accès, ainsi que des pratiques de codages plus sophistiqués.
La « data analyse » favorise la prise de décision
A l’image de la visibilité, le contrôle et l’optimisation sont portés par les réseaux hybrides. La construction d’une infrastructure réseaux, basée sur la « data analyse » en temps réel sera prioritaire pour toute entreprise informatique, et ce, en raison de la possibilité de prendre rapidement des mesures urgentes, à distance ou localement, lorsque des problèmes surviennent. En 2015, plusieurs entités IT entameront des processus d’instrumentation des architectures réseaux axées sur l’analyse prédictive des données. Des réseaux autonomes en matière de correction et de génération de données seront réalisés. Cette innovation technologique favorisera la prise de décision et répondra à des besoins de vigilance ou de réassurance de l’utilisateur final. Avec la flambée des usages des terminaux mobiles (smartphones, tablettes), ainsi que des périphériques de l’Internet des objets, on assistera à une augmentation importante des données, pour lesquelles il faudra créer des applications d’analyse. C’est une tendance qui s’accélérera durant cette année.
La « data localisation » migre de la contrainte à la caractéristique
Les technologies des virtualisations généralisées, visibilité omniprésente et déploiement hybride vont créer une forme de mobilité d’infrastructures qui permettra aux compagnies IT de travailler pour la localisation de l’emplacement des données, des applications et des usagers. Les politiques de régulation qui gouvernent les emplacements des données ne seront plus des obstacles. Le libre accès rapide aux données sera ainsi possible pour toute personne quelque soit son lieu de résidence. La compétitivité internationale des entreprises qui optent pour cette panoplie de technologies sera bien consolidée.