Navigation
|
|
Data center - 6 Stratégies IT pour rester à la pointe des tendances
par Stephanie Overby – d’IT News
Ces dernières années, la virtualisation a permis à de nombreuses sociétés et organismes de migrer vers des hébergements en colocation externalisés et dans le cloud en remplacement de leur data center interne, indique Craig Wright, responsable du cabinet conseil informatique Pace Harmon. La possibilité d’accroître la densité des plateformes tout en utilisant moins de place a accéléré le processus.
Le cloud ne cesse de se développer, aussi bien le cloud public qui exploite des situations standards que le cloud privé qui, lui, répond à des besoins spécifiques, comme plus de sécurité ou des contraintes règlementaires. Ces nouvelles pratiques conduisent à une concentration organisationnelle accrue des services d’infrastructure, constate Craig Wright.
L’automatisation des data centers commence à bousculer les choses avec leur virtualisation (Software Defined Datacenter). Dans ce scénario, tout dans le data center est virtualisé -- les applications, les bases de données, les réseaux -- et une couche d’automatisation de toutes les couches de virtualisation pour créer une plateforme unifiée, précise Greg Wright. Cette nouvelle approche requiert un haut niveau de maturité de virtualisation et l’orchestration minutieuse des process pour que tous les éléments fonctionnent ensemble efficacement.
Associer ces technologies évoluées apporte des avantages certains. De ce fait, la plupart des entreprises en profitent pour améliorer le fonctionnement de leur système informatique. Même les plus sceptiques effectuent des tests et cherchent à améliorer leurs compétences. Cependant, pour opérer de tels changements, les organisations IT -- et l’ensemble de leurs fournisseurs et prestataires -- doivent revoir leur stratégie en matière de data center.
Ces six conseils doivent vous permettre de rester à la pointe des tendances dans le domaine des data centers.
- Investir dans la formation, recourir à du personnel qualifié et effectuer des contrôles. L’automatisation et la standardisation entraînent la baisse des effectifs mais aussi le besoin de personnel plus qualifié. "On a besoin de qualité et non plus de quantité, résume Wright. Auparavant, le personnel dans les data centers traditionnels avaient l’habitude de travailler avec des procédures normalisées. Comme par exemple, le déclenchement d’alerte automatique lorsqu’un évènement survenait. Le travail des équipes dans les data centers consistait à installer des machines, à tirer des câbles et à gérer des plateformes physiques.
Dans un environnement fortement virtualisé, les professionnels des data centers doivent comprendre les schémas logiques comme la distribution dynamique des systèmes d’exploitation au travers de plusieurs plateformes afin de pouvoir les optimiser et les dépanner en cas de besoin. "Disposer de personnel qualifié, investir dans la formation continue et effectuer des contrôles récurrents aussi bien du personnel que des prestataires doit devenir la norme et non plus l’exception, déclare Wright.
- Repenser son infrastructure. Les technologies des data centers modernes favorisent; l’externalisation mais, toutefois, dans un moindre volume que par le passé. "Dans de nombreux cas, l’externalisation concerne l’infrastructure et les serveurs, alors que les domaines de la surveillance et de l’architecture continuent à être gérés en interne, constate Wright.
En attendant, l’externalisation des data centers se développe. " Entre le coût de la main d’œuvre et les autres avantages, les data centers externalisés gagnent du terrain et le nombre de contrats est en augmentation , précise Wright. "Les avancées technologiques associées à la standardisation diminuent le besoin en environnements physiques lourds. En ayant recours aux opportunités du cloud et de la virtualisation pour exécuter à distance les services de management et d’infrastructure, les entreprises peuvent faire appel à différents fournisseurs pour améliorer leur système dans des centres externalisés à moindre coût."
- Conçu pour des plateformes haute-densité. Dans un data center classique, la densité moyenne par armoire est de 5 kilowatts. Dans un rack haute-densité, c’est le double. Si on installait ces racks ainsi équipés dans un data center existant le coût pour les alimenter et les refroidir serait prohibitif, constate Wright.
- Trouver le bon équilibre. "Choisissez des solutions hybrides pour optimiser votre organisation, conseille Wright. "Associer quelques équipements en interne ou en un lieu en colocation avec des services dans le cloud est souvent la meilleure solution pour profiter des avantages des deux environnements."
- Applications existantes. Un des points majeurs d’achoppement à considérer est de savoir comment gérer les applications existantes comme par exemple, celles des années 80 qui ne peuvent pas être intégrées à l’environnement des nouveaux data centers ou qui ne peuvent pas être virtualisées. Faut-il les supprimer ou les remplacer ? Ou les faire fonctionner en tandem ?"<
"En réalité, nombre de ces plateformes sont stables et il n’y a aucune raison pressante d’effectuer leur mise à jour," indique Wright. " c’est un problème très banal. Comment conserver une application existante en l’intégrant dans un data center automatisé ou virtualisé, et que faire si l’application existante vous contraint à rester dans un data center d&rsquo:ancienne génération ?"
- Penser comme un utilisateur. "Le plus gros challenge est d’assembler et d’intégrer tous ces avancées en une solution globale et de la rendre complète pour l’utilisateur final," explique Wright. "Exposer l’utilisateur final à des expériences utilisateur différentes selon le lieu où se situent le data center ou la solution peut être une des causes principales de son insatisfaction vis à vis du service informatique." Il faut s’assurer que l’expérience utilisateur est uniforme quelque soit le lieu et la façon dont les services sont fournis.
|