Le réseau de votre data centre tient-il sous la pression ? L'IT évolue depuis l

Le réseau de votre data centre tient-il sous la pression ? L'IT évolue depuis les services discrets vers le "cloud computing" et les services partagés. Au cœur de ce changement se trouve le data centre, et il est confronté à des exigences croissantes pour garantir un service optimum dans des circonstances parfois difficiles. Une approche structurée de l'architecture du réseau du data centre commence avec la compréhension de vos objectifs business et de votre contexte opérationnel. Evaluez en quelques minutes la capacité de votre réseau de data centre à supporter de nouvelles technologies et priorités business Votre data centre est sous la pression croissante d'exécuter dans des circonstances provocantes. Virtualisation fournit une plus grande capacité, exécution et une efficacité pour moins de puissance, se refroidissant et câblant. Avec la mobilité d'application et les conditions croissantes de largeur de bande votre réseau de votre data centre est sous la pression significative. Le résultat : architecting le réseau pour tirer profit des plateformes de calcul de la commutation 10GE et de la prochaine génération Your data centre is under growing pressure to perform in challenging circumstances. Virtualisation delivers greater capacity, performance and efficiency for less power consumption, cooling and cabling. With application mobility and increasing bandwidth requirements your data centre network is under significant pressure. The result: architecting the network to take advantage of 10GE switching and next generation computing platforms. We know that it takes more than world-class technologies for your network to deliver on the promise of virtualisation. It takes a partner that understands how to deliver a solution where less is more. Dimension Data helps organisations around the world to save costs and get more performance from their data centres and the networks that support them. Data Centre Network Self-Assessment A simple, easy to use tool that will quickly evaluate the readiness of your data centre network to support virtualisation, new computing models, along with IT and business priorities. Take our online test of eight questions to provide you with quick insight into whether you're on track or need some help. Envoyez à un ami Tous les blogs du Monde.fr L'heure du bilan... carbone Just another Blog.lemonde.fr weblog 01 avril 2010 Au cœur d’un datacenter Le bruit. C’est ce qui frappe d’emblée quand on franchit le portail du centre de données d’Iliad à Vitry-sur-Seine. Un ronron continu accueille le visiteur. Ce dernier trouvera même un distributeur de bouchons d’oreille à l’intérieur du bâtiment pour son ouïe délicate. En revanche, inutile de chercher l’enseigne sur l’édifice de verre, ni le nom sur la boîte aux lettres, on n’y trouvera rien. Iliad est ici incognito. “Question de sécurité”, répond Arnaud Bermingham, responsable de l’hébergement de la maison mère de Free. Un centre de données – datacenter – est un endroit effectivement extrêmement protégé : le jour, des gardiens surveillent le site, la nuit, des chiens prennent le relais. Les caméras de vidéosurveillance, elles, filment en permanence. Pour pénétrer à l’intérieur, le visiteur doit fournir une pièce d’identité et passer au travers d’un sas. Les 17 employés, eux, doivent présenter leur doigt et un badge sur lequel leur réseau veineux a été scanné. Dans le dédale du site, tout ou presque est sous clef, de la porte d’entrée des salles aux compteurs électriques. La sécurité est au cœur des métiers d’un datacenter. Le site et ses 40 000 serveurs abritent en effet des données sensibles : celles de milliers d’internautes ou de sociétés qui n’aimeraient pas voir leurs données piratées. “Nous avons un devoir de confidentialité”, confirme Arnaud Bermingham. “Notre métier, c’est de fournir des m2 à des professionnels de l’Internet mais aussi à des banques ou des sociétés d’assurance, ajoute-t-il. On va leur fournir de l’énergie 24 h / 24 h quelque soit la situation et repousser au maximum le risque d’interruption de service.” Pour cela, selon le “principe de redondance”, tout ou presque (armoires de climatisation, pompes à eau…) est présent en double sur le site. Sept groupes électrogènes, alimentés au fioul, peuvent également prendre le relais en cas de panne EDF. “Avec ça, on peut fonctionner pendant 40 heures à 100 %”, affirme le responsable. Alimenter ces serveurs et faire en sorte que ça tourne : si le défi est technologique, il est surtout d’ordre énergétique. Le bâtiment de 5 800 m2 et ses 4 500 m2 de salles machines consomment en effet 10 mégawatts par an, soit la consommation moyenne d’une ville de 15 000 habitants. Car il faut non seulement alimenter en électricité les serveurs, climatiser les pièces où ils se trouvent pour éviter la surchauffe mais aussi améliorer la qualité du courant qui arrive de chez EDF. Résultat : une facture annuelle de 7 millions d’euros ! Le datacenter est flambant neuf. Quand Iliad a racheté Telecom Italia France (Alice) en 2008, la maison mère de Free a décidé de conserver le datacenter mais de le repenser de fond en comble. Situé près d’une centrale EDF, le site, une installation classée pour l’environnement (ICPE, c’est-à-dire soumise à autorisation car considérée comme à risques), a en effet un bon potentiel. Après douze mois de travaux et un investissement de plus de 10 millions d’euros, le datacenter a rouvert il y a trois mois. Le principal changement concerne l’amélioration de la performance énergétique du bâtiment et de ses installations. “Avant d’être écologique, notre démarche est avant tout économique, indique Arnaud Bermingham. La moindre petite innovation est intéressante en terme de coûts.” L’effort a surtout porté sur la production de froid qui, en représentant un tiers de l’énergie totale consommée, constitue un véritable défi. Traditionnellement, les datacenters utilisent une technique de climatisation qui consiste à rafraîchir toute la pièce pour maintenir les machines à environ 20°C. Ici, deux systèmes cohabitent. Celui du “cold corridor”, basé sur la séparation des flux d’air entre des allées chaudes et des allées froides, vise à optimiser la distribution d’air froid. Deux baies (des armoires qui abritent les serveurs) sont regroupées au sein d’armoires géantes où seule l’allée centrale (la froide) est climatisée. L’air chaud est rejeté par l’arrière des machines dans le reste de la pièce. “Ainsi, on ne refroidit que les machines et pas le plafond”, explique Arnaud Bermingham. Autre concept : l’utilisation du “free-cooling”, qui consiste à récupérer, quand les températures le permettent (à partir de - 5 °C), l’air extérieur via des échangeurs placés sur le toit pour refroidir le système de climatisation. Autre innovation : chaque baie est reliée à son propre compteur électrique. Il y en a plus de 2 000 sur le site. “On ne peut pas faire des économies d’énergie si on ne connaît pas la consommation d’énergie, explique Arnaud Bermingham. Avec ce système, nous avons une visibilité en temps réel de la consommation électrique de chaque client afin de réguler la climatisation en fonction de cette consommation.” Le système de climatisation fonctionne par compression, en circuit fermé. Le fluide réfrigérant (du R22, dont l’emploi sera bientôt proscrit) a été remplacé par du R134A. Si cet hydrofluorocarbone ne contient pas de chlore et n’a pas d’effet nocif sur la couche d’ozone, c’est en revanche un très puissant gaz à effet de serre – mais il n’est pas censé être libéré dans l’atmosphère. Désormais, Iliad espère économiser jusqu’à 20 % sur sa facture EDF par an et amortir son investissement sur dix ans. Pour l’instant, le client, lui, ne verra pas la différence sur sa facture même si le jeune responsable de chez Iliad affiche ostensiblement le PUE du datacenter. Le Power Usage Effectiveness , mis au point par le consortium The Green Grid, est un indicateur d’efficacité énergétique. Il est calculé en divisant le total de l’énergie consommée par le datacenter par l’énergie utilisée par l’ensemble de l’équipement informatique (serveur, stockage, réseau). Plus ce chiffre est proche de 1, meilleure est l’efficacité énergétique. “Un datacenter traditionnel a un PUE compris entre 1,8 et 2,2. Nous, nous avons un PUE de 1,23″, affirme Arnaud Bermingham. Ce chiffre, invérifiable, est stratégique pour les acteurs du secteur qui se livrent une âpre concurrence. A Vitry, certaines salles du datacenter sont encore vides, mais Arnaud Bermingham n’est pas inquiet. “C’est devenu très complexe de gérer cette partie en interne, assure le responsable hébergement d’Iliad. De plus en plus d’entreprises choisissent d’externaliser ce service. En seulement trois mois, nous avons rempli le centre à 65 %. Il sera à 100 % dès avril. Il y a plus de demande que d’offre.” Demande croissante du Net, cloud-computing (utilisation de logiciels et services hébergés à distance, comme ceux de Google document), smartphones… le marché a en effet de beaux jours devant lui. Raphaëlle Besse Desmoulières 01 avril 2010 Publié Actualité | 23 Commentaires | Lien permanent | Alerter 30 mars 2010 Les serveurs informatiques, très très gourmands en énergie On ne va pas se mentir : en étant un site Internet d’informations, notre bilan carbone va être plombé, entre autres, par les serveurs informatiques. En fonctionnant 24 heures sur 24, 7 jours sur 7, ils sont particulièrement gourmands en énergie. Et sans ces uploads/Ingenierie_Lourd/ au-coeur-d-un-data-center.pdf

  • 18
  • 0
  • 0
Afficher les détails des licences
Licence et utilisation
Gratuit pour un usage personnel Attribution requise
Partager