Je ne crois pas me tromper en affirmant que la décennie précédente a été celle du Logiciel Libre.
J'espère franchement que l'actuelle sera celle du Centre de Données Libre !
Un état des lieux par The Vulture Register.

How Facebook flipped the data centre hardware market

Niveau : intermédiaire

Cela fait déjà quelques années qu'Intel ne fait plus progresser la fréquence de ses microprocesseurs, qui restent bloqués sous la barre symbolique des 4 GHz.
En affinant la finesse de gravure, le fondeur multiplie toutefois régulièrement les unités de calcul, les cores.
Le grand public n'est pas vraiment concerné par ces progrès, puisque très peu de logiciels classiques sont capables d'exploiter le parallélisme / multi-threading.

Pour les entreprises et le datacenter, par contre, ces gains sont bien réels, puisque les serveurs ont par définition à traiter des milliers voire des dizaines de milliers de connexions simultanées.
La technologie multi-core a modelé l'infrastructure informatique des sociétés voire crée de nouveaux business-models, et a permis l’avènement de la virtualisation et du cloud computing.

La nouvelle génération annoncée par Intel, les Xeon E7 v2 (nom de code "Ivy Town"), au-delà d'une simple itération, permettra, j'en suis certain, de nouveaux usages lorsqu'elle se sera démocratisée.

Zoom sur le datacenter de 2015-2016 ! ;-)

Niveau : intermédiaire

Dans les précédents articles, j'avais expliqué comment installer un serveur de stockage ZFS, quelques optimisations de base pour ESXi et quelques best practices.
Toutefois, le sujet est très vaste, et nous n'en sommes qu'à la "prise de contact" : le niveau de connaissances exigé pour gérer ne serait-ce qu'une petite structure virtuelle est assez élevé ...
Ce que je vous propose donc, c'est de poursuivre l'initiation en nous intéressant aux performances NFS et à une architecture "classique" pour ESXi et le stockage réseau.

Niveau : débutant

Lors d'un précédent post, j'avais émis l'idée que les sites populaires étaient rapides, et que de mauvais temps de réponse (la latence) nuisaient à la fréquentation des sites web, puisqu'ils faisaient partie du "perçu" du visiteur.
Toutefois, j'en étais resté au stade de l'hypothèse, de l'opinion personnelle, étayée par un court article.

J'ai eu de bons retours, mais aussi certains doutes exprimés : en effet, optimiser coûte, si ce n'est en matériel, au minimum en temps développeur / administrateur, alors que ceux-ci pourraient être affectés à des tâches plus "productives".
Est-ce pertinent pour le management de mobiliser des ressources, d’alourdir les process, le tout pour des gains incertains ?
Surtout lorsque les budgets sont serrés, puisque tout le monde n'a pas les moyens humains et matériels de Google, de Facebook ou d'Amazon ...

Est-ce que la recherche des meilleurs temps de réponse a des bénéfices concrets et chiffrables pour l'entreprise, ou est-ce juste la marotte de quelques geeks idéalistes et bien trop pointilleux ?

"Speed [is] an undervalued and under-discussed asset on the web" - James Hamilton

Une maxime banale, mais d'une sagesse infinie, surtout lorsqu'elle s'applique à une migration ou une mise en production ;-)

Plan for success and you will have failure.
Plan for failure and you will have success.

A propos de l'auteur

Milosz SZOTMilosz SZOT est ingénieur systèmes & réseaux spécialisé dans Linux et l'hébergement de sites web à fort trafic.

En savoir plus