Ok

En poursuivant votre navigation sur ce site, vous acceptez l'utilisation de cookies. Ces derniers assurent le bon fonctionnement de nos services. En savoir plus.

09/12/2007

Marché des serveurs : Le Redshift

 

3e8d9af989f9210cefa4adeef6128750.jpg

En 25 ans, le prix du MIPS a été divisé par 1 million ; et ça va continuer. Tous les chiffres qui suivent sont basés sur des serveurs Sun. Les proportions sont évidemment les mêmes chez les autres constructeurs. J'utiliserai aussi la notion de SAPS ( SAP Application Performance Standard ) défini par 100 SAPs = 2000 lignes de commandes par heure ( 2,000 fully business processed order line items per hour ). Cette mesure à l'avantage de s'appuyer sur l'exécution d'un logiciel important et donc de bien représenter le service rendu au niveau des utilisateurs finaux. Tous les chiffres de performances SAP sont disponibles sur le site de benchmark SAP.

4520969cd327ae8d415118f554adf675.jpg

 

En 1997, un serveur Sun Enterprise 10 000 à 64 CPUs délivrait 150 000 TPM dans un rack entier de 42 Rack Unit ( RU ) ( 1,86m de haut pour un poids approchant la tonne ). En 2007 un serveur de type Niagara  tient dans un RU ( 4,5 cm ). Il est également capable d'exécuter 64 programmes en parallèle avec le double de puissance. Si l'on compte en SAPs, un Enterprise 10 000 dans son rack d'une tonne avec ses 64 CPUs cadencées à 250 Mhz fournissait 2746 SAPs. Un modèle Niagara1, avec une seule CPU 6 cores cadencé à 1000 Mhz , fournit 2474 SAPs. Le nouveau Niagara 2 disponible aujourd'hui fournit 9522 SAPs.

 

df88c80594f8c549e09e999165a368e2.jpg

 

 

En terme de prix, la première station de travail Sun1 valait 40 000 dollars en 1985 pour une puissance de 1 MIPS. Un serveur E10000 plein en 1997 valait au moins 5 millions de dollars ( suivant les options ) pour 10 000 Mips.  Ce serveur Niagara1 vaut 4300 dollars et fournit également 10 000 Mips. Entre le E10000 et le Niagara, le prix a été divisé par 1000 et la taille par 36. En 10 ans, la loi de Moore prévoit que le nombre de transistors des CPUs est multiplié par 2 à la puissance 5 , soit 32, ce qui est cohérent avec les chiffres précédents.

 

 

 

On peut résumer tout ça avec le tableau suivant : 

Année 1985 1997 2005
Type de serveur SUN1 E10000 Niagara
Mips 1 10000 10000
Taille en cm Station de travail 180 5
Prix en $ 40000 5 millions 4300

Dans ces conditions, comment se fait-il que le marché du serveur se maintienne et même continue de croître ? Greg Papadopoulos, le CTO de Sun, a théorisé cette évolution sous le nom de Redshift. Redshift comme le décalage vers le rouge, d'ondes émises par certaines galaxies, qui prouverait l'expansion de l'univers. Redshift par une demande de puissance de calcul qui va plus vite que la loi de Moore pour certaines applications. Il nomme Blueshift les autres familles d'application qui paraissent devenir moins gourmandes et dont la demande s'accroît moins vite que la loi de Moore.

Que certaines applications soient moins gourmandes que d'autres n'a rien de nouveau. Ce qui l'est, c'est que nous assistons à une divergence très marquée entre des applications naguère gourmandes aujourd'hui rassasiées et de nouvelles applications dont l'appétit paraît insatiable.

Parmi les applications traditionnellement gourmandes, qui constituent encore une grosse masse de serveurs, le cas des ERP est significatif. Si l'on prend le cas de SAP, les configurations de la fin des années 1990 jusqu'au début des années 2000 qui s'exécutaient sur des serveurs de type E10000 n'ont pas tellement grossi et peuvent s'exécuter maintenant sur des serveurs beaucoup plus petits en taille et en prix. Un E10000 peut quasiment se remplacer par un Niagara, pour un prix divisé par 1000 et une taille divisée par 36. A l'époque des années 1997-2002, chaque changement de version SAP demandait une puissance de 30 à 40% supérieure, et la montée en puissance des CPUs n'arrivait pas à couvrir cette demande aussi rapidement. Aujourd'hui, c'est l'inverse et l'on assiste à un downsizing général des configurations SAP. Par ailleurs, SAP s'est massivement imposée dans le secteur du manufacting. Le manufacturing souffre d'une concurrence extrêmement dure des pays émergents. Il est presque complètement équipé d'ERP et n'en tire plus d'avantages compétitifs par rapport à des concurrents qui disposent de la même infrastructure. En réalité tous les gains de productivité dûs aux ERP ont été transférés aux acheteurs. Ceux-ci y ont gagné en termes de délais de livraison, de qualité et de traçabilité qui deviennent le minimum vital pour exister sur le marché, mais qui ne donnent plus d'avantages compétitifs. C'est le sens du fameux article de  Nicholas Carr : "Does IT Matter? Information Technology and the Corrosion of Competitive Advantage". Tout le monde est équipé des mêmes types de technologie ; il n'y a plus d'avantages à en espérer. Ce qu'on oublie parfois, c'est que si vous ne les avez pas, vous êtes déjà mort. Quoi qu'il en soit, les entreprises de manufacturing considèrent aujourd'hui leur IT comme une charge à compresser au maximum et non plus comme une arme leur permettant de faire la différence. En résumé, la demande informztique de ce type d'applications croît à la vitesse du PIB, parfois moins vite. L'architecture SOA changera peut-être ceci, mais nous n'en sommes pas là. Une charge ou une arme, des besoins stabilisés ou une demande exponentielle, nous voilà du côté rouge, des applications de type Redshift qui croissent beaucoup plus vite que le PIB.

Greg Papadopoulos identifie 3 types d'applications de ce type :

  1. dcaf9fb0be7b23f7c78f3683b3ace663.jpgLes applications de type Internet (BandWidth), ou Web ( X.0 ) à la Google, Yahoo!, MSN ou Facebook qui nécessitent une bande passante réseau gigantesque, des puissances de calcul phénoménales, pour Google et bientôt Facebook qui veulent tout savoir sur tout. On ne dispose pas de chiffres sur l'infrastructure serveurs de Google. Son esprit Web 2.0 s'arrête là, et le secret est aussi bien gardé que les données de la CIA ; les deux n'étant pas sans rapport, comme chacun le pressent. Tout ça s'accompagne aussi d'une demande de capacité de stockage en proportion. Les industries du media sont aussi dans cette catégorie. Jonathan Schwartz, le patron de Sun affirme dans son blog que :

     

    " L'avènement des caméras numériques très haute résolution, dont les meilleures et les plus recherchées, couramment appelées « 4K », offrent une résolution de 4 096 x 3 112 pixels (!) par image. (...)

    Un réalisateur cherchait un moyen de conserver toutes les images d'un de ses longs métrages dont la sortie était imminente. Il souhaitait récupérer tous les rushes (ou outtakes) afin éventuellement de monter un making-of ou de sortir une version « Director's Cut » de son film. En moyenne, la copie numérique originale d'un film tourné à l'aide d'une 4k est de 9 téraoctets, et ce uniquement pour la version sortie en salles.

    En revanche, le total des archives de ce film, comprenant les rushes et les scènes tournées sous des angles différents (les octets sont bien moins chers qu'un film, alors pourquoi ne pas utiliser trois ou quatre caméras pour tourner chaque scène ?), atteignait (roulement de tambour)... 1 PÉTAOCTET (soit un millier de téraoctets ou la capacité de stockage d'environ 500 000 iPods), ce qui équivaut à des centaines de milliers de mètres de pellicule 35 mm. "

  2. Le HPC ( High Performance Computing ) pour des applications essentiellement scientifiques ( mais aussi les moteurs de rechecrhe ) de calcul de météo, de recherche sismique ou génomique comme "23 and me"
  3. Les applications *Prise de type SAAS qui peuvent dans certains cas remplacer des solutions de type ERP hébergées à l'intérieur des entreprises contre un modèle entièrement sous forme de services payables à l'usage. Salesforce est l'exemple le plus emblématique de ce type de solutions.
  4. On y ajoutera les applications financières et du monde de l'assurance, que ne cite pas Greg Papadopoulos, mais qui constituent elles aussi une demande informatique beaucoup plus importante aujourd'hui que les industries du manufacturing, à la mesure de l'évoultion de l'économie vers toujours plus d'immatériel. 

Toutes ces applications considèrent la puissance et la qualité de leur IT comme une arme essentielle au service de leur compétitivité. Elles n'hésitent pas à investir massivement dans ce secteur et leur demande croît plkus vite que la loi de Moore. C'est aujourd'hui, et plus encore demain, le marché privilégié de la vente de serveurs. C'est là où il trouve sa croissance malgré la baisse continuelle des prix pour une puissance sans cess accrue.

Au delà de leur typage applicatif, on est frappé de constater combien ces applications nous ramènent à un modèle ultra centralisé d'énormes "data centers" dont la plupart sont localisés aux USA. Les ERP sont répartis dans les entreprises, les services software sont destinés au monde entier et s'exécutent dans des centres informatiques très peu nombreux, pour un faible nombre de vendeurs de services, dont les plus importants ont une puissance de calcul et une capacité de stockage sans commune mesure avec n'importe quel entreprise de type Dow Jones ou CAC40. Pour revenir dans le monde SAP, les plus grosses instances gèrent quelques dizaines de Téraoctets, à comparer au Pétaoctet ( 1000 fois plus ) des films de Jonathan Schwartz.

Une autre conséquence de cette évolution concerne l'aspect énergétique. Toujours, d'après Jonathan Schwartz, l'émission ce CO2  nécessaire au fonctionnement énergétique de l'ensemble des serveurs, équivaut à celle de l'ensemble du parc automobile chinois (6 millions de voitures vendues en 2005, au moins 30 millions en circulation).

Cette prise de conscience est extrêmement récente, mais les données s'accumulent:

- "For the most aggressive scenario (50 percent annual growth rates), power costs by the end of the decade would dwarf server prices" affime Luiz André Barroso de Google, dans cette étude.

- Michelle Bailey d'IDC "says U.S. companies spent approximately $5.8 billion powering servers in 2005 and another $3.5 billion or more keeping them cool. That compares with approximately $20.5 billion spent purchasing the equipment" dans cette autre étude.

Nick Carr cite également l'inquiétude d'un ingénieur de Sun concernant une panne d'un de ces gigantesques Data Centers. On parle aujourd'hui de centre de 500 000 Square Feet soit 4,6 ha de serveurs empilés les uns sur les autres. Le tout pour une puissance électrique de 50 000 Kw. Sachant que la puissance moyenne consommée par un français est de 940 watts, on a là l'équivalent d'une ville de plus de 50 000 habitants. On peut évoquer aussi  un petit calcul déjà cité ici :

 

"La mécanique quantique impose quelques limites fondamentales sur les vitesses de calcul et les capacités de stockage de n'importe quel objet physique. En particulier, il a été montré qu'un kilogramme de matière contenue dans un volume d'un litre pouvait effectuer au maximum 1051 opérations par secondes sur au maximum 1031 bits d'information. Un espace de stockage 128 bits entièrement rempli contiendrait 2128 blocs = 2137 octets = 2140 bits ; d'où la masse minimum nécessaire pour contenir les bits serait de (2140 bits) / (1031 bits/kg) = 138 milliards de kg.
Cependant, pour pouvoir fonctionner à cette limite de 1031 bits/kg, la totalité de la masse de l'ordinateur devrait être composée d'énergie pure. Selon E=mc2, l'énergie au repos d'un milliard de kg est de 1,2×1028 Joules. La masse des océans est d'environ 1,4×1021 kg. Il faut environ 4000 J pour élever la température d'un kg d'eau d'un degré Celsius, soit 400 000 J pour réchauffer de l'état gelé à l'ébullition. La chaleur latente de vaporisation ajoute encore 2 millions J/kg. Ainsi l'énergie nécessaire pour porter à ébullition les océans est d'environ (2,4×106 J/kg) × (1,4×1021 kg) = 3,4×1027 J. Ainsi, remplir en totalité un espace de stockage 128 bits consommerait, littéralement, plus d'énergie que de faire bouillir les océans."

Les limites de la physique ne sont pas encore atteintes, la loi de Moore devrait rester valable jusqu'en 2015 ( c'est demain ). Peut-être atteindrons-nous un seuil avant cela, en butant tout simplement sur des barrières énergétiques.

Les commentaires sont fermés.