Ok

En poursuivant votre navigation sur ce site, vous acceptez l'utilisation de cookies. Ces derniers assurent le bon fonctionnement de nos services. En savoir plus.

04/05/2009

Quand Oracle rachète Sun

Après les discussions avortées avec IBM, c'est donc Oracle qui remporte la mise pour 7,4 milliards de dollars. En tant qu'employé de Sun, je n'ai pas de commentaires particuliers à faire, et d'ailleurs nous n'avons pas plus d'informations que ce qui peut circuler sur le Web. Comme beaucoup, on se demande ce que va devenir l'activité matérielle. On parle beaucoup de Solaris, de Java de MySql qui sont le logiciels les plus visibles et les plus connus de Sun, mais ce ne sont pas ces activités qui font le chiffre d'affaires. Celui-ci est très largement lié à la vente de matériels (serveurs et stockage) et au support associé. Sun n'a pas réussi à enrayer le déclin de cette activité par une offre logicielle attrayante mais dont il n'a jamais pu tirer un chiffre d'affaires capable d'en prendre le relais.

Au delà des divers commentaires, il est sans doute intéressant de s'informer à la source, comme sur ce communiqué officiel déposé auprès des autorités boursières

Ce communiqué résume les principaux aspects du rachat :

- Product Overview and strategy

- Customers and partners

- Business Continuity

On a pensé à tout : les produits, les clients, les partenaires, la continuité de l'activité, tout ce qui fait la vie d'une entreprise. C'est sans doute un oubli s'il n'y a pas de chapitre concernant les employés.

05/09/2008

Rentrée "on the cloud"

J'aime bien Nicholas Carr qui ne s'est jamais laissé prendre à certaines naïvetés Web 2.0 tout en sachant souvent y déceler les mouvements de fond qui expliquent les vagues. Voir par exemple son analyse à propos de Chrome.

La thèse de son dernier livre "The big switch" porte sur une évolution de l'informatique vers un modèle centralisé, "on the cloud" comparable à la disparition de la production locale et privée d'électricité au profit d'entreprises spécialisées. L'électricité devient alors moins chère et de meilleure qualité se tranforme alors en simple commodité, disponible pour tous, avec les avantages dont nous disposons encore aujourd'hui.

Le livre est déjà paru depuis plusieurs mois, et Francis Pisani y consacre quelques notes. En guise de rentrée sur le Web, j'y ai laissé un commentaire qui peut également servir de rentrée sur ce blog :

La comparaison entre l’énergie électrique et “l’énergie informatique” est tentante et stimulante. Les évolutions actuelles (the cloud) semblent aller dans le sens décrit par N. Carr. Et pourquoi continuer à - mal - utiliser une informatique en local quand des professionnels le font mieux et pour moins cher.

Il y a pourtant une différence de taille : L’énergie électrique se transporte et ne se stocke pas. L’énergie informatique ne se tranporte pas, ce sont les données qui se tranportent. J’utilise des CPUs, mémoires et dispositifs informatiques à distance avec des données que je leur envoie et que j’exploite une fois transformées. Mes données pourront être stockées en local ou à distance ; dans la pratique elles sont souvent répliquées sur les deux sites.

L’électricité est un simple flux qui ne porte rien d’autre que lui-même au service de la production d’autre chose. Les TIC sont un flux, mais surtout un stock dont la valeur ne se mesure pas qu’en pur volume. Tous les Go ne se valent pas, et si l’on peut bien imaginer un Go banalisé, ouvert et disponible à tous “on the cloud”, je doute que le Go à vraie valeur ajoutée pour celui qui le possède soit confié aux opérateurs du nuage.

 

Tout commentaire, de rentrée également, est bienvenu sur ce sujet, comme sur d'autres...

06/05/2008

Ecrire ou maniper, il faut choisir

Mes charmants collègues soldent leurs jours de congé. Eux.

Du coup me voilà le seul disponible pour faire des manipes techniques chez un client :

  • Recopier une instance SAP sur un nouveau serveur
  • A partir de cette copie, exécuter un "upgrade" Oracle9 vers Oracle10g
  • Enfin exécuter un autre upgrade de la version SAP d'origine (4.6C) vers ECC6

Tout ce jargon ne passionnera pas mes lecteurs habituels qui n'ont qu'un faible aperçu de mes activités professionnelles. Normalement, je ne fais plus ce type d'intervention exclusivement technique, ayant maintenant un rôle d'avant-vente et de direction de projet lors de la phase de "delivery". Mais voilà, il me reste encore quelques compétences qui m'ont fait accepter cette mission.

J'avais oublié à quel point ces procédures sont ardues et surtout extrêmement minutieuses. 

Difficile dans ces conditions de prendre un peu de temps pour suivre les blogs et alimenter le sien.

Je serais sans doute un peu moins actif dans les jours à venir.

16/04/2008

Les années 2020 vues par Microsoft

Ca s'appelait IHM ou Interface Homme Machine, Microsoft Research préfère maintenant parler de HCI ou Human Computer Interaction. Le terme interaction est en effet bien meilleur pour décrire la relation Homme-Machine telle qu'elle commence à se dessiner pour les années 2020. C'est cette relation qui fait l'objet de cette étude disponible sur le site de Microsoft (.pdf).

Les chercheurs de Microsoft décrivent le basculement d'un modèle de type GUI ( Graphical User Interface ), basée sur les actions du clavier, de la souris et de la navigation dans des menus plus ou moins standardisés vers une interaction beaucoup plus variée entre LES hommes et DES ordinateurs. Ce qu'on appelle ici ordinateurs, faute de mieux, est la famille d'équipements de tous ordres qui constituent et constitueront notre environnement numérique :

  • L'ordinateur lui-même, le PC pour faire simple, qui ne devient qu'un outil parmi d'autres de notre environnement numérique
  • Le téléphone portable
  • Les équipements de localisation ( GPS, caméra de surveillance)
  • Numérique embarqué dans les vêtements
  • Numérique embarqué dans le corps humain
  • Consoles de jeux
  • Robots de tous ordres
  • ...

Ce ne sont que quelques exemples de ce qui est disponible aujourd'hui, sans préjuger des équipements à venir dans les dix prochaines années.

Mais c'est surtout le fait qu'il faut désormais se préoccuper de la relation entre DES hommes et DES machines. Le Personnal Computer, ordinateur personnel en relation avec un seul utilisateur est un modèle qui disparait. Il s'agit maintenant d'un environnement multiple : on vient de le voir. Il s'agit surtout de prendre en compte la dimension multiple et  sociale de cette relation.

Prenons l'exemple de la santé et de l'électronique qui sera de plus en plus finement intégré à notre corps pour s'assurer de son bon fonctionnement et pallier certaines de ses défaillances

  • La frontière devient floue entre l'homme biologique et les équipements électroniques de mesure, de surveillance, de traitement qui lui sont greffés.
  • Parmi toutes ces informations, lesquelles doit-on rendre disponible et pour qui : le corps médical, la famille, le "patient"
  • Ces équipements permettent de localiser et s'assurer du bien-être des enfants ou des personnes agées. Où est la frontière entre l'attention et la surveillance ?
  • Aurons-nous le droit, d'un point de vue de la norme sociale, de nous débrancher et de se retirer du circuit d'informations qui nous immerge ?

Toutes ces questions sont le signe d'un changement radical de la manière dont on aborde l'interaction homme-machine. Il ne s'agit plus du tout d'un problème technique d'ergonomie mais d'un ensemble de sujets qui débordent de beaucoup une discipline où l'aspect technique est devenu mineur face à l'ampleur des problèmes philosophiques et sociologiques qui sont en jeu.

Un autre changement radical est dans le style et le ton extrêmement méfiant de ce rapport. Il faut se souvenir des prestations pas si anciennes de Bill Gates, ou de n'importe quel dirigeant informatique d'ailleurs, pour mesurer l'écart. Ce n'étaient que prospectives enthousiastes décrivant l'explosion bienfaitrice des technologies informatiques, un PC par habitant de la planète, tout le monde connecté partageant des valeurs communes en abaissant les frontières entre les hommes.

Tout dans cette étude  est interrogation inquiète :

  • L'intégration à notre corps d'équipement de surveillance de notre santé est-elle acceptable seulement en cas de maladie ou sera-t-elle généralisée ? Qui aura accès et contrôlera cette information ?
  • Comment allons-nous prendre en compte la complexite de l'interaction homme-machine et se prémunir contre ses effets parasites ?
  • SI nous sommes constamment assistés par des calculateurs électroniques, que deviennent nos facultés natives de calcul, de mémoire ?
  • La mémoire quitte son support biologique individuel, fugace et imparfait. Elle migre sur un réseau collectif, persistant et sans erreurs.

Le passé ne s'efface plus. C'est la fin de l'éphémère.

On peut lire aussi les commentaires d'Hubert Guillaud sur Internetactu

03/04/2008

D'une utopie 2.0

Quand chacun contribue suivant ses moyens et que tous en profitent suivant ses besoins, ça s'appelle la Sécurité Sociale, un modèle de communisme réussi dans le domaine de la santé. En plus ce n'est pas l'égalité d'un médiocre niveau de soin  qui est visé, mais bien le meilleur de la thérapeutique disponible pour chacun, quelle que soit sa situation.

Chacun selon ses capacités est ici calculé très simplement, à partir du revenu qui sert de base au calcul de la cotisation. Il reste à savoir si le revenu est bien mérité et quels sont les critères de distribution du revenu.

Le talent est inégalement réparti chez les hommes. Toute politique est à la recherche d'un compromis acceptable entre la nécessaire récompense des talents et la non moins nécessaire redistribution des revenus. Le système libéral pur laisse faire les forces du marché qui calcule la valeur de chacun, en regard de l'offre et de la demande de la personne, considérée ici comme une marchandise, à laquelle est attribuée un prix. Si l'on refuse ce système de marché, on nous dit que nous sommes condamnés à un système à la soviétique injuste lui aussi, sclérosant et inefficace par surcroît.

Il n'y aurait de choix qu'entre la brutalité du marché qui ne raisonne que par valeur argent, coûts et profits, et le jugement d'un ministère lointain qui finit toujours par fonctionner en cercle fermé, ayant perdu contact avec la réalité.  Dans ce dernier monde de type soviétique, les évaluations sont à la merci d'une administration qui aura souvent la tentation de favoriser une carrière suivant des critères qui n'ont rien à voir avec la compétence et le talent, mais plutôt avec le copinage ou la docilité du promu. 

En France on a la Sécurité Sociale et son communisme réussi. On se distingue aussi par le modèle d'administration le plus ingérable du monde, longtemps au deuxième rang mondial par le nombre de fonctionnaires, juste derrière l'Armée rouge : c'est l'Education Nationale.

Heureusement Web deux-points-Zorro est arrivé. Sur Ebay, sur Digg, sur Tripadvisor c'est le système de notation non biaisée qui crée la confiance que l'on n'a plus dans un marché incontrôlé,  une administration ou des intérêts qui ne le sont que trop.  La présentation de Digg et de Tripadvisor dans Wikipedia est caractéristique de cet état d'esprit.

"Digg est un site Internet communautaire, typique du phénomène « Web 2.0 », qui a pour but de faire voter les utilisateurs pour une page Internet intéressante et proposée par un utilisateur. Il dispose de plusieurs catégories, telles Politique, Divertissement, Vidéos, Technologie...Il combine « social bookmarking », blog et syndication.Les nouveaux articles et les sites Web soumis par les utilisateurs sont notés par d'autres utilisateurs et s'ils remportent le succès nécessaire, ils sont affichés en page d'accueil."

"TripAdvisor.com est un site Web de guide de voyages gratuit et de recherches sur les voyages qui offre des opinions non biaisées vous aidant à planifier des vacances."

Comme tout se note et tout s'évalue, on ne s'étonne pas de voir des sites de notations des profs, ( note2be ) ou des flics. C'est d'ailleurs chez Francis Pisani que j'ai trouvé cette information. Francis continue :

"Des sites de ce genre existent déjà pour noter, entre autres, les articles de la grande presse et donc les journalistes qui les ont écrits (Newstrust , une entreprise remarquable), les médecins (RateMDs ) ou les professeurs (RateMyProfessors ) qui d’ailleurs se sont maintenant dotés des moyens de répondre (ProfessorsStrikeBack )."

Et de poursuivre :

"au lieu qu’un seul gardien de prison puisse observer un grand nombre de détenus comme l’avait rappelé Michel Foucault, les gens peuvent observer en permanence ceux qui les surveillent et ceux qui les punissent"

Michel Foucault décrivait ainsi le panoptique : "Faire que la surveillance soit permanente dans ses effets, même si elle est discontinue dans son action ; que la perfection du pouvoir tende à rendre inutile l'actualité de son exercice".

De la notation qui aide au choix, à la surveillance qui contrôle l'individu, on sent bien que le pas est facile à franchir et d'ailleurs il l'est souvent. Sans parler des réputations mises au pilori comme Sylvie Noachovitch, Nicolas Princen ou Olivier Martinez.

Il est presque obligatoire qu'un système aussi transparent aboutisse au conformisme des apparences, et au lissage des différences. C'est Luc Fayard qui nous annonce avec de bons arguments que le maoïsme flotte sur le Web 2.0. C'est aussi l'étonnante analogie entre le panoptique et la cité d'Icarie, les deux utopies qui nous préoccupent aujourd'hui.

Wikipedia est toujours notre source pour ces définitions :

3fd0a78e4c4f29ff97b4a3eff1a42d83.jpg"Le panoptique est un type d'architecture carcérale imaginée par le philosophe Jeremy Bentham. L'objectif de la structure panoptique est de permettre à un individu d'observer tous les prisonniers sans que ceux-ci ne puissent savoir s'ils sont observés, créant ainsi un « sentiment d'omniscience invisible » chez les détenus." ( Illustration ci-jointe de Wikipedia )

 

"Icara, la capitale de la communauté d’Icarie comptant un million d’habitants, est une ville circulaire à l’architecture géométrique. La traverse un fleuve absolument rectiligne. Également tracées au cordeau, les rues sont bordées de 16 maisons de chaque côté avec un édicule public au milieu et à chacune des extrémités. Impeccablement propre, la cité ne comporte ni café ni hôtel particulier, mais seulement des bâtiments à usage collectif, dont une bibliothèque aux ouvrages soigneusement choisis."

 

Icarie est la cité imaginaire qui connut un début de réalisation dans les années 1850. Etienne Cabet  imagina cette utopie communiste d'un autre type, et qui finit mal. Cest à lui et non à Karl Marx que l'on doit ce slogan : "À chacun suivant ses besoins. De chacun suivant ses forces" .

Revenant à notre Sécurité Sociale, utopie communiste réussie, il était finalement très étonnant que ce système ait vécu plus de 50 ans sans aucun contrôle sérieux sur le comportement sanitaire des assurés sociaux. Qu'on se rassure, c'est en train de changer grâce aux campagnes anti-alcooliques et la restriction des lieux autorisés aux fumeurs. 

Supposons encore une utopie globalement réussie où chacun vit en communauté à la hauteur de ses besoins en occupant une place à la mesure de son mérite et de son talent. Qu'on suppose donc un système de répartition parfait, juste, reconnu et accepté par tout le monde. C'est la justice elle-même qui transforme ce paradis en enfer de la frustration. Car quiconque occupe une place médiocre ne peut sans prendre qu'à  lui-même. Ce n'est plus une société injuste contre laquelle il est légitime de se révolter qui explique ma mauvaise place, c'est bien l'inégalité des talents qui a rendu public la pauvreté du mien par une évaluation incontestable et publique.

Il y a peu d'hommes prêts à admettre que l'on affiche ainsi les différences. En admettant encore que l'on puisse le supporter, nous voici dans une société figée, faute de l'énergie vitale de ceux qui, à tort ou à raison, rêvent de la changer.

26/01/2008

Au coeur de l'informatique financière

 

5 milliards ou plus, partis en fumée

. Au delà de la folie du système financier, où tout le monde est dépassé, je vous propose un petit aperçu de l'informatique qui régit les transactions financières.

 

Lustre : un Cluster File System

Le coeur de ces systèmes est formé de grilles de calcul qui utilise la plupart du temps un FileSystem spécifique : Lustre  ( racheté récemment par SunMicroSystems : mon employeur )

Un File System est un dispositif logiciel qui permet à l'ordinateur de traiter les fichiers. Accéder, ouvrir, modifier, sauvegarder, déplacer les fichiers : toutes ces opérations finissent par se traduire par des lectures/écritures sur les moyens de stockage : un ou une série de disques durs dans la plupart des cas. Sachant que la très grande partie de l'activité informatique se réduit à des manipulations de fichiers, on voit l'importance du File System. Faisant l'interface entre le logiciel applicatif et le matériel, le File System est au coeur du système d'exploitation. Dans la vie courante, un File System n'est géré que par un seul ordinateur qui accède à ses propres fichiers.

La mise en réseau a fait naître des systèmes de fichiers partagés, dont le plus célèbre, et encore très largement utilisée est NFS ( Network File System ). NFS est bâti sur un serveur de fichiers qui s'occupent des accès physiques en lecture/écriture. Ce serveur répond aux requêtes de ses clients qui délègue les opérations physiques au seul et unique serveur NFS. Il ne peut y avoir qu'un seul serveur NFS par système de fichiers ( ou par répertoire ). NFS reste populaire, mais trouve vite sa limite au delà d'une centaine de clients où les performances s'écroulent.

Beaucoup d'autres File Systems existent, qu'ils soient de type réseau ( AFS, NFS, Parallel NFS ) ou mono serveurs ( VxFS, EXT4, NTFS ) ou partagés ( Shared QFS ) et Lustre qui nous intéresse ici.

Lustre a été conçu dès le départ pour gérer des très grands nombres :

  • Des milliers de clients
  • Des milliards de fichiers
  • Des tailles gigantesques ( au delà du Po = 1 million de GigaOctets )
  1. Au lieu d'un unique serveur, Lustre est architecturé autour d'un grand nombre de serveurs de données ( Object Storage Servers OSS ou Object Storage Targets OST ) qui gèrent l'accès aux données physiques répartis sur des systèmes de disques attachés à ces serveurs. Aujourd'hui, le seul FIle System supporté pour ces OST est EXT4, dans l'avenir, une migration est prévu sur ZFS ( encore un autre système de fichiers ). Attention à ne pas confondre ce système de fichiers "local" qui donne accès aux données pour les OST avec le système de fichiers global qui permet l'accès à ces données pour les milliers de clients. Les données des fichiers sont réparties sur l'ensemble de ces OST. L'information concernant la localisation des fichiers est contenu dans le Metadata Server.
  2. Lustre utilise un ou plusieurs serveurs de métadonnées : le Metadata Server ( MDS ). Qu'est ce qu'une métadonnée dans ce contexte ? Il s'agit de l'ensemble des informations qui caractérisent un fichier : Propriétaire, droits d'accès, localisation, access time, et diverses informations de gestion qui permettent au système d'accéder aux données.
  3. Sachant qu'il y a des milliers de noeuds qui peuvent travailler sur un même fichier, il faut utiliser un "distributed lock manager" efficace. Au lieu de verrouiller le fichier entier, Lustre ne pose de lock que sur la partie du fichier qui est manipulé par le client. Cela permet de poser des milliers de locks sur le même fichier sans avoir à gérer trop d'accès concurrentiels sur le même objet.
  4. Grâce à cette architecture, Lustre autorise des performances démesurées : Des tailles de File System supérieures au PetaByte, 5000 ou plus create/sec sur un seul File System, un débit global de plusieurs centaines de GigaBytes/seconde.

Ci-dessous un schéma de principe d'une architecture Lustre.

2a8eb1e245ec361f64a6bdfbe11c92cb.jpg

 

Dans la mesure, où il permet à des milliers, voire à des dizaines de milliers de serveurs de se partager les mêmes ressources fichier, Lustre est très utilisé dans les applications de Grid Computing. Un seul serveur, si puissant soit-il, ne peut plus délivrer la puissance nécessaire pour des applications comme la prévision météo, la recherche sismique ou génomique et aussi les applications financières comme les simulations de type Monte Carlo. Ce sont des applications de type Redshift, dont j'ai déjà parlé ici. Très gourmandes en CPUs, en moyens de stockage et en réseau rapide comme le protocole Infiniband.

Les entreprises financières ouvrent largement leur budget pour ces applications sophistiquées s'exécutant sur des infrastructures gigantesques. C'est un représentant de la Deutsche Bank qui s'exclamait ainsi à propos d'Infiniband :

"For every ten milliseconds for latency we reduce in our automated trading infrastructure, we can bring in an additional $200 Million in revenue per annum."

Chaque milliseconde vaut 20 millions de dollars... Il manque peut-être un système de contrôle pour éviter une catastrophe à 5 milliards.

16/01/2008

Sun rachète MySQL

Après StorageTek et Lustre ( Cluster File System utilisé dans le monde HPC ) Sun ( mon employeur ) rachète MySQL.

Tous les détails de cet investissement de 1 milliard de dollars, dans le blog de Jonathan Schwartz, le CEO de Sun.

14/12/2007

Faire de l'audience avec les ERP

Impossible, répond Robert Scoble qui se demande pourquoi le logiciel d'entrepise n'est pas sexy. Michael Krigsman, Dan Farber, Dennis Howlett, Anshu Sharma, Sadagopan, Craig Cmehil, et d'autres lui répondent que l'objectif de ce type de logiciel n'est pas d'être attirant mais efficace et fiable. Nick Carr ne voit pas pourquoi un ERP devrait être rébarbatif sous prétexte qu'il traite de processus d'entreprise et n'est pas orienté grand public.

A vrai dire, il y a peu de chances que la gestion de la logistique et des finances deviennent quelque chose d'un peu sexy. Ce sont juste des process d'entreprise complexes. Là où Nick Carr a raison, c'est quand il dit qu'un processus complexe peut être habillé et présenté de manière un peu plus conviviale. C'est d'ailleurs ce que tente de faire SAP, en intégrant dans son portail des règles de navigation issues du Web grand public. Néanmoins, il n'y a aucun moyen de rendre convivial un calcul de besoins ou une balance comptable, rébarbatifs quel que soit l'habillage que l'on puisse y mettre.

 Cette discussion n'est pas neuve, entre la pratique des outils grand public qur tout le monde utilise chez soi par plaisir, et les outils professionnels que l'on subit dans l'entreprise par nécessité. Et le débat fait rage sur les blogs anglophones ( rien en France à ma connaissance ). Sauf que ce n'est pas exactement ce que dit Robert Scoble. Voici ses propos :

"let’s look at the business of journalism or even of blogging. We’re paid to deliver page views. Advertisers call it “CPM” (cost per thousand viewers). Now, what’s going to get more of you interested? Consumer software that you actually have a role in adopting or purchasing or enterprise software where some CIO somewhere else in your organization decides on? I know that when I talk about enterprise software the numbers of viewers just don’t show up. So, tech bloggers quickly learn that if they talk about enterprise software they aren’t going to get many advertising impressions."

"Regardons les revenus du journalisme ou même des blogs. Nous sommes payés pour être vus. Les annonceurs appelent ça le CPM ( coût par milliers de visiteurs ). Qu'est-ce qui va vous intéresser le plus ? Du logiciel grand public pour lequel vous avez réellement un rôle, dans l'adoption ou l'achat, ou du logiciel d'entreprise  pour lequel c'est le CIO ou n'importe qui d'autre dans l'entreprise qui décide ? Je sais que lorsque je parle de logiciels d'entreprise, le nombre de lecteurs ne va pas augmenter. Ainsi, les bloggers qui parlent de technologie apprennent vite que si l'on parle de logiciels d'entreprise, ils ne vont pas avoir beaucoup de publicité ".

Ce qui est bien avec les Américains, c'est qu'ils ne se cachent pas derrière leur petit doigt. L'ERP c'est chiant, nous dit Scoble. A chaque fois que j'en parle j'ai une baisse d'audience, donc de pubs, donc de revenus, donc j'en parle le moins possible. Ou alors pour créer une bonne polémique comme celle-ci qui va m'attirer des lecteurs. Je ne sais pas si vous vous intéressez au design des ERP ( sans doute pas beaucoup ). Mais si vous vous intéressez à la question de la gratuité, de la publicité et de l'indépendance d'Internet, cette petite anecdote est bien éclairante. Il faut faire de l'audience. Donc, vus des blogs, Internet et l'informatique en général se réduisent aux outils grand public. On ignore ce qui se passe derrière le rideau, qui représente quand même largement autant de milliards et façonne nos vies de manière aussi décisive.

Je continuerai à en parler de temps en temps. Tant pis pour le bloguimat. De toutes façons, je n'ai pas de pub et je suis gratuit. Je suis libre.

09/12/2007

Marché des serveurs : Le Redshift

 

3e8d9af989f9210cefa4adeef6128750.jpg

En 25 ans, le prix du MIPS a été divisé par 1 million ; et ça va continuer. Tous les chiffres qui suivent sont basés sur des serveurs Sun. Les proportions sont évidemment les mêmes chez les autres constructeurs. J'utiliserai aussi la notion de SAPS ( SAP Application Performance Standard ) défini par 100 SAPs = 2000 lignes de commandes par heure ( 2,000 fully business processed order line items per hour ). Cette mesure à l'avantage de s'appuyer sur l'exécution d'un logiciel important et donc de bien représenter le service rendu au niveau des utilisateurs finaux. Tous les chiffres de performances SAP sont disponibles sur le site de benchmark SAP.

4520969cd327ae8d415118f554adf675.jpg

 

En 1997, un serveur Sun Enterprise 10 000 à 64 CPUs délivrait 150 000 TPM dans un rack entier de 42 Rack Unit ( RU ) ( 1,86m de haut pour un poids approchant la tonne ). En 2007 un serveur de type Niagara  tient dans un RU ( 4,5 cm ). Il est également capable d'exécuter 64 programmes en parallèle avec le double de puissance. Si l'on compte en SAPs, un Enterprise 10 000 dans son rack d'une tonne avec ses 64 CPUs cadencées à 250 Mhz fournissait 2746 SAPs. Un modèle Niagara1, avec une seule CPU 6 cores cadencé à 1000 Mhz , fournit 2474 SAPs. Le nouveau Niagara 2 disponible aujourd'hui fournit 9522 SAPs.

 

df88c80594f8c549e09e999165a368e2.jpg

 

 

En terme de prix, la première station de travail Sun1 valait 40 000 dollars en 1985 pour une puissance de 1 MIPS. Un serveur E10000 plein en 1997 valait au moins 5 millions de dollars ( suivant les options ) pour 10 000 Mips.  Ce serveur Niagara1 vaut 4300 dollars et fournit également 10 000 Mips. Entre le E10000 et le Niagara, le prix a été divisé par 1000 et la taille par 36. En 10 ans, la loi de Moore prévoit que le nombre de transistors des CPUs est multiplié par 2 à la puissance 5 , soit 32, ce qui est cohérent avec les chiffres précédents.

 

 

 

On peut résumer tout ça avec le tableau suivant : 

Année 1985 1997 2005
Type de serveur SUN1 E10000 Niagara
Mips 1 10000 10000
Taille en cm Station de travail 180 5
Prix en $ 40000 5 millions 4300

Dans ces conditions, comment se fait-il que le marché du serveur se maintienne et même continue de croître ? Greg Papadopoulos, le CTO de Sun, a théorisé cette évolution sous le nom de Redshift. Redshift comme le décalage vers le rouge, d'ondes émises par certaines galaxies, qui prouverait l'expansion de l'univers. Redshift par une demande de puissance de calcul qui va plus vite que la loi de Moore pour certaines applications. Il nomme Blueshift les autres familles d'application qui paraissent devenir moins gourmandes et dont la demande s'accroît moins vite que la loi de Moore.

Que certaines applications soient moins gourmandes que d'autres n'a rien de nouveau. Ce qui l'est, c'est que nous assistons à une divergence très marquée entre des applications naguère gourmandes aujourd'hui rassasiées et de nouvelles applications dont l'appétit paraît insatiable.

Parmi les applications traditionnellement gourmandes, qui constituent encore une grosse masse de serveurs, le cas des ERP est significatif. Si l'on prend le cas de SAP, les configurations de la fin des années 1990 jusqu'au début des années 2000 qui s'exécutaient sur des serveurs de type E10000 n'ont pas tellement grossi et peuvent s'exécuter maintenant sur des serveurs beaucoup plus petits en taille et en prix. Un E10000 peut quasiment se remplacer par un Niagara, pour un prix divisé par 1000 et une taille divisée par 36. A l'époque des années 1997-2002, chaque changement de version SAP demandait une puissance de 30 à 40% supérieure, et la montée en puissance des CPUs n'arrivait pas à couvrir cette demande aussi rapidement. Aujourd'hui, c'est l'inverse et l'on assiste à un downsizing général des configurations SAP. Par ailleurs, SAP s'est massivement imposée dans le secteur du manufacting. Le manufacturing souffre d'une concurrence extrêmement dure des pays émergents. Il est presque complètement équipé d'ERP et n'en tire plus d'avantages compétitifs par rapport à des concurrents qui disposent de la même infrastructure. En réalité tous les gains de productivité dûs aux ERP ont été transférés aux acheteurs. Ceux-ci y ont gagné en termes de délais de livraison, de qualité et de traçabilité qui deviennent le minimum vital pour exister sur le marché, mais qui ne donnent plus d'avantages compétitifs. C'est le sens du fameux article de  Nicholas Carr : "Does IT Matter? Information Technology and the Corrosion of Competitive Advantage". Tout le monde est équipé des mêmes types de technologie ; il n'y a plus d'avantages à en espérer. Ce qu'on oublie parfois, c'est que si vous ne les avez pas, vous êtes déjà mort. Quoi qu'il en soit, les entreprises de manufacturing considèrent aujourd'hui leur IT comme une charge à compresser au maximum et non plus comme une arme leur permettant de faire la différence. En résumé, la demande informztique de ce type d'applications croît à la vitesse du PIB, parfois moins vite. L'architecture SOA changera peut-être ceci, mais nous n'en sommes pas là. Une charge ou une arme, des besoins stabilisés ou une demande exponentielle, nous voilà du côté rouge, des applications de type Redshift qui croissent beaucoup plus vite que le PIB.

Greg Papadopoulos identifie 3 types d'applications de ce type :

  1. dcaf9fb0be7b23f7c78f3683b3ace663.jpgLes applications de type Internet (BandWidth), ou Web ( X.0 ) à la Google, Yahoo!, MSN ou Facebook qui nécessitent une bande passante réseau gigantesque, des puissances de calcul phénoménales, pour Google et bientôt Facebook qui veulent tout savoir sur tout. On ne dispose pas de chiffres sur l'infrastructure serveurs de Google. Son esprit Web 2.0 s'arrête là, et le secret est aussi bien gardé que les données de la CIA ; les deux n'étant pas sans rapport, comme chacun le pressent. Tout ça s'accompagne aussi d'une demande de capacité de stockage en proportion. Les industries du media sont aussi dans cette catégorie. Jonathan Schwartz, le patron de Sun affirme dans son blog que :

     

    " L'avènement des caméras numériques très haute résolution, dont les meilleures et les plus recherchées, couramment appelées « 4K », offrent une résolution de 4 096 x 3 112 pixels (!) par image. (...)

    Un réalisateur cherchait un moyen de conserver toutes les images d'un de ses longs métrages dont la sortie était imminente. Il souhaitait récupérer tous les rushes (ou outtakes) afin éventuellement de monter un making-of ou de sortir une version « Director's Cut » de son film. En moyenne, la copie numérique originale d'un film tourné à l'aide d'une 4k est de 9 téraoctets, et ce uniquement pour la version sortie en salles.

    En revanche, le total des archives de ce film, comprenant les rushes et les scènes tournées sous des angles différents (les octets sont bien moins chers qu'un film, alors pourquoi ne pas utiliser trois ou quatre caméras pour tourner chaque scène ?), atteignait (roulement de tambour)... 1 PÉTAOCTET (soit un millier de téraoctets ou la capacité de stockage d'environ 500 000 iPods), ce qui équivaut à des centaines de milliers de mètres de pellicule 35 mm. "

  2. Le HPC ( High Performance Computing ) pour des applications essentiellement scientifiques ( mais aussi les moteurs de rechecrhe ) de calcul de météo, de recherche sismique ou génomique comme "23 and me"
  3. Les applications *Prise de type SAAS qui peuvent dans certains cas remplacer des solutions de type ERP hébergées à l'intérieur des entreprises contre un modèle entièrement sous forme de services payables à l'usage. Salesforce est l'exemple le plus emblématique de ce type de solutions.
  4. On y ajoutera les applications financières et du monde de l'assurance, que ne cite pas Greg Papadopoulos, mais qui constituent elles aussi une demande informatique beaucoup plus importante aujourd'hui que les industries du manufacturing, à la mesure de l'évoultion de l'économie vers toujours plus d'immatériel. 

Toutes ces applications considèrent la puissance et la qualité de leur IT comme une arme essentielle au service de leur compétitivité. Elles n'hésitent pas à investir massivement dans ce secteur et leur demande croît plkus vite que la loi de Moore. C'est aujourd'hui, et plus encore demain, le marché privilégié de la vente de serveurs. C'est là où il trouve sa croissance malgré la baisse continuelle des prix pour une puissance sans cess accrue.

Au delà de leur typage applicatif, on est frappé de constater combien ces applications nous ramènent à un modèle ultra centralisé d'énormes "data centers" dont la plupart sont localisés aux USA. Les ERP sont répartis dans les entreprises, les services software sont destinés au monde entier et s'exécutent dans des centres informatiques très peu nombreux, pour un faible nombre de vendeurs de services, dont les plus importants ont une puissance de calcul et une capacité de stockage sans commune mesure avec n'importe quel entreprise de type Dow Jones ou CAC40. Pour revenir dans le monde SAP, les plus grosses instances gèrent quelques dizaines de Téraoctets, à comparer au Pétaoctet ( 1000 fois plus ) des films de Jonathan Schwartz.

Une autre conséquence de cette évolution concerne l'aspect énergétique. Toujours, d'après Jonathan Schwartz, l'émission ce CO2  nécessaire au fonctionnement énergétique de l'ensemble des serveurs, équivaut à celle de l'ensemble du parc automobile chinois (6 millions de voitures vendues en 2005, au moins 30 millions en circulation).

Cette prise de conscience est extrêmement récente, mais les données s'accumulent:

- "For the most aggressive scenario (50 percent annual growth rates), power costs by the end of the decade would dwarf server prices" affime Luiz André Barroso de Google, dans cette étude.

- Michelle Bailey d'IDC "says U.S. companies spent approximately $5.8 billion powering servers in 2005 and another $3.5 billion or more keeping them cool. That compares with approximately $20.5 billion spent purchasing the equipment" dans cette autre étude.

Nick Carr cite également l'inquiétude d'un ingénieur de Sun concernant une panne d'un de ces gigantesques Data Centers. On parle aujourd'hui de centre de 500 000 Square Feet soit 4,6 ha de serveurs empilés les uns sur les autres. Le tout pour une puissance électrique de 50 000 Kw. Sachant que la puissance moyenne consommée par un français est de 940 watts, on a là l'équivalent d'une ville de plus de 50 000 habitants. On peut évoquer aussi  un petit calcul déjà cité ici :

 

"La mécanique quantique impose quelques limites fondamentales sur les vitesses de calcul et les capacités de stockage de n'importe quel objet physique. En particulier, il a été montré qu'un kilogramme de matière contenue dans un volume d'un litre pouvait effectuer au maximum 1051 opérations par secondes sur au maximum 1031 bits d'information. Un espace de stockage 128 bits entièrement rempli contiendrait 2128 blocs = 2137 octets = 2140 bits ; d'où la masse minimum nécessaire pour contenir les bits serait de (2140 bits) / (1031 bits/kg) = 138 milliards de kg.
Cependant, pour pouvoir fonctionner à cette limite de 1031 bits/kg, la totalité de la masse de l'ordinateur devrait être composée d'énergie pure. Selon E=mc2, l'énergie au repos d'un milliard de kg est de 1,2×1028 Joules. La masse des océans est d'environ 1,4×1021 kg. Il faut environ 4000 J pour élever la température d'un kg d'eau d'un degré Celsius, soit 400 000 J pour réchauffer de l'état gelé à l'ébullition. La chaleur latente de vaporisation ajoute encore 2 millions J/kg. Ainsi l'énergie nécessaire pour porter à ébullition les océans est d'environ (2,4×106 J/kg) × (1,4×1021 kg) = 3,4×1027 J. Ainsi, remplir en totalité un espace de stockage 128 bits consommerait, littéralement, plus d'énergie que de faire bouillir les océans."

Les limites de la physique ne sont pas encore atteintes, la loi de Moore devrait rester valable jusqu'en 2015 ( c'est demain ). Peut-être atteindrons-nous un seuil avant cela, en butant tout simplement sur des barrières énergétiques.

05/11/2007

La mondialisation de Facebook ( et de Google )

 

Facebook a tout d'un projet Open Source

Reprenant, de manière plus sérieuse, cette définition du graphe social d'après Mark Zuckerberg :

“C’est l’ensemble des relations de toutes les personnes dans le monde. Il y en a un seul et il comprend tout le monde. Personne ne le possède. Ce que nous essayons de faire c’est de le modeler modéliser, de représenter exactement le monde réel en en dressant la carte (to mirror the real world by mapping it out).”

Et si l'on considérait Facebook en tant que réseau social, sous l'angle du développement, dans le sens de développer une application, écrire du code. On parle ici de la comparaison avec des projets "Open Source" basés sur la contribution de volontaires à la création, l'amélioration et l'ajout de fonctionnalités à un programme ou un ensemble de programmes. Et si j'ai bien compris, Facebook doit son succès à la multitude d'applications qui peuvent être construites au-dessus de son API. Et si j'ai bien compris aussi, la nouveauté de Facebook était d'insuffler de la vie là où les autres ( LinkedIn, Viadeo, ..) se contentent de cartographier un ensemble de relations statiques.

Vous avez compris : d'un point de vue développeur, les LinkedIn, Viadeo et consorts sont juste des plates-formes déclaratives, tandis que Facebook vous offre la possibilité d'écrire votre propre code à travers ses API. La déclaration de Zuckerberg est assez surprenante de ce point de vue, car sa description du graphe social est une description purement statique qui, justement, peut s'appliquer aux réseaux sociaux "traditionnels", alors que l'originalité de Facebook est d'offrir une plate-forme dynamique. Il ne s'agit pas uniquement de répertorier ses amis ou relations, mais à tout instant de faire vivre ce réseau en y intégrant ses activités : un nouveau billet sur son blog, des photos sur Flickr que je viens de déposer, etc..

Si l'on considère Facebook comme une application, c'est une application en perpétuel mouvement, comme la vie, écrite par des millions de développeurs, et en langage naturel, qui plus est. On n'est pas loin d'avoir modélisé une partie du monde réel ( soyons moins mégalo que Mark Zuckerberg ) dans une application informatique écrite en langage naturel. On n'est pas loin du Graal de l'informatique.

Sauf qu'il y a un MAIS

De manière comparable à n'importe quel projet Open Source, les contributeurs sont guidés par une double motivation

  • Se rendre visible en démontrant ses capacités de tous ordres : sociales,  professionnelles, artistiques, ..
  • En tirer bénéfice sur le plan professionnel

Là où ça se gâte, c'est quand on lit les conditions d'utilisation ( traduites par Jean-Marie le Ray )  :

"En transférant votre Contenu utilisateur où que ce soit sur le site, automatiquement vous accordez, déclarez et garantissez que vous avez le droit d'accorder à la Société ( the company ) une licence - irrévocable, perpétuelle, non exclusive, transférable, libre de droits, mondiale (assortie du droit de sous-licencier) - d'utiliser, de copier, d'exécuter et d'afficher publiquement, de reformater, de traduire, d'extraire (en tout ou en partie) et de distribuer ce Contenu utilisateur à quelque fin que ce soit, en relation avec le site ou avec sa promotion, ainsi que de mettre au point des produits dérivés et d'incorporer tel Contenu dans d'autres produits, de même que vous accordez et autorisez l'exploitation de sous-licences sur lesdits produits. À tout moment, vous pouvez retirer votre Contenu utilisateur du site. Si vous choisissez de le faire, la licence accordée ci-dessus s'éteindra automatiquement, même si vous reconnaissez que la Société peut archiver et conserver des copies de votre Contenu utilisateur."

Utiliser, copier, modifier, redistribuer : tout ça rappelle furieusement le mode de fonctionnement de type GPL. J'ai le droit d'utiliser le logiciel. En échange de quoi, mes modifications sont mises à disposition de la communauté. Sauf que ce n'est pas de la communauté dont parle Facebook dans ses conditions d'utilisation, mais bien de la société, ( the company ) c'est-à-dire de l'entité capitalistique qu'elle incarne. Il s'agit là d'un détournement caractérisé de l'esprit de l'Open Source. Les contributions volontaires sont mises, tout aussi volontairement que dans le modèle "Open Source", à la disposition d'une structure capitalistique en tout point comparable à l'ogre Microsoft. Mais Facebook, comme Google a compris qu'il était vain de chercher à reproduire un modèle périmé de logiciel sous licence, développé par des équipes internes. La dimension mondiale, dynamique et en perpétuel mouvement de ces logiciels impose de recourir à la participation de tous les contributeurs. Le logiciel "fait maison", à la Microsoft, ne peut plus lutter contre la contribution sans cesse renouvelée des développeurs de projet de type "Open Source". Ce n'est même plus un modèle économique, ni la volonté de tirer partie d'une force gratuite, volontaire, potentiellement infinie qui fait la supériorité du modèle. C'est que ce logiciel est représentatif d'une portion du monde réel en perpétuel construction, qu'une entreprise - de quelque puissance qu'elle puisse être - est structurellement incapable de modéliser.

Pour la mondialisation de Facebook ( et de Google )

Facebook, comme Google d'ailleurs, s'arroge le droit de monopoliser les droits d'utilisation commerciale de toutes ces contributions. Car c'est nous qui fournissons l'information. Facebook comme Google ne fournissent que des plates-formes qui permettent de les exploiter ( pas grand chose, finalement ). C'est déjà pas mal, mais surement pas suffisant pour se donner le droit de capturer toute cette propriété intellectuelle et sociale au profit de quelques Km² de la Silicon Valley. Je ne sais pas si l'on a déjà vu un tel accaparement de la contribution de millions d'individus au profit de si peu . Autant le dire, je ne suis pas de ceux qui admirent cet exploit capitalistique. Et si je me réjouis de l'inventivité de ces entreprises, je m'effraie de la société de surveillance qui est en train de se mettre en place devant nos yeux admiratifs dans le pays du "Patriot Act". Les services rendus ont tout des caractéristiques d'un service public à la française au niveau mondial. Je sais bien que cette notion de service public a été tellement détournée au profit d'intérêts catégoriels qu'elle a peu de chance de séduire dans sa version française. Je sais bien que les intérêts financiers et surtout politiques sont tellement énormes que cette notion de Software As A Service PUBLIC n'est pas prête de s'imposer. Et puis, de toutes façons, on ne va pas reproduire les tentatives pathétiques et vouées à l'échec comme le Géoportail. Il s'agit plutôt de réfléchir à une nationalisation mondialisation de ces services. Dans le même esprit que ce qui a été fait à la Libération, il s'agirait de rendre à la communauté mondiale ce qui lui appartient de fait. Pas de pub, mais des services financés par la communauté au profit de tous. Qui aurait parié sur l'avenir des projets "Open Source" face à la logique capitalistique des entreprises de type Microsoft. Et pourtant le modèle a démontré sa capacité d'innovation et de résistance. Nous sommes aujourd'hui dans la même situation. Les alternatives sont comparables, à l'échelle mondiale. Et le combat dépasse de beaucoup la simple évolution de logiciels informatiques. Il s'agit de toute la connaissance du monde, de la carte dynamique des relations sociales et d'autres services que nous n'imaginons pas encore.

Dans cette bataille des réseaux sociaux, Google vient de répliquer avec son initiative " Open Social". On comprendra que je ne m'intéresse pas du tout à ce combat de prédateurs. En revanche, via Olivier Ertzscheid, je trouve cette idée :

"if Google proposes an OpenSocial API, it will get adopted in seconds, if some unknown entity propose the very same API, nobody will notice it. What is happening is that Google is quickly becoming the globally recognized entity in charge or defining the evolution of the Web: Google is quickly taking the role of W3C that, according to Wikipedia, is “the main international standards organization for the World Wide Web (abbreviated WWW or W3).”

Il faut aller plus loin. Que ce rôle, de facto, de normalisation de Google comme de Facebook, soit reconnu et que donc, ces entreprise deviennent la propriété de tous et non pas de quelques individus de la Silicon Valley. Jamais autant de vrai pouvoir n'a été concentré aux mains de si peu de persoonnes vivant en consanguinité sur une portion de territoire aussi exigüe. Quel que soit leur talent, il est grand, ces entreprises sont guidées par une culture et un environnement beaucoup trop fermée pour être capable de servir les aspirations d'une population beaucoup plus multiforme. Cette situation n'est donc  pas tenable à moyen terme. Faute de nouveau vocabulaire, on est bien obligé d'employer l'ancien. Et qu'on se rassure si nécessaire, je n'oublie rien des méfaits des diverses expériences collectivistes. La véritable mondialisation devra pourtant passer par l'appropriation collective des ces moyens d'information, au niveau mondial. Je ne sais pas si le W3C, ou l'ONU ou l'UNESCO est la bonne structure pour cela. Il est probable qu'il faudra inventer un modèle nouveau qui ne stérilise pas toute la souplesse et l'inventivité dont font preuve les structures capitalistiques. Ce combat est de même nature que celui qui a été mené par Richard Stallman en son temps, avec le succès que l'on sait. Il est tout aussi utopique, tout aussi nécessaire et tout aussi réalisable.

19/10/2007

Solaris est le meilleur : c'est IBM qui le dit

En principe IBM cherche à vendre son propre Unix : AIX, ou encore fait mine de pousser du Linux, mais surtout pas Solaris qui est son principal concurrent au niveau des operating systems. Mais, ll y a parfois des situations savoureuses comme ça. Je viens de découvrir qu'IBM fait aussi la promo de Solaris.Si vous voulez en savoir plus que cette copie d'écran, vous pouvez aller sur ce site d'IBM. Et comme ils ne se fatiguent pas trop, ils ont repris la pub institutionnelle de Sun : Ten Things to know about Solaris 10

 

b6728e813ba30cf7ae5f86e5d155af80.jpg

 

Quand je dis " JE viens de découvrir", ce n'est pas tout à fait vrai. En fait, ce matin c'est une avalanche de mails internes qui pointent sur ce site, avec les commentaires qui vont bien : "Want to instill fear in AIX customers? send them the link..."

 Jusque là c'est plutôt drôle pour nous, Sun. Mais si vous regardez bien la date de mise à jour du site, on s'aperçoit que ça fait 18 mois que ça dure. Ce a quoi le responsable de cette promo répond : Ca fait partie de notre accord entre les équipes Blade Center d'IBM et nous. Vous le saviez pas ?

 Ben non, on le savait pas. Ca, c'est de la communication interne !!

16/10/2007

Le poids de l'open source

Quelques chiffres intéressants dans cet article de eWeek :

  • La part de l'open source dans l'industrie du software est de 13% sur un chiffre global de 92,7 Milliards de dollars
  • D'après le Gartner, cette part devrait grimper jusquà 27% en 2011, année où cette même industrie fera un chiffre d'affaire de 169,2 ( c'est précis !! ) milliards de dollars.

Les prédictions du Gartner sont à peu près aussi fiables que les pronostics du regretté Guy Lux pour Bilto. On prendra donc les chiffres de Gartner avec prudence. Mais l'analyse qui est donnée de cette tendance est quand même intéressante. Ce n'est pas l'Open Source, contre ou à côté, du Soft traditionnel qui risque d'être le modèle de demain, mais plutôt l'insertion de composants Open Source dans le Soft traditionnel.

Pendant ce temps, les dinosaures du Soft continuent à dévorer ce qui restent des "success stories" des années 90. Oracle s'apprête à avaler BEA après l'absorption de Business Objects par SAP. Par rapport à son offre Netweaver qui a du mal à décoller, ce n'est pas sûr que SAP ait choisi la bonne proie. En tous cas, il ne reste plus grand chose sur le marché.

12/10/2007

Upgrade SAP : Présentation à l'USF

    J'ai démarré ce blog avec un objectif de partage d'expérience sur mon activité informatique, mais il a très vite dérivé vers des sujets plus personnels. J'y vois sans doute plus d'intérêt. Aujourd'hui, retour à la technique, avec  un aperçu de mes activités professionnelles.  

La convention USF 2007 ( Utilisateurs SAP francophones )  s'est  tenue  du 9  au 11  octobre  à Reims.  A cette occasion, j'ai présenté  avec un de  nos clients  un  bilan  d'upgrade SAP. Nous étions en plein coeur d'une des préoccupations majeures de cette convention:

  • Préoccupation de SAP : Comment convaincre ses clients de passer à la dernière version ?
  • Préoccupation des clients :  Comment convaincre ma direction de l'intérêt de ce type d'opération ?

Présentés lors de cette convention, les résultats d'une enquête sur le terrain ont montré que le principal facteur déclenchant  de l'upgrade était l'arrêt de support standard. Les versions antérieures ( 4.6C principalement ) continuent d'être supportées, mais  un tarif supérieur et sans apport de nouveau correctif. Tout ça est vécu comme une contrainte plus que comme un désir d'exploiter de nouvelles fonctionnalités : Intégration du moteur BW, J2EE, Architecture SOA. D'ailleurs si celles-ci sont  jugées intéressantes, elles ne seront mises en oeuvre que plus tard.

En tous cas le projet d'upgrade qui a été mené chez notre client montre que les charges ne sont pas si énormes.

Quelques chiffres clé :

  • 5 mois de projet ( de janvier à juin 2007)
  • Une charge globale de 250 ETP (120 client, 70 pour la revue des développements , 60 pour nous Sun )
  • 56 heures d'arrêt ( business downtime ) lors de l'upgrade final de l'instance de production
  • L'opération technique d'upgrade a duré 17 heures. Le reste du temps a été occupé par les validations fonctionnelles et la reconnexion de l'instance à ses diverses interfaces

Inclus dans ces 5 mois de projet, le changement de serveur + un upgrade Oracle 9.2 vers Oracle 10. C'est d'ailleurs cet upgrade qui nous a causé le plus de soucis.

Les techniques de copie incrémentales sont d'une aide précieuse dans ce type de projet. Il faut en effet copier de multiples fois les différentes instances SAP. Les modifications effectuées sont enregistrées dans une petite base de données spécifique ( bitmap ) qui pointent les blocs modifiés. A la prochaine synchronisation, seuls les blocs modifiés seront recopiés.

Un upgrade SAP se décompose en plusieurs phases. Avec cette technique de copie incrémentale, on peut  sauvegarder un état stable de l'instance qui pourra servir de point de retour en cas d'échec de la phase suivante. Le déclenchement de ces copies se fait par script shell et est donc très facilement utilisable. 

Pour plus de détails, voici donc la présentation  Présa Sun-USF2007.pdf qui a été faite. J'ai juste retiré les slides relatifs à l'activité du client. 

 

07/09/2007

Web serveurs : Microsoft IIS regagne du terrain sur Apache

C'est le genre de statisitiques que l'on a du mal à trouver, puis à croire ! Y a -t-il encore des serveurs Web qui n'utilisent pas Apache ? Oui, beaucoup et même de plus en plus sur IIS ( Microsoft Internet Information Server).

En terme de nombre de domaines, Apache est passé d'un chiffre de 71% en Novembre 2005 à 50,9 % aujourd'hui. Pendant ce temps, IIS grimpe de 22 à 34%. Voir les courbes des différents fournisseurs que l'on peut trouver sur Netcraft

Apache en bleu qui fléchit et IIS en rouge qui remonte 

3336c4321115c3d5e5236eb59f4e572c.gif

 

Unix Guardian commente et explique ce regain par l'intégration forte de IIS avec Windows. Voilà un discours complètement à rebours des meilleures pratiques d'architecture.

Mais les faits sont là, et Microsoft sait se battre sur ce terrain là aussi.

28/04/2007

Du temps de cerveau 2.0

Il y a quelques jours, un petit sondage était proposé sur TechCrunch : Google est-il un concurrent de Microsoft ? La question est liée au rachat de Tonic Systems. Il manquait à la suite Google Apps, un logiciel de présentation à la Powerpoint. Ce rachat complète l'offre bureautique sur le réseau, avec ses trois fonctionnalités de base, traitement de texte, tableur, et présentation.

C'est en même temps qu'il débourse $3,1 Milliards pour faire l'acquisition de DoubleClick, des solutions de publicité sur Internet. Il signe également des accords avec Clear Channel : 1 200 stations de radio et 30 stations de télévision aux US. Clear Channel est également présent dans la publicité la plus traditionnelle. Ils se sont occupés des affiches électorales de la campagne présidentielle.

Alors quel est le vrai métier de Google ? Au vu des sommes déboursées, la question se pose à peine. Elle se pose encore moins du côté des revenus qui proviennent exclusivement des recettes publicitaires.

Et la réponse définitive est donnée par  la fameuse phrase de Patrick Le Lay et son temps de cerveau humain. Ce jour là, tout le monde a compris que TF1 n'est pas une chaîne de télévision, mais une régie publicitaire dont les programmes ne sont qu'un intermède entre deux messages. Et non le contraire. Il n'y a pas de coupures publicitaires. Ce sont des coupures de programmes entre deux pubs.


A mon avis c'est le même modèle pour Google qui, tout comme TF1, ne vit que de ses revenus publicitaires. C'est de la même manière une régie publicitaire supportée par l'excellence logicielle. Voilà pourquoi je doute fortement que la suite Google Apps soit  une arme de guerre contre Microsoft. La logique de son "Business Model" est totalement différente de celle de Microsoft, et Google est un nain dans la vente aux entreprises.

Je ne vois pas que Googlel ait la volonté de déclarer, et surtout les moyens de gagner cette guerre là. Ce serait la logique business. Mais Google a été fondé et reste dirigé par des informaticiens. Eric Schmidt est un ancien de Sun. Avec les fondateurs, il ne lui déplairait surement pas d'être les premiers à  battre Microsoft sur son propre terrain. J'imagine que ça doit les démanger. Vont-ils résister encore longtemps ?

 

23/03/2007

De Debian à Solaris

medium_100px-Debian.jpgIan Murdock est à l'origine de la distribution Debian, ainsi nommée du nom de nom de sa femme Debra et de lui-même Ian. Il vient de rejoindre Sun avec le titre de "Chief Operating Platforms". Il va s'occuper de promouvoir Solaris et de lui faire bénéficier de ses 15 ans de travail dans une des planètes de la galaxie Linux.

Il explique dans son blog comment les évolutions de Sun intégrant d'autres architectures hardware (X86) et le basculement en OpenSource de son offre logicielle l'ont décidé à accepter ce poste.

 "Solaris needs to close the usability gap with Linux to be competitive", affirme-t-il. On pourrait rajouter que Linux a le même genre de gap avec Windows.

Il n'y a pas si longtemps que ça, où j'installais encore des systèmes sous Solaris. Et l'on avait régulièrement la question de l'équivalent de SMIT (System Management Interface Tool) sous AIX-IBM , ou de SAM ( System Administration Manager) chez HP. Ben, chez Sun, on fait (faisait) tout en vi ou en ligne de commandes.

medium_Solaris.2.jpgUne interface de management ne coûte pas grand-chose à développer. Ce n'est qu'un habillage par menu de la ligne de commandes.  A l'époque, j'avais plusieurs fois fait des demandes pour que ces clients habitués à travailler avec ce type d'outillage disposent d'un équivalent sous Solaris. Quand on me répondait, c'est toujours pour affirmer qu'il n'y avait pas de vrai besoin et qu'il fallait plutôt encourager les clients à suivre nos formations d'administration Unix. 

Solaris tourne sur des gros serveurs, mais aussi sur PC. L'arrivée de Ian Murdock va sans doute  permettre à Sun de se rapprocher des utilisateurs plus "grand public".

15/03/2007

Google fait un pas vers plus de confidentialité

Eh bien voilà. Enfin ! Google va effacer régulièrement de ses bases de données des informations personnelles permettant de nous identifier.

Dorénavant, nous conserverons les informations sur les utilisateurs pendant 18 à 24 mois, alors que jusque-là nous les conservions indéfiniment.

Il anticipe ainsi des réglements européens et des recours d'organismes comme la CNIL.

La bonne nouvelle, c'est que Google prend en compte une partie des demandes de confidentialité, car enfin 18 mois ce n'est pas rien. Ce qui me stupéfie est le peu d'écho que soulève cette nouvelle. J'ai eu beau chercher, je ne trouve que les medias "anciens" comme le Figaro, les Echos ou le Nouvel Obs pour le signaler. Pas un blog pour en parler. Je dois être le premier, ce qui ne m'arrive jamais et ce que je ne recherche pas particulièrement. Je n'arrive pas à comprendre cette indifférence d'une population par ailleurs si attachée à son indépendance.

Si quelqu'un peut m'expliquer...

05/03/2007

Mais qui est ce fabuleux constructeur ?

 

Petite histoire vraie même si elle est outrageusement publicitaire pour qui vous savez : ce fabuleux constructeur.


Il était une fois des serveurs Lotus Notes qui coulaient des jours cahotiques sur de "bons" serveurs WINDOWS.


Un beau jour, un fabuleux constructeur propose des T2000 avec le révolutionnaire Ultrasparc T1. Le client conquis, cède à la tentation et migre Lotus Notes sur ces fameux T2000. Performances exceptionnelles, client ravi !
Hélas, trois fois hélas, voilà que ces T2000 rebootent intempestivement aussi souvent qu'un PC Windows. Le client est très inquiet, la pression monte et les fins limiers de  ce fabuleux constructeur font part de leur grande perplexité ! Cinq appels au support et toujours pas de root cause identifiée !
Or, un beau jour, après des investigations et interrogatoires serrés, l'effroyable réalité est enfin découverte par le client lui-même. Le dossier d'exploitation des serveurs Notes n'a pas été purgé d'une consigne essentielle datant de l'époque Windows :
En cas de message d'erreur de type xxx sur le serveur Lotus Notes : Arrêter et relancer électriquement le serveur via le bouton "Marche/Arrêt" !
La consigne était appliquée à la lettre par un opérateur zélé et respectueux des procédures !
Cela ne s'invente pas et tout commentaire est superflu ! Un conseil s'impose donc pour tout administrateur système : éviter à tout prix une exposition prolongée à Windows, sous peine de séquelles graves.

Via Alain C.

22/02/2007

Google Apps : La Pyramide ou la Toile

On l'appelle Google Apps ou Google Office et c'est la nouvelle offre bureautique. Pour 50$ par an on a droit à :

  • 10 Go de stockage pour Gmail ;
  • Calendrier ;
  • Messagerie instantanée (chat) ;
  • La suite bureautique texte et tableur ;
  • Logiciel de présentation type Office Impress ou Powerpoint à venir.

Tout ça est stocké sur l'infrastructure de Google : 500 000 serveurs et 25 Datacenters nous explique Louis Naugès . Et voilà l'accès à mes données de n'importe où, à n'importe quelle heure avec tout équipement capable de se connecter à Internet (pas seulement mon PC). Une des grandes forces de Google, c'est son infrastructure technique et sa qualité de services (SLA) impeccable. Fini donc, le souci du maintien des serveurs et des baies de disques, Google veille sur vous, Google vous héberge.

J'ai déjà évoqué ici et tout le bien que je pensais de ce type d'architecture d'un point de vue purement informatique :

  • Pourquoi payer 1000 Euros ou plus un PC dont on n'utilisera que 10% de la puissance ?
  • Pourquoi engraisser les comptes de MicroSoft avec une suite bureautique dont on n'utilise aussi que 10% des fonctionnalités ?
  • Pourquoi stocker en local plusieurs dizaines de Go toujours à la merci de la première panne disque, et quasiment jamais sauvegardés ?

Je redis aujourd'hui encore ma méfiance à l'égard de ce modèle hypercentralisé où l'on remet les clés de son informatique et surtout le contrôle de ses données à un hébergeur aussi puissant. Le moins que l'on puisse dire est que Google est loin d'être transparent sur ce qu'il fait des traces que l'on laisse chez lui. Et puis surtout, ce modèle est totalement en contradiction avec l'architecture distribuée de l'Internet. Plutôt que l'aboutissement du Web 2.0, n'est-ce pas plutôt là le retour à un système hiérarchisé en pyramide, quasiment de type Mainframe.

La hasard fait bien les choses, je viens de lire une contribution passionante de Anh-Tuan GAI sur le blog de Francis Pisani. Voici sa vision :

  • "Web 1.0: Les contenus sont produits et hébergés par des entreprises.
  • Web 2.0: Les contenus sont produits par les internautes et hébergés par des entreprises. (NDLR : c'est le modèle Google Apps)
  • Web 3.0: Les contenus sont produits et hébergés par les internautes.
    (Cela signifie ne plus héberger son mail sur Gmail, ses photos sur Flickr, etc… Les données sont reçues, stockées et accessibles sur une machine administrée par et physiquement chez l’internaute.) "

Je conseille vraiment la lecture de ce court article qui défend une vision décentralisée du Web qui y retrouve son architecture d'origine en toile.

A vrai dire, et on l'aura compris, le débat n'est pas que technique. Il s'agit bien du choix entre un modèle décentralisé et participatif, contre le confort du chèque en blanc. C'est un débat complètement politique concernant le rôle de chacun face à la puissance de ces entités.

Anh-Tuan GAI nous propose "Une autre branche pour l'arbre des possibles ". J'aime que cette branche là puisse pousser vite avec le talent de ce jeune post-doctorant. Et vous, sur quelle branche aimeriez-vous chanter ?

13/12/2006

L'informatique à 3 vitesses

 

Quelques  mois

Le Web3 fait l'actualité. J'ai dit tout le bien que je pense de cette initiative. Ca me permet de ne pas ignorer que parmi les projets sérieux, il y aura inévitablement un lot de mode, de fugace et d'éphémère . Le monde Web3 va à la vitesse d'un Youtube et de son succès fulgurant en moins de 18 mois.

D'après la classification de l'IT d' Andrew McAfee dont j'ai déjà parlé ici, le Web3 est dans la sphère du Network IT:

"Network IT. (NIT) provides a means by which people can communicate with one another. Network technologies include e-mail, instant messaging, blogs, and groupware like Lotus Notes."

Plusieurs années

medium_WTC_september.2.jpgRetour à une autre réalité de ce même XXIème siècle :

- 11 septembre 2001 : Une grande administration française prend conscience que son informatique est localisée sur un seul site, vulnérable  à n'importe quelle attaque ou catastrophe naturelle
- On y réfléchit pendant 2 ans avant de lancer un premier appel d'offre en fin 2003
- Deux ans d'études, d'avant-vente pour sélectionner la "short list" entre les différents soumissionnaires
- Encore un an pour affiner les différents projets
- Novembre 2006 : Nous gagnons l'appel d'offre avec notre partenaire
- Le planning prévoit la mise en oeuvre de ce projet sur 2007 et 2008 pour une 
                         recette finale en 2008

Il s'agit de mettre en place un PRI (Plan de Reprise Informatique) pour cette administration, lui permettant de continuer son activité et ses services en cas de catastrophe comparable au 11 septembre. De septembre 2001 à fin 2008, il se sera écoulé 7 ans entre la prise de conscience du besoin, jusqu'à  la recette finale de l'ensemble des procédures et des technologies supportant ce plan de secours. Ce monde lent est celui de l'Enterprise IT :

"Enterprise IT. (EIT) is the type of IT application that companies adopt to restructure interactions among groups of employees or with business partners. Applications that define entire business processes, such as CRM and SCM—as well as technologies, such as electronic data interchange, that automate communications between companies—fall into this category."

C'est toujours de l'IT, de l'informatique, mais est-ce bien le même métier ? Ce secteur de l'IT est devenu tellement central et énorme qu'il est sans doute appelé à se sectoriser, entre activités qui autont finalement peu de choses à voir entre elles, et qui surtout ne vivront pas sur les mêmes cadences.

Le plus gros acteur de l'EIT est l'allemand SAP. Le "SAP Investor Symposium" s'est déroulé à Las Vegas la semaine dernière, précédant de peu notre Web3 national. C'est pas VideoGag sur Youtube qui tiend la vedette! L'assistance a eu droit à une présentation sur un nouveau module fonctionnel : le GRC (Governance Risk and Compliance), la gestion des normes comme Sarbanes Oxley ou de réglements européens au niveau de la gestion des risques, de l'environnement ou du traitement des déchets :

"GRC ASPs increased 63% year-on-year
GRC is experiencing 15% quarter-over-quarter customer growth (2,000 GRC customers)"

C'est pas franchement sexy, on n'est sûrement pas dans le droit en écriture pour tout le monde, mais la croissance se fait aussi sur une activité ultra réglementée comme celle-ci.

SAP a aussi parlé de GRC (Gestion de la Relation Client) , Aaaargh!!! c'est pas le même...,Il s'agit en fait de CRM (Customer Relationship Management) et de l'annonce d'un portage du module CRM en mode hébergé (chez IBM d'ailleurs).

medium_doudou_mammouth_laineux_gd.3.jpgLe 2 février dernier, SAP annonce son intention de devenir lui aussi un fournisseur de logiciel distribué comme un service (Software as a Service)
Le 7 décembre à Las Vegas, lors de cette présentation aux analystes financiers, Shai Agassi l'un de ses dirigeants refait la même annonce
On attend la prochaine grand' messe SAP pour que l'on nous confirme, que oui décidément, SAP croit à ce modèle.


Pendant ce temps, Oracle, ou plutôt Larry Ellison s'apprête à récupérer sa mise de fonds dans NetSuite, le grand concurrent de SalesForce, un des pionniers du modèle SaaS, dont j'ai déjà parlé dans ce blog. En fait, les deux mammouths de l'informatique d'entreprise sont juste à l'affut pour voir si cette architecture va vraiment décoller. On ne vit pas au même rythme dans le monde de l'EIT, et le ticket d'entrée est beaucoup trop élevé pour que l'on puisse avoir la mauvaise surprise de se faire dépasser par un nouveau Google.

 

Microsoft unplugged

C'est ce qui pourrait arriver à Microsoft, le roi du troisième secteur :

"Function IT. (FIT) includes technologies that make the execution of stand-alone tasks more efficient. Word processors and spreadsheets are the most common examples of this IT category."

La sortie de Vista, après tant de retard, signe sans doute la fin d'un style, et d'une méthode de développement Software. D'après le SeattleTImes, Vista aura coûté 10 milliards de $ pour 10 000 personnes impliquées  et 5 ans de développement. Microsoft ne pourra plus se permettre ce type de gabegie.

La Function IT avec  Microsoft se situe entre l'Enterprise IT et le Network IT. Ses incursions dans l'Enterprise IT avec GreatPlains ou avec Navision  n'ont pas convaincu. En revanche, sa suite Live représente désormais une offre cohérente pour le Network IT.

La vraie bataille se jouera sur le front de la bureautique. Difficile de prévoir si la bureautique continuera à vivre sur son rythme pluriannuel actuel ou si elle s'exécutera dans le mode de changement frénétique à la Web 2.0, ou 3, ou 6. Pour réconcilier tout le monde, il se pourrait bien que cette apparente dichotomie se résolve par le mode déconnecté.

Une annonce intéressante de ce Web3 a sans doute été la sortie de "SocialText Unplugged" : du wiki qui permet de travailler en mode déconnecté puis de se synchroniser. C'est depuis longtemps le mode de fonctionnement des PDA (Palm Pilot et autres) et des téléphones.

 

Voila sans doute un avenir possible, et fécond pour le poste de travail.