Ok

En poursuivant votre navigation sur ce site, vous acceptez l'utilisation de cookies. Ces derniers assurent le bon fonctionnement de nos services. En savoir plus.

03/12/2006

Encore l'énergie informatique

Non pas pour en finir avec ce sujet inépuisable (vraiment inépuisable, contrairement à nos ressources) de la relation entre l'informatique et l'énergie, il me revient les calculs faits à l'occasion des spécifications de ZFS.

ZFS est un File System, proposé avec Solaris 10, dont une des caractéristiques est de pouvoir gérer une volumétrie correspondant à 128 bits. Dit comme ça, cela paraît banal. Mais si l'on commence à faire les calculs, on s'aperçoit que l'on atteint très vite les limites de la physique et de l'énergie disponbible (encore ce problème de l'énergie!!)

Toute cette démonstration est disponible sur Wikipedia ,  sur le blog de Dave Brillhart  ou de Jeff Bonwick :

"Although we'd all like Moore's Law to continue forever, quantum mechanics imposes some fundamental limits on the computation rate and information capacity of any physical device. In particular, it has been shown that 1 kilogram of matter confined to 1 liter of space can perform at most 1051 operations per second on at most 1031 bits of information [see Seth Lloyd, "Ultimate physical limits to computation." Nature 406, 1047-1054 (2000)]. A fully-populated 128-bit storage pool would contain 2128 blocks = 2137 bytes = 2140 bits; therefore the minimum mass required to hold the bits would be (2140 bits) / (1031 bits/kg) = 136 billion kg.
To operate at the 1031 bits/kg limit, however, the entire mass of the computer must be in the form of pure energy. By E=mc2, the rest energy of 136 billion kg is 1.2x1028 J. The mass of the oceans is about 1.4x1021 kg. It takes about 4,000 J to raise the temperature of 1 kg of water by 1 degree Celsius, and thus about 400,000 J to heat 1 kg of water from freezing to boiling. The latent heat of vaporization adds another 2 million J/kg. Thus the energy required to boil the oceans is about 2.4x106 J/kg * 1.4x1021 kg = 3.4x1027 J. Thus, fully populating a 128-bit storage pool would, literally, require more energy than boiling the oceans."

Je n'ai pas les compétences en physique qui me permettraient de valider ou contester cette démonstration. Pour l'instant, je n'ai jamais entendu dire qu'elle l'ait été. En tous cas, il semblerait bien qu'une quantité d'informations aussi gigantesque est loin d'être neutre d'un simple point de vue de l'énergie nécessaire pour la manipuler.

Amis physiciens, à vos commentaires...

01/12/2006

Nicolas Hulot et l'énergie

medium_Ptolemee.3.jpgPensant encore à la discussion entre Nicolas Hulot et Jacques Attali sur le réchauffement de la planète (voir mon article précédent), je me suis livré à un petit exercice historique que je vous livre ci-dessous. On y verra la place de l'énergie dans ce balancement entre le fini et l'infini.

Le monde antique

L'antiquité vivait dans un monde fini dont la Terre était le centre, autour duquel tournait le soleil, les étoiles et mêmes les autres planètes connues (Marc, Jupiter,...). 

La Terre elle-même était très largement inconnue et réduite aux pourtours de la Méditerrannée. Voici donc un monde fini, où les hommes vivant sur différents continents encore séparés par des océans infranchissables, ne connaissaient pourtant pas les limites de leur propre planète. 

Pour les Grecs, la sagesse consiste à trouver sa place dans un monde harmonieux et fini. Pour l'antiquité, la question de l'énergie ne se pose même pas. Elle est solaire ou animale, et l'on se chauffe au bois.

 

 

 

 

La Renaissance  medium_copernican_universe.2.gif

En 1522, Juan del Cano achève le tour du monde et l'expédition de Magellan. Au moment même où l'homme commençait à découvrir l'entièreté de sa planète, Copernic terminait son oeuvre majeure, Des révolutions des sphères célestes, achevée vers 1530. Désormais, la Terre ne serait plus qu'une planète quelconque au sein d'un système solaire lui aussi tout à fait banal. Nous voici dans un monde, où avec Pascal, « le silence éternel de ces espaces infinis m'effraie ». La Terre n'est plus le centre d'un monde harmonieux où l'homme doit s'insérer.

Ayant enfin réussi à déchiffrer quelques énigmes, comme la pesanteur et le mouvement des planètes, l'homme n'a plus peur que le ciel lui tombe sur la tête. C'est maintenant lui-même qui devient le centre et d'ailleurs maître de sa Terre, au milieu d'un cosmos infini qu'il ne pourra jamais atteindre. Au moment de la Renaissance, la question de l'énergie n'a pas beaucoup évoluée et l'on commence tout juste à extraire le charbon.

 

Le XXéme siècle

Aujourd'hui, l'exploration de la planète est terminée depuis longtemps. Le moins qu'on puisse dire, c'est que l'homme est bien le maître de cet espace clos. Pour autant, il se comporte comme si les ressources naturelles en étaient infinies. C'est ainsi que toute l'économie moderne depuis le XIXème et surtout le XXème siècle est bâtie sur une disponibilité infinie de l'énergie, pour un très faible coût. Cette énergie est très largement basée sur la consommation de carburants fossiles.

Pendant ce temps, l'information est restée rare. Elle était rare pour des raisons de coût et de faible disponibilité du support (papier). Elle était également rare, car contrôlée, voire censurée pour une grande partie des habitants de cette planète.

L'explosion de l'information est une conséquence de l'électronique (Radio et télévision), et maintenant de l'informatique et donc d'Internet. Les tentatives de contrôle ou de censure sont vouées à l'échec à très court terme.

 

Et maintenant,

Internet, aujourd'hui, est en lecture/écriture. Les sources d'information deviennent innombrables avec le phénomène du « User Generated Content ». C'est au moment même où la quantité d'information va devenir infinie, que l'énergie se raréfie.

medium_Power_supply.jpg

Il n'est pas exagéré de dire que nous vivons un autre renversement de perspective, souvent décrit comme le passage à une société de l'information. Jacques Attali voit donc bien l'ouverture de de cette société de l'information (dans l'idéal, elle  se transformera en une société de la connaissance). Mais cette société de l'information ne fonctionne pas sans énergie, et il serait paradoxal que l'infini de l'information soit freinée par le fini de l'énergie.

On voit, que malgré notre aveuglement, des progrès remarquables ont pu être faits dans l'industrie automobile. On en est à 5 litres au 100 km pour une petite voiture et autour de 10 litres aux 100 km pour une grosse, soit près de deux fois moins qu’il y a 40 ans.

Jusqu'à aujourd'hui, rien n'a été fait pour prendre en compte la consommation d'énergie dans la fabrication des équipements informatiques. Restons donc optimiste, car si l'on prend conscience du problème, on peut  s'attendre à de gros progrès dans ce domaine.

27/11/2006

Emission de CO2 : Les serveurs et la bagnole

Nicolas Hulot était l'invité de France Europe Express hier soir sur France3. Il a bien sûr beaucoup parlé de l'inéluctable réchauffement de la planète, et du gaspillage de l'énergie. A ce propos, Jacques Attali, également présent, se réjouit que les avancées technologiques arrivent juste à point, pour remplacer des déplacements physiques qui deviendront de plus en plus coûteux. Il parlait bien sûr à l'ensemble des structures télécom qui peuvent nous éviter de nous déplacer : les video conférences plutôt qu'aux réunions sur place, travail à distance, ...

Par hypothèse, il pense que l'informatique est plus économe que l'ancienne économie. Est-ce si sûr?  D'après Jonathan Schwartz, l'émission ce CO2  nécessaire au fonctionnement énergétique de l'ensemble des serveurs, équivaut à celle de l'ensemble du parc automobile chinois (6 millions de voitures vendues en 2005, au moins 30 millions en circulation).

Cette prise de conscience est extrêmement récente, mais les données s'accumulent:

- "For the most aggressive scenario (50 percent annual growth rates), power costs by the end of the decade would dwarf server prices" affime Luiz André Barroso de Google, dans cette étude.

- Michelle Bailey d'IDC "says U.S. companies spent approximately $5.8 billion powering servers in 2005 and another $3.5 billion or more keeping them cool. That compares with approximately $20.5 billion spent purchasing the equipment" dans cette autre étude.

Je ne vais pas ici m'engager dans un débat, pour savoir qui est le principal responsable du réchauffement de la planète, entre le gaz carbonique ou un nouveau cycle climatique indépendant de l'action de l'homme. Il est incontestable, de toutes façons, que nous vivons dans un monde fini, et que nous ne pouvons plus continuer à consommer l'énergie et les matières premières comme dans un modèle à ressources infinies.

Il va donc falloir prendre en compte l'énergie physique dans les paramètres d'optimisation des "data centers". Il n'y a guère le choix, et de toutes façons les factures d'électricité seront là pour nous le rappeler. Heureusement, là aussi les solutions techniques arrivent.

Solution technique par serveur

- Les processurs multicoeurs s'imposent rapidement, contre des montées énergivores en fréquence d'horloge , qui étaient de toutes façons devenues inefficaces

- De multiples solutions de consolidations sont disponibles dans le monde Unix, LPAR, VPAR NPAR, ou zones Solaris

- Pareil dans le monde PC avec Vmware, Xen , Microsoft Virtual Server et toujours les zones Solaris

- Et surement plein d'autres ...

 

Solution technique et organisationnel sur l'ensemble du parc

Aujourd'hui, un serveur "bien utilisé" tourne en moyenne à 15% de sa puissance nominale. Il est vrai que le dimensionnement de l'infrastructure est calculé par rapport à un temps de réponse, à garantir pendant les pics de charge. Rationnaliser cette infrastructure passe aussi par la mise en commun des ressources CPU au niveau de l'ensemble des serveurs.

Au lieu de réserver un ensemble fixe de ressources CPU par application, il est possible de provisionner chacune de ces applications suivant ses besoins du moment. On utilise des pools de serveurs banalisés qui sont configurés à la volée pour servir telle ou telle application.

Pour revenir au transport, l'esprit de ce genre de technique est finalement très proche du co-voiturage. En cas de problème, le co-voiturage s'organise spontanément, puis chacun reprend ses habitudes. Il est clair que ces habitudes vont changer, pour les transports comme pour la gestion de l'informatique.

Ce n'est pas une économie de pénurie qu'il faut organiser, mais juste un petit peu d'intelligence, pour moins de gaspillage.

23/11/2006

Le Web 3.0 n'aura pas lieu

J'aime beaucoup Christophe Lauer, et il donne le bon truc pour faire fortune avec le Web 2.0. La place est prise pour le 2.0. Tous à l'assaut du 3.0 (il n'y aura pas de 2.5).
Beaucoup le savent, le nommage d'un phénomène ou d'un concept est une assurance de renommée et de fortune. Bill Inmon vit encore sur le concept de DataWarehouse qu'il a théorisé, Tim O'Reilly avec son Web 2.0 est bien parti sur la même voie.

Quelques suiveurs sans imagination tentent déjà leur chance avec un Web 3.0.

 

1.0

Je n'ai rien compris au Web 1.0 (qui n'avait pas de numéro de version). A l'époque, je disposais depuis longtemps de toute la documentation nécessaire, exportée par des serveurs NFS. Ce modèle "one to many" me satisfaisait complètement, et je n'ai pas vu l'intérêt de passer par un browser pour ouvrir un document statique, auquel j'avais déjà accès, dans mon arborescence locale montée sous NFS. C'est que ma vision était purement technicienne, qui ne comprenait pas que la révolution n'était pas dans le moyen d'accès, mais dans l'ouverture de cet accès, en lecture,  au monde entier. 
La désignation de Web était partiellement inexacte pour décrire ce phénomène. Le terme de toile décrit un modèle géométrique, en réseau,  "many to many" qui n'existait pas encore à cette époque. Au moment du Web 1.0, l'entreprise était en avance sur le grand public.

 

2.0

Le Web 2.0 est une vraie toile, où tous les noeuds ont potentiellement le même rôle et le même poids, et c'est l'usager qui est en avance sur le monde de l'entreprise. Comme chacun le sait, il s'agit maintenant d'un Web en lecture-écriture. L'utilisateur en crée le contenu, au moins à part égale avec les entreprises économiques et les institutions. Celles-ci continuent néanmoins à en tirer l'essentiel du profit économique. A terme, ce partage inégal annonce des tensions sur le modèle.

L'information étant maintenant produite partout, et non plus sur quelques sites institutionnels peu nombreux, la recherche est re-devenue primordiale. Et c'est ce qui fait le succès de Google, comme en témoigne l'interview de ses fondateurs dans Playboy en 2004:

"BRIN: Ironically, toward the end of the 1990s most of the portals started as search engines. Yahoo was the exception, but Excite, Infoseek, HotBot and Lycos began as search engines. They diversified and didn’t take searching as seriously as they should have. Searching was viewed as just another service, one of 100 different services. With 100 services, they assumed they would be 100 times as successful. But they learned that not all services are created equal. Finding information is much more important to most people than horoscopes, stock quotes or a whole range of other things—which all have merit, but searching is substantially more important. They lost sight of that. It’s why we started Google in the first place. We decided that searching is an important problem that requires serious concentration. That continues to be our focus."

Le meilleur moteur de recherche pour démarrer, et surtout la meilleure régie publicitaire pour prospérer, font donc la bonne recette.  Pour le moteur comme pour la régie, c'est l'utilisateur qui crée l'information que Google rendra "intelligente" pour tous, et profitable pour lui-même.  Le Web 1.0 reflétait une diffusion de l'information de quelques uns vers tout le monde. Dans un modèle achevé, le Web 2.0 est une création/diffusion de l'information dans tous les sens et sans hiérarchie. Tout a changé de ce point de vue, sauf le pouvoir économique qui reste entre les mêmes mains.

 

Un faux 3.0

Un Web 3.0, sémantique, n'est qu'une continuation de ce modèle. Le billet de Fred Cavazza,  "Vers un Web 3.0", décrit bien cela. Il est bien plus subtil que son titre pourrait le laisser croire. Néanmoins ces technologies ne sont que des améliorations d'un existant à peine digéré alors que  le 2.0 est un vrai retournement de perspective.

Ce Web 3.0 n'aura pas lieu, parce qu'il n'est qu'une prolongation des courbes, et qu'il ne crée pas de nouveau paradigme.

 

Rendez-vous en 2010

Au petit jeu des prévisions, je vous propose les miennes:

- Le Web 3.0 ne portera pas ce nom, même si la composante Web sera partie prenante du nouveau modèle,

- Il apparaîtra en 2010, après un cycle de 5 ans de Web 2.0,

- Il est en train de germer en ce moment, plus probablement à Hong Kong ou à Bombay qu'à Stanford,

- Il sera orienté processus, et vie de l'information, de sa création, à ses modifications jusqu'à sa mort. Nous ne traitons aujourd'hui que d'information statique, sans vision du processus qui l'a créée puis transformée,

- Si l'information est un vrai pouvoir, celui-ci se ré-équilibrera, sous sa forme économique, entre les mains des usagers au détriment des entreprises capitalistiques.

Vaste programme...

14/11/2006

Un ERP ITIL

Les processus ITIL sont font maintenant partie de l'outillage standard de tout DSI. Les retours d'expérience commencent à être disponibles. Comme avec toute méthodologie, c'est la qualité et l'implication des personnes qui fait la différence.

Pour ceux qui ont connu la vogue des ERP à la fin des années 90, la ressemblance est frappante. Comme pour les ERP, l'outillage technique est le support de la remise en question de l'ensemble des processus métier de l'entreprise. Ce support est un prétexte, mais c'est aussi un référentiel extrêmement contraignant, par nature et par volonté, qui héberge un ensemble de bonnes pratiques reconnues par les industries concernées. Comme pour les ERP, on peut commencer par des processus relativement simples ( pour les ERP c'était l'administration des ventes, celle que l'on retrouve aujourd'hui sur les offres Web 2.0 comme celle de Salesforce.com, dont j'ai déjà parlé dans ce blog). Comme pour les ERP, la valeur ajoutée s'apprécie, au fur et à mesure de l'intégration d'un maximum de processus dans ce moule.

La classification, probablement appelée à devenir classique, de Andrew McAffee,  distingue 3 types de services IT:

- Function IT, pour les services rendus sur le poste individuel. Pour faire simple, on peut dire que c'est très largement le monde Microsoft, CAO, et autre logiciels de type station de travail

- Network IT représente bien sûr la super star actuelle sous le nom générique de Web 2.0

- Enterprise IT, dont l'esprit est complètement opposé à l'inspiration sous-jacente au Web 2.0. Dans cet espace EIT, il ne s'agit sûrement pas de créativité ni de valeur ajoutée par l'utilisateur. Nous sommes ici dans un monde de procédures à implémenter puis à respecter.

On l'a deviné, ITIL fait partie du monde contraignant de  l'Enterprise IT. Les composants du système d'information (CI),  le référentiel (CMDB) , et la démarche ITIL ressemblent furieusement aux projets ERP des années 90. Alors, pourquoi ne pas profiter des retours d'expérience ERP, pour mettre en place cette méthodologie, et les offres associées (chez BMC, CA ou HP par exemple). Traiter ITIL, comme on a investi sur les ERP, est peut être une méthode pour mettre en valeur l'IT. On  considère trop celle-ci, uniquement comme une charge, une "utility" de même nature que le chauffage et l'électricité.

En attendant, je m'inscris au jeu Airport Simulation. On y pratique ITIl, et on apprend plein de choses sur la nature humaine dans ce jeu de rôles extrêmement révélateur.

J'espère vous y retrouver!!

07/11/2006

Je vous écris depuis Solaris 10

Et autant le dire tout de suite, ce papier est plutôt favorable à mon employeur actuel: Sun MicroSystems. Je vous écris depuis Solaris 10 sur un PC portable Toshiba.


root@port-rdebeauregard:/usr/sbin # uname -a

SunOS port-rdebeauregard 5.10 Generic_118844-26 i86pc i386 i86pc


Un Solaris10 gratuit que l'on peut télécharger ici. Et, si l'on veut participer au projet OpenSolaris, c'est ici.


Je vous écris avec StarOffice8, pour mon blog, auquel je pourrais accéder avec Firefox 2.0 pour Solaris10, disponible ici.


Les bloggeurs ne parlent guère de Solaris. Ils se contentent trop souvent du duo Windows Linux avec parfois une touche de MacOs pour quelques passionnés. C'est vrai que la stratégie de Sun pour les architectures x86 a été longtemps assez vaseuse. La vague Linux est arrivée sans que les dirigeants de Sun n'y voient rien. Ils étaient trop concentrés sur l'architecture Sparc, qui généraient le principal des revenus. Scott McNeally, lui-même, a reconnu son erreur, d'avoir laissé tomber pendant quelque temps les versions Solaris sur x86. Tout cela a été corrigé, et maintenant, les deux versions Solaris sont développées et maintenues au même rythme.

Longtemps mal comprise, la stratégie Solaris de Sun m'apparaît maintenant de plus en plus comme étant la plus féconde, à la fois en terme de valeur pour le client que pour la communauté.

Oracle, Microsoft et Novell

Pendant ce temps, ça secoue dans le monde Linux. Les deux géants du logiciel Microsoft et Oracle prennent des positions agressives vis à vis de RedHat.


Oracle propose un support pour un « unbreakable Linux » pour un prix beaucoup moins élevé que l'offre RedHat. Larry Ellison est un habitué de ce genre de coup médiatique. On verra s'il y a vraiment quelque chose derrière.


Dans un autre genre, Microsoft et Novell signent un accord de coopération.

« Le dernier axe de développement commun concerne la compatibilité des formats de document, afin d'améliorer l'interopérabilité entre les applications bureautiques...» Ca c'est l'accord avec Novell.

On se souvient peut-être que Microsoft et Sun avaient signé un accord similaire en 2004.

« Les deux groupes ont également conclu des partenariats techniques, pour garantir une meilleure interopérabilité entre leurs produits... » Ca c'était l'accord Microsoft Sun

Un peu de bruit, pour un joli tas de dollars cash, et de bonnes intentions techniques. Je ne suis pas certain que ce nouvel accord soit un événement énorme pour l'industrie du logiciel. L'aspect juridique et financier est sûrement le moteur de cet accord en vue du futur procès SCO/IBM en 2007 à propos des droits sur les souches Unix.

Et Solaris

Néanmoins, le point commun à ces accords récents, est bien entendu la reconnaissance de la place de l'Open Source. Les deux plus gros éditeurs de logiciels propriétaires ne le combattent plus à front ouvert. Ils en prennent acte, et l'intègrent dans une stratégie de contournement.

L'autre point commun à tous ces accords est l'importance accordée par tous ces grands acteurs, à la couche du système d'exploitation. Pour en revenir à Sun et Solaris, si la question du maintien de la souche x86 a pu se poser, il n'a jamais été question de désinvestir au niveau de Solaris en tant que tel. La stratégie OpenSource de Sun apparaît de plus en plus clairement. Elle cherche à concilier ce qui peut paraître incompatible, ouvrir le code Solaris auprès de la communauté OpenSource tout en garantissant les droits de propriété intellectuelle, et la stabilité à long terme de la technologie et de son support.

L'attaque d'Oracle, qui se fiche pas mal de la communauté, met en danger le modèle économique de Redhat. L'accord Microsoft Novell jette le doute d'un point de vue juridique et de la protection des droits intellectuels, envers les autres distributeurs Linux.

Au milieu de tout cela, Sun dispose des droits intellectuels sur Solaris. Solaris reste la référence Unix, à la fois sur architecture Sparc, et maintenant sur architecture x86, et même PowerPC (vous avez entendu parler de Polaris?).

Sun a aussi mettre le code Solaris (et tout le software Sun à terme) en OpenSource, pour diffuser sa technologie, et faire profiter la communauté des développeurs et de ses clients de la force de ce mouvement.


Finalement, après bien des années dfficiles, c'est peut-être un bon choix de continuer avec Sun!

En plus Jonathan Schwartz nous annonce une semaine prochaine pleine d'annonces.


Je n'en sais pas plus, mais,  « stay tuned... », comme ils disent.

 


31/10/2006

Notre seule matière première

Qui possède les données de l'entreprise?


Décidément cette question du contrôle des données m'apparaît de plus en plus décisive parmi les différentes stratégies que l'on peut adopter. J'ai laissé un commentaire sur le blog de Louis Naugès qui propose habilement le concept de VPI (Virtual Private Internet).

Je ne sais pas si ce terme aura du succès. Les choix qu'il propose, faute d'être nouveau, auront peut-être un acronyme pour les désigner. C'est parfois ce type de nommage qui permet d'entraîner un mouvement. On voit comment il a suffi de suffixer le Web avec cette nouvelle version 2.0 pour accompagner et démultiplier un mouvement qui, sans cette désignation, serait peut-être resté embryonnaire, ou en tous cas moins rapidement repérable par les faiseurs d'opinion.


Aujourd'hui, deux acteurs, au moins, contrôlent les données de l'entreprise, les éditeurs et l'entreprise elle-même

Les éditeurs

Prenons une entreprise type, qui a fait le choix d'installer un ERP (SAP par exemple) dans les années 2000. Il y a gros à parier, qu'après plusieurs mois de projet, une bonne partie des données vitales de cette entreprise soient désormais vues et traitées à travers SAP. Par ailleurs, cette entreprise continue à générer quotidiennement des centaines de documents .doc, .xls ou .ppt. Autrement dit, ces grosses entreprises qui ont fait ce choix SAP à la fin des années 90, ou au début des années 2000, sont loin de pouvoir s'en séparer si facilement, au cas où elles le souhaiteraient. Dans cette entreprise représentative, SAP et Microsoft disposent d'un contrôle de fait sur les données.


Pour avoir gérer et effectuer par moi même des migrations SAP au niveau de l'Operating System et/ou de la base de données, je peux témoigner que l'opération est relativement aisée. Une base de données SAP de plus d'un To peut migrer d'un environnement Aix/DB2 vers un environnement Solaris/Oracle en un gros week-end de 48h. Quel que soit le couple Operating System/base de données, on peut aisément changer de fournisseur matériel et logiciel en ce qui concerne ces couches « basses ». Il n'y a donc pas de verrouillage au niveau des couches basses du système d'exploitation et de la base de données. Les migrations sont aisées et relativement peu coûteuses.


En revanche, migrer de SAP vers Oracle E-BusinessSuite, ou l'inverse, n'est pas un projet de migration. C'est un nouveau projet ERP pour lequel on ne pourra que recharger des données de l'ancienne application sans qu'aucun paramétrage ou développement ne soit récupérable. Quant à migrer son ERP vers des services Web 2.0, j'ai expliqué l'intérêt que je porte au modèle SalesForce. Pour autant, je ne suis pas sûr, et je suis même certain, que la couverture fonctionnelle de ce type d'offre est loin de pouvoir approcher ce que peut proposer un éditeur comme SAP. De toutes façons, les kits de migration n'existent pas et ils ne peuvent pas exister.


L'entreprise elle-même

Les données de l'entreprise, étant vues et exploitées à travers ce prisme des éditeurs logiciels, restent la propriété de l'entreprise. Dans un modèle encore classique, cette entreprise possède un « data center » et les matériels qui gèrent physiquement ces données. La proposition de Louis Naugès est donc de confier cette infrastructure, à des spécialistes, « Web 2.0 » bien sûr, qui pourront vous rendre un service meilleur pour un prix très compétitif.


Pour avoir visiter des centres de données de grandes sociétés du CAC 40, pour avoir visiter des centres de données d'hébergeurs reconnus, je ne vois pas de différences de qualité flagrantes. De toutes façons, je ne vois pas quelles économies d'échelle, un hébergeur pourrait apporter à cette société du CAC 40 qui possède des centaines de serveurs et déjà plusieurs To de données. Les salles informatiques sont présentes, les équipes d'exploitation sont compétentes et ont l'avantage de faire partie de l'entreprise. Elles sont donc plus proches du métier de base de cette entreprise.


Un hébergeur ne pourra que reprendre, tel quel, cet environnement. Les serveurs seront les mêmes, les unités de stockage de données également. Il n'y a pas de partage de ressources possible pour ce type d'entreprise. Où seront donc les gains financiers si ce n'est dans une délocalisation des équipements dans des pays à moindre coût d'infrastructure. Nous arrivons donc à la question qui peut paraître triviale à l'heure de la mondialisation et d'un monde supposé globalement virtuel: Où sont physiquement mes données?


Est-ce donc important pour un utilisateur travaillant à La Défense que les serveurs et les baies de disques soient au sous-sol de la tour, dans la banlieue parisienne, à Montpellier ou à Mumbay (Bombay)? La réponse technique est non. Ca n'a aucune importance, la question n'est pas là.


Le Web a été conçu pour être vraiment incassable, en ce sens qu'il est si fortement répliqué qu'une attaque sur l'un de ses éléments est, par construction, facilement réparable par des composants et des chemins de secours redondants. La localisation des équipements réseau servant le Web n'a donc pas beaucoup d'importance. En ce qui concerne les données, il n'est pas si simple de les répliquer à volonté. Pour l'instant, les technologies ne permettent pas mieux que la sécurisation d'un site primaire, avec quelques moyens techniques de réplication sur quelques unités de sites secondaires. La sécurité du ou des sites primaires reste donc primordiale.


Si donc, je suis DSI de mon entreprise et que l'on m'impose de piloter ma direction par les coûts, je ferais le bon choix en confiant mon infrastructure et l'exploitation de mon informatique à un prestataire. Celui-ci devra également faire des choix économiques pour gagner de l'argent sur ce contrat.


Deux cas se présentent:


Pour les petites entreprises ou les startups, on a en effet tout intérêt à étudier un service tel que le Simple Storage Service d'Amazon. On profite alors de prix au Go bien plus intéressant, pour une qualité de services probablement meilleure, que ce que l'on pourrait obtenir par soi-même. L'avantage compétitif est tout simplement due à la mutualisation des moyens techniques qui seront partagés par les clients de ce service. La question de la confidentialité des données n'en est plus une, et les architectures Multi-Tenant du genre SalesForce n'ont plus rien à démontrer de ce point de vue.


Si je m'appelle Renault ou Airbus, la question se pose différemment. Mon fournisseur ne pourra pas me faire bénéficier d'économies d'échelle, car j'utilise déjà les mêmes technologies haut de gamme que lui. Si ce fournisseur est capable de me faire une offre plus économique que ma propre infrastructure, c'est donc qu'il est plus efficace que moi sur les mêmes infrastructures. Pour cela, ce fournisseur peut jouer sur deux facteurs:


Les coûts salariaux, peut-être par une meilleure efficacité des équipes, mais surtout par des contraintes moindres en terme de convention collective et de salaires bruts.


Les coûts d'infrastructure en terme de m², et de kilowatt.


Où trouver aujourd'hui la combinaison de ces faibles coûts avec les compétences suffisantes pour gérer une infrastructure technique, si ce n'est en Asie du Sud Est ou dans la péninsule indienne.

Faut-il avoir peur des délocalisations?

Jean-Baptiste Rudelle rappelle que « lorsqu’on délocalise la production de chaussures en Chine, on ne transfert que 4% de la valeur du produit. Tant que les délocalisations ne concerneront que la production, l’impact (à supposer qu’il soit négatif) sur notre économie de services restera somme toute assez marginal » La logique économique d'un service comme ce « Simple Storage Service » aboutit également à délocaliser la production informatique vers ces pays à moindre coûts.


Chacun sait qu'une bonne part des développements logiciels sont réalisés dans la région de Bangalore. On sait déjà moins que certains contrats d'outsourcing ont abouti à confier l'administration technique SAP à des équipes indiennes basées à Mumbay (Bombay).

L'étape suivante serait donc de déménager physiquement les données. C'est le modèle que prône Louis Naugès.


La donnée est notre seule matière première

Ma crainte à l'égard de ce déménagement annoncé et conseillé n'est pas une réticence par rapport à un modèle d'architecture qui se défend très bien. Je me place d'un point de vue de la préservation des intérêts stratégiques, voire militaire d'un pays comme la France. A l'heure de la mondialisation, la question du contrôle des matières premières n'a sûrement pas perdu de son importance. Notre économie de services ne saurait pourtant se passer de pétrole, de gaz, ou de minerai de fer. Chacun pourra constater que les US ne plaisantent pas avec ce genre d'approvisionnement et que la « vieille » industrie garde tout son poids dans les décisions prises à Washington.


En France, on n'a pas de pétrole, mais on a des idées, et on a des données. C'est même notre seule matière première. Délocaliser les données d'Airbus, en Inde ou ailleurs, sous le contrôle politique d'un gouvernement qui n'est pas le nôtre me paraît bien risqué. C'est donner à un gouvernement ami aujourd'hui, un moyen de pression qu'il pourrait être tenté d'utiliser dans d'autres circonstances. Les états n'ont pas d'amis, ils n'ont que des intérêts. C'est aussi se mettre à la merci de groupes terroristes dans des régions peu stables, ou en tout état de cause nous ne pourrions intervenir directement.


Toutes ces questions sont-elles oiseuses? On peut me répondre qu'à l'heure de la mondialisation, la localisation des centres de production n'a plus aucune importance, et que ce mouvement est de toutes façons irréversible. Je constate aussi que la Russie a une politique du gaz, et que les US affiche spectaculairement leur intérêt pour leur approvisionnement pétrolier. A-t-on seulement réfléchi en terme stratégique à la valeur de notre seule matière première que constitue la donnée informatique?

 

Confier ses données à un tiers, pourquoi pas, et les réponses techniques sont intéressantes. La sécurité des données dans ce sens tout à fait traditionnel et militaire du terme doit aussi, et peut-être même surtout, faire partie des critères de décision.

21/10/2006

Mon PC dans une clé USB

Je ne sais pas si vous êtes comme moi, mais je trouve de plus en plus idiot de transporter son PC dont on dit qu'il est «  portable ». Chaque jour, je vais voir mes clients. J'emmène mon savoir et mes documentations dans mon « portable ». Il sert aussi pour me connecter sur le système d'informations de mes clients.Un PC « portable », c'est lourd, il faut le surveiller contre les vols éventuels, et ça reste cher. Il serait tellement plus simple de se déplacer avec un équipement véritablement léger, permettant de s'identifier et de retrouver son environnement familier. On se connecte alors sur un équipement banalisé, chez mon client, dans ma famille ou dans tout autre endroit, et je retrouve mon environnement complet.Tout cela existe depuis longtemps chez Sun sous le nom de SunRay



Il suffit d'insérer sa « javacard » pour être reconnu par le serveur. Celui-ci vous envoie la dernière session en cours.

J'ai quitté mon bureau de Vélizy. Je me reconnecte à Lille et je retrouve ma session dans l'état où je l'avais quitté quelques heures auparavant.

Malheureusement, cette solution n'a pas connu le succès qu'elle mérite. Il est vrai qu'il faut gérer un environnement « Microsoft Free » qui peut dérouter certains utilisateurs.




Dans le monde plus traditionnel du PC, on voie de plus en plus de logiciels embarqués sur une clé USB.

Le concept est un peu différent. Quand on se connecte à une SunRay, la javacard contient uniquement des informations d'identité et de sécurité. Il n'y a pas de logiciels embarqués, tout est sur le serveur.

La clé USB, stocke de l'information et du logiciel. La norme U3 a pour ambition d'utiliser les clés USB pour transporter tout un environnement PC.

Pour l'instant on n'embarque que des applications spécifiques comme StarOffice. C'est un début. Quant à moi, je continue de rêver, d'un PC vraiment transportable, sur une clé USB, ou sur tout autre dispositif permettant d'emmener un environnement complet:

Operating System + mon identification + mes applications favorites me permettant de retrouver mon environnement sans avoir à transporter ce PC. Mon PC, ce serait ma clé USB. Je l'emmène partout, je la connecte sur un PC banalisé et je retrouve mon environnement de travail complet.


Aujourd'hui, on stocke l'information sur un « Personnal Computer » qui coûte très cher à l'achat, qui coûte très cher en licences. Ce modèle a eu son intérêt dans un monde où le réseau n'était qu'une interface comme les autres. Maintenant, il est clair que ce modèle est en train de basculer vers de nouvelles pratiques basées sur une mobilité sans contraintes.


La norme U3 a l'air de tenir la corde ainsi que la suite de logiciels Framakey. J'espère donc que dans un avenir proche, l'on puisse se fournir d'une clé de ce type contenant un environnent complet avec le système d'exploitation de son choix (N'importe quel Windows Linux ou Solaris). Je ne vois pas qu'il y ait d'obstacle technique à stocker sur une clé USB ce qui est aujourd'hui sur le disque dur du PC.


Ah! j'oubliais les questions de licences!!!





17/10/2006

La fusée SalesForce

Premier étage de la fusée : Architecture Multi-Tenant


Salesforce.com jouit d'un succès impressionnant dans le monde du SAAS (Software As A Service). Le tableau ci-dessous venant du journal du Net montre qu'ils atteignent des chiffres comparables aux grands du secteur, les SAP, Oracle et Siebel (maintenant dans le même giron).



Les éditeurs de progiciels CRM dans le monde en 2005
(en millions de dollars)

Acteur

CA 2005

PdM 2005

CA 2004

PdM 2004

Evolution

SAP

1 474,7

25,9%

1 232,8

24,6%

+19,6%

Siebel

966,1

17,0%

908,3

18,1%

+6,4%

Oracle

367,5

6,4%

416,2

8,3%

-11,7%

Salesforce.com

280,7

4,9%

158,0

3,2%

+77,7%

Amdocs

276,4

4,9%

225,9

4,5%

+22,3%

Autres

2 332,6

40,9%

2 071,7

41,3%

+12,6%

Total

5 698,0

100,0%

5 012,8

100,0%

+13,7%



Son modèle d'architecture Multi-Tenant correspond bien aux besoins de sa clientèle PME. Cette architecture se caractérise par un partage des ressources matérielles et logicielles suivant différents modèles:

Hébergement partagé

  • On partage juste l'hébergement, les m² et les Kilowatts. En dehors de ça, mon application est autonome sur son ou ses serveurs.

Partage de serveurs et de disques

  • On partage le serveur et ses ressources CPU mémoire, mais mon application est autonome sur ce serveur. Autrement dit, mes données ne sont pas mélangées avec celles de mon voisin. Je suis dans ma base de données avec mon applicatif. Je ne partage qu'un serveur et son Operating System, ainsi que des moyens de stockage

Partage de l'instance logicielle

  • On partage tout, y compris l'applicatif et la base de données. Mes données sont dans les mêmes tables que celles de mon voisin; c'est l'applicatif qui me donne l'accès à mes données en masquant celles de mon concurrent.

  • Suivant les modèles logiciels, on peut configurer l'isolation des données par des systèmes de schémas ou par des mécanismes de filtre, ne permettant l'accès qu'à ses propres données. Dans un contexte différent, SAP permet, depuis longtemps, ce type de filtrage, par son système de mandant, qui rajoute automatiquement une clause « where » à tous les accès à la base de données.

    Si vous codez un « SELECT truc FROM machin » le runtime ABAP rajoutera automatiquement un « WHERE MANDT=<mon client de connexion> »

C'est évidemment ce dernier type de partage qui est le plus intéressant. Si l'application est bien architecturée, on peut bénéficier d'économies d'échelle importantes.

  • Des équipements dédiés sont dimensionnés pour pouvoir supporter des pics de charge. Ils sont rarement utilisés à plus de 15 à 20% en fonctionnement nominal.

  • A l'inverse, le partage de pool de serveurs et de stockage permet de lisser ces pics de charge entre les différents « tenants » (les différents « locataires »).

  • Si en plus, tout le monde partage le même code, la scalabilité devient maximale.

 



Salesforce.com a donc trouvé un bon modèle logiciel et économique qui permet d'exploiter cette désormais fameuse «Long Tail ». Le coût global d'un SAP ou d'un Oracle est souvent trop élevé pour un marché de petites PME.

 




Il reste alors un marché que ces gros éditeurs ne peuvent atteindre. Si je le baisse le coût unitaire, je peux attaquer ce marché. C'est le marché de Salesforce.com et de ses concurrents : NetSuite, ou SugarCRM.






Si Salesforce.com peut attaquer ce marché, c'est bien que cette architecture Multi-Tenant permet des économies d'échelle importantes, au niveau de la fourniture et de l'exploitation des infrastructures matérielles. Les coûts de projet sont également réduits par rapport à la mise en oeuvre d'un gros ERP comme SAP.

Tout ça paraît trop facile, et si les coûts sont faibles, c'est aussi que la palette fonctionnelle de SalesForce est loin de la richesse, donc de la complexité, et donc du coût d'un SAP ou d'un Siebel.

Deuxième étage : une place de marché logicielle



SalesForce a démarré en tant que fournisseur de solutions CRM, et parmi celles-ci les plus simples à mettre en oeuvre, c'est dire l'automatisation des forces de vente.

Avec sa plate-forme APPExchange, il a inventé et réussi à promouvoir un nouveau modèle. Cela représenterait 500 000 souscripteurs et 400 applications. C'est une place de marché logicielle, où l'on peut souscrire à des applications écrites par SalesForce ou ses partenaires. Il suffit donc de faire son marché dans le catalogue en ligne, de tester, et d'installer l'application de son choix.

DreamTeam est un exemple de ce type d'application. Elle permet le partage de projets, de calendriers et de documents. L'application est hébergée dans l'infrastructure de SalesForce. Elle est compatible avec Microsoft Project et Outlook.

Les conditions de prix sont disponibles sur le site:

« DreamTeam is free for individual use, $10 per user month for the Professional Edition, and $35 per user month for the Enterprise Edition.

Please contact us for more information.
Email:
dreamteam@dreamfactory.com
Phone: 1-888-399-DREAM (3732)

Pricing is also available at http://www.dreamfactory.com/dreamteam/ »






Certains contestent ces chiffres, ou en tous cas s'interrogent sur la qualité de ces applications:

« If we look at this “ecosystem” of 350+ applications, what is the breakdown? What might a stricter taxonomy look like? I recently compiled a list of these 350+ applications (I came up with 343, but I may have missed 8+) to do a little investigation. I found some wonderful tidbits of information. Did you know that at the time I retrieved the data (week of October 2, 2006)…

  • 24% of all listed applications were built by Salesforce.com rather than by partner vendors

  • that 6 out of the 8 (that’s right, 75%) “Most Popular” applications are apps built by Salesforce.com and that are free.

  • many of these apps extend the Salesforce.com main application functionality in ways that would traditionally classify the said “app” as a “plug-in” (Seriously, would anyone classify Clippy or the Microsoft Equation Editor as applications, or analogously would you buy a “song” on iTunes that was a Snare Drum Loop?) »



Troisième étage : le lancement d'Apex

L'annonce d'Apex la semaine dernière est le troisième étage de la fusée. La plate-forme Appexchange est maintenant ouverte à tous ceux qui souhaitent développer, avec le langage Apex déjà utilisé par SalesForce et ses partenaires.

SalesForce met à disposition son infrastructure technique et logicielle, chacun peut y développer ses propres applications dans ce langage. SAP a senti le danger et commence à sortir les canons. Je ne suis pas sûr que leur comparaison avec les autres langages (ABAP, PL/SQL ou PeopleCode) soit le vrai sujet. Les connaisseurs apprécieront ici la présentation technique de ce mélange de Java et d'appels SQL.

A l'évidence, personne n'a besoin d'un langage applicatif de plus, et cet Apex n'a rien de particulièrement renversant. Les difficultés que SAP ne manque pas de souligner par rapport à sa propre expérience sont tout à fait réelles. Il est probable que SalesForce sous-estime volontairement?, la marche entre son jeu d'applications actuelles et la mise à disposition d'un ERP complet. Mais l'attaque de SAP est hors sujet.

La nouveauté n'est pas là, mais bien dans cette initiative, qui tente de créer un écosystème, en invitant ses utilisateurs à créer de la valeur et à la déposer sur son site, pour les mettre à disposition de la communauté. Voilà qui est très tendance, et furieusement Web 2.0.

Il ne s'agit plus de partager des vidéos ou des photos de famille. On ne se contente plus de quelques commentaires sur tel film ou tel livre. SalesForce veut créer une communauté du même type pour les applications business. Par la même occasion, il part le premier pour établir un nouveau standard d'ERP sur le Web.

Le moins que l'on puisse dire est que le lancement est réussi. Les partenaires comme les concurrents (SAP en tête) ont bien senti qu'il se passait quelque chose de radicalement nouveau sur le marché de l'ERP et peut-être même de l'industrie du logiciel.

Cela fait longtemps que certains prévoient la venue de l'Utility Computing, consistant à se brancher sur une puissance informatique sur le réseau. On voyait bien le rôle des constructeurs, des éditeurs et des hébergeurs dans ce modèle. On n'avait sûrement pas prévu le rôle tout à fait majeur que prendront les utilisateurs dans la création et la diffusion de l'intelligence applicative.

Le PDG de SalesForce, Marc Benioff, n'oublie pas de faire du business (il faut quand même payer 10 000 dollars pour faire certifier une application par SalesForce). Sa personnalité tonitruante, et la capacité de SalesForce à exécuter cette stratégie impeccable ont créé les conditions nécessaires pour que d'autres s'engouffrent dans ce qui apparaît déjà comme un un nouvel âge.

03/10/2006

Blogs et Wikis: La CIA aussi!

Une étrange rencontre

En me promenant sur le blog de Francis Pisani, je tombe sur cette étrange nouvelle. La CIA s'intéresse aux technologies de partage de l'information. Quelques stars américaines du Web2.0 ont fait le déplacement. Voici un compte-rendu par un des participants. Ces personnalités du Web n'hésitent pas à rencontrer et à partager des idées avec des analystes de la CIA. Comme le dit l'un d'entre eux (Jay Cross) « Support the Agency. You don’t have to like the people they report to »; ce qu'on pourrait traduire par « Aider la CIA, vous n'êtes pas obligés d'apprécier les personnes qui la commande ».


Cette rencontre est en soi un petit événement. On n'imagine pas la même chose, ici en France. Quoi de commun entre cette culture de l'ouverture et un service secret? Vu d'ici, et sans doute de Californie, tout ce qui ressemble à un organisme gouvernemental, ou pire encore à une centrale de renseignement, ne peut rien avoir à partager avec des personnalités toutes issues de l'open source.

En ce qui me concerne, c'est cette rencontre elle-même et les sujets traités qui m'intéressent. La CIA en tant que telle, et la question de la torture ne sont pas le sujet de cette publication.


L'un des participants à cette rencontre, Eugene Kim explique bien comment les attentats du 11 septembre ont secoué les différentes agences de renseignement. Après un échec aussi catastrophique, il apparaissait vital de repenser leur fonctionnement à la lumière de ces événements et des nouvelles techniques terroristes. En parallèle, l'émergence des blogs et des wikis rend presque naturel l'intérêt de la CIA pour ce type d'outils. Après tout, la plupart des blogs, y compris celui-ci, ne sont que la compilation et de l'assemblage d'informations, avec un brin d'analyse personnelle. On peut également alimenter un wiki, spécialisé dans les questions du renseignement. A la CIA ils ont un wiki nommé Intellipedia. La CIA, dans ses activités de renseignement, n'est que du pur traitement de l'information. A partir de la presse, d'informations collectées par ses agents, de tout ce qui a été récupéré par ses moyens d'écoute, il s'agit de trier, analyser et si possible d'anticiper. Dans le monde de l'informatique, on appellerait cela de la veille technologique, et dans le monde du renseignement, de la veille tout court. A l'évidence, ces deux activités sont très proches sinon semblables. Il n'est donc pas étonnant qu'une agence comme la CIA s'intéresse à nos outils favoris.


On blogue à la CIA

Calvin Andrus est membre de la CIA. Dans cette étude publique, il décrit bien la nécessité pour l'ensemble de la communauté du renseignement de s'adapter et de se ré-inventer sans arrêt face à des menaces de moins en moins prédictibles. Sa démonstration pourrait être reprise mot à mot pour n'importe quelle organisation:

  • Les agents doivent être plus autonomes

  • Ils doivent être experts en échange d'information

  • Ils doivent échanger plus d'informations

  • Ils doivent être à l'écoute du monde extérieur

  • Ils doivent mieux connaître leurs objectifs globaux


Afin d'atteindre ces objectifs, Calvin Andrus recommande une utilisation massive des blogs et Wikis. Son papier date de 2004. Il semblerait qu'il ait été entendu. Le Wiki Intellipedia existe, un certain nombre de blogs sont rédigés (y compris dans les couches dirigeantes). Cette rencontre de fin septembre 2006 montre que l'intérêt ne faiblit pas au sein de l'agence.


Echanges et jeux de pouvoir

Sans être un expert de ces questions, on imagine bien les différents problèmes que l'utilisation de ces outils peut amener.

  • Que peut-on échanger et avec qui?

  • Les résistances culturelles sont probablement encore plus fortes dans ce type d'administration


Pour que les techniques d'échange d'informations atteignent tout leur potentiel, une certaine masse critique doit être atteinte. Différents points de vue et différentes cultures doivent pouvoir dialoguer. Les différentes agences de renseignement devraient donc faire partie d'une même communauté où l'on échangerait rapidement et sans contraintes ses propres informations. Par ailleurs, tout pouvoir politique a besoin de ses services de renseignement, tout en s'en méfiant. Les différents services ne sont jamais regroupés, et l'on tend à les mettre en concurrence et même en position de surveillance réciproque. Aucune autorité politique ne saurait tolérer d'être à la merci d'une seule agence de renseignement qui ne tarderait pas à disposer d'un pouvoir incontrôlable. Il y a là une contradiction de fond qui est encore plus exacerbée dans ce type d'activité que dans une entreprise ordinaire.


Posséder des informations est une source de pouvoir personnel. Partager des informations est une voie vers des sociétés (ou des agences de renseignement) du savoir. On n'en saura sans doute pas beaucoup plus sur l'efficacité des outils Web2.0 au sein de la CIA. Le fait même qu'une entité si marquée par la culture du secret puisse s'y intéresser démontre en tous cas la puissance de ces concepts et des outils associés.

27/09/2006

Le SLA c'est Google!

C'est mieux chez moi que dans ma boîte

Ce que nous vivons en ce moment, d'un point de vue technique, peut paraître paradoxal. Le Web 2.0, ça se passe très largement dans le périmètre de l'informatique personnelle. Le partage facile des informations, les sites collaboratifs, les droits en écriture par défaut deviennent la norme. Dans le monde de l'entreprise, le monde professionnel, c'est trop souvent le contraire.

Il faut vivre en entreprise pour constater la pauvreté et la mauvaise qualité de l'offre de services. Chez moi, avec les outils grands publics, je dispose d'une palette incroyablement diversifiée d'applications, avec le plus souvent une qualité de services parfaite. Comme beaucoup, je supporte de moins en moins une informatique d'entreprise, toujours en retard sur ce dont je dispose à la maison.

On pourrait argumenter sur la nature fondamentalement différente de ces deux mondes. Qu'un article de Wikipedia puisse sans arrêt, être modifié, et amélioré, est justement un des principaux atouts de ce projet. On comprendra facilement, qu'une proposition commerciale, une offre de services ou un contrat de maintenance comporte des aspects juridiques et financiers qui n'autorisent pas des accès aussi ouverts. C'est pourquoi l'assimilation des pratiques du monde de l'informatique personnelle, du Web 2.0 dans le monde de l'entreprise ne sera sans doute pas si aisée. Un des vrais défis du DSI sera d'aménager à l'intérieur de son informatique d'entreprise, des espaces de type Web 2.0 qui puisse alimenter par leur foisonnement créatif son informatique « classique », protégée, pour ne pas dire sanctuarisée. Le Web 2.0, par exemple, ne remplacera pas des applications de type ERP. Dans son esprit, il est orienté vers le monde de la création et du développement, quand un ERP fait de la production.

La qualité de services: le SLA

Parlons d'un autre aspect de l'informatique personnelle, la qualité de services, le SLA ou Service Level Agreement. Comme l'entrée wikipédique de l'expression est assez pauvre (ce serait l'occasion pour moi de l'enrichir), je vais essayer de le décrire un peu plus précisément. Le SLA est un document décrivant la qualité de services qu'un fournisseur de services s'engage à fournir à son utilisateur final. Pour prendre un exemple dans le monde SAP, on y retrouve typiquement les engagements suivants:

  • Disponibilité de l'application à 99, xxx%

  • Droit à un certain nombre d'arrêts programmés (par an)

  • Durée d'indisponibilité maximale

  • Délai de redémarrage en cas d'incident

  • Temps de réponse moyen garanti : inférieur à 1 seconde par exemple

  • etc, etc ...

A l'inverse des aspects fonctionnels où l'avance prise par l'informatique personnelle, peut s'expliquer par sa nature novatrice, on s'attendrait à disposer d'un SLA professionnel dans le monde de l'entreprise et d'une qualité de service amateur à la maison. On l'a compris, là encore le SLA est meilleur chez moi que dans l'entreprise.


Le SLA chez Google

Google est un service utilisé par tout le monde, en entreprise et à la maison. Tout le monde est fasciné par ses qualités et la justesse de ses réponses. Des sites comme WebRankinfo sont consacrés à ce sujet. Comme le dit la présentation de ce site :

« Si le moteur de recherche Google est sorti du lot et a devancé les stars d'hier (Altavista et Yahoo!), c'est parce qu'il a réussi ces 2 challenges :

  • indexer le plus de documents possible, rapidement

  • présenter des résultats triés, les plus pertinents en premier. »

J'ai bien sûr la même expérience, et le jour où j'ai découvert Google, je n'ai quasiment plus jamais utiliser les Altavista, Hotbot ou Lycos. A cause de la pertinence des réponses, bien sûr, mais aussi et peut-être surtout à cause de la rapidité. Il faut se souvenir du milliard de popups, et de la lenteur de mauvaises réponses que l'on avait avant, pour avoir apprécier instantanément le dépouillement et la vitesse de Google. Autrement dit, la qualité de services, chez Google, c'est le résultat, mais jamais ils n'ont oublié ou négligé la qualité technique de l'infrastructure.

Il suffit de se souvenir du pitoyable lancement du geoportail pour comprendre comment on peut saboter d'entrée un service, si l'infrastructure technique n'est pas à la hauteur.

Le SLA chez Google, c'est ça:

 

Résultats 1 - 10 sur un total d'environ 268 000 000 pour Web 2.0. (0,10 secondes) 


0,10 secondes de temps de réponse, et une disponibilité de 100%. Pas 99,9, pas 99,99999 (les fameux cinq 9) , c'est 100%. L'architecture technique de Google est entouré d'un silence quasi brejnevien. On parle de centaines de milliers de serveurs, on imagine aussi des processus d'entreprise et des équipes techniques du plus haut niveau. Comme quoi, on a beau être le modèle même du Web 2.0, il y a des choses qu'on garde pour soi. L'algorithme détaillé, comme l'architecture technique de Google sont sans doute parmi ses secrets les mieux gardés. C'est l'occasion de faire un peu de pub pour ma maison puisqu'il semblerait bien qu'ils soient en train de migrer vers nos nouveaux processeurs Sun Niagara (Serveurs T2000).

Le SLA c'est Google!

L'objectif est donc fixé. La qualité de services à laquelle nous sommes habitués, c'est 100%. Je peux me connecter à Google n'importe où, à n'importe quelle heure. C'est devenu ma norme de travail, et de confort!

Une DSI aujourd'hui, c'est un coût, des facilités (facilities), presque jamais de la valeur ajoutée. De toutes façons, on ne sait pas la calculer. Un coût c'est tellement plus facile, et la gestion par les coûts aboutit à ce service d'une qualité si médiocre qu'il décourage ses utilisateurs.

Si l'on veut que les investissements, lourds, et les coûts de fonctionnement, encore plus lourds, soient utilisés, il serait temps d'aligner le SLA dans l'entreprise au SLA à la maison. L'utilisateur est habitué à cette qualité de services 100% quand il rentre chez lui.


Quand il dépose une photo ou une vidéo sur son site préféré, il s'attend à ce que ça marche, et ça marche. De toutes façons si ça ne marche pas, il va ailleurs. Dans l'entreprise, c'est pareil. Aller ailleurs n'est pas toujours simple. Sous utiliser, mal utiliser ou refuser les outils de l'entreprise, on le voit tous les jours!!

Et si la qualité de services informatiques devenait un des premiers critères pour attirer les meilleurs, pour améliorer la productivité, ou plutôt ...pour la rendre possible.


26/09/2006

ThinkFree et les autres

Un comparatif très intéressant de « online word processors » est paru récemment sur linux.com .

J'ai déjà parlé de Writely dans une publication précédente. L'étude de Linux.com confirme ma première analyse, en élargissant l'étude à d'autres éditeurs. Mes propres tests arrivent aux mêmes conclusions: Dans l'état actuel de ces outils, je ne peux pas me passer d'une suite bureautique, résidente sur le PC.

Tous ces éditeurs en ligne, dont il est question dans cette étude, peuvent être utilisés pour de la communication de type messagerie, ou publication blog. Un document plus élaboré, avec table des matières, chapitres, schémas et quelques styles simples de paragraphe, ne peut pas être crée ni même édité avec ces outils. Seul, Think Free pourrait éventuellement être utilisé. Il représente sans doute le compromis le plus abouti entre ce type d'outillage réseau, forcément moins riche, tout en proposant un minimum de fonctionnalités.

Dommage, d'un point de vue architectural, que ces outils ne progressent pas. Mais il est vrai que l'alternative à Microsoft est connue depuis longtemps avec l'ensemble des outils et des méthodes de migration vers OpenOffice.

11/09/2006

Network Computer : Le retour

Pour un ancien de Sun comme moi, la situation actuelle a bien des côtés savoureux. On n'insistera pas sur le slogan fondateur “The Network is the Computer” qui se concrétise sous nos yeux de jour en jour.

Je voudrais revenir sur cette idée de la fin des années 90 lancée à la fois par Larry Elison et Scott McNeally, le Network Computer . Dans leur rage (haine??) commune contre Microsoft, ils crurent trouver l'arme fatale.

  • Pourquoi payer 1000 Euros ou plus un PC dont on n'utilisera que 10% de la puissance

  • Pourquoi engraisser les comptes de MicroSoft avec une suite bureautique dont on n'utilise aussi que 10% des fonctionnalités

  • Pourquoi stocker en local plusieurs dizaines de Go toujours à la merci de la première panne disque, et quasiment jamais sauvegardés.

 

La tentative a fait long feu, faute de logiciels adaptés et surtout d'une bande passante réseau suffisante. L'idée de ce Network Computer reste tout à fait intéressante, mais comme d'habitude, les bonnes idées, pour être acceptées doivent arriver au bon moment, ni trop tôt, ni trop tard.

Est-ce maintenant le bon moment? La bande passante est là (en tous cas pour ceux qui peuvent accéder à l'ADSL), et les outils arrivent. Ils sont déjà là, chez Google évidemment, qui a mis la main sur Writely et développe son propre tableur spreadsheets.google.com.

Le principal intérêt de ces deux outils réside dans la possibilité de collaboration. Il y a là une vraie avancée, par rapport aux pratiques actuelles de jeu de ping-pong par Email, d'envoi et de renvoi du même document modifié à chaque fois, si bien que plus personne ne s'y retrouve.

 

D'un point de vue de l'utilisation personnelle disons-le tout de suite, ces utilitaires ne sont pas au niveau. Je me considère comme un utilisateur lambda de ce type d'outil, mais néanmoins j'utilise au quotidien des fonctionnalités comme:

  • Des titres et des sous-titres numérotés (1, 1.1, 1.1.1)

  • Quelques styles de paragraphes

  • Génération de table des matières

Je ne retrouve rien de tout cela sous Writely qui s'apparente à un Notepad sur le réseau. Je ne doute pas qu'il soit possible techniquement d'amener un peu plus de fonctionnalités dans ces outils. Pour le moment, je constate peu d'investissements réels.

Une fois encore, Nicholas Carr, dans cet article émet une hypothèse que je partage. Google ne fera pas l'erreur de trop de précédents rivaux de Microsoft. Il n'ira pas se battre sur un terrain archi-dominé par le géant de Redmond. Pour l'instant, il pose ses pions avec un outil sur le réseau qui permet de charger et de sauvegarder aux formats Office de MicroSoft et de Open-StarOffice.

 

Au delà d'une bataille qui n'aura sans doute pas lieu, la vraie question réside dans la localisation des données.

Pour l'instant, les utilisateurs personnels n'hésitent pas à confier leur données personnelles à MySpace, DailyMotion ou Flickr , pour ne citer que les plus connus. Jusqu'à quel degré d'intimité cela va-t-il, personne n'en sait rien. Toujours Scott McNeally dès 1999: “You already have zero privacy. Get over it".

 

En ce qui concerne les données de l'entreprise, les données commerciales ne sont pas près de basculer. L'excellent Louis Naugès a signalé l'initiative CleverSafe. Il termine son analyse par cette affirmation : Savoir que données, textes, voix et multimédia peuvent être stockées sur Internet ou sur un Intranet distribué, avec la meilleure garantie possible en termes de sécurité ne peut qu’accélérer le basculement vers des solutions Web 2.0. Et de conclure que cela deviendra très vite la solution la plus sécurisée du marché. D'un point de vue purement technique, il est possible que des solutions de ce type atteignent des niveaux de service comparables à des solutions purement locales.


Et alors? Si je suis le DSI de Renault, ou d'Airbus, aurais-je la candeur de déposer mes données industrielles sur un site dont je ne peux pas garantir personnellement la confidentialité. Je veux bien croire à la bonne volonté du fondateur Chris Gladwin.

Il n'en reste pas moins :

  • que tout algorithme est fait pour être craqué,

  • que la compétition existe encore,

  • que les enjeux industriels et financiers sont trop importants

  • et que le contrôle physique des données reste encore la meilleure garantie contre la curiosité des concurrents.

 

Rien de stratégique, ni de confidentiel ne transite par Mail ou par téléphone, crypté ou non, 2.0 ou plus.

Les données stratégiques resteront, avec raison, sous le contrôle local de ceux qui les possèdent et qui en sont responsables.