Ok

En poursuivant votre navigation sur ce site, vous acceptez l'utilisation de cookies. Ces derniers assurent le bon fonctionnement de nos services. En savoir plus.

27/09/2006

Le SLA c'est Google!

C'est mieux chez moi que dans ma boîte

Ce que nous vivons en ce moment, d'un point de vue technique, peut paraître paradoxal. Le Web 2.0, ça se passe très largement dans le périmètre de l'informatique personnelle. Le partage facile des informations, les sites collaboratifs, les droits en écriture par défaut deviennent la norme. Dans le monde de l'entreprise, le monde professionnel, c'est trop souvent le contraire.

Il faut vivre en entreprise pour constater la pauvreté et la mauvaise qualité de l'offre de services. Chez moi, avec les outils grands publics, je dispose d'une palette incroyablement diversifiée d'applications, avec le plus souvent une qualité de services parfaite. Comme beaucoup, je supporte de moins en moins une informatique d'entreprise, toujours en retard sur ce dont je dispose à la maison.

On pourrait argumenter sur la nature fondamentalement différente de ces deux mondes. Qu'un article de Wikipedia puisse sans arrêt, être modifié, et amélioré, est justement un des principaux atouts de ce projet. On comprendra facilement, qu'une proposition commerciale, une offre de services ou un contrat de maintenance comporte des aspects juridiques et financiers qui n'autorisent pas des accès aussi ouverts. C'est pourquoi l'assimilation des pratiques du monde de l'informatique personnelle, du Web 2.0 dans le monde de l'entreprise ne sera sans doute pas si aisée. Un des vrais défis du DSI sera d'aménager à l'intérieur de son informatique d'entreprise, des espaces de type Web 2.0 qui puisse alimenter par leur foisonnement créatif son informatique « classique », protégée, pour ne pas dire sanctuarisée. Le Web 2.0, par exemple, ne remplacera pas des applications de type ERP. Dans son esprit, il est orienté vers le monde de la création et du développement, quand un ERP fait de la production.

La qualité de services: le SLA

Parlons d'un autre aspect de l'informatique personnelle, la qualité de services, le SLA ou Service Level Agreement. Comme l'entrée wikipédique de l'expression est assez pauvre (ce serait l'occasion pour moi de l'enrichir), je vais essayer de le décrire un peu plus précisément. Le SLA est un document décrivant la qualité de services qu'un fournisseur de services s'engage à fournir à son utilisateur final. Pour prendre un exemple dans le monde SAP, on y retrouve typiquement les engagements suivants:

  • Disponibilité de l'application à 99, xxx%

  • Droit à un certain nombre d'arrêts programmés (par an)

  • Durée d'indisponibilité maximale

  • Délai de redémarrage en cas d'incident

  • Temps de réponse moyen garanti : inférieur à 1 seconde par exemple

  • etc, etc ...

A l'inverse des aspects fonctionnels où l'avance prise par l'informatique personnelle, peut s'expliquer par sa nature novatrice, on s'attendrait à disposer d'un SLA professionnel dans le monde de l'entreprise et d'une qualité de service amateur à la maison. On l'a compris, là encore le SLA est meilleur chez moi que dans l'entreprise.


Le SLA chez Google

Google est un service utilisé par tout le monde, en entreprise et à la maison. Tout le monde est fasciné par ses qualités et la justesse de ses réponses. Des sites comme WebRankinfo sont consacrés à ce sujet. Comme le dit la présentation de ce site :

« Si le moteur de recherche Google est sorti du lot et a devancé les stars d'hier (Altavista et Yahoo!), c'est parce qu'il a réussi ces 2 challenges :

  • indexer le plus de documents possible, rapidement

  • présenter des résultats triés, les plus pertinents en premier. »

J'ai bien sûr la même expérience, et le jour où j'ai découvert Google, je n'ai quasiment plus jamais utiliser les Altavista, Hotbot ou Lycos. A cause de la pertinence des réponses, bien sûr, mais aussi et peut-être surtout à cause de la rapidité. Il faut se souvenir du milliard de popups, et de la lenteur de mauvaises réponses que l'on avait avant, pour avoir apprécier instantanément le dépouillement et la vitesse de Google. Autrement dit, la qualité de services, chez Google, c'est le résultat, mais jamais ils n'ont oublié ou négligé la qualité technique de l'infrastructure.

Il suffit de se souvenir du pitoyable lancement du geoportail pour comprendre comment on peut saboter d'entrée un service, si l'infrastructure technique n'est pas à la hauteur.

Le SLA chez Google, c'est ça:

 

Résultats 1 - 10 sur un total d'environ 268 000 000 pour Web 2.0. (0,10 secondes) 


0,10 secondes de temps de réponse, et une disponibilité de 100%. Pas 99,9, pas 99,99999 (les fameux cinq 9) , c'est 100%. L'architecture technique de Google est entouré d'un silence quasi brejnevien. On parle de centaines de milliers de serveurs, on imagine aussi des processus d'entreprise et des équipes techniques du plus haut niveau. Comme quoi, on a beau être le modèle même du Web 2.0, il y a des choses qu'on garde pour soi. L'algorithme détaillé, comme l'architecture technique de Google sont sans doute parmi ses secrets les mieux gardés. C'est l'occasion de faire un peu de pub pour ma maison puisqu'il semblerait bien qu'ils soient en train de migrer vers nos nouveaux processeurs Sun Niagara (Serveurs T2000).

Le SLA c'est Google!

L'objectif est donc fixé. La qualité de services à laquelle nous sommes habitués, c'est 100%. Je peux me connecter à Google n'importe où, à n'importe quelle heure. C'est devenu ma norme de travail, et de confort!

Une DSI aujourd'hui, c'est un coût, des facilités (facilities), presque jamais de la valeur ajoutée. De toutes façons, on ne sait pas la calculer. Un coût c'est tellement plus facile, et la gestion par les coûts aboutit à ce service d'une qualité si médiocre qu'il décourage ses utilisateurs.

Si l'on veut que les investissements, lourds, et les coûts de fonctionnement, encore plus lourds, soient utilisés, il serait temps d'aligner le SLA dans l'entreprise au SLA à la maison. L'utilisateur est habitué à cette qualité de services 100% quand il rentre chez lui.


Quand il dépose une photo ou une vidéo sur son site préféré, il s'attend à ce que ça marche, et ça marche. De toutes façons si ça ne marche pas, il va ailleurs. Dans l'entreprise, c'est pareil. Aller ailleurs n'est pas toujours simple. Sous utiliser, mal utiliser ou refuser les outils de l'entreprise, on le voit tous les jours!!

Et si la qualité de services informatiques devenait un des premiers critères pour attirer les meilleurs, pour améliorer la productivité, ou plutôt ...pour la rendre possible.


26/09/2006

ThinkFree et les autres

Un comparatif très intéressant de « online word processors » est paru récemment sur linux.com .

J'ai déjà parlé de Writely dans une publication précédente. L'étude de Linux.com confirme ma première analyse, en élargissant l'étude à d'autres éditeurs. Mes propres tests arrivent aux mêmes conclusions: Dans l'état actuel de ces outils, je ne peux pas me passer d'une suite bureautique, résidente sur le PC.

Tous ces éditeurs en ligne, dont il est question dans cette étude, peuvent être utilisés pour de la communication de type messagerie, ou publication blog. Un document plus élaboré, avec table des matières, chapitres, schémas et quelques styles simples de paragraphe, ne peut pas être crée ni même édité avec ces outils. Seul, Think Free pourrait éventuellement être utilisé. Il représente sans doute le compromis le plus abouti entre ce type d'outillage réseau, forcément moins riche, tout en proposant un minimum de fonctionnalités.

Dommage, d'un point de vue architectural, que ces outils ne progressent pas. Mais il est vrai que l'alternative à Microsoft est connue depuis longtemps avec l'ensemble des outils et des méthodes de migration vers OpenOffice.

20/09/2006

L'avenir de la wikipédie : Suite

Dans la série wikipédique, Larry Sanger, le co-fondateur avec Jimmy Wales de Wikipedia, lance un nouveau projet : le Citizendium. Pour résumer cette longue déclaration liminaire, en voici les points clé, qui commencent par une critique de l'évolution de Wikipedia:

  • Wikipedia devient une communauté enfermée dans des conflits de personnes

  • En n'intégrant pas de manière plus volontariste les contributions d'experts reconnus, Wikipedia se condamne à un amateurisme définitif

  • Larry Sanger ne croit pas que la communauté ait la volonté de lutter contre ces dérives

En conséquence, Larry Sanger propose de créer une nouveau projet : le Citizendium. Ce projet se bâtira par l'import du contenu de Wikipedia, et par la mise en oeuvre d'une nouvelle politique éditoriale plus « professionnelle »:

  • Une définition claire du rôle d'éditeur, qui arbitre les contributions des différents auteurs

  • Des auteurs identifiés par leur vrai nom (pas de pseudonymes ni de faux-nez)

  • Une réglementation beaucoup plus stricte contre les parasites et perturbateurs, gérée par une police interne (les constables) : « Constables will rapidly eject the project's inevitable, tiresome trolls, without going through a long, painful process of the sort Wikipedia suffers under--which it euphemistically calls its "arbitration" process »

  • Une simplification et une épuration du contenu. La non-inclusion de recherches originales, sans références reconnues, continuera à être la règle.

Il n'y a pas besoin d'être grand psychologue, pour lire entre les lignes le dépit de Larry Sanger par rapport au projet Wikipedia, qui lui a échappé, et dont toute la renommée profite à son ex-associé Jimmy Wales. Il lance donc un nouveau projet dont il entend bien rester l'inspirateur. La politique éditoriale qu'il propose a bien des côtés séduisants. Il suffit d'aller voir les comptes-rendus d'arbitrage comme celui-ci entre Descartes et JB. En voici un court extrait:

  • Votes suspects: Le vote de Schtong sur la PaS à de très fortes présomptions d'être un double-vote.

  • Requête en faux-nez: J'ai déposé une requête en vérification d'IP concernant JB et Schtong.

Le double vote de Schtong et les requête en faux-nez... on comprend que Larry Sanger veuille mettre un peu d'authenticité dans cette ménagerie de « Brejnev », « Le Gorille », ou « La Cigale », tous pseudos que l'on peut trouver au hasard dans la wikipédie française. La manie du pseudo est d'ailleurs un des virus les plus imbéciles de la communication sans visage.


En tant qu'inclusionniste, voir mon article précédent, je regrette que Larry Sanger préconise une politique aussi stricte de qualification des sujets. Il ne me paraît pas contradictoire de concilier la politique éditoriale qu'il propose, avec une ouverture vers un contenu toujours plus large.


Ce projet mériterait d'être tenté parce qu'il est devenu possible. Par nature, les encyclopédies anciennes se trouvaient limitées par leur support papier, et par leurs coûts de fabrication. Aujourd'hui une wikipédie peut techniquement supporter une extension sans limites de son contenu. La longue traîne a montré toute la fécondité de ces petits marchés non exploitées auparavant.

Pourquoi ne pas tenter un encyclopédie sans limite, interminable par nature, toujours enrichie, où mon grand-père a sa place à côté du Général De Gaulle. Je suspecte et j'espère des effets inattendus de cet énorme agglomérat de connaissances où l'expertise la plus pointue serait mêlée à la connaissance du « vulgaire ».

12:56 Publié dans Wikipedia | Lien permanent | Commentaires (0)

18/09/2006

L'avenir de la wikipédie

Depuis que l'on parle de Web 2.0, Wikipedia est régulièrement cité comme emblème de la sagesse des foules. Le fameux article de Nature comparant Wikipedia et l'Encyclopaedia Britannica a démontré les qualités de ce travail collaboratif.

Les enjeux autour d'une encyclopédie ou d'un dictionnaire sont loin d'être anodins. Il suffit de penser à la récente polémique autour de la définition de la colonisation. entre le CRAN et le Petit Robert. Le CRAN (Conseil Représentatif des Associations Noires) demandant carrément le retrait à la vente du dictionnaire.

Chez Wikipedia, l'affaire est liée au concept d'Enterprise 2.0 qui est entré, puis sorti de Wikipedia. Il est re-rentré de nouveau; tout l'historique est sur le blog d'Andrew MacAfee, qui est le créateur du concept . L'affaire est maintenant devenue plus globale et marque le moment où des choix devront être faits quant à l'orientation de cette encyclopédie.

Suivant ses principes fondateurs, Wikipedia n'est pas un lieu de publication pour des travaux inédits. Autrement dit, Wikipedia n'accepte de nouveaux concepts comme Enterprise 2.0 que s'ils peuvent être considérés comme étant déjà bien reconnus. La question de la reconnaissance renvoie à la notion de compétences acceptées et établies. Elle renvoie aussi à un critère d'importance, et de ce qui peut rentrer dans Wikipedia, contre ce qui n'a rien à y faire.

Toujours suivant ces principes fondateurs, le point de vue doit être neutre et s'appuyer sur des sources vérifiables qui font autorité. Cet idéal d'objectivisme est combattu par les inclusionnistes qui considèrent que toute information peut avoir son intérêt dans une encyclopédie de ce type, et que si Paris y a sa place, pourquoi pas mon village natal : Valframbert. Les exclusionnistes veulent conserver l'esprit fondateur et refuse de transformer Wikipedia en un fourre-tout sans aucune notion de priorité ou d'importance.

Voilà un vieux débat qui resurgit, où les choix ne se limitent pas au contenu, mais aussi à la dimension, en taille et nombre de lignes des entrées, et bien sûr aux critères d'inclusion.

Alors Wikipedia, est-il vraiment l'emblème du Web 2.0, celui où tout le monde participe et tout le monde a sa place? La participation est clairement assurée jusqu'à générer des vives polémiques. Le contenu est pour l'instant réglementé. Pourtant si l'on considère toute la puissance du concept de Long Tail, il y aurait tout intérêt à considérer une politique clairement inclusionniste, et si j'ai la bonne idée de vouloir passer mes vacances à Valframbert., j'aimerais trouver une entrée wikipédique tout autant que pour n'importe quel site plus réputé.

11/09/2006

Network Computer : Le retour

Pour un ancien de Sun comme moi, la situation actuelle a bien des côtés savoureux. On n'insistera pas sur le slogan fondateur “The Network is the Computer” qui se concrétise sous nos yeux de jour en jour.

Je voudrais revenir sur cette idée de la fin des années 90 lancée à la fois par Larry Elison et Scott McNeally, le Network Computer . Dans leur rage (haine??) commune contre Microsoft, ils crurent trouver l'arme fatale.

  • Pourquoi payer 1000 Euros ou plus un PC dont on n'utilisera que 10% de la puissance

  • Pourquoi engraisser les comptes de MicroSoft avec une suite bureautique dont on n'utilise aussi que 10% des fonctionnalités

  • Pourquoi stocker en local plusieurs dizaines de Go toujours à la merci de la première panne disque, et quasiment jamais sauvegardés.

 

La tentative a fait long feu, faute de logiciels adaptés et surtout d'une bande passante réseau suffisante. L'idée de ce Network Computer reste tout à fait intéressante, mais comme d'habitude, les bonnes idées, pour être acceptées doivent arriver au bon moment, ni trop tôt, ni trop tard.

Est-ce maintenant le bon moment? La bande passante est là (en tous cas pour ceux qui peuvent accéder à l'ADSL), et les outils arrivent. Ils sont déjà là, chez Google évidemment, qui a mis la main sur Writely et développe son propre tableur spreadsheets.google.com.

Le principal intérêt de ces deux outils réside dans la possibilité de collaboration. Il y a là une vraie avancée, par rapport aux pratiques actuelles de jeu de ping-pong par Email, d'envoi et de renvoi du même document modifié à chaque fois, si bien que plus personne ne s'y retrouve.

 

D'un point de vue de l'utilisation personnelle disons-le tout de suite, ces utilitaires ne sont pas au niveau. Je me considère comme un utilisateur lambda de ce type d'outil, mais néanmoins j'utilise au quotidien des fonctionnalités comme:

  • Des titres et des sous-titres numérotés (1, 1.1, 1.1.1)

  • Quelques styles de paragraphes

  • Génération de table des matières

Je ne retrouve rien de tout cela sous Writely qui s'apparente à un Notepad sur le réseau. Je ne doute pas qu'il soit possible techniquement d'amener un peu plus de fonctionnalités dans ces outils. Pour le moment, je constate peu d'investissements réels.

Une fois encore, Nicholas Carr, dans cet article émet une hypothèse que je partage. Google ne fera pas l'erreur de trop de précédents rivaux de Microsoft. Il n'ira pas se battre sur un terrain archi-dominé par le géant de Redmond. Pour l'instant, il pose ses pions avec un outil sur le réseau qui permet de charger et de sauvegarder aux formats Office de MicroSoft et de Open-StarOffice.

 

Au delà d'une bataille qui n'aura sans doute pas lieu, la vraie question réside dans la localisation des données.

Pour l'instant, les utilisateurs personnels n'hésitent pas à confier leur données personnelles à MySpace, DailyMotion ou Flickr , pour ne citer que les plus connus. Jusqu'à quel degré d'intimité cela va-t-il, personne n'en sait rien. Toujours Scott McNeally dès 1999: “You already have zero privacy. Get over it".

 

En ce qui concerne les données de l'entreprise, les données commerciales ne sont pas près de basculer. L'excellent Louis Naugès a signalé l'initiative CleverSafe. Il termine son analyse par cette affirmation : Savoir que données, textes, voix et multimédia peuvent être stockées sur Internet ou sur un Intranet distribué, avec la meilleure garantie possible en termes de sécurité ne peut qu’accélérer le basculement vers des solutions Web 2.0. Et de conclure que cela deviendra très vite la solution la plus sécurisée du marché. D'un point de vue purement technique, il est possible que des solutions de ce type atteignent des niveaux de service comparables à des solutions purement locales.


Et alors? Si je suis le DSI de Renault, ou d'Airbus, aurais-je la candeur de déposer mes données industrielles sur un site dont je ne peux pas garantir personnellement la confidentialité. Je veux bien croire à la bonne volonté du fondateur Chris Gladwin.

Il n'en reste pas moins :

  • que tout algorithme est fait pour être craqué,

  • que la compétition existe encore,

  • que les enjeux industriels et financiers sont trop importants

  • et que le contrôle physique des données reste encore la meilleure garantie contre la curiosité des concurrents.

 

Rien de stratégique, ni de confidentiel ne transite par Mail ou par téléphone, crypté ou non, 2.0 ou plus.

Les données stratégiques resteront, avec raison, sous le contrôle local de ceux qui les possèdent et qui en sont responsables.

 

06/09/2006

Du lien vers les skyblogs

C'est entendu, la France est une terre de blogs. Dans les statistiques de mars ,  la moitié d'entre eux sont des skyblogs.

Le moins qu'on puisse dire, c'est qu'il n'y a pas grand chose à voir entre cette moitié de skyblogs et les autres. Sur Skyblog, des albums de photos personnelles et des commentaires en style SMS, par exemple, thevip95 ou celui d'Antoine692 .

Ce n'est pas par hasard, que j'insère ici ces liens. La coupure entre les blogs "sérieux", "professionnels" et les skyblogs crève les yeux. Il n'y a justement pas de liens entre ces deux mondes. Ces deux là feront une petite exception.

Le blog "sérieux"

  • n'est pas sur skyblog,

  • n'est pas sur MSN Spaces non plus, d'ailleurs,

  • doit contenir au moins 50 hyperliens par publication,

  • est écrit en bon français, avec un minimum raisonnable de fautes d'orthographe,

  • est une arme dans la compétition à la notoriété professionnelle et au bon pagerank,

  • reste professionnel, respecte la nétiquette,

  • diffuse un profil, et reste secret sur la vie privée.

 

On retourne toute ces caractéristiques pour qualifier un skyblog,  Je ne parle pas des contenus de chacun, ils sont évidemment différents, mais ce n'est pas le plus important.

 

Autant les blogs professionnels, n'arrêtent pas de créer du lien, parfois jusqu'à la caricature , autant les skyblogs ne rentrent pas dans ce jeu là. Il faudrait faire une étude plus exhaustive, mais faites un échantillon par vous-mêmes, vous ne trouverez pas d'hyperliens.

 

Le skyblog ne cherche absolument pas à être visible, et se moque pas mal des outils de recherche. De toute façons, komen gougueul pouré 6rtrouvé.

 

L'essence même du Web (2.0 ou non), le lien et le référencement, est absente. C'est autre chose, qu'il ne s'agit sûrement pas de dénigrer, mais compter et ajouter ces deux medias, dans un même tableau, paraît bien trompeur.

En tous cas, on aurait  tort de se réjouir trop vite des 9 millions de blogs recensés en France. La moitié ne parle pas avec l'autre.... Comme avant les blogs, ou pire encore?

 

 

 


14:40 Publié dans Blog, Société, Web | Lien permanent | Commentaires (0)

04/09/2006

Présentation

Au programme de ce grain de sel 2.0, ma contribution aux discussions relatives à cette nouvelle manière d'exploiter les technologies de l'information. Autrement dit, depuis quelques mois, je m'intéresse à cette nouvelle sphère, à ces nouvelles pratiques que l'on regroupe dans le monde 2.0. Par là je veux dire qu'il ne s'agit pas que du web, et que l'aspect social voire politique de ce mouvement m'intéresse autant, sinon plus, que les techniques employées.

Il se trouve que je suis également informaticien, chez l'acteur qui a sans doute le plus profité, puis le plus souffert, de la première vague Internet. Vous savez, celle qui s'est transformé en bulle. C'est dire ma méfiance face à ce type de phénomène. Sun MicroSystems est donc mon employeur, et selon la formule rituelle :

Je travaille chez Sun MicroSystems. Les opinions exprimées ici ne sont que les miennes et ne sauraient engager Sun ou tout autre entité.

Ne voulant pas me limiter à des sujets purement techniques, j'ai choisi de publier avec blogspirit plutôt que sur l'espace de blogs de Sun .
Chez Sun je m'occupe de présenter, construire et proposer des architectures techniques. Pas grand chose à voir, en première analyse, avec ce Web 2.0, puisque les architectures sur lesquelles je travaille sont principalement destinées à exécuter du SAP. Dimensionnement des serveurs, logiciels d'infrastructure, systèmes de haute disponibilité, ou de DRP, c'est donc la machinerie technique que l'on ne doit pas voir qui occupe la majorité de mon temps professionnel. J'aurais surement l'occasion de parler aussi de ces technologies, même si SAP est parfois classé dans la catégorie des dinosaures.
Pour ma part je caractériserais le Web 2.0, par les points suivants, et dans l'ordre d'importance:

- Le Web 2.0 est une utilisation en lecture/écriture du Web
- Chacun tire partie de l'intelligence collective
- Des services logiciels disponibles sur le réseau, tout le temps et partout, en perpétuelle évolution
- Un modèle économique basé sur le phénomène de Long Tail, ou comment vendre beaucoup, de produits peu demandés
- La fin programmée du l'exclusivité du PC et des logiciels connexes
- Des nouveaux modèles d'architecture et de développement (Ajax, REST, et pleins d'autres)

Pour conclure cette présentation rapide, l'Internet c'est du lien. Voici ceux qui m'ont guidé récemment dans la présentation de ce Web 2.0.
On commence par Le texte fondateur de Tim O'Reilly traduit ici en français. Andrew MacAfee a introduit la notion d'enterprise 2.0 pour en tirer certaines conséquences, et voir si ces techniques peuvent être importées "derrière le Firewall". Louis Naugès manque parfois de nuances, mais pointe souvent vers de bonnes informations. Assez paradoxalement, c'est chez Microsoft, dans un article de Michael Platt que j'ai trouvé une des meilleures analyses du sujet. Du côté de ceux qui sont plus sceptiques Nicholas Carr est surement le plus percutant.
Naturellement, l'emblème de ce phénomène c'est Google (Faut-il vraiment y associer un lien??) dont la dernière actualité est bien inquiétante Google vous écoute!!. Ca confirme en tous cas que son vrai métier et sa vraie ambition est de devenir une agence de pub planétaire.

16:10 Publié dans Web | Lien permanent | Commentaires (0)