Pour une performance durable du cloud...

61
En collaboration avec LIVRE BLANC Pour une performance durable du cloud computing Version 1 10/2010 FRANCE

Transcript of Pour une performance durable du cloud...

Page 1: Pour une performance durable du cloud computingcluster006.ovh.net/.../Qostic6/AHQ-56-05-CloudComputing_Livre_Bla… · à Dallas, il avait défini le cloud comme étant « un ...

En collaboration avec

LIVRE BLANC

Pour une performance durable du cloud computing

Version 110/2010

F R A N C E

Page 2: Pour une performance durable du cloud computingcluster006.ovh.net/.../Qostic6/AHQ-56-05-CloudComputing_Livre_Bla… · à Dallas, il avait défini le cloud comme étant « un ...

2

Page 3: Pour une performance durable du cloud computingcluster006.ovh.net/.../Qostic6/AHQ-56-05-CloudComputing_Livre_Bla… · à Dallas, il avait défini le cloud comme étant « un ...

3

07

41

21

49

60

SommaireLe cloud computing : où en est-on ?

Les conditionsde son développement

Retours d’expériences

Les perspectives

À vos commentaires !

Page 4: Pour une performance durable du cloud computingcluster006.ovh.net/.../Qostic6/AHQ-56-05-CloudComputing_Livre_Bla… · à Dallas, il avait défini le cloud comme étant « un ...

4

Page 5: Pour une performance durable du cloud computingcluster006.ovh.net/.../Qostic6/AHQ-56-05-CloudComputing_Livre_Bla… · à Dallas, il avait défini le cloud comme étant « un ...

5

Pour une performance durable du cloud computingSelon une récente étude menée Par la Société Brocade, 60 % deS grandeS entrePriSeS enviSagent une migration verS le cloud comPuting d’ici 2012, et ce eSSentiellement Pour réduire leS coûtS, gagner en agilité et flexiBilité.

Pour IDC, seulement 21 % de ces mêmes entreprises exploiteront seules leurs infrastructures. 60 % des DSI utiliseront des technologies liées au cloud computing, souvent comme M. Jourdain : « sans le savoir » !

Ainsi, la quasi-totalité des études européennes et mondiales convergent vers l’aspect inéluctable de cette évolution. Aujourd’hui, peu de DSI doutent encore des bienfaits des modèles SaaS et IaaS pour les applications importantes, mais pas totalement critiques. Compte tenu des enjeux actuels, les frontières de l’informatique se déplacent vers l’hégémonie des

facteurs économiques au détriment des limites techniques. Il subsiste cependant d’énormes freins sur les notions de sécurité, de performance et de disponibilité pour les applications à très grande criticité.

Pour celles-ci, la réponse actuelle réside dans le cloud privé où le contrôle de la qualité de service reste en théorie plus simple. Mais cela reste insuffisant. Seule la vision de l’utilisateur (Quality of Experience) permet de connaître la réelle disponibilité et la performance d’accès aux services. Certains fournisseurs de cloud annoncent des engagements de 99,5 %. Comment sont-ils

mesurés ? Par qui ? Est-il possible d’être juge et partie ?

La raison d’être de ce livre blanc est de donner un éclairage sur l’état de l’art actuel des offres, et quelques règles de succès permettant de démarrer ou d’accélérer sa migration vers le cloud computing. Nous avons pour cette raison souhaité nous mettre résolument du côté du DSI en privilégiant la vision de l’utilisateur.

Éric VarszegiPrésidentd’ip-label.newtest

édito

Page 6: Pour une performance durable du cloud computingcluster006.ovh.net/.../Qostic6/AHQ-56-05-CloudComputing_Livre_Bla… · à Dallas, il avait défini le cloud comme étant « un ...

6

D’ici 2013, les investissements mondiaux en cloud computing

afficheront une croissance moyenne annuelle de 25 %.”

Page 7: Pour une performance durable du cloud computingcluster006.ovh.net/.../Qostic6/AHQ-56-05-CloudComputing_Livre_Bla… · à Dallas, il avait défini le cloud comme étant « un ...

7

Qu’est-ce que le cloud computing ?

« Modèle de mise à disposition simple et à la demande de ressources informatiques partagées et configurables (par ex. des réseaux, serveurs, systèmes de stockage, applications et services). Ces ressources peuvent ainsi être fournies et libérées rapidement, avec très peu de travail administratif ou d’interactions avec le fournisseur de services. » Telle est la définition officielle du cloud computing fournie par le North American National Institute for Standard and Technology (NIST). Une définition toutefois très technique qu’il convient de clarifier.

Au-delà de l’aspect technique

L’origine du terme cloud computing, littéralement « informatique dans les nuages », revient à un universitaire américain, le professeur Ramnath K. Chellappa. En 1997, lors de la conférence Informs

à Dallas, il avait défini le cloud comme étant « un paradigme informatique dans le cadre duquel les frontières de l’informatique seront déterminées par des facteurs économiques plutôt que par des limites techniques ». Une définition qui a le mérite d’ouvrir le cloud computing à la notion de modèle économique et de s’éloigner du strict cadre technique.

Vers une uniformisation de plus en plus poussée

En soi, le modèle de cloud computing n’est pas si récent. Il résulte des évolutions technologiques qui, depuis quelques années, ont poussé à l’industrialisation progressive des services métier : architecture orientée services (SOA), virtualisation, web 2.0… L’Internet public a fait ses preuves en termes de fiabilité et de qualité de travail. Le cloud computing semble donc répondre parfaitement aux besoins des entreprises en matière de réduction des

face à la comPlexité croiSSante deS technologieS ainSi qu’aux BeSoinS SanS ceSSe PluS imPortantS deS entrePriSeS de réduire leurS coûtS, d’améliorer leurS PerformanceS et de tranSformer leurS métierS en chaîneS de ServiceS, le cloud comPuting SemBle, à terme, une Solution inéluctaBle. cePendant, il recouvre de nomBreuSeS réalitéS qu’il imPorte d’éclairer Pour favoriSer une meilleure comPréhenSion deS BénéficeS et deS PointS d’omBre de ce nouveau modèle d’informatique à la demande.

le cloud computing :où en est-on ?

Page 8: Pour une performance durable du cloud computingcluster006.ovh.net/.../Qostic6/AHQ-56-05-CloudComputing_Livre_Bla… · à Dallas, il avait défini le cloud comme étant « un ...

8

coûts, de disponibilité et d’agilité, et constitue l’aboutissement des services web.

Le cloud computing représente donc un nouveau modèle de fourniture et de gestion des services informatiques, reposant sur une infrastructure partagée, externalisée et « abstraite » qui allouent les ressources dynamiquement en fonction des besoins réels. Désormais, la relation homme-machine se trouve profondément modifiée. Une telle approche bouleverse les méthodes de travail et le traitement de l’information.

Le cloud computing, « l’électricité » de l’entreprise

Les entreprises ont plus que jamais besoin d’optimiser les compétences de leurs collaborateurs, véritable valeur ajoutée pour leur activité, et d’aligner leurs métiers sur leurs objectifs critiques. À la clé : l’amélioration de leurs performances et l’accélération de leur croissance sur des marchés fortement concurrentiels. C’est pourquoi elles cherchent de plus en plus à libérer des ressources internes et à transformer leur direction informatique en centre de services. Le système d’information devient alors le cœur de la chaîne de valeur des services. Or, pour cela,

L’évOLUTION DU MARChé

Les entreprisent cherchentà transformer leur DSI

en centre de services.”

DÉfinition officieLLe Du cLouD comPuting PAR Le niSt« Ce modèle favorise 

la disponibilité 

et comprend 

cinq principales 

caractéristiques (libre-

service à la demande, 

accès étendu au réseau, 

mutualisation des 

ressources, élasticité/

mise à l’échelle rapide, 

service mesuré), trois 

modèles de service 

(Software as a Service, 

Platform as a Service 

et Infrastructure 

as a Service) et 

quatre modèles de 

déploiement (cloud 

privé, communautaire, 

public ou hybride). »

www.nist.gov

Page 9: Pour une performance durable du cloud computingcluster006.ovh.net/.../Qostic6/AHQ-56-05-CloudComputing_Livre_Bla… · à Dallas, il avait défini le cloud comme étant « un ...

9

il faut faire évoluer la DSI en conséquence. Le cloud computing, dans ce sens, constitue une nouvelle énergie informatique de l’entreprise.

À l’image de l’électricité aujourd’hui produite et distribuée par des fournisseurs – alors que chacun possédait son propre groupe électrogène au début du siècle – pourquoi l’informatique ne serait-elle pas fournie à son tour par des spécialistes externes ?

La segmentation des offres de cloud computing

Le concept de cloud computing n’est pas un phénomène aussi récent que l’on pourrait le penser. Nombre d’entreprises, sans même en avoir conscience, y ont recours depuis de nombreuses années, notamment pour leurs applications. La virtualisation et l’automatisation ont aujourd’hui bien pénétré les systèmes d’information et la réduction conséquente des coûts d’exploitation qu’elles entraînent ont su convaincre les entreprises. En 2010, plus de 66 % des entreprises recourent à l’externalisation de tout ou partie de leur système d’information.

Le cloud d’applications - Softwareas a Service (SaaS)

Le SaaS constitue en effet une pratique courante pour les entreprises qui y voient un moyen efficace de réduire leurs coûts d’exploitation. Les

éditeurs se sont adaptés et proposent désormais leurs solutions en mode SaaS. Le modèle s’avère parfaitement transparent pour l’utilisateur qui n’a besoin que d’un simple accès web pour accéder à l’application. De plus, compte tenu de la maturité des offres et du marché du SaaS, un nombre croissant d’entreprises optent non plus pour de simples applications en ligne mais pour de véritables services comme le CRM ou le travail collaboratif. Gartner affirme ainsi qu’en 2010, 95 % des entreprises vont maintenir voire accroître leur usage du SaaS pour leurs applications. Le SaaS semble dès lors être la porte d’entrée pour le PaaS et l’IaaS dans les entreprises. En effet, le recours au SaaS rassure souvent les décideurs qui envisagent alors avec plus de sérénité d’externaliser leurs plates-formes et leurs infrastructures.

Indéniablement, les solutions hébergées ont le vent en poupe, certains y trouvant une réponse au contexte économique actuel. Souple, modulable

Applications

Runtimes

Intégration SOA

Bases de données

Logiciel serveur

Virtualisation

Matériel serveur

Stockage

Réseaux

Modèleclassique

•••••••••

IaaS

•••••••••

PaaS

•••••••••

SaaS

•••••••••

L’entreprise Le fournisseur cloud

IAAS, PAAS, SAAS : QUI MAINTIENT QUOI ?

Page 10: Pour une performance durable du cloud computingcluster006.ovh.net/.../Qostic6/AHQ-56-05-CloudComputing_Livre_Bla… · à Dallas, il avait défini le cloud comme étant « un ...

10

et réversible, la location d’applications hébergées présente des atouts décisifs par rapport au modèle classique de licences. Parmi les avantages les plus appréciés, on trouve la sécurité de l’infrastructure, la maîtrise du budget, la réduction des coûts de maintenance et la visibilité offerte sur le système d’information. Les DSI peuvent désormais se concentrer sur la dimension stratégique de leur métier. Les éditeurs se sont alors rapidement adaptés à cette nouvelle donne pour proposer leurs logiciels en mode SaaS et les adapter aux offres des différents hébergeurs. Aujourd’hui, les principaux acteurs du marché sont représentés par Cegid (Yourcegid On Demand), Salesforce.com (AppExchange), Microsoft (Live.com), webEx (Connect) et Google (Google Apps).

Autre atout et non des moindres : un modèle tarifaire clair et éprouvé établi sur le paiement à l’usage. Ainsi, l’avènement du cloud computing incite de plus en plus les fournisseurs de services en ligne à proposer une tarification en fonction de la durée d’utilisation du service, même si certains imposent dans leurs contrats une redevance minimale. Néanmoins, ces modèles tarifaires demeurant flous et sans possibilité de suivi (tableau de bord), il reste

difficile d’établir avec précision un plan budgétaire mensuel, voire annuel, ce qui n’incite pas les directions financières à franchir le pas.

Le cloud de plate-forme – Platformas a Service (PaaS)

Le PaaS constitue sans doute la véritable révolution en matière de gestion de l’informatique d’entreprise, d’autant que l’offre n’en est qu’à ses balbutiements. Le fournisseur externe met à disposition de l’entreprise cliente une plate-forme pour développer et déployer les applications et services souhaités, ainsi que l’infrastructure adéquate pour accueillir les futures applications. Les développeurs internes doivent travailler avec les outils (bases de données et studios de développement) fournis par l’hébergeur et s’adapter aux exigences et aux contraintes qu’ils imposent.

L’intérêt majeur pour les entreprises, outre le fait de confier la gestion de leurs applications à un prestataire externe et de « soulager » ainsi leur DSI, est de bénéficier d’un ensemble de services associés (hébergement, intégration technique, contrôle de disponibilité, persistance de données…), qui garantissent un certain niveau de performances, sans toutefois pouvoir le mesurer précisément. Le marché du PaaS est un marché d’avenir. À l’heure actuelle, peu d’acteurs se sont positionnés mais Google et Microsoft proposent déjà des offres abouties qui font référence.

• google App engine propose un environnement de développement d’applications web intégré

focuS • Les datacenters traditionnels sont, en moyenne,

utilisés à hauteur de 15 % de leur capacité.• Les datacenters virtualisés sont, quant à eux,

utilisés à environ 40 % de leur capacité.• en mode cloud computing, ce taux d’utilisation

passe par définition à presque 100 %.

Page 11: Pour une performance durable du cloud computingcluster006.ovh.net/.../Qostic6/AHQ-56-05-CloudComputing_Livre_Bla… · à Dallas, il avait défini le cloud comme étant « un ...

11

identique à celui des applications Google. Mais l’entreprise américaine a récemment pris conscience que sa plate-forme ne correspondait pas suffisamment aux besoins des entreprises. App engine for Business constitue une offre professionnelle incluant une console d’administration centrale destinée à gérer l’ensemble des applications d’une entreprise, un support technique et une disponibilité annoncée de 99,9 %. Il est également possible d’accéder aux applications métier via une politique de sécurité préalablement établie. en savoir plus : http://code.google.com/intl/fr-fR/appengine

• microsoft Windows Azure équivaut à un système d’exploitation qui s’exécute dans le cloud. Il repose sur plusieurs composants : Windows Azure, SQL Azure, le connecteur AppFabric et Microsoft Codename Dallas, qui introduit la notion de DaaS, Data as a Service (voir p.12). L’offre fournit des services d’exécution, de stockage et de communication. Microsoft déclare, au lancement de son offre, des taux de disponibilité de 99,95 % sur Windows Azure et de 99,9 % (taux de transaction) sur Azure Storage. Les développements sont réalisés sous visual Studio. en savoir plus : www.microsoft.com/windowsazure

Toutefois, aucun de ces fournisseurs ne propose de tableau de bord objectif, c’est-à-dire établi par un tiers de confiance, pour mesurer véritablement les performances, le niveau de sécurité, les coûts… Il n’est donc pas possible à l’heure actuelle de garantir les taux de disponibilité annoncés.

Le cloud d’infrastructure – infrastructure as a Service (iaaS)

L’IaaS, préalablement appelée Hardware as a Service, est un modèle de services établi sur une infrastructure accessible via le web, incluant par exemple des capa-cités de stockage ou de traitement supplémentaires et la bande passante nécessaire. Ce système requiert une connexion réseau de haute qualité. L’entreprise peut ainsi bénéficier d’une puissance supérieure en fonction des besoins ou des demandes internes, afin d’effectuer par exemple des tests temporairement sur un serveur. L’IaaS est une infrastructure allouée à la demande, basée soit sur du matériel physique, soit sur du matériel virtualisé. Les avantages que le modèle offre en termes de flexibilité, de souplesse, de capacité d’évolution… intéressent nombre d’entre-prises, d’autant que les offres de virtualisation sont aujourd’hui particulièrement matures.

De plus, la réduction des coûts énergétiques engendrée par l’IaaS incite de plus en plus les organisations informatiques, très sensibilisées au green IT, à s’interroger sur la pertinence d’une telle solution. Pour hP, par exemple, le cloud computing est ainsi devenu un axe stratégique. L’activité cloud présente la répartition suivante : 80 % pour l’IaaS, 10 % pour le PaaS et 10 % pour le SaaS. Les attentes sont fortes et l’IaaS devrait connaître une croissance à deux chiffres d’ici 2013. Les entreprises y voient le moyen de simplifier et d’optimiser leur infrastructure, de diminuer leurs investissements en matériels et logiciels, et surtout de ne payer que ce qu’elles utilisent réellement.

Sur le marché, une offre prédomine et retient particulièrement l’attention des entreprises :

L’IaaS devrait connaîtreune croissance à deux

chiffres d’ici 2013.”

Page 12: Pour une performance durable du cloud computingcluster006.ovh.net/.../Qostic6/AHQ-56-05-CloudComputing_Livre_Bla… · à Dallas, il avait défini le cloud comme étant « un ...

12

EC2 d’Amazon (ou Amazon Elastic Compute Cloud). Cette offre de services web a été conçue pour faciliter le travail des développeurs. Elle permet de réajuster la capacité allouée en fonction des besoins. Parmi les fonctionnalités annoncées par Amazon, figurent l’élasticité de la capacité fournie, le contrôle sur les applications virtualisées (sous Linux, Windows ou Solaris), la flexibilité, le haut niveau de fiabilité et de sécurité avec trois modes tarifaires différents. L’un des principaux intérêts réside en la possibilité de pouvoir choisir la localisation géographique de son infrastructure. Un réel plus pour les DSI souvent inquiets de ne pas savoir exactement où se situent leurs données une fois qu’elles sont « dans le cloud ». Ils ont la possibilité de choisir la région, même si en cas d’incident dans un datacenter, le fournisseur se garde le droit de migrer la structure ailleurs. en savoir plus : http://aws.amazon.com/ec2

Le cloud de données – Dataas a Service (DaaS)

L’idée est de mettre à disposition dans le cloud des données structurées, accessibles en toute sécurité via des protocoles standardisés. Ainsi, n’importe quel service peut consommer ces données, à l’image de tout service web. La consommation est soit gratuite, soit payante. Chaque éditeur de données propose son modèle économique. Microsoft base son service sur son offre Azure. D’autres entreprises se sont positionnées, comme StrikeIron, Jigsaw, Postcode Anywhere, TheWebService ou Caspio. Ces cinq offres, toutes différentes, se révèlent plus ou moins adaptées en fonction des besoins précis des développeurs. L’intérêt du DaaS est de proposer des tarifs faibles pour intégrer des données dans l’application de l’utilisateur final.

En 2013, les dépensesen cloud représenteront

10 % des investissements mondiaux.”

offre très mature sous forme de virtualisation (Vmware), technologies bien maîtrisées• Les + : maîtrise de l’IT, mutualisation de l’énergie, de l’espace, de la climatisation• Les - : gestion des équipes IT en interne avec différents métiers, 24h/24 sur les applications

offre peu mature mais en plein développement (métiers concernés : conception logicielle, recette, préproduction, exploitation)• Les + : infrastructure homogène, maîtrisée, développement aligné sur l’infrastructure, processus bien cadré• Les - : changement dans les métiers du développement, risque de disparition de l’exploitation, coûts

difficiles à définir

offre mature (cRm, Product Life management, collaboratif)• Les + : souplesse, flexibilité accrue, réversibilité, réduction des coûts• Les - : TCO difficile à calculer au-delà de cinq ans, paramétrage nécessaire, intégration difficile au SI

iaaS

PaaS

SaaS

Page 13: Pour une performance durable du cloud computingcluster006.ovh.net/.../Qostic6/AHQ-56-05-CloudComputing_Livre_Bla… · à Dallas, il avait défini le cloud comme étant « un ...

13

Quel modèle de déploiement choisir ?

Comme le précise la définition du NIST (p.8), il existe plusieurs modèles de cloud qui incluent différents types d’accès. Par conséquent, ils présentent des avantages et des inconvénients :

• cloud privé interne à l’organisation cliente : hébergé par l’organisation. éventuellement partagé ou mutualisé en mode privatif avec d’autres entités de l’organisation (cas de groupes avec leurs filiales).

• cloud privé externe à l’organisation cliente : hébergé chez un tiers et non par l’organisation, il est entièrement dédié à celle-ci et accessible via des réseaux sécurisés de type vPN.

• cloud public : accessible via l’Internet public et géré par un prestataire externe. Les ressources peuvent être partagées entre plusieurs entités clientes de ce prestataire.

• cloud hybride ou mixte : combine l’utilisation pour une même organisation d’un cloud privé et d’un cloud public.

• cloud communautaire : dédié à une communauté professionnelle spécifique.

En fonction du modèle de services retenu, un modèle de déploiement sera plus approprié. Pour en savoir plus sur ces modèles de services, rendez-vous p.17.

L’état des lieux du cloud computing

Simple effet de mode ou évolution inéluctable pour les entreprises ? La question mérite d’être posée car nombre d’interrogations subsistent encore. Qu’en est-il de la maturité du marché ? Où en sont les entreprises européennes ? Quelles idées se font-elles du cloud computing ? Autant de questions qui, selon les pays, peuvent constituer un réel frein à l’adoption de ce nouveau modèle de travail.

Des investissements disparates

Le cabinet d’analyse 451 Group a publié en avril 2010 une étude mettant en avant le fossé qui sépare les états-Unis et l’Europe en matière d’investissements dans le cloud computing. 92 % des dépenses concernant l’IaaS sont réalisées aux états-Unis contre seulement 6 % en Europe et 1 % en Asie. Parmi les

cLouD PRiVÉ ou PuBLic ? Beaucoup

d’entreprises

se posent ou

se sont posé la

question. À court

terme, le cloud

privé semble

plus incitateur

et prometteur.

D’après le cabinet

d’études gartner,

d’ici 2012, les

dépenses des

entreprises

se porteront

davantage vers

ce modèle afin de

garder un meilleur

contrôle sur

leurs ressources

informatiques.

mais le cloud

hybride devrait

prévaloir dans les

années à venir.

Page 14: Pour une performance durable du cloud computingcluster006.ovh.net/.../Qostic6/AHQ-56-05-CloudComputing_Livre_Bla… · à Dallas, il avait défini le cloud comme étant « un ...

14

raisons invoquées : le manque de datacenters sur le continent européen. La géolocalisation des applications reste un frein majeur. C’est la raison pour laquelle certains fournisseurs proposent désormais de choisir la région du monde qui hébergera les données.

Au niveau international

Selon une récente étude Gartner, les états-Unis sont le pays le plus enclin à pratiquer le cloud computing (60 %), suivent l’Europe de l’Ouest (24 %) et le Japon (10 %). Le contexte économique actuel a considérablement bouleversé le paysage informatique des entreprises. Réduction des coûts, agilité, flexibilité et sécurité sont plus que jamais les priorités des DSI. Ils se trouvent dans l’obligation de fournir aux collaborateurs les meilleurs outils, à un moindre coût, pour rester concurrentiels. Une situation qui a obligé nombre d’éditeurs de logiciels à adapter leurs solutions au cloud computing, notamment en développant les services à la demande. Les éditeurs se sont donc employés à élaborer leurs logiciels en fonction des spécificités du cloud computing, telles que la virtualisation et l’automatisation. Ainsi, selon IDC, d’ici 2013, les dépenses informatiques devraient être six

mais si le SaaS est déjà bien connu et employé, les attentes se portent plus particulièrement au niveau de l’iaaS (infrastructure as a Service) et du PaaS (Platform as a Service), qui vont véritablement révolutionner le cloud computing.

2008

160

140

120

100

80

60

40

20

0

2009 2010 2011 2012 2013

605040302010

0

Business Process Services TotalApplications TotalApplication Infrastructure Total

System Infrastructure TotalInfrastructure TotalCloud Services Total

LES SERvICES DE CLOUD COMPUTING À L’éChELLE MONDIALE ENTRE 2008 ET 20131

Taux de croissance annuel des services (en %)

évolution des services (en Mds de dollars)

évOLUTION DES SERvICES DE CLOUD COMPUTING ENTRE 2008 ET 20131

2008

2013

0 % 25 % 50 % 75 % 100 %

Cloud-Based AdvertisingApplicationsIntegration Services

Other Business Process ServicesCompute ServicesBackup Services

1 Source : étude Gartner, mars 2009

Page 15: Pour une performance durable du cloud computingcluster006.ovh.net/.../Qostic6/AHQ-56-05-CloudComputing_Livre_Bla… · à Dallas, il avait défini le cloud comme étant « un ...

15

fois supérieures. En 2009, environ 17 milliards de dollars ont été dépensés dans les technologies cloud (logiciels et matériels), soit 5 % des investissements TIC mondiaux. En 2013, ces mêmes dépenses s’élèveraient à 45 milliards de dollars, représentant 10 % des investissements mondiaux. Soit une croissance moyenne annuelle de 25 %.

Néanmoins, si le recours au cloud computing semble inéluctable dans les années à venir, les services cloud ne sont pas tous logés à la même enseigne. En effet, les offres concernant les services de type SaaS (Software as a Service) sont presque deux fois plus nombreuses que celles proposées pour l’infrastructure. Cette tendance devrait cependant évoluer après 2011 lorsque ces approches auront fait leurs preuves et que les conditions économiques permettront des investissements plus importants. Il y aura ainsi une croissance à deux vitesses, en fonction des types d’applications et des systèmes concernés. Parmi les services hébergés en environnement cloud, la publicité occupe de loin la première place. Elle représente environ 25 milliards de dollars en 2008 et devrait atteindre près de 78 milliards en 2013. Ces chiffres témoignent de la réussite de Google par exemple dans la création d’un nouveau modèle économique de fourniture de services, imité ensuite par Yahoo!, Microsoft, Amazon…

Les autres services aux entreprises occupent la deuxième place avec, toujours selon Gartner, 42 milliards de dollars d’ici 2013, soit un taux de croissance annuel de 31 %. Les applications détiennent une place importante au cœur du système cloud. Mais il est intéressant de

noter que les services liés à la puissance de calcul seront cinq fois plus importants en 2013 (5 % contre 1 % en 2008). Sur l’ensemble de ces critères (Business Process Services, Applications, Application Infrastructure, System Infrastructure, Infrastructure, Cloud Services), Gartner estime une croissance du marché du cloud à 16,6 % en 2010, correspondant à 68,3 milliards de dollars et à 150 milliards de dollars en 2014.

Au niveau européen

D’après une étude réalisée pour la Commission européenne par le cabinet Pierre Audoin Consultants, le marché européen du cloud computing représentait 4 milliards d’euros en 2009, soit 1,5 % du marché total des logiciels et des services. Le cabinet prédit une forte croissance dans les années à venir pour atteindre 15 % de ce marché en 2015. Les entreprises européennes n’ont pas toutes la même perception

2 Source : étude réalisée pour la Commission européenne par Pierre Audoin Consultants, 2010

8

7

6

5

4

3

2

1

0

2007 2008 2009 2010 2011 2012

IaaS total PaaS total SaaS total

mill

iard

s d’

euro

s

LA SEGMENTATION DU CLOUD COMPUTING À L’éChELLE EUROPéENNE2

Le marché du cloud devrait passer de 68 milliards

de dollars en 2010 à 150 à 2014.”

Page 16: Pour une performance durable du cloud computingcluster006.ovh.net/.../Qostic6/AHQ-56-05-CloudComputing_Livre_Bla… · à Dallas, il avait défini le cloud comme étant « un ...

16

du cloud computing. Si les DSI partagent les mêmes attentes, en revanche, la confiance accordée à ce nouveau modèle de fourniture des services diffère en fonction des pays européens, la France étant particulièrement plus « frileuse » que ses voisins.

Le cabinet vanson Bourne a, lui, consulté 550 entreprises européennes (Allemagne, Autriche, Belgique, Danemark, Espagne, Finlande, France, Italie, Norvège, Pays-Bas, Portugal, Royaume-Uni, Suède et Suisse) entre septembre et décembre 2009, au sujet du cloud computing et de la virtualisation3. Il ressort que plus de 70 % des entreprises sont intéressées par la virtualisation de leurs serveurs et 30 % par le cloud computing. Néanmoins, à peine plus de 15 % d’entre elles ont finalisé leurs projets de virtualisation et seulement 5 % environ ont déjà intégré ce nouveau modèle informatique à leur politique d’entreprise. Quelle en est la motivation ? 76 % d’entre elles l’envisagent plus comme un effet de mode à court terme qu’une évolution durable des technologies et des services informatiques.

Alors que la tendance s’affirme de plus en plus outre-Atlantique,

les entreprises européennes ne semblent pas encore totalement convaincues des bénéfices du cloud computing et affichent même une certaine méconnaissance quant à cette nouvelle approche. Il leur est encore difficile de traduire les caractéristiques techniques en bénéfices métier. Pourtant, les attentes des DSI concordent avec celles de leurs homologues américains : meilleure productivité (pour 53 % d’entre eux), meilleure disponibilité (50 %), réduction des dépenses (27 %), green IT (34 %)…

Plus surprenant : leur vision quant à l’évolution de leur mission au sein de la direction informatique dans les années à venir. Si 29 % des DSI n’envisagent aucun changement, ils sont 50 % à prendre conscience que la stratégie d’entreprise occupera une place beaucoup plus importante dans leur métier. Ils devront également passer plus de temps à « penser » leur infrastructure qu’à la maintenir pour optimiser son potentiel d’utilisation (52 %). Mais n’est-ce pas une évolution logique de leur maturité et de leur savoir-faire qui doit les orienter vers des activités à forte valeur ajoutée ?

Des résultats assez paradoxaux puisque l’étude démontre que les

70 % des entreprises européennes orientent leur stratégie vers le cloud computing en virtualisant leurs serveurs.

72 % considèrent que les métiers doivent être plus convaincus des bénéfices offerts par le cloud avant d’envisager la prochaine étape. Les principaux freins au déploiement du cloud sont pour 54 % liés aux problématiques de management et pour 27 % liés à la sécurité de l’information.

65 % des répondants considèrent qu’ils n’ont pas les bonnes expertises dans leurs équipes pour faire face au développement du cloud computing. Source : cabinet vanson Bourne, 2009

53 % des DSI attendentune meilleure productivité

grâce au cloud.”

3 65 % des sociétés étudiées emploient plus de 3 000 collaborateurs ; les 35 % restantes emploient entre 1 000 et 3 000 collaborateurs

Page 17: Pour une performance durable du cloud computingcluster006.ovh.net/.../Qostic6/AHQ-56-05-CloudComputing_Livre_Bla… · à Dallas, il avait défini le cloud comme étant « un ...

17

besoins et les attentes des DSI européens trouvent leurs réponses dans le cloud computing. Mais plus étonnant encore, les évolutions qu’ils envisagent quant à leur propre métier sont inhérentes à ce nouveau modèle de services. Preuve s’il en est que la plupart des directions méconnaissent fortement le cloud computing et préfèrent attendre avant de l’envisager sérieusement. Un constat d’autant plus vrai pour la France. Mais en définitive, n’est-il pas plus pertinent de laisser les autres entreprises déterminer ces nouvelles manières de faire pour ensuite profiter d’une meilleure stabilité de l’offre et par voie de conséquence des coûts et des performances ? voici ce qui pourrait s’appeler « une approche industrielle ».

Il apparaît d’autre part que les « nuages » européens et américains ne sont pas tout à fait semblables. En effet, leurs conceptions divergent. Pour les états-Unis, le véritable cloud est « multilocataire », c’est-à-dire que seul l’usage véritable des ressources mutualisées, et ce où qu’elles soient, est facturé. En Europe, les lois sur l’archivage légal des données privées limitent le phénomène de globalisation : on privilégie plutôt le cloud privé et les services associés. Les outils de supervision s’avèrent alors de plus en plus indispensables afin de favoriser la croissance du cloud computing.

Autre différence notable : outre-Atlantique, la DSI est reconnue comme une entité stratégique pour l’entreprise et apte à répondre aux besoins métier. Beaucoup moins dépendants de la direction générale et/ou financière de l’entreprise, les DSI disposent alors d’une marge de manœuvre en faveur du cloud bien plus élevée qu’en Europe.

Quels sont les modèles tarifaires actuels4 ?

Actuellement, il n’existe pas de modèle tarifaire « strictement » établi pour le cloud computing. Si la facturation à l’usage est essentiellement utilisée pour les offres de SaaS, le mode forfaitaire est très couramment utilisé dans l’IaaS. En revanche, la tarification du PaaS est beaucoup plus floue et non uniforme. Chaque fournisseur impose son propre modèle. Mais en définitive, que paie-t-on réellement ? Comment peut-on évaluer son budget ? Cette situation constitue l’un des principaux freins pour les décideurs. De même, elle rend nécessaire l’intégration de tableaux de bord objectifs au sein des offres de cloud computing, et ce d’autant que de nombreux critères entrent en jeu.

LES PRINCIPAUx ACTEURS DU CLOUD SUR LE MARChé MONDIAL

4 En juin 2010

Page 18: Pour une performance durable du cloud computingcluster006.ovh.net/.../Qostic6/AHQ-56-05-CloudComputing_Livre_Bla… · à Dallas, il avait défini le cloud comme étant « un ...

18

Amazon passe la troisième

EC2 fixe ses prix en fonction de la localisation géographique du datacenter, du nombre d’applications déposées, de la CPU, de la capacité de stockage requise, de l’élasticité souhaitée et des échanges de données entre l’application et les utilisateurs. Or, le volume de données étant difficile à maîtriser, cela rend la tarification d’autant plus complexe à comprendre pour les entreprises.

Amazon propose donc trois modalités différentes : on-Demand instances, Reserved instances et Spot instances. Le premier modèle est un système classique de paiement à l’usage et à l’heure ; le deuxième fonctionne en s’appuyant sur une réservation à l’année (de un à trois ans), avec un forfait initial minimum suivi d’un paiement à l’heure ; le troisième modèle proposé est une enchère :

le meilleur enchérisseur remporte la ressource. Il n’y a pas d’engagement initial et les taux horaires sont en général plus intéressants que pour le on-demand. Le client fixe son prix maximal ! L’intérêt de cette triple offre est de permettre aux entreprises de choisir la mieux adaptée à leurs besoins et ainsi d’optimiser leur flexibilité et de réduire leurs coûts… à condition de pouvoir évaluer avec justesse quelle sera la consommation de leurs collaborateurs !en savoir plus : http://aws.amazon.com/ec2/purchasing-options

google App engine : certes gratuit au départ, mais ensuite ?

Si l’offre de base est gratuite, les entreprises achètent les ressources informatiques supplémentaires dont elles ont besoin en ne payant que ce qu’elles utilisent

À cHAQue fouRniSSeuR Son ou SeS moDèLeS De tARificAtionÀ chaque fournisseur son ou ses modèles de tarification. Le souci principal est qu’il est très souvent

difficile pour un DSi d’évaluer avec finesse la consommation mensuelle de ses utilisateurs et par voie

de conséquence la facture finale, compte tenu du grand nombre de critères qui interviennent et

qui sont difficiles à évaluer sans outil de mesure précis. ce manque de clarté freine les directeurs

informatiques d’autant plus que les directions générales leur imposent de réduire leurs coûts. or, les

conditions de développement du cloud computing passent inexorablement par un modèle tarifaire

transparent et une mesure objective des performances afin de rassurer à terme les décideurs. Pour

ce faire, des tableaux de bord « neutres », émanant de tiers de confiance qui ne seraient ni juges ni

parties, s’imposent. il semble en tout état de cause et pour être pragmatique, que c’est un processus

d’adaptation et d’apprentissage qui passe obligatoirement par l’observation et la mesure.

Page 19: Pour une performance durable du cloud computingcluster006.ovh.net/.../Qostic6/AHQ-56-05-CloudComputing_Livre_Bla… · à Dallas, il avait défini le cloud comme étant « un ...

19

réellement. Le seuil de gratuité s’étend jusqu’à 500 Mo de stockage et près de 500 millions de pages vues par mois. Au-delà, les tarifs s’appliquent en fonction du volume d’échanges de données et d’e-mails, de la capacité de stockage utilisée…

Avec l’offre App engine for Business, le système de tarification a lui aussi évolué. Désormais, il s’élève à 8 dollars par utilisateur et par mois, dans une limite maximale de 1 000 dollars mensuels. Pour l’instant, seuls quelques clients en profitent et Google projette d’étendre son offre rapidement. Néanmoins, si ce système à seuil semble séduisant, que se passe-t-il si on le dépasse ? Quels seront les tarifs horaires appliqués ? Y aura-t-il des pénalités ? Des réponses claires de l’offreur tardent encore à venir.en savoir plus : http://code.google.com/intl/fr-fR/appengine/docs/billing.html

microsoft Azure, force 4

Les prix de Microsoft s’établissent selon la capacité du système d’exploitation, le stockage, les transactions réalisées entre l’application et le stockage, les échanges effectués avec le connecteur et, le plus important, le volume des échanges de données entre l’utilisateur et l’application (non exprimé en termes de bande passante). Le modèle consumption ou de « pay as you go » propose différents tarifs horaires en fonction des ressources requises ; le modèle introductory Special n’inclut aucune charge, ni frais, ni engagement mensuel, mais il intègre un nombre de services de base limité ; le modèle Development Accelerator core est fixé à 59,95 dollars par mois pour notamment 10 Go de stockage, un million de

transactions et 750 heures d’utilisation pour six mois minimum ; enfin, le modèle Development Accelerator extended s’élève à 109,95 dollars mensuels et intègre une base de données supplémentaire. en savoir plus : www.microsoft.com/windowsazure/offers

Salesforce mise sur la simplicité

Salesforce propose un système forfaitaire pour son offre force.com. Trois forfaits, trois prix, trois capacités. Avec des avantages identiques, Salesforce affirme fournir des applications cinq fois plus vite et à moitié prix – par rapport à une plate-forme logicielle traditionnelle – et ce via une interface utilisateur riche et personnalisable. Force.com propose plus de mille applications et services, et s’avère très simple d’utilisation pour les applications web. force.com free constitue l’offre de départ. Gratuite, elle se limite à cent utilisateurs, 1 Gb de stockage et une seule application. force.com enterprise, au prix de 50 dollars par utilisateur et par mois, permet notamment d’accéder jusqu’à dix applications, avec une capacité de stockage accrue et un accès mobile. Enfin, force.com unlimited propose pour 75 dollars mensuels par utilisateur un nombre illimité d’applications, un support 24h/24 et 7j/7, des environnements de tests et de développement multiples… Une offre intéressante mais qui reste cependant limitée dans ses possibilités. en savoir plus : www.salesforce.com/platform/platform-edition

La tarification reste encore floue et diffère

selon les fournisseurs.”

Page 20: Pour une performance durable du cloud computingcluster006.ovh.net/.../Qostic6/AHQ-56-05-CloudComputing_Livre_Bla… · à Dallas, il avait défini le cloud comme étant « un ...

20

Page 21: Pour une performance durable du cloud computingcluster006.ovh.net/.../Qostic6/AHQ-56-05-CloudComputing_Livre_Bla… · à Dallas, il avait défini le cloud comme étant « un ...

21

Quels freins y a-t-il pour les directions ?

Trop de points d’interrogation subsistent encore pour convaincre les directions informatiques de se lancer dans l’aventure. Des craintes qu’il importe de dépasser car le cloud computing apporte, quelle que soit l’entreprise, une réponse concrète aux priorités de productivité et d’efficacité affichées par les DSI.

Les priorités des directions

Dans une conjoncture économique sans cesse fluctuante, le manque de visibilité incite les entreprises à avancer prudemment. Cependant, si elles veulent rester compétitives, elles se doivent

de poursuivre leurs efforts afin de s’adapter à un environnement en pleine mutation. Réduction des coûts, amélioration de la productivité, qualité des produits ou des services, relation client et capacité d’innovation constituent autant d’enjeux stratégiques pour les entreprises.

Des objectifs sur lesquels les DSI doivent s’aligner sous la pression des directions générales et métier. Depuis toujours, les directions informatiques se contentent de suivre les évolutions des besoins des utilisateurs. Elles doivent dorénavant les anticiper et se positionner en « moteur » de l’entreprise afin d’en renforcer la compétitivité. Avec cette ambition, l’efficacité du système d’information se révèle être la clé de voûte de toute l’entreprise. Si la réduction des coûts figure bien sûr parmi les objectifs à atteindre, la réactivité face aux changements et la capacité à rationaliser

les conditions de son développement

maîtriSe et réduction deS coûtS, alignement et anticiPation Sur leS BeSoinS métier de l’entrePriSe, flexiBilité, réactivité, évolutivité, agilité… telS Sont leS enjeux fixéS Par leS directionS généraleS et métier aux directionS informatiqueS. SoumiSeS à de forteS PreSSionS, celleS-ci ne Sont alorS PaS liBreS d’imPoSer un modèle Particulier, contrairement à leurS homologueS américaineS, et doivent en référer auPrèS de leur dg. or, leS zoneS floueS qui entourent encore le cloud comPuting ont du mal à leS convaincre. Pourtant, deS outilS exiStent Pour remédier aux failleS de ce modèle.

Page 22: Pour une performance durable du cloud computingcluster006.ovh.net/.../Qostic6/AHQ-56-05-CloudComputing_Livre_Bla… · à Dallas, il avait défini le cloud comme étant « un ...

22

l’infrastructure sont devenues pour les DSI des enjeux majeurs.

Enfin, le « green IT » fait son entrée au sein des structures informatiques. Le sujet est certes à la mode mais il constitue surtout un moyen pertinent de participer à la fois à la capacité d’innovation et à la diminution des coûts recherchées par la direction générale, tout en renforçant l’image de l’entreprise auprès des médias.

La complexité de l’infrastructure incite de plus en plus les directions informatiques à recourir à des prestataires externes pour assurer en partie sa gestion et sa maintenance. Deux DSI sur trois n’hésitent pas à faire appel à des tiers

pour l’assistance technique et ont recours à l’infogérance. Un phénomène qui tend à s’amplifier. Selon IDC (avril 2010), « d’ici deux ans, il ne restera plus que 21 % des organisations qui exploiteront seules leur infrastructure ». Alors pourquoi tant de réticences envers le cloud computing, qui semble répondre aux attentes des directions informatiques, générales et opérationnelles ? D’autant qu’une étude réalisée par IDC révèle que 60 % des DSI utilisent des technologies liées au cloud computing sans même le savoir !

Des craintes réelles mais à modérer

Quelle connaissance précise les directeurs informatiques ont-ils du cloud computing ? La question mérite d’être posée car de nombreuses réticences sont souvent liées à une méconnaissance du sujet et les craintes ne se révèlent pas toujours justifiées. Les diverses études européennes réalisées sur le sujet, et ce quel que soit le pays concerné, aboutissent toutes aux mêmes constatations sur les inquiétudes des DSI :

• La sécurité arrive en tête.

• La performance et la disponibilité restent perfectibles.

• La réversibilité constitue un frein central.

• La géolocalisation « inconnue » des données inquiète, notamment en matière de conformité réglementaire.

Inte

rne

Cloud computing

Traditionnel

Exte

rne

Centre detraitements

d’entre-prise

Centre detraitements

exter-nalisé

Cloudprivé

Portailpartenaire

Cloudprivé

virtuel

Cloudpartagé

RISQUES

CO

MP

LEXI

COMPLExITé ET ACCESSIBILITé DU CLOUD COMPUTING SELON GARTNER (CF. FOCUS P.23)

60 % des DSI utilisent des technologies liées au cloud

computing sans même le savoir.”

Page 23: Pour une performance durable du cloud computingcluster006.ovh.net/.../Qostic6/AHQ-56-05-CloudComputing_Livre_Bla… · à Dallas, il avait défini le cloud comme étant « un ...

23

• Le manque de maturité des offres en 2010 freine également les entreprises pour passer le cap du cloud computing.

• L’organisation interne des DSI n’est pas toujours adaptée à la gestion de la qualité de service du cloud.

• L’interopérabilité des briques du SI gérées selon des modèles différents n’est pas assurée.

• Le manque de lisibilité de la tarification fait craindre un surcoût par rapport au modèle classique.

Même si les applications en mode SaaS sont aujourd’hui largement utilisées, les bénéfices des solutions IaaS et plus encore PaaS et DaaS restent encore largement méconnus. De nombreuses directions informatiques préfèrent attendre de disposer de « retours utilisateurs ». La réalité est la suivante : sans retour d’expérience, les DSI restent frileux… et les fournisseurs ne disposent alors pas des informations nécessaires pour faire évoluer leurs offres en fonction des attentes des entreprises. Une nouvelle fois, nous sommes dans le cas de l’œuf et de la poule !

Les freins les plus importants portent sur les notions de sécurité, de performance et de disponibilité pour les applications à très grande criticité. Pourtant, l’informatique dans les nuages constitue une réelle opportunité pour renouveler ces pratiques et pour s’aligner sur les

LA comPLexitÉ et L’AcceSSiBiLitÉ Augmentent Le RiSQue SeLon gARtneR (mARS 2010)La complexité et l’accessibilité sont les deux

critères principaux retenus par le cabinet gartner

pour mettre en évidence le niveau de risque en

fonction des modèles. Plus ceux-ci sont classiques

et traditionnels (emplacement des données

connu, technologies éprouvées, indicateurs de

performances précis…), plus le risque sera faible

(cf. le coin inférieur gauche du schéma p.22). en

revanche, plus l’offre devient complexe, plus la

transparence au niveau de la qualité de service

sera moindre et plus l’entreprise sera exposée aux

risques (cf. coin supérieur droit du schéma p.22).

La capacité du fournisseur à résoudre les incidents

rapidement et à s’adapter aux besoins du client peut

néanmoins réduire les risques. La complexité, la

transparence et la supervision sont les clés du cloud

computing de demain pour permettre d’anticiper

les vulnérabilités à venir. De fait, elles risquent

de se multiplier au fur et à mesure que le nombre

de services proposés dans le cloud augmentera.

Aujourd’hui, s’il n’existe pas encore de méthode

d’évaluation standard, le cloud computing se doit

d’être surveillé et mesuré à différents niveaux afin

de réduire sa surface d’attaque.

Page 24: Pour une performance durable du cloud computingcluster006.ovh.net/.../Qostic6/AHQ-56-05-CloudComputing_Livre_Bla… · à Dallas, il avait défini le cloud comme étant « un ...

24

besoins métier d’une entreprise qui se doit d’être de plus en plus agile. Ainsi, il importe de dépasser ces craintes et d’analyser précisément les risques encourus.

Virtualisation et performance applicative

La virtualisation – sur laquelle s’appuient toutes les offres de cloud computing – apporte de nombreux bénéfices. En revanche, elle introduit également plus de complexité (et donc de risques) en matière de performance applicative.

Traditionnellement, une application fonctionne sur un serveur physique dédié et statique, où les performances systèmes et applicatives sont alors étroitement liées. La virtualisation impose d’évoluer d’un modèle « one to one » (une application, un serveur) à un modèle « one to many », dans lequel plusieurs applications concurrentes cohabitent sur un seul et même serveur physique. Elle impose par ailleurs d’évoluer d’un environnement physique relativement statique à un environnement hautement dynamique, au sein duquel les ressources virtuelles se déplacent entre plusieurs ressources physiques.

L’approche de gestion de la QoS traditionnelle – qui consiste à extrapoler les performances applicatives à partir des performances des systèmes physiques (métriques de type CPU ou usage mémoire) – demeure effectivement légitime tant que l’application fonctionne selon un modèle « one to one » dans un environnement physique

statique. En revanche, elle se révèle inadaptée dans un environnement virtualisé, par définition partagé entre plusieurs applications et hautement dynamique.

Difficile en effet d’évaluer la performance d’une transaction applicative de bout en bout, à partir des performances individuelles des ressources physiques ou même des ressources virtuelles mises à contribution par cette transaction. Surtout si l’on considère à la fois l’impact de la virtualisation et celui des architectures de type SOA. Dans cette hypothèse, non seulement les ressources virtuelles se déplacent entre plusieurs ressources physiques, mais les services peuvent également se déplacer entre plusieurs ressources virtuelles.

conséquence : la virtualisation ajoute une nouvelle dimension au défi de la gestion des performances applicatives. En complément du suivi des performances des ressources physiques et virtuelles, il devient primordial de mettre en œuvre un suivi des transactions de bout en bout pour garantir la performance applicative aux utilisateurs finaux.

La sécurité et l’information

Si la sécurité constitue un frein légitime, tant la confidentialité des informations stratégiques est capitale pour l’entreprise, les clouds privés ou hybrides peuvent se positionner comme une possible réponse. La réversibilité est une autre source d’inquiétude tangible car, contrairement aux contrats de type infogérance, elle n’est pas garantie, et ce d’autant plus que l’entreprise

Dans un environnement virtualisé, l’approche de la QoS

traditionnelle se révèle inadaptée.”

Page 25: Pour une performance durable du cloud computingcluster006.ovh.net/.../Qostic6/AHQ-56-05-CloudComputing_Livre_Bla… · à Dallas, il avait défini le cloud comme étant « un ...

25

ne connaît pas l’exacte localisation de ses données ou applications, une fois celles-ci « cloudées ». Quelle réglementation s’applique alors pour la conservation et la sauvegarde des données ? Celle du pays de provenance de la donnée ou celle du pays de résidence (en supposant que l’on n’aborde pas la phase transitoire) ? Des textes juridiques comme la loi Sarbanes Oxley imposent des règles très strictes en matière de protection des données. C’est pourquoi il est indispensable de s’assurer de la position du fournisseur vis-à-vis des réglementations en vigueur telles que la directive européenne de protection des données ou le Patriot Act aux états-Unis, qui autorisent les autorités locales à prendre connaissance des données hébergées sur leur sol.

Pour pallier ces points de blocage, il convient d’établir au préalable un contrat de niveau de service (SLA – Service Level Agreement) avec le fournisseur pour préciser l’ensemble des sujets encore flous, comme l’interopérabilité, et s’assurer de son bon droit. Attention, la plupart des offres de cloud computing se fondent sur des technologies propriétaires. Les DSI craignent donc une incompatibilité entre leurs applications et le système « d’accueil ».

On pourrait penser qu’il n’existe pas de raison particulière de s’inquiéter des niveaux de performances. Certains fournisseurs de services, tels Amazon, Google ou Microsoft, annoncent une disponibilité de 99,9 %, un niveau souvent bien supérieur à celui proposé par les équipes internes pour la plupart des applications. Or à ce jour, aucun tableau de bord précis n’engage les fournisseurs, et ce sans aucun SLA significatif. Quant aux outils de pilotage, il est vrai que leur manque de maturité bloque les entreprises. Toutefois, les retours utilisateurs permettront aux fournisseurs de les adapter progressivement aux besoins client. Le problème est que l’on entre alors dans un cercle sans fin, les DSI

tÉmoignAge cLientWilliam Barrière, Directeur informatique

d’une enseigne de taille moyenne

présente sur toute l’europe, évoque

les problèmes de support liés à la

géolocalisation des données avec

son prestataire de SaaS : « Nous 

avons récemment subi une série de 

dysfonctionnements – des indisponibilités 

récurrentes sur un serveur – qui nous 

ont amenés à contacter le support de 

notre fournisseur. Le problème est 

que celui-ci s’est avéré injoignable 

car notre fournisseur est basé aux 

USA. Avec les 8 heures de décalage, 

il devient impossible de travailler en 

direct avec le support, qui de plus n’est 

disponible qu’en anglais. Résultat, nous 

n’avons obtenu aucune information sur 

ces pannes récurrentes ni la moindre 

explication technique par la suite. 

Actuellement, nous ne disposons 

d’aucune information sur les travaux 

programmés, ni sur l’architecture en 

place pour nous expliquer pourquoi 

l’un des serveurs est plus disponible 

que l’autre ! »

Page 26: Pour une performance durable du cloud computingcluster006.ovh.net/.../Qostic6/AHQ-56-05-CloudComputing_Livre_Bla… · à Dallas, il avait défini le cloud comme étant « un ...

26

étant dans l’attente de retours d’expériences pour franchir le pas et les fournisseurs attendant que les entreprises testent leurs offres pour mieux les adapter à leurs besoins. « Nous devons faire face à une situation de crise liée à la messagerie qui n’est pas disponible sur le terminal mobile de notre directeur général. Depuis deux semaines, nous attendons une réponse et le problème n’a toujours pas été réglé », dénonce William Barrière.

À ce jour, les DSI n’affichent qu’une confiance limitée dans le cloud computing : si les serveurs web, de messagerie et les systèmes de continuité d’activité sont susceptibles d’être confiés à des tiers, les serveurs de base de données et d’applications métier - qui constituent le cœur stratégique de l’infrastructure - ne sont en revanche pas près de quitter l’entreprise. Sécurité, conformité réglementaire, interopérabilité, réversibilité et outils de pilotage restent les principales sources de craintes qui freinent encore les DSI. Des inquiétudes légitimes mais pas toujours justifiées.

Les développeurs dans le flouavec le PaaS

Si pour les DSI, les contraintes imposées par le cloud computing ne semblent pas incontournables, en revanche, pour les développeurs, elles sont beaucoup plus importantes. En effet, le cloud computing impose de nouvelles règles de développement et d’architecture. Entre deux offres, les modèles de design et de codage diffèrent, obligeant les développeurs à s’adapter à l’environnement qui leur est imposé. Une position délicate sans compter que les modèles économiques varient également en fonction des fournisseurs, ce qui constitue un risque réel pour l’entreprise.

Les DSI doivent présenter un business plan précis à leur direction générale pour argumenter en faveur du cloud computing en mettant en évidence les économies réalisées. Or sans visibilité nette sur les coûts, ils risquent de se retrouver face à un mur. Les fournisseurs ne proposant pas d’indicateurs « objectifs », il apparaît

Le knoWLeDge mAnAgement > thierry chamfrault, Administrateur itSmf7

« Le cloud computing, c’est comme une colocation. Il faut se demander si on est prêt à partager. 

Lorsque je loue un appartement, je ne sais pas comment mon colocataire va l’utiliser ! C’est le même 

principe dans le cloud. On crée un écosystème dans lequel il faut cohabiter tout en gardant une 

certaine indépendance. Comment ? Le Knowledge Management ! En enrichissant sa connaissance, en 

changeant son approche métier et en partageant son expérience avec d’autres. Dans les clouds, les 

règles d’usage vont prévaloir sur les règles d’exécution. Et c’est ainsi que les offres fournisseurs vont 

évoluer dans le bon sens. Le cloud est d’abord un passage sociologique ! »

Certains fournisseurs annoncent une disponibilité,

de 99,9 %, mais non vérifiée...”

7 Cf. Les contributeurs p.58

Page 27: Pour une performance durable du cloud computingcluster006.ovh.net/.../Qostic6/AHQ-56-05-CloudComputing_Livre_Bla… · à Dallas, il avait défini le cloud comme étant « un ...

27

indispensable alors de recourir à un tiers de confiance pour analyser les impacts qu’aura le passage au cloud computing sur l’entreprise, sur les collaborateurs, sur la DSI et sur les enjeux business de l’entreprise.

Les fournisseurs de cloud computing ne proposent pas encore aux équipes techniques de formation sur leurs frameworks spécifiques. Ces dernières vont donc devoir se former elles-mêmes et par conséquent consacrer un temps certain au développement des applications à « porter dans le cloud ». Mais comment ré-internaliser les applications par la suite si cela s’avère nécessaire ? Des contraintes qui constituent autant de freins.

Quels bénéfices ?

Certes, les offres de cloud computing ne sont pas encore matures et suscitent de nombreuses interrogations au sein des directions informatiques. Toutefois, ce nouveau modèle peut présenter plusieurs avantages pour l’entreprise en lui procurant une infrastructure extensible, voire même « élastique », totalement en phase avec les besoins des utilisateurs... à condition de disposer des outils adéquats pour mesurer les performances du cloud. En effet, selon IDC, environ 70 % des coûts liés à la direction informatique émanent de la gestion de l’infrastructure. Libérés de cette contrainte, les DSI pourraient alors consacrer le temps gagné à d’autres tâches à forte valeur ajoutée (innovation, alignement sur les besoins métier…) pour l’entreprise et transformer ainsi progressivement la direction informatique en centre de services à valeur ajoutée et non de coûts.

Les bénéfices les plus souvent cités sont :

• Aucun matériel à installer (ni serveur, ni logiciel)

• Aucune formation requise pour les utilisateurs (sauf pour l’IaaS)

• Maintenance et mise à jour assurées par le fournisseur

• Déploiement rapide et facilité

• Allocation dynamique de capacité en fonction des besoins

• haute disponibilité annoncée

• Transparence totale pour les utilisateurs

• Green IT et développement durable favorisés

• Préproduction avec référencement automatique des versions de release

• Simulateur en local

Un bénéfice est trop peu mentionné à nos yeux et c’est dommage : l’urbanisation. Si nous avons pris l’habitude de nous contenter de vivre au quotidien avec un « spaghettiware », le fait de devoir aller vers le cloud devrait nous aider à reconsidérer la structuration de nos SI. Ce mal nécessaire est en définitive plus facile à réaliser lorsqu’on « habite » chez quelqu’un d’autre que lorsqu’on doit le faire chez soi.

Page 28: Pour une performance durable du cloud computingcluster006.ovh.net/.../Qostic6/AHQ-56-05-CloudComputing_Livre_Bla… · à Dallas, il avait défini le cloud comme étant « un ...

28

Quel impact le cloud computing va-t-il avoir sur l’organisation interne de la DSI ?

Il constitue une réelle opportunité d’aligner enfin la DSI sur les besoins métier et d’évoluer vers une entreprise agile.

Repenser le métier de DSi

Le cloud computing semble posséder les atouts pour permettre à la DSI de se rapprocher des enjeux business critiques de l’entreprise, de s’adapter facilement et plus rapidement en fonction de la demande, et de maîtriser ses coûts par rapport aux besoins stricts des utilisateurs. Néanmoins, le cloud n’est pas sans imposer de profonds changements au sein de la direction informatique, notamment pour le directeur informatique qui perd le contrôle de certaines de ses activités. Cette perte de contrôle induit un changement en profondeur du mode de travail. Il est alors légitime pour le directeur du système d’information d’hésiter et d’afficher certaines réticences, son propre métier étant lui-même remis en question. A contrario, ce bouleversement permet de libérer les équipes informatiques de nombreuses contraintes liées notamment à la maintenance des systèmes et à l’évolution des besoins utilisateurs. Affranchis de ces charges, les DSI peuvent alors consacrer le temps ainsi gagné à des tâches à forte valeur ajoutée telles l’analyse et les études, au détriment du déploiement.

La DSi : nouveau centre de services partagés (Share Services center)

La direction informatique va en effet devoir se transformer en centre de services, c’est-à-dire proposer de l’assistance, du support, de l’information voire de la formation aux utilisateurs, au lieu de ne s’occuper que des aspects purement techniques et structurels de l’outil informatique.

La DSI va alors devenir le point de contact privilégié entre les utilisateurs et la gestion des services informatiques, imposant une remise en cause de l’interne et une évolution de la vocation et du métier de la DSI. Avant toute chose, les directeurs informatiques vont devoir prendre conscience de ce qu’ils possèdent véritablement : l’information. Désormais, ils n’ont plus à se préoccuper du contenant (l’infrastructure), mais essentiellement du contenu (les données critiques de l’entreprise). D’un point de vue sociologique, les DSI ont toujours pensé qu’ils maîtrisaient l’information, parce qu’ils possédaient le contenant adapté. Or, la valeur se situe sur l’information et la sécurité et non sur la technique. Le cloud inclut sécurité et service dans son pilotage. Les DSI vont par conséquent devoir définir précisément ce qu’est un service. Jusqu’à aujourd’hui, le problème était pris par la base, en rassurant les utilisateurs par la technique. Mais le cloud computing impose un nouveau schéma dégageant la technique pour ne garder que la notion de services au sein de l’entreprise. Il est alors indispensable pour les fournisseurs de créer le catalogue de services au sein de leur offre de cloud et de proposer un maximum d’options aux entreprises en englobant l’ensemble de leurs besoins.

Page 29: Pour une performance durable du cloud computingcluster006.ovh.net/.../Qostic6/AHQ-56-05-CloudComputing_Livre_Bla… · à Dallas, il avait défini le cloud comme étant « un ...

29

Demain, il va falloir piloter les systèmes d’information d’une autre manière. Petit à petit, le DSI va pouvoir formaliser ce qu’il « achète » à travers le catalogue de services du fournisseur, à l’image d’une voiture qu’on achète sur catalogue en choisissant les diverses options que l’on souhaite, en optant ou non pour un contrat de maintenance… Pour ce faire, l’approche « service » est primordiale, le cloud computing étant en soi un service dans lequel on ne voit pas l’infrastructure. Pour gérer convenablement les nouveaux services du cloud, il s’avère indispensable, comme nous l’avons dit, de réaliser un contrat de service (SLA) dans lequel tous les points essentiels seront abordés, inscrits noir sur blanc et garantis pour formaliser précisément la nature des services entre le fournisseur et le client.

Soit il existe entre les deux organisations une « continuité d’information », soit « une continuité de processus ». Dans le premier cas, la relation est basée

sur un référentiel d’informations (ticket d’incident, de demande, etc.) strictes qui servira de base à une formalisation des engagements pour chacun des services délivrés. Les processus du fournisseur et du client leur sont propres. Dans le deuxième cas, la relation est basée sur la continuité de processus. L’opérationnalité des services est partagée. Les acteurs des deux organisations contribuent ensemble à la qualité des services délivrés. Dans ce dernier cas, la description des relations entre le fournisseur et le client est établie service par service, ce qui rend la notion d’engagement propre beaucoup plus difficile à fixer. Contrairement à la continuité d’information, la continuité de processus ne garantit pas la réversibilité. Tout au moins pas d’une manière aussi facile et rapide.

« Le DSI doit à tout prix se demander ce qu’est son patrimoine afin de s’imposer des limites. Car au final, dans le cloud computing, il en perd quelque peu une partie tout en restant un élément essentiel pour le pilotage des services. C’est sur ce point que réside la principale difficulté à assurer la continuité des processus. C’est donc une question absolument primordiale », conseille Thierry Chamfrault. Le modèle du cloud implique un nouveau mode de pensée et d’organisation de l’entreprise dans le but d’être efficace et répondre aux attentes et besoins formulés.

comment piloter le cloud ?

Le cloud computing va renforcer la production de services. Le DSI, quant à lui, va devoir gérer les données non plus au niveau du contenant mais

Les DSI consacrent le temps gagné à des tâches à forte

valeur ajoutée.”

Continuitéd’information

Continuitéde processus

Fournisseurde services Client

CONTINUITé D’INFORMATION ET CONTINUITé DE PROCESSUS

Contrairement à la continuité d’information, la continuité de processus ne garantit pas la réversibilité.

Page 30: Pour une performance durable du cloud computingcluster006.ovh.net/.../Qostic6/AHQ-56-05-CloudComputing_Livre_Bla… · à Dallas, il avait défini le cloud comme étant « un ...

30

du contenu. Il va implicitement se recentrer sur les métiers de la production et aller vers une formalisation plus forte de l’ensemble des éléments qu’il va demander au fournisseur de services de cloud. Comment apporter de la valeur et piloter cette valeur ensuite ? En imposant des critères de pilotage aux fournisseurs ! En effet, il reste difficile d’« acheter un service » par exemple, avec un degré de liberté dans la performance. Le cloud impose de s’organiser autrement et d’augmenter son niveau de prévention. Le directeur des systèmes d’information ne va plus chercher une équipe qui opère mais une équipe qui organise !

C’est à ce prix que la DSI se mettra au service de l’entreprise au lieu de n’être qu’un simple composant fonctionnel. À la clé : un meilleur alignement sur les objectifs et une plus forte agilité. Mais pour cela, les DSI ont besoin de disposer de tableaux de bord afin de bénéficier de mesures réelles et d’indicateurs précis concernant les coûts, la sécurité et les performances. Ainsi, ils pourront prendre des décisions avisées en fonction des besoins et alignées sur les enjeux business de l’entreprise.

Le cloud implique pour le DSI un nouveau mode

de pensée et d’organisation.”

LeS imPLicAtionS DeS DiffÉRentS moDèLeS De cLouD comPuting en teRmeS De PiLotAge (Gartner, mars 2010)

en fonction du modèle de cloud computing retenu, les

implications des entreprises clientes et des fournisseurs ne

sont pas les mêmes. il importe de bien les spécifier pour

connaître le degré de contrôle et de sécurité qui incombe

à chacune des parties.

SaaS : tout le système est externalisé !Le fournisseur extérieur est responsable de quasiment tous les points concernant la sécurité, la QoS, la résolution des incidents et le contrôle, à quelques exceptions près concernant l’accès et le déploiement des services aux utilisateurs. L’avantage est que le client n’a presque rien à faire, l’inconvénient est qu’il lui est très difficile voire impossible d’ajouter des niveaux de sécurité supplémentaires (par exemple auprès des bases de données, des mécanismes d’authentification…).

PaaS : 50-50 !Concernant le PaaS, « les contrôles de sécurité se situent généralement au sein de l’application et de la plate-forme ». Résultat, le fournisseur et le client sont tous les deux responsables (ou aucun !) à même hauteur en matière de sécurité, surveillance, implication...

iaaS : le client gère son infrastructure de chez lui !Pour ce modèle, ce sont les entreprises elles-mêmes qui assument les plus grandes parts de responsabilités en termes de contrôle, sécurité, investigation… Le prestataire externe garde quant à lui la charge de la sécurité physique et du matériel. Il peut également, le cas échéant, garder la main sur le contrôle du trafic réseau, « partagé par toutes les parties prenantes ».

Page 31: Pour une performance durable du cloud computingcluster006.ovh.net/.../Qostic6/AHQ-56-05-CloudComputing_Livre_Bla… · à Dallas, il avait défini le cloud comme étant « un ...

31

Toutefois, pour bénéficier des mesures les plus justes possibles et assurer une gestion fine du cloud, il ne peut se contenter des indicateurs procurés par son fournisseur. Il doit opter pour des tableaux de bord « neutres » et objectifs émanant d’un tiers de confiance, comme le propose ip-label.newtest pour mesurer les performances. « De manière générale, nous devons faire face à une absence totale de compte-rendu d’activité, de traçabilité, de SLA, de tableau de bord sur l’offre de SaaS à laquelle nous avons souscrit il y a un an. Pourtant, nous devrions y avoir droit comme pour toute offre “classique” », reconnaît William Barrière.

En quoi la mesure de la QoE est-elle indispensable pour utiliser le cloud ?

La QoE ou Quality of Experience (qualité de l’expérience utilisateur) est au cœur des problématiques du cloud computing. Sans elle, les offres des fournisseurs n’évoluent pas ou peu, et les entreprises rechignent à franchir le pas.

Quid des performances ?

La QoE s’avère indispensable car la crainte liée aux performances constitue encore le principal obstacle. L’externalisation des données au sein d’une infrastructure « étrangère », et donc la perte de leur maîtrise en interne, suscite nombre d’interrogations auprès des équipes techniques

qui ne peuvent superviser ni les serveurs, ni les indicateurs liés aux utilisateurs. La dimension « réseau » a également son importance du fait de la « non-localisation » des données, ou plutôt d’une localisation inconnue. Or, le DSI doit s’assurer que les performances en mode cloud sont au moins équivalentes à celles qu’il pouvait garantir en interne à ses collaborateurs.

Les entreprises se soucient de plus en plus de l’expérience des utilisateurs en ligne et se tournent vers des tiers de confiance pour s’assurer de la performance et de la fiabilité de leurs applications. La mesure de la QoE permet ainsi de fidéliser les utilisateurs et préserve les revenus de l’entreprise. Mais quels sont les facteurs de dégradation ? Comment et où mesurer pour transformer les métriques en SLA ? Telles sont les questions que se posent les DSI face au cloud computing.

Cinq facteurs clés se détachent :

1 Le dimensionnement du cloud : nombre et localisation des datacenters, bande passante

disponible, nombre de machines virtuelles par serveur physique.

2 La latence du cloud avec les utilisateurs : plus les utilisateurs sont éloignés, plus le

délai pour leur fournir l’information est long. Un problème de latence sur le datacenter va se trouver amplifié pour les utilisateurs distants.

3 L’application elle-même : la manière dont l’application est développée et avec quels

composants influe grandement sur la QoE.

Page 32: Pour une performance durable du cloud computingcluster006.ovh.net/.../Qostic6/AHQ-56-05-CloudComputing_Livre_Bla… · à Dallas, il avait défini le cloud comme étant « un ...

32

4 Le nombre d’utilisateurs simultanés connectés à l’application : plus les utilisateurs

simultanés sont nombreux, plus la qualité de service délivrée à l’utilisateur risque de se dégrader.

5 Le type de connexion de l’utilisateur : entre une connexion mobile, une ligne DSL ou une

liaison louée, les niveaux de qualité ne sont pas les mêmes. Ce qu’on appelle le « dernier kilomètre » reste toujours un facteur déterminant de la qualité.

Pour un fournisseur, la qualité de sa prestation est largement influencée par ces facteurs et paramètres qui sont intensément utilisés par les entreprises pour satisfaire des centaines ou des milliers d’utilisateurs, parfois dispersés à travers le monde.

Quelles sont les métriques clés ?

La plupart des dirigeants d’entreprise interrogés sur les critères de qualité d’un service SaaS retiennent

en priorité le temps de réponse de l’application. Ils connaissent très bien l’effet catastrophique d’un temps de réponse excessif sur l’expérience utilisateur. Seule, la mise en place de SLA et de pénalités sur le fonctionnement de l’application incite les fournisseurs à suivre de près les performances et la disponibilité des applications. Les deux principales métriques à suivre pour un fournisseur de solutions SaaS sont donc la disponibilité et la performance de l’application.

Oui, mais où mesurer ? Depuis l’interface client ou en sortie du datacenter ? Le temps de réponse doit toujours être mesuré depuis l’interface client. Tout d’abord, pour des raisons d’éloignement du datacenter et de type de connexion qui peuvent affecter sa perception. Mais il existe aussi d’autres raisons liées à la construction des applications. Les applications à l’heure actuelle, et encore plus celles disponibles en mode SaaS, sont bien souvent des applications riches et extrêmement interactives dont le code s’exécute dans le navigateur. Elles sont conçues avec du Flash, Ajax ou des codes Javascript

LeS meiLLeuReS PRAtiQueS PouR ÉVALueR LA SÉcuRitÉ Du cLouD comPuting (Gartner, mars 2010)

Les fournisseurs ne sont pas disposés à fournir d’informations pour évaluer le risque lié aux services

externalisés. L’évaluation SAS 70 ne se limitant qu’aux processus, sans revue technique, ne fournit que des

résultats restreints, tout comme les normes iSo 27001, spécifique de la sécurité, et iSo 27002, consacrée

au contrôle technique des processus, insuffisantes pour un contrôle complet. une simple évaluation basée

sur les processus ne peut identifier tous les risques et affirmer que le modèle est parfaitement sécurisé.

D’où la nécessité d’un outil externe et apte à apporter des mesures précises et fiables.

Page 33: Pour une performance durable du cloud computingcluster006.ovh.net/.../Qostic6/AHQ-56-05-CloudComputing_Livre_Bla… · à Dallas, il avait défini le cloud comme étant « un ...

33

lourds qui permettent de créer des interfaces enrichies. Il est donc fondamental de mesurer depuis l’interface client pour disposer de métriques reflétant fidèlement et exactement la manière dont les utilisateurs perçoivent l’application. Dans leurs offres, les fournisseurs ont la fâcheuse habitude de limiter leurs engagements de service à ce qu’ils considèrent comme relevant de leur responsabilité, à savoir tout simplement chez eux !

comment peut-on transformercela en SLA ?

Les SLA types dans le secteur des systèmes d’information sont bien souvent déjà orientés sur la performance et la disponibilité. Pourtant, ce n’est qu’un point de départ. Les fournisseurs SaaS et leurs clients devraient davantage réfléchir à la question « que mesurer ? ». Le premier réflexe devrait être de déterminer quel service rend l’application. Lorsque l’on se connecte à une application pour visualiser une facture, il faut s’authentifier, puis aller rechercher le service désiré, et enfin pointer la facture pour l’ouvrir. C’est l’ensemble de ces démarches qui constituent le « service rendu ».

C’est pourquoi le Service Level Agreement doit reposer sur la transaction métier et entre autres sur le temps de réponse de cette transaction. C’est précisément cela qui doit être inscrit dans les contrats de service entre les fournisseurs et les utilisateurs d’applications SaaS. Ensuite, afin de rendre cette unité indépendante et appréciable dans la durée pour de multiples applications, il suffit de déterminer, pour un ensemble de transactions métier,

ce qui constitue une journée perturbée : il s’agit du nombre d’indisponibilités consécutives d’une ou plusieurs transactions sur une période donnée ou la proportion entre la disponibilité et la dégradation des temps de réponses sur une journée. Un simple dénombrement des journées perturbées dans le mois permettra ainsi rapidement de rendre le SLA utilisable par les parties, qu’elles soient « IT » ou « métier ».

De quels outils dispose-t-onpour mesurer la QoE ?

Il est impératif d’associer QoS (quality of service) et QoE (quality of experience) pour disposer d’une vue complète sur les performances affichées dans le cloud computing. Mais bien souvent, les fournisseurs de SaaS et de cloud affirment surveiller l’état de leurs infrastructures sous l’angle disponibilité et performance. Ils utilisent pour cela des logiciels qui testent concrètement la base de données, les serveurs d’applications et les composants fondamentaux du réseau pour assurer aux utilisateurs que tout fonctionne correctement... et les rassurer également.

une meilleure transparence

Néanmoins, pour véritablement savoir comment fonctionne l’application du point de vue utilisateur, il faut commencer par mener une campagne de mesures qui reproduit fidèlement ce que fait l’utilisateur. Il faudra être en mesure de répéter

Sans mesure de l’expérience utilisateur, les entreprises

rechignent à passer au cloud.”

Page 34: Pour une performance durable du cloud computingcluster006.ovh.net/.../Qostic6/AHQ-56-05-CloudComputing_Livre_Bla… · à Dallas, il avait défini le cloud comme étant « un ...

34

cette opération depuis de multiples endroits dans le monde, toutes les cinq ou dix minutes durant la journée pour être informé de la performance de l’application.

De plus, il s’agit encore trop généralement d’une option. Ainsi, les fournisseurs de SaaS et de cloud computing ne disposent pas systématiquement d’une vue sur la transaction utilisateur, là où leur retour sur investissement est rapide. L’expérience utilisateur n’est pas un hasard. Qu’il s’agisse de terminaux fixes ou mobiles, améliorer l’expérience utilisateur par des actions de contrôle et d’expertise est un gage de fidélisation des clients. L’entreprise marque alors davantage son empreinte sur le marché. Les bons fournisseurs de solutions SaaS et cloud sont conscients qu’ils peuvent tirer parti de cette opportunité et devraient intégrer rapidement et de manière systématique cette démarche dans leurs contrats de service.

Au-delà du SLA, la mesure utilisateur permet d’améliorer le service. Devant des cycles de développement toujours plus

courts et des marchés de plus en plus concurrentiels, le besoin d’optimiser et de stabiliser les applications est constant. Les services de surveillance permettent au-delà du suivi du SLA de diagnostiquer, d’alerter et d’accompagner les fournisseurs dans l’amélioration des services. C’est à la lumière de ces mesures que les offres de cloud computing s’amélioreront…

Le référentielde production itiL

ITIL (voir p.36) inclut concrètement des outils qui guident les entreprises dans les bonnes pratiques à adopter pour améliorer leur qualité de service :

• gestion des événements : que dois-je mettre en œuvre pour m’indiquer que « quelque chose se passe » ? La détection des événements contribue à mieux piloter la qualité de service et indique comment sortir des informations qui vont aider à mieux gérer les opérations. La gestion des événements est sans aucun doute l’approche initiale qu’il faut mettre en place pour se

LA PYRAmiDe Du cim> thierry chamfrault« Il faut surtout et avant 

tout maîtriser la base… à 

l’image de la pyramide du 

CIM – Computer Integrated 

Manufacturing (production 

intégrée par ordinateur) – 

élaborée dans les années 

1980 pour automatiser la 

totalité des processus de 

fabrication. À la base de 

la pyramide, la technique 

est maîtrisée. Au niveau 1, 

les processus sont déjà 

plus difficiles à “dompter”. 

Au niveau 2 se situent les 

services, qui figurent au 

cœur des préoccupations. 

C’est à ce niveau, que la 

maîtrise de la qualité est 

la problématique majeure 

à laquelle se trouvent 

confrontés les DSI. C’est 

sur les deux derniers 

niveaux qu’il faut axer ses 

priorités. »

Associer QoS et QoE permet de disposer d’une vue

complète sur les performances.”

Page 35: Pour une performance durable du cloud computingcluster006.ovh.net/.../Qostic6/AHQ-56-05-CloudComputing_Livre_Bla… · à Dallas, il avait défini le cloud comme étant « un ...

35

rassurer mutuellement (fournisseur et client) sur la QoS et la pertinence d’une approche de services type « cloud ».

• gestion des accès : traçabilité, protection des contenus, comment maîtriser les usages…

• Portefeuille de services : ce point est crucial pour l’offre de cloud computing. Il est enrichi par le client à travers ses demandes.

• SLm - Service Level management : dans la gouvernance de services, il ne peut y avoir de qualité que s’il y a des mesures. Méditez ces propos qu’expose ITIL v3 :

“If you don’t measure it, you can’t manage it.”“If you don’t measure it, you can’t improve it.”“If you don’t measure it, you probably don’t care.”“If you can’t influence or control it, then don’t measure it!”

• Renforcement du cycle de « transition » : la maîtrise d’un service est principalement liée à la notion d’actions préventives. Après l’introduction dans l’univers de production, il est trop tard. Cependant, pour appliquer de manière astucieuse le cloud computing, l’apprentissage passe par la mise à disposition des développeurs et intégrateurs d’environnements cloud. Seule cette réalité permettra, par le pragmatisme, de démystifier les approches cloud.

• gestion des assets et configurations : tous les outils actuels traitent les aspects techniques. Or, dans ITIL v3, on aboutit à une véritable configuration de services qui permettra de mieux mesurer la qualité. Enfin, on vous propose de créer des composants de services de mesure, forme d’agent évolué.

• gestion des connaissances : véritable atout dans l’approche globale (voir pyramide du CIM) de l’entreprise IT pour le sujet qui nous préoccupe. Pratiquée de manière très

INFRASTRUCTURE

SERVICEStratégie

GESTION / ORGANISATIONTactique

PRODUCTIONOpérationnelEf

ficac

ité

Perf

orm

ance

Vale

ur a

jout

ée

PYRAMIDE DU CIM À 4 NIvEAUx INFRASTRUCTURE / ORGANISATION / GESTION / STRATéGIE

Page 36: Pour une performance durable du cloud computingcluster006.ovh.net/.../Qostic6/AHQ-56-05-CloudComputing_Livre_Bla… · à Dallas, il avait défini le cloud comme étant « un ...

36

aléatoire au sein des entreprises, il serait très intéressant, d’après nous, de construire un méta-modèle d’informations (base de la connaissance) pour chacun des types d’offres de « cloud ». Ainsi, il serait possible de standardiser un système d’informations sous-jacent, partageable. Ce principe devrait permettre aux clients de mieux piloter les prestations déléguées.

• gestion des capacités : la pertinence de ce processus dans une offre de service « cloud » est primordiale. Si la gestion des capacités pour les ressources est à la base de toute implémentation, la gestion des capacités de niveaux services et ensuite business vont se révéler très rapidement nécessaires. Seules 2 % des entreprises IT au monde ont mis en place ce processus suivant les trois niveaux. La difficulté la plus importante pour l’appliquer reste le client. L’expression du forecast (prévisions) est très loin d’être facile à expliciter. C’est ainsi qu’il est conseillé de pratiquer

par itérations successives d’expériences mesurées.

Qu’en est-il de la Qoe dans itiL ?

Le livre sur l’amélioration continue d’ITIL v3 (dans son chapitre sur la mesure des niveaux de services) préconise de « fournir une vue sur le ressenti réel du client ». L’enjeu est essentiellement d’identifier en temps réel une dégradation critique de la performance. Ces dégradations aggravent le risque de baisse de productivité, voire de chiffre d’affaires des directions métier. « La mesure du ressenti des utilisateurs est fondamentale pour une bonne gestion des services. Elle est nécessaire pour délivrer les services et les améliorer. Mais la virtualisation, les architectures orientées services (SOA), la distribution des services et leur partage rendent ces mesures de plus en plus difficiles », précise une étude du cabinet d’études Yphise.

itiLitiL ou information

technology infrastructure

Library (Bibliothèque pour

l’infrastructure des technologies

de l’information) regroupe

une collection de six ouvrages

(Le cycle de vie des services,

Stratégie des services,

conception des services,

transition des services,

exploitation des services et

Amélioration continue des

services), qui « recense, 

synthétise et détaille les 

meilleures pratiques pour une 

direction informatique dont 

l’objectif est de devenir le 

fournisseur de services basés 

sur l’informatique au sein 

de l’entreprise plutôt que 

le traditionnel fournisseur 

de ressources techniques 

informatiques. » itiL v3 est

sortie en 2007.

Source : www.itilfrance.com

Page 37: Pour une performance durable du cloud computingcluster006.ovh.net/.../Qostic6/AHQ-56-05-CloudComputing_Livre_Bla… · à Dallas, il avait défini le cloud comme étant « un ...

37

La Qoe comme démonstration d’efficacité de la démarche itiL

De son côté, la mesure de l’expérience utilisateur (QoE) répond justement à cet enjeu de mesure d’efficacité pour le client final. Que les initiatives de la DSI soient d’ordre technique (PRA, Cluster…), organisationnel (ITIL, CobiT…) ou économique (cloud, virtualisation), la mesure de la QoE et surtout la mesure de son évolution positive dans le temps démontrent le bien-fondé des projets de la DSI et apportent la preuve objective et quantifiable de leur succès. S’agissant d’ITIL en particulier, la mesure de la QoE permet sans ambiguïté de mesurer l’efficacité réelle de la démarche pour la DSI et les divisions

Au-delà du SLA, la mesure du ressenti utilisateur

permet d’améliorer le service.”

LA QuALitÉ PAR L’exPÉRience > thierry chamfrault« Nous allons nous autoriser à disserter 

sur ce que pourrait être “ITIL v3 +”. La 

démarche de QoS de notre point de vue 

doit être complétée par une approche 

intégrant l’usage et l’utilisateur, la 

QoE. Celle-ci est un concept qui devrait 

nous aider à mieux cibler nos clients, 

en offrant soit des barèmes de ce qui 

est vécu dans le monde des providers, 

soit des déclinaisons par typologie de 

métier (banque, assurance, telco…). Il 

serait aussi intéressant de construire 

une approche de transformation au 

regard des architectures et solutions 

de services. Nous pourrions pour cela 

imaginer une démarche incrémentale 

qui, tel un protocole médical, nous 

permettrait de diminuer, de manière 

mesurée et progressive, notre dépendance 

aux contenants (serveur, disque, etc.) 

pour mieux concentrer nos énergies sur 

les services. Nous sommes conscients 

que la désintoxication va être longue et 

difficile ! »

ITIL v3

Stra

tégie des services

ITILCON

CEPT

ION DES SERVICES

EX

PLOITATION DES SERVICES

TRANSITION D

ES SERVICES

Amél

iora

tion

cont

inue des services

Page 38: Pour une performance durable du cloud computingcluster006.ovh.net/.../Qostic6/AHQ-56-05-CloudComputing_Livre_Bla… · à Dallas, il avait défini le cloud comme étant « un ...

38

métier : une gestion optimisée des incidents et des problèmes se traduira par une disponibilité accrue. Une bonne gestion de la capacité sera validée par des performances applicatives maîtrisées en toutes circonstances, etc.

Cette mesure de la qualité perçue des utilisateurs sera d’autant plus importante si la mise en place d’ITIL n’a pas dégagé de gains quantitatifs clairs par ailleurs : pas de réduction notable du nombre d’incidents, aucune diminution du nombre de retour arrière... On se tournera alors vers la mesure de la QoE pour prouver que l’utilisateur obtient bien un bénéfice en termes de qualité. On le voit, le pilotage d’une démarche ITIL gagne à s’appuyer sur la mesure du service rendu qui seule peut évaluer objectivement les gains réalisés et les traduire simplement à travers l’ensemble de l’organisation. En ce sens, la QoE est le complément naturel d’ITIL en ce qu’elle rend réellement visible la contribution de l’informatique à la réussite des équipes métier.

Synergies itiL et Qoe

De fait, la mesure de l’expérience utilisateur s’intègre naturellement dans les différents processus ITIL. Pour ne citer que quelques exemples, la détection d’indisponibilités applicatives est un générateur d’incidents à fort impact client. La mesure automatisée de disponibilité et de performance utilisateur est aussi une solution élégante pour mesurer les conventions de service applicatives (OLA/SLA). Enfin, la gestion de la capacité peut utilement bénéficier du contrôle

des performances et de leurs dérives à court ou à long terme.

Pourquoi s’adresser à un tiersde confiance ?

Il s’agit d’un métier très spécialisé qui, implicitement, n’est pas le cœur de métier de l’entreprise cliente. Tout d’abord, il faut disposer de nombreux points de présence dans le monde entier, suivre les évolutions technologiques des navigateurs afin de disposer d’outils toujours « up-to-date » pour mesurer fidèlement l’expérience utilisateur, exploiter un réseau de mesure international… De plus, la mesure des SLA nécessite qu’aucun des acteurs en jeu ne puisse se positionner en tant que « juge et partie ».

De plus, si un des niveaux de qualité de service défini dans un contrat de services entre un client et un fournisseur n’est pas respecté, le tiers de confiance peut imposer des pénalités. Par définition, un tiers de confiance est neutre et propose aux entreprises des résultats objectivés sur les performances obtenues. L’entreprise bénéficiera ainsi d’un seul et même interlocuteur pour pouvoir, le cas échéant, établir les performances de chaque fournisseur avant de faire son choix sur une offre en particulier. Cette comparaison devient impossible dès lors que chaque offreur propose ses propres mesures ! L’une des clés réside dans la mesure des performances et la prise en charge des tableaux de bord par un tiers et non par les fournisseurs eux-mêmes.

La mesure du ressenti des utilisateurs est fondamentale

pour une bonne gestion des services.”

Page 39: Pour une performance durable du cloud computingcluster006.ovh.net/.../Qostic6/AHQ-56-05-CloudComputing_Livre_Bla… · à Dallas, il avait défini le cloud comme étant « un ...

39

ExEMPLES DE TABLEAUx DE BORD

Page 40: Pour une performance durable du cloud computingcluster006.ovh.net/.../Qostic6/AHQ-56-05-CloudComputing_Livre_Bla… · à Dallas, il avait défini le cloud comme étant « un ...

40

Page 41: Pour une performance durable du cloud computingcluster006.ovh.net/.../Qostic6/AHQ-56-05-CloudComputing_Livre_Bla… · à Dallas, il avait défini le cloud comme étant « un ...

41

retours d’expériences

Seul le retour utiliSateur Peut Permettre aux fourniSSeurS de cloud comPuting de faire évoluer leurS offreS et de faire avancer leS choSeS. qu’il S’agiSSe deS PreStataireS de ServiceS ou deS entrePriSeS enclineS à Sauter le PaS, touS attendent PluS de PréciSion et une vue PluS ouverte de la Part de ceux qui rePréSentent leS PionnierS du cloud comPuting en euroPe. deux entrePriSeS, deux témoignageS, deux viSionS du cloud comPuting.

42

45

euromaster

VSc technologies

Page 42: Pour une performance durable du cloud computingcluster006.ovh.net/.../Qostic6/AHQ-56-05-CloudComputing_Livre_Bla… · à Dallas, il avait défini le cloud comme étant « un ...

42

comment êtes-vous venusau cloud computing ?

Chez Euromaster, nous avons abordé le sujet du cloud computing dès fin 2007-début 2008 lorsque s’est posée la question de la consolidation de notre système de messagerie et de collaboration dans les dix pays européens dans lesquels nous sommes présents. Nous avons alors eu l’opportunité d’intégrer l’offre Google Apps pour Entreprise, très intéressante en termes de coûts, ce qui nous a permis de challenger nos différents fournisseurs. Puis, nous nous sommes rendu compte qu’au final, Google était l’offre la plus pertinente. Nous avons alors décidé de continuer avec ce modèle en SaaS et son déploiement sera fini en septembre 2010.

Avez-vous déployé d’autres applications en mode SaaS ?

Nous sommes très rapidement entrés de plain-pied dans la thématique du cloud computing. Dès 2008, nous avons eu une autre opportunité de déployer

une application de CRM. Nous étions pleinement rassurés quant aux possibilités proposées par le cloud computing. La solution Oracle CRM On Demand a été déployée, en mode SaaS également, pour la France et le Royaume-Uni dès le 1er trimestre 2008.

Même si nous n’avons pas d’autres projets à l’heure actuelle, le cloud est devenu une option de sourcing supplémentaire. Si la solution est suffisamment mature, alors nous n’aurons pas la moindre hésitation à la mettre en œuvre au sein de notre groupe. Nous nous intéressons également au PaaS et à l’IaaS et si l’opportunité se présente, nous l’envisagerons sérieusement, sans a priori.

Quels bénéfices en retirez-vous ?

En premier lieu, la très grande rapidité de mise en œuvre. Pour notre solution de CRM, cela a en effet été très rapide par rapport à un projet classique. Nous n’avons eu qu’à acheter les droits d’utilisation et à nous concentrer sur le

interview

Olivier Carré-Pierrat,Directeur des infrastructures d’Euromaster

Page 43: Pour une performance durable du cloud computingcluster006.ovh.net/.../Qostic6/AHQ-56-05-CloudComputing_Livre_Bla… · à Dallas, il avait défini le cloud comme étant « un ...

43

déploiement auprès des utilisateurs. Le mode SaaS nous procure une très grande flexibilité et une mise en place opérationnelle très rapide, ce qui nous a permis d’impliquer les métiers très en amont du projet en leur montrant ce que l’outil leur offrirait exactement.

Deuxième avantage conséquent, la consommation à l’utilisateur ! Désormais, nous n’avons plus à nous soucier des montées en puissance, car nous payons en fonction du nombre d’utilisateurs ce qui, là encore, favorise une grande visibilité sur les coûts engendrés. Enfin, le fait de fournir des solutions standards aux utilisateurs facilite la gestion du changement au sein de notre structure. Les métiers ont ainsi pu s’adapter et adopter le nouvel outil facilement et rapidement.

Je tiens également à préciser que nous n’avons perçu aucune variation de nos performances, qui restent les mêmes que lorsque nous hébergions l’application en interne. Surtout que notre système d’information est infogéré depuis trois ans et que, par conséquent, le passage au cloud computing a pu se faire en toute transparence pour tous.

mais n’avez-vous pas eu quelques répercussions négatives malgré tout ?

Nous n’avons pas à proprement parler dû affronter de problèmes. Mais il est vrai que le passage au cloud computing n’est pas sans induire certains changements au sein de la DSI, mais aussi de l’entreprise. Ainsi, il a fallu rassurer les utilisateurs en leur expliquant pourquoi nous allions évoluer

vers le cloud computing et ce que cela impliquerait pour eux. Et les processus en interne ont de ce fait évolué. Néanmoins, il faut relativiser et minimiser ces deux points car nous avons pu impliquer les métiers dès les phases préliminaires. De plus, avec le cloud, les équipes informatiques consacrent beaucoup moins de temps aux aspects techniques et peuvent désormais suivre et accompagner davantage les différentes directions métier.

Le « Change Management » occupe une place très importante dans notre métier aujourd’hui. Enfin, seule l’équipe infrastructure a dû évoluer au sein de la DSI car l’externalisation de notre système d’information avait déjà bouleversé notre organisation, ce qui n’a causé que peu de changements au final.

comment le cloud computing a-t-il été perçu par les utilisateurs ?

Les retours sont partagés en fonction du projet. Pour notre solution de messagerie Google, les collaborateurs ont dû s’habituer à un tout nouvel outil puisque nous utilisions Microsoft Outlook auparavant. Ils ont pris plus de temps face à une ergonomie et des fonctionnalités additionnelles. En revanche, pour notre solution de CRM, les retours sont très bons car certains de nos commerciaux par exemple ne disposaient pas d’outil de ce genre auparavant. En neuf mois, ils ont acquis une solution efficace qui répond à une grande partie de leurs besoins. Dans ce cas, l’informatique se met véritablement au service des hommes et donc leur satisfaction est bien meilleure.

Aujourd’hui, le cloud computing est une solution totalement

intégrée dans la stratégie de sourcing de notre groupe !”

Page 44: Pour une performance durable du cloud computingcluster006.ovh.net/.../Qostic6/AHQ-56-05-CloudComputing_Livre_Bla… · à Dallas, il avait défini le cloud comme étant « un ...

44

Quels conseils donneriez-vousà un DSi qui se pose des questions sur le cloud computing ?

Je conseillerais à ceux qui se sont déjà penchés sur le cloud de ne pas hésiter ! S’ils ont encore des doutes concernant la sécurité et la confidentialité des données, je les rassure : entre deux entreprises professionnelles, ces contraintes peuvent être anticipées et gérées lors des étapes juridiques et contractuelles.

Certes, le cloud computing perturbe mais je préfère être perturbateur aujourd’hui plutôt que perturbé dans six à neuf mois ! À ceux qui ne s’en sont pas encore préoccupés, je leur dirais attention. Car le risque est important qu’une direction métier initie des projets informatiques directement avec les fournisseurs de SaaS sans intégrer la DSI dans les étapes nécessaires, ce qui peut avoir des conséquences importantes, notamment pour l’intégration avec le reste du SI.

est-ce qu’un tiers de confiance comme ip-label.newtest peut être nécessaire au cloud computing ?

Nous utilisons depuis 2009 la solution d’ip-label.newtest sur notre outil de gestion des points de vente mais pas encore sur le cloud. Nous avons en effet un grand besoin de mesures de disponibilité et de performance pour nos 1 600 points de vente. Mais ip-label.newtest est tout à fait adaptable au cloud car, dans ce modèle, l’informatique ne peut maîtriser tous les composants. Tout ce qui a trait au réseau Internet est par exemple difficile à mesurer et à contrôler. Implanter ce type d’outil constituerait un véritable plus pour tout le monde, qu’il s’agisse des fournisseurs, des DSI ou des utilisateurs. Nous disposerions ainsi d’indicateurs précis et non discutables, toutes les parties seraient gagnantes.

euRomASteR www.euromaster.freuromaster est une société de distribution de pneumatiques, leader en europe, créée il y a quinze ans.

Présente dans dix pays (france, Suisse, espagne, Allemagne, Autriche, Royaume-uni, Suède, finlande,

Danemark et Pays-Bas), avec plus de 1 600 points de vente, elle couvre principalement deux marchés,

Btoc et BtoB (flotte de véhicules, transporteurs), et compte 11 800 collaborateurs.

Page 45: Pour une performance durable du cloud computingcluster006.ovh.net/.../Qostic6/AHQ-56-05-CloudComputing_Livre_Bla… · à Dallas, il avait défini le cloud comme étant « un ...

45

Pourquoi avez-vous optépour l’offre de cloud d’Amazon ?

Nous sommes passés au cloud computing en été 2009 sur des problématiques d’environnement de test, de développement et de recette. Nous avions alors de très gros besoins en termes de disponibilité, surtout pour le site voyages-sncf.com (vSC) qui génère plus de deux millions de réservations par mois. C’est le premier site marchand en France et nous devons donc offrir une qualité de services irréprochable. Nous avons décidé d’utiliser le cloud pour la mise en œuvre d’environnements de développement et / ou de test.

Quels bénéfices en retirez-vous ?

Le cloud computing nous offre des capacités supplémentaires en termes de réactivité qui sont très appréciables. Très rapidement, on peut disposer de ressources additionnelles et ainsi faire face, lors des pics de connexion, aux demandes des internautes. Pourquoi Amazon ? D’une part, parce que sur le marché, c’est le fournisseur de

solutions IaaS qui propose l’offre la plus aboutie, d’autre part, parce que nous avons en commun une sensibilité poussée pour le e-commerce. Même si cela ne change pas grand-chose à l’arrivée, il est toujours appréciable de savoir que l’on s’adresse à un prestataire qui comprend vos besoins pour les vivre lui aussi. Avec Amazon, nous sommes dans une démarche « exploratrice » car il s’agit de notre première expérience en matière de cloud et nous avons établi notre évaluation sur dix-huit mois.

Quelles sont alors vos premières impressions sur le cloud computing et notamment le modèle iaaS ?

Nous sommes aujourd’hui très satisfaits de notre collaboration avec Amazon et nous n’avons eu aucun incident à déplorer depuis un an. La mise en œuvre s’est faite en quinze jours à peine et, surtout, l’IaaS s’avère une véritable source d’économies et de réactivité, ce qui n’est pas négligeable. L’externalisation nous permet ainsi de libérer nos équipes de développement de certaines contraintes afin qu’elles puissent se consacrer à des tâches à

interview

Pierre Matuchet,Directeur général adjointde VSC Technologies ©

Ant

oine

Doy

en -

voy

ages

-snc

f.co

m

Page 46: Pour une performance durable du cloud computingcluster006.ovh.net/.../Qostic6/AHQ-56-05-CloudComputing_Livre_Bla… · à Dallas, il avait défini le cloud comme étant « un ...

46

plus forte valeur ajoutée. Aujourd’hui, seuls nos bases de données Oracle et nos serveurs de base de données MySQL sont confiés à Amazon, mais nous n’excluons pas à l’avenir d’externaliser d’autres environnements de développement.

À court terme, vous envisagez donc de faire appel plus régulièrement au cloud computing, y compris sur d’autres modèles comme le PaaS et le SaaS ?

Nous sommes très satisfaits de notre environnement de test sous Amazon mais pour le moment, nous n’envisageons pas de passer nos applications critiques en mode cloud computing. Un site tel que voyages-sncf.com génère près de trois milliards de recettes annuelles, ainsi qu’un trafic très important. Il a donc des besoins élevés en termes de disponibilité. C’est pourquoi, le site dispose

d’un datacenter dédié et il nous est difficile, voire impossible, d’externaliser sa gestion, qui recouvre des enjeux critiques pour notre société. Pour la même raison, d’ailleurs, une entreprise comme Twitter a également décidé de construire un datacenter dédié.

Pourquoi n’avez-vous pas migrétoutes vos applications en mode cloud ?

On ne peut pas tout confier à un prestataire extérieur car, à l’heure actuelle, les SLA ne permettent pas d’aller systématiquement sur des systèmes mutualisés. Ils ne sont pas encore suffisamment adaptés au cloud... Mais peut-être qu’à terme, nous envisagerons un cloud privé lorsque les technologies seront totalement matures. Un engagement poussé vers le cloud computing ne peut s’établir que sur des SLA très contraignants,

www.vsc-technologies.comcréée en janvier 2006, VSc technologies est une filiale de la Sncf. fournisseur de services

technologiques de distribution ferroviaire, VSc technologies développe des offres sur mesure pour

répondre aux besoins de ses clients (Sncf, eurostar, iDtgV...) et assure l’hébergement des applications

critiques de réservation ferroviaire. La société gère notamment le 1er site marchand français,

www.voyages-sncf.com (10 millions de pages vues par mois, 400 tgV remplis par jour, jusqu’à trois

réservations par seconde).

Volume d’affaires 2009 : 2,4 milliards d’euros / collaborateurs : 350 en interne

Page 47: Pour une performance durable du cloud computingcluster006.ovh.net/.../Qostic6/AHQ-56-05-CloudComputing_Livre_Bla… · à Dallas, il avait défini le cloud comme étant « un ...

47

tant le modèle reste encore flou en 2010. Quant au SaaS pour des applications comme le CRM ou la messagerie, notre structure est relativement modeste avec environ 300 personnes. Ce n’est ni une priorité ni une grosse charge de travail en interne et l’intérêt de les externaliser est donc moindre. Néanmoins, nous étudions la possibilité de passer prochainement plus d’environnements de développement en IaaS, toujours avec Amazon.

Quels conseils donneriez-vous à un DSi en matière de cloud computing ?

Je ferais ce parallèle : de nos jours, et contrairement au début du xIxe siècle, plus personne ne fabrique sa propre électricité ! Tout est industrialisé. Et bien le cloud computing fonctionne exactement sur le même modèle, même si nous n’en sommes encore qu’au tout début. Mais si nous n’y allons pas, surtout pour les applications non critiques, ce qui limite les risques, les offres mettront beaucoup plus de temps à évoluer, à s’adapter et à arriver à maturité. En outre, il existe déjà des moyens qui permettent de contrôler les performances du cloud computing. Nous utilisons ip-label.newtest de façon très attentive sur voyages-sncf.com. Et un tel outil de mesure serait parfaitement adaptable au cloud computing. D’autant plus qu’il me semble primordial de faire appel à un tiers de confiance, un acteur externe, neutre et objectif. Grâce à ces mesures, les technologies pourront se développer et devenir matures.

Il existe déjà des moyensqui permettent de contrôler

la performance du cloud computing.”

Page 48: Pour une performance durable du cloud computingcluster006.ovh.net/.../Qostic6/AHQ-56-05-CloudComputing_Livre_Bla… · à Dallas, il avait défini le cloud comme étant « un ...

48

Le cloud est telle une composition musicale :

une même partition avec différents instruments et musiciens et de multiples conditions d’exécution.”

Page 49: Pour une performance durable du cloud computingcluster006.ovh.net/.../Qostic6/AHQ-56-05-CloudComputing_Livre_Bla… · à Dallas, il avait défini le cloud comme étant « un ...

49

Le cabinet d’études va encore plus loin : « Au cours des neuf prochaines années, les entreprises dépenseront, de manière cumulée, 112 milliards de dollars en logiciels de service – SaaS –, plates-formes – PaaS – et infrastructures – IaaS », les offres s’adaptant progressivement aux exigences des entreprises pour devenir de plus en plus matures. Un phénomène qui devrait surtout concerner l’Europe, puisqu’en 2014 les états-Unis ne devraient plus représenter « que » 50 % du marché mondial. Le Royaume-Uni, avec plus d’un quart du marché, et le Japon, avec plus de 10 %, devraient représenter les prochains « poids lourds » du marché du cloud computing.

Réduction des coûts et sécuritéau cœur des préoccupations

Les entreprises européennes s’intéressent de plus en plus au cloud computing et prennent peu à peu conscience des opportunités offertes par ce nouveau modèle. Selon une récente enquête menée par Brocade, 60 % des entreprises interrogées envisagent une migration vers le cloud computing d’ici 2012, dont 11 % d’ici 2011, convaincues

essentiellement par la réduction des coûts (30 %), l’amélioration de la performance de l’entreprise (21 %) et une agilité optimisée (16 %).

Si les économies réalisées constituent une véritable source de motivation pour les entreprises, en revanche, la sécurité continue de représenter un frein majeur à une adoption en masse du cloud computing. C’est pourquoi les investissements devraient naturellement se concentrer sur des clouds privés plus que publics, modèle qui rassure davantage quant à la confidentialité des données. En effet, plus d’un tiers des personnes interrogées dans le cadre de l’enquête Brocade ont indiqué que la sécurité constituait encore la barrière principale face au cloud, devançant la complexité de la virtualisation du datacenter (25 %), l’architecture réseau ou la bande passante (14 %).

Concernant les PME, l’engouement pour le cloud computing est logiquement plus nuancé puisque seules 42 % d’entre elles envisagent une migration dans les deux ans à venir… dont 63 % en faveur d’un cloud hébergé. Si les grandes entreprises semblent décidées pour leur majorité à franchir le pas, le modèle du cloud computing ne convainc pas encore

les perspectivestouteS leS étudeS laiSSent à PenSer que le cloud comPuting conStitue un tournant majeur danS l’évolution de l’informatique et deS SyStèmeS d’information. gartner annonce même une augmentation de 20 % en 2010 deS revenuS généréS Par leS ServiceS de cloud, Soit PrèS de 70 milliardS de dollarS.

Page 50: Pour une performance durable du cloud computingcluster006.ovh.net/.../Qostic6/AHQ-56-05-CloudComputing_Livre_Bla… · à Dallas, il avait défini le cloud comme étant « un ...

50

totalement les PME, qui pourtant doivent faire face aux mêmes problématiques. Moins enclines à réaliser de lourds investissements, elles semblent encore refroidies par le manque de maturité des offres. La tendance devrait toutefois s’inverser une fois le modèle généralisé au sein des grandes entreprises.

Vers un nuage intelligent ?

Quel que soit le modèle de cloud mis en œuvre – public / privé / hybride, IaaS / PaaS / SaaS… – les promesses annoncées (flexibilité dans le besoin de capacité, haute disponibilité, sécurité, diminution des coûts…) se devront d’être tenues. Or aujourd’hui, force est de constater que les services recourant à des données réparties et accessibles depuis des réseaux (mobiles et fixes) pâtissent de taux de panne trop

importants liés à plusieurs facteurs : la complexité des architectures, le nombre d’acteurs impliqués, le nombre de nœuds techniques rendent les tâches de diagnostic et de réparation extrêmement difficiles.

Chaque technologie présente des solidités et des dépendances à son environnement et à sa complexité intrinsèque (longues chaînes de plates-formes techniques et de gestion). Bien entendu, plus on combine de technologies, moins on maîtrise la garantie des services rendus à l’autre bout de la chaîne. Si l’on prend l’exemple d’un opérateur, 40 % des pannes de service sont dues à des problèmes de configuration et 80 % des budgets sont dépensés dans les opérations de maintenance et dans des améliorations mineures.

LES éCONOMIES D’éChELLES RéALISéES AU SEIN DES DATACENTERS

95 $ par Mbit / s / mois 13 $ par Mbit / s / mois

2,20 $ / Go / mois 0,40 $ / Go / mois

Env. 140 serveurs / adminisrateur

Env. 1 000 serveurs / adminisrateur

Datacenter de capacité moyenne

Datacenter de trèsgrande capacité

Réseau

Stockage

Administration

8

7

6

5

4

3

2

1

0

Coût au sein d’un datacenter de capacité moyenne (± 1 000 serveurs)Coût au sein d’un datacenter de très grande capacité (± 50 000 serveurs)

Source : HAMILTON, J. : “Internet Scale-Service Efficiency.In Large-Scale Distributed Systems and Middleware (LADIS) Workshop”, septembre 2008

Réseau

Ratio

Stockage Administration

Page 51: Pour une performance durable du cloud computingcluster006.ovh.net/.../Qostic6/AHQ-56-05-CloudComputing_Livre_Bla… · à Dallas, il avait défini le cloud comme étant « un ...

51

Dans ce contexte, les avancées en termes de technologie d’accès - qui favorisent d’une part, la convergence fixe / mobile et d’autre part, des moyens d’accès de plus en plus légers et de plus en plus performants - permettent l’utilisation de services riches et complexes « n’importe quand, de n’importe où et n’importe comment ». La qualité des services (QoS), et par extension la disponibilité de ces derniers et leur garantie, constituent un facteur primordial de leur succès et de la création de valeur qui en découle sous forme de nouveaux services et d’emplois.

Une révolution dans le domaine des architectures informatiques telles que nous les connaissons aujourd’hui pourrait être de renforcer la garantie des services complexes mettant en œuvre une chaîne de plates-formes informatiques temps réel et des réseaux de télécommunications divers, sur la base de l’utilisation du paradigme des architectures autonomes. L’idée générale serait de mettre au point, au sein des infrastructures, des mécanismes adaptatifs capables de récupérer des éléments d’information de leur environnement et de s’y adapter (thématique du projet x-AutonomiCS-System@tic).

À terme, les infrastructures informatiques évolueront

vers des systèmes dits ‘autonomes.’”

ExEMPLE D’ARChITECTURE AUTONOME DANS LE CADRE D’UNE INFRASTRUCTURE OPéRATEUR

Proposition de projet x-AutonomiCS-System@tic, Abdelhamid Mellouk, université Paris-Est (coord.), William Rang, directeur technique ip-label.newtest et Francine Krief, univ. de Bordeaux

Page 52: Pour une performance durable du cloud computingcluster006.ovh.net/.../Qostic6/AHQ-56-05-CloudComputing_Livre_Bla… · à Dallas, il avait défini le cloud comme étant « un ...

52

Objectif : enclencher des actions suite à des événements imprévus ou non souhaités comme une QoS insatisfaisante, un retour d’expérience négatif ou encore des dysfonctionnements des éléments du réseau.

Gérer l’adaptation du service aux besoins de disponibilité et de performance de manière automatique ne peut se faire que par l’adjonction de mécanismes permettant à la plate-forme de délivrer une optimisation dynamique des communications de bout en bout, à la fois adaptative et sans couture. Ainsi, il serait possible d’offrir, à défaut d’une garantie déterministe, une garantie probabiliste en s’adaptant, en temps

réel, à la nature variable des paramètres du système ainsi qu’à la dynamique des ressources disponibles.

Les différentes initiatives en ce sens, semblent montrer que les infrastructures informatiques évolueront vers des systèmes dits « autonomes » et dont les propriétés pourront être résumées en quatre objectifs – autoconfiguration, autoréparation, auto-optimisation, autoprotection – et quatre caractéristiques – conscience de soi, conscience de son environnement, autosurveillance et auto-ajustement. De tels systèmes devront avoir connaissance de leurs propres ressources, leurs composants, leurs performances, leur état interne et l’état de leurs connexions avec les autres systèmes. Plusieurs travaux ont mis en avant des systèmes et des architectures qui ont pour objectif de réaliser une ou plusieurs fonctions de gestion autonome avec des mécanismes et concepts offrant des degrés différents d’autonomie.

Les initiatives de recherche

Au niveau européen, une action de coordination appelée ACCA5 qui fait partie des projets ouverts du programme FP66 concernant les technologies émergentes7 dans l’IST8 a stimulé de nouvelles initiatives de recherche dans le domaine de la gestion autonome.

Il reste une dernièremarche à franchir

pour optimiser les ressources.”

5 ACCA : Autonomic Communication Coordination Action6 FP6 : Framework Programme7 FET : Future and Emergent Network Technologies8 IST : Information Society Technologies

MODèLE FONCTIONNEL DU SYSTèME ADAPTATIF

Sensor

Sensor Effector

Effector

Knowledge

Analyze Plan

ExecuteMonitor

Request for Change

ChangePlanSymptom

Policy

Page 53: Pour une performance durable du cloud computingcluster006.ovh.net/.../Qostic6/AHQ-56-05-CloudComputing_Livre_Bla… · à Dallas, il avait défini le cloud comme étant « un ...

53

Ainsi, plusieurs projets portant sur la gestion autonome ont été proposés :

• Programme SAc9 : BIONETS10, ANA11, CASCADAS12, hAGGLE13, SERENITY14.

• Programme fP7 : Autoi15, RESUMENET16, 4WARD et Selfnet.

• Secteur industriel : Autonomic System de Fujitsu Siemens Computer, Dynamic Systems de Microsoft, harmonious Computing d’hitachi, N1 Architecture de Sun MicroSystems.

• Secteur académique : Bio-Networking de l’université de Californie, AUtonomia de l’université d’Arizona, JSPOON de l’université de Columbia, CPN17 de l’Imperial College de Londres.

Sans aller jusqu’à la complète gestion des ressources de bout en bout, depuis les serveurs / applications jusqu’au réseau, certains acteurs du cloud computing ont mis en œuvre des connecteurs avec des systèmes de gestion / supervision d’infrastructure pour aller dans ce sens. C’est le cas par exemple d’Amazon CloudWatch qui permet une adaptation automatique des ressources en fonction de règles définies d’après des métriques orientées système. Idem chez Microsoft avec la possibilité pour le système de virtualisation hyper-v, de recevoir des informations de System Center Operations Manager

grâce au module PRO (Performance and Ressource Optimisation).

Cependant, force est de constater que pour rendre l’infrastructure la plus dynamique possible, il est essentiel d’y adjoindre des règles de gestion prenant en compte des informations issues de la performance de l’application telle qu’elle est ressentie par l’utilisateur final. Plusieurs méthodes permettent d’obtenir ces informations. Il est par exemple possible de recueillir un échantillon des performances par le positionnement de sondes logicielles actives en des endroits stratégiques. Une autre approche, plus exhaustive celle-là, consiste à recueillir l’ensemble des informations issues de transactions réelles d’utilisateurs en incluant par exemple des composants actifs dans le service ou dans le terminal. Ces approches peuvent être mises en œuvre dans un environnement de cloud aussi bien public, privé qu’hybride en injectant les informations dans les composants permettant de les traiter. Il reste encore une marge de progression en matière d’optimisation des ressources de l’infrastructure informatique. Il est erroné de dire que le passage du datacenter traditionnel vers le datacenter virtualisé, puis ensuite vers le cloud computing (datacenter élastique), a permis une optimisation des ressources en passant à un taux d’utilisation de celles-ci de 15 % à 100 %.

Il reste une dernière marche à franchir pour rendre l’infrastructure la plus adaptée possible au besoin

9 SAC : Situated and Autonomic Communication 10 BIONETS : Biologically-Inspired Autonomic Networks11 ANA : Autonomic Network Architecture12 CASCADAS : Componentware for Autonomic, Situation-Aware Communication and Dynamically Adaptable Services13 hAGGLE : A novel Communication Paradigm for Autonomic

Opportunistic Communication14 SERENITY : System Engineering for Security and Dependability15 Autoi : Autonomic Internet16 RESUMENET : Resilience and Survivability for Future Networking - Framework, Mechanisms, and Experimental Evaluation17 CPN : Cognitive Packet Networks

Page 54: Pour une performance durable du cloud computingcluster006.ovh.net/.../Qostic6/AHQ-56-05-CloudComputing_Livre_Bla… · à Dallas, il avait défini le cloud comme étant « un ...

54

en ressources. Cette ultime étape ne pourra se faire que grâce à un management dynamique rendu possible par des informations pertinentes permettant de se rapprocher du degré de qualité attendu par les utilisateurs.

Ainsi, pour Thierry Chamfrault, le cloud computing doit au final « se comporter » comme un service de location de voiture. « Où que je sois dans le monde, je dois pouvoir accéder à une voiture en état de marche, et peu importe qui est le loueur et la marque de la voiture ! »

Vers l’entreprise de demain

À terme, les datacenters et les réseaux évolueront de fait vers un catalogue de services à la demande. Les fournisseurs et les entreprises vont devoir s’adapter à de nouvelles contraintes « imposées » par le cloud pour réussir, d’un côté sa migration, de l’autre sa qualité de services. Les performances, la sécurité des données « cloudées » et la flexibilité du service en dépendent. Pour demeurer concurrentiels, les fournisseurs vont devoir améliorer l’efficacité de leur datacenter grâce aux nouvelles technologies, et travailler avec les entreprises elles-mêmes pour s’adapter, corriger les lacunes, optimiser leurs offres, rendre leurs services matures et ajuster leur politique tarifaire.

C’est donc une toute nouvelle relation qui va s’instaurer à travers le cloud computing. Une relation gagnant-gagnant dans laquelle utilisateurs et fournisseurs devront unifier leur vision. Telle est la condition sine qua non pour parvenir à une

gestion durable du cloud computing et créer de la valeur adaptée pour tous les acteurs, à tous les niveaux. Entreprises, fournisseurs et tiers de confiance doivent travailler ensemble pour profiter, chacun à leur niveau, de l’évolution des autres parties et évoluer dans le même sens. L’équation est simple :

Ajustement des offres+ Grille tarifaire adaptée

= Utilisateurs satisfaits avec un plus fort taux d’utilisation

Au final, le fournisseur de cloud doit nous apparaître comme une boîte noire. Mais il faut avoir un focus de plus en plus fort sur son propre client : le tiers de confiance permet alors d’avoir une objectivité sur ce que délivre le fournisseur !

Fermer la porte au déploiement de solutions dans le cloud serait une grave erreur car ce comportement favoriserait la mise en place par les directions fonctionnelles d’outils métier, (de CRM ou de travail collaboratif par exemple), à l’arrivée hétérogènes et incompatibles avec le système de l’entreprise. Une situation trop souvent vécue et qui rendrait l’infrastructure beaucoup plus complexe à gérer pour la DSI, sans parler d’une difficulté accrue pour aligner le SI sur les besoins métier de l’entreprise. Les directions informatiques doivent donc prendre de l’avance sur les directions fonctionnelles et anticiper leurs besoins, car celles-ci sont souvent tentées de

Page 55: Pour une performance durable du cloud computingcluster006.ovh.net/.../Qostic6/AHQ-56-05-CloudComputing_Livre_Bla… · à Dallas, il avait défini le cloud comme étant « un ...

55

faire vite et à moindre coût, sans se préoccuper des menaces auxquelles elles risquent d’exposer l’entreprise tout entière.

en route pour le « zéro infrastructure »

L’avènement du cloud computing fera des DSI de véritables centres de services pour les collaborateurs de l’entreprise. Les fournisseurs de cloud muteront en fournisseurs de services, tout comme les tiers de confiance… Le cloud computing constitue une réelle opportunité de repenser et de faire évoluer les métiers de la DSI et des opérations, voire même accélérer et

bousculer les modèles d’entreprise. Avec dans un premier temps la virtualisation, il tend à pousser les entreprises à se réinventer, à placer l’innovation dans leurs priorités, à intégrer les nouvelles technologies au service de leurs utilisateurs et de leurs enjeux critiques pour évoluer vers le « zéro infrastructure ».

En définitive, il faudrait aussi construire un « GPS » de l’information pour géolocaliser les données… Enjeu majeur pour le développement du cloud computing, il constitue l’un des services que le fournisseur se doit de délivrer.

Certes, nous n’en sommes pas encore tout à fait là, mais à n’en pas douter la révolution du cloud

LA PLAce De LA SÉcuRitÉ DAnS Le cLouD > thierry chamfrault« Le cloud va déplacer les centres d’intérêts des DSI : jusqu’ici, la DSI était tournée sur l’entreprise, les 

besoins utilisateurs, son environnement direct ; désormais, elle doit recentrer son intérêt sur le client. 

Et c’est là aussi l’un des avantages du cloud computing. Néanmoins, il est légitime de se demander si ce 

modèle ne va pas imposer un renforcement de la sécurité. En effet, comment trouver un juste équilibre 

entre une sécurité opérable et une sécurité stricte, contraignante ? Ne va-t-on pas surévaluer l’aspect 

sécurité dans le cloud et ainsi baisser ses performances intrinsèques ? L’attitude a ici beaucoup de 

poids. Comment vais-je entrer confiant dans le cloud computing ? L’un des plus gros échecs serait de 

surévaluer la sécurité (sans non plus la sous-évaluer) ! Il faut, d’une part gérer la valeur de la sécurité, 

d’autre part identifier les bons critères de pilotage de cette sécurité. Trop souvent, les fournisseurs 

profitent de cette crainte des DSI à mauvais usage… Certes, la sécurité reste un enjeu majeur mais elle 

ne doit pas s’avérer une barrière infranchissable. Sinon le proverbe “pour vivre heureux, vivons cachés’’ 

risque d’avoir un goût amer ! »

Pour 86 % des DSI européens, le cloud

computing représente l’avenir.”

Page 56: Pour une performance durable du cloud computingcluster006.ovh.net/.../Qostic6/AHQ-56-05-CloudComputing_Livre_Bla… · à Dallas, il avait défini le cloud comme étant « un ...

56

computing est en marche. Une ère s’ouvre pour les entreprises, en leur permettant d’acquérir une nouvelle dimension pour se tourner résolument vers les clients. Selon une enquête menée en mai 2010 auprès de 350 DSI européens (dont 67 DSI français) par Portio Research pour l’opérateur Colt, 86 % d’entre eux considèrent le cloud computing comme le modèle informatique d’avenir. Tel un « new deal », le PaaS risque à lui seul de bouleverser le paysage informatique dans les années à venir en créant un nouvel environnement de travail à forte valeur ajoutée pour chaque acteur. Désormais, l’infrastructure physique et technique, se gèrera hors des murs, libérant ainsi la DSI des contraintes associées à sa maintenance. Pour une gestion durable du cloud computing et une valorisation de ses contributeurs au travers d’une des plus grandes richesses des actes opérationnels !

LeS ActeuRS Du numÉRiQue Au SecouRS Du cLouD comPuting en fRAnce À tRAVeRS Le « gRAnD emPRunt »Dans les différentes études européennes

évoquées, la france semble traîner les

pieds pour passer au cloud computing. Les

partenariats de type public-privé (PPP)

devraient permettre aux entreprises

de bénéficier indirectement du « grand

emprunt » pour se lancer dans l’innovation

et notamment les modèles de type SaaS et

cloud computing, selon le Syntec. L’Afdel

(Association française des éditeurs de

logiciels), quant à elle, attire l’attention du

gouvernement sur le PaaS, qui deviendra de

plus en plus stratégique selon ses propres

termes. « Le cloud computing rebat les 

cartes, et va bousculer les chaînes de 

valeur actuelles et obliger les acteurs à se 

repositionner, affirme Loïc Rivière, délégué

à l’Afdel. Dans cet univers, les plates-formes 

vont devenir centrales car ceux qui les 

détiennent vont être capables d’imposer 

leurs choix technologiques et leur modèle 

économique. » Les entreprises auront alors

toutes les cartes en main pour sauter le pas !

Le cloud va instaurer une relation gagnant-gagnant

entre utilisateurs et fournisseurs.”

Page 57: Pour une performance durable du cloud computingcluster006.ovh.net/.../Qostic6/AHQ-56-05-CloudComputing_Livre_Bla… · à Dallas, il avait défini le cloud comme étant « un ...

57

Page 58: Pour une performance durable du cloud computingcluster006.ovh.net/.../Qostic6/AHQ-56-05-CloudComputing_Livre_Bla… · à Dallas, il avait défini le cloud comme étant « un ...

58

itSmf

L’itSMF est une association à but non lucratif créée en 1990 en Grande-Bretagne. Aujourd’hui présente dans 44 pays, elle regroupe principalement des sociétés utilisatrices de services informatiques et compte déjà plus de 3 000 entreprises membres dans le monde. L’itSMF France, née en 2003, a pour but de promouvoir et de développer le référentiel ITIL (Information Technology Infrastructure Library). Objectif : sensibiliser les utilisateurs pour transformer progressivement la DSI en centre de services. www.itsmf.fr

thierry chamfrault

Actuellement Directeur Qualité de la Direction infrastructure IT (GTS) au sein de la Société Générale Corporate Investment Banking, Thierry Chamfrault a intégré cette entreprise comme Directeur Qualité des

Infrastructures ITEC en 2008. Fort d’une longue expérience au préalable, il a successivement occupé les postes de Directeur Qualité de la DSI, Responsable de la Qualité de service et Responsable de la maîtrise d’ouvrage opérationnelle Internet chez Bouygues Telecom.

Passionné par les approches de service, il a créé en 2003, l’itSMF (Service Management Forum) français et s’y investit aujourd’hui en tant qu’administrateur et responsable de la commission « éducation et Normalisation ». Il est également membre du bureau de l’AESCM France, première association existant au monde pour promouvoir ce référentiel de sourcing. Depuis 2005, il anime le groupe d’experts Afnor sur l’ISO 20000, un comité de travail sur l’évolution et l’intégration en France de cette norme. De plus, il est chargé d’enseignement sur le thème des services dans de nombreuses grandes écoles (ENST Paris, Mines Paris, hEC, ESSEC, EMSI Grenoble). Enfin, il a contribué à la publication de deux ouvrages :

•  Des réseaux intelligents à la nouvelle génération de services, paru aux éditions hermès Sciences

les contributeursce livre Blanc S’aPPuie Sur l’exPertiSe de l’itSmf, garante de la qualité de Service en france – Par le BiaiS de Son adminiStrateur, thierry chamfrault – et Sur le travail d’iP-laBel.newteSt, véritaBle tierS de confiance deS entrePriSeS dePuiS une dizaine d’annéeS.

Page 59: Pour une performance durable du cloud computingcluster006.ovh.net/.../Qostic6/AHQ-56-05-CloudComputing_Livre_Bla… · à Dallas, il avait défini le cloud comme étant « un ...

59

en 2007, en collaboration avec Noémie Simoni - professeur à l’ENST Paris.

•  ITIL et la Gestion des services, paru aux éditions Dunod en 2006, en collaboration avec Claude Durand - directeur des infrastructures au sein de Logica.

• Un nouvel ouvrage sur la gestion des services est en cours de parution aux éditions Dunod (début 2011).

ip-label.newtest Partout dans le monde, les solutions ip-label.newtest mesurent la qualité des applications telle que les utilisateurs la perçoivent : applications métier mais aussi plates-formes web, voix et même télévision sur Internet. ip-label.newtest est un véritable tiers de confiance grâce à sa propre infrastructure de métrologie (70 points de présence pour près de 100 millions de mesures quotidiennes) et à son institut indépendant. Il est sollicité par les grandes entreprises et leurs prestataires pour maîtriser la performance de leurs applications critiques, gage de compétitivité, mais aussi par les opérateurs télécoms et les infogérants soucieux de la robustesse de leurs infrastructures.

Pour répondre à des usages et des besoins différents, ip-label.newtest propose à ses clients de manager ses solutions en mode SaaS ou de les laisser opérer par les entreprises elles-mêmes.

Au-delà de la mesure, ip-label.newtest offre aux directions informatiques et fonctionnelles son expertise de consulting pour les accompagner dans la gestion des risques et la réduction des coûts liés à la performance des applications métier. Présent en Europe, en Asie, en Amérique et en Afrique grâce à son réseau de partenaires tant commerciaux que techniques, ip-label.newtest assure dans le monde entier l’accès aux fonctionnalités attendues et l’homogénéité des niveaux de services.

Depuis 2008, ip-label.newtest est certifié NF ISO 9001:2008 pour l’ensemble de ses activités de métrologie et conseil en qualité perçue des services numériques. www.ip-label.com

59

Page 60: Pour une performance durable du cloud computingcluster006.ovh.net/.../Qostic6/AHQ-56-05-CloudComputing_Livre_Bla… · à Dallas, il avait défini le cloud comme étant « un ...

60

Notre ambition est clairement de le faire évoluer via une v2, puis une v3... en l’enrichissant par vos commentaires, critiques, remarques ainsi que par les évolutions que nous aurons nous-mêmes constatées. Pour cela, vous pouvez nous contacter par e-mail ([email protected]) ou rejoindre ip-label.newtest user group sur LinkedIn®. Faisons de ce groupe un endroit d’échanges entre experts – utilisateurs – et fournisseurs intéressés par le cloud computing.

Chaque contributeur recevra ainsi régulièrement la nouvelle version en format électronique. N’hésitez plus : faites-nous part de vos contributions ainsi que des thèmes nouveaux à aborder. Pour la bonne organisation de ce groupe, nous avons segmenté les discussions en respectant le chapitrage de ce livre blanc.

où en est-on sur le cloud computing ?

Définitions, évolutions du marché en Europe et à travers le monde, modèles de déploiement, évolution des acteurs principaux, tarifs, etc.

Les conditions de son développement

Les priorités des directions, les craintes et difficultés, les bénéfices, les impacts sur les organisations, le pilotage du cloud, le suivi des indicateurs…

Les retours d’expériences

Les témoignages que vous souhaitez faire :

• Quelle stratégie ai-je menée ?

• Qu’ai-je mis en place ?

• Quels bénéfices ai-je obtenus et comment les ai-je mesurés ?

• Quelles difficultés ai-je rencontrées et comment ai-je pu les surmonter ?

Les perspectives d’évolutionpour le cloud computing

à vos commentaires ! vouS venez de découvrir ce livre Blanc qui PréSente noS travaux et notre viSion au 4e trimeStre 2010 Sur le cloud comPuting. Bien évidemment, même Si nouS avonS inveSti BeaucouP de temPS et que de nomBreuSeS PerSonneS ont ParticiPé à cet ouvrage, il eSt Par nature incomPlet et Surtout, il riSque de devenir oBSolète raPidement.

contactez-nous via notre groupe ip-label.newtest user groupou par e-mail : [email protected]

Page 61: Pour une performance durable du cloud computingcluster006.ovh.net/.../Qostic6/AHQ-56-05-CloudComputing_Livre_Bla… · à Dallas, il avait défini le cloud comme étant « un ...

En collaboration avec

www.ip-label.com

Ce document est une publication du groupe ip-label.newtest. Toutes les marques et logos, déposés ou non, sont la propriété de leurs détenteurs respectifs. Reproduction ou communication même partielle interdite sans autorisation écrite d’ip-label.newtest.

Conception / réalisation : indexelPhotos © Thinkstock 2010

F R A N C E