Accueil Revues Revue Numéro Article

Le journal de l'école de Paris du management

2004/6 (N°50)


ALERTES EMAIL - REVUE Le journal de l'école de Paris du management

Votre alerte a bien été prise en compte.

Vous recevrez un email à chaque nouvelle parution d'un numéro de cette revue.

Fermer

Article précédent Pages 7 - 13 Article suivant
1

Face à l’évolution de l’informatique, IBM offre plus de technologies avec le grid, la virtualisation ou l’autonomic computing mais aussi, et surtout, plus d’expérience spécifique dans l’industrie de ses clients, combinant la connaissance des processus métiers et des technologies. Moderniser l’informatique de ses clients mais tirer les conséquences ultimes des nouvelles technologies en réorganisant complètement les process des entreprises, telle est la stratégie “business on demand” d’IBM.

2

Responsable pour l’Europe des strategic business opportunities, je dirige une start-up qui est chargée de superviser les start-ups créées au sein d’IBM. Je vais vous présenter les évolutions de l’informatique dans les trois à quatre prochaines années, ce qui revient, en fait, à parler des domaines dans lesquels IBM investit.

3

La presse s’est fait l’écho d’un nouveau concept lancé par IBM : le e-business on demand. Les chefs d’entreprise sont en effet confrontés à divers problèmes : la volatilité de l’économie, les clients rois, la compétitivité, l’absolue nécessité de ne pas commettre d’erreurs. Pour relever ces défis, ils doivent respecter un certain nombre de règles : avoir un positionnement stratégique clair, une relation optimale avec leurs clients, des coûts réduits et une culture du management.

4

Pour y parvenir, la technologie informatique et les process de business doivent être étroitement liés. C’est pour cette raison que nous avons racheté Price Water House car si nous possédions sans conteste la technologie, nous ne répondions qu’imparfaitement à la connaissance du métier de nos clients : il nous fallait donc un partenaire pour lier les process des entreprises aux aspects technologiques.

5

Dans les années 1980, on voulait que tous les salariés puissent avoir accès à l’information. Durant la décennie suivante, on s’est attaché à ce qu’il y ait une communication horizontale entre les divers piliers d’une entreprise (CRM, Supply chain…). Aujourd’hui, on veut une relation à la demande : le maître mot est l’adaptabilité au sein des entreprises, mais aussi avec les clients et les fournisseurs. Le système doit pouvoir répondre très vite à la croissance, ou à la contraction du marché ; rester compétitif en structure de coûts : bref, il doit être capable de respirer.

6

Le e-business on demand ne dépend donc pas simplement de la technologie informatique mais implique une transformation radicale des process au sein de l’entreprise.

7

Cet exposé a pour but de décrire comment la “plomberie” informatique – l’infrastructure – va être capable de répondre à cette révolution en associant une refonte des process.

Technologie et informatique

8

Pour les super ordinateurs, IBM a mis en service en 1998 Deep Blue. Sa capacité de traitement était équivalente à celle du cerveau d’un lézard, ce qui n’est sans doute pas très gentil pour Kasparov qui a joué et perdu aux échecs contre cette machine. Ensuite est venu ASCI Purple pour simuler les essais nucléaires américains et qui pouvait effectuer dix trillions d’opérations à la seconde, soit la capacité de traitement du cerveau d’une souris. Blue Gene va être mis en service pour faire de la simulation complexe, comme la climatologie complète. Cet ordinateur compte cent mille processeurs – Power.

9

Aujourd’hui, la progression est plus qu’exponentielle et il en ira de même pendant les cinq prochaines années. La loi de Moore qui veut que les capacités de traitement doublent tous les dix-huit mois va donc continuer à se vérifier.

10

Pourquoi sommes-nous aussi sûrs de cette évolution ?

La technologie

11

Nous savons exactement quelles technologies seront appliquées durant les trois prochaines années. Le Iow-k dielectric a un facteur de couplage extrêmement faible, ce qui permet de rapprocher les fils. Cette technologie est d’ores et déjà maîtrisée. Il en va de même pour le strained silicon qui permet d’accélérer la vitesse des électrons de 30 % et pour le Double Gate, qui permet de monter les transistors en 3D. Ces trois évolutions nous permettront de doubler la performance de nos ordinateurs tous les dix-huit mois.

12

Ensuite, les nanotechnologies auront des applications très intéressantes pour les ordinateurs. Nous n’en sommes certes qu’au stade de la recherche mais les nouveaux produits seront sur le marché dans sept à huit ans.

13

En ce qui concerne le stockage, nous travaillons sur le projet Millipede : on pourra stocker sur un pouce carré un térabit, c’est-à-dire soixante-dix millions de pages de texte, soit cent mille livres : en gros, la bibliothèque d’Alexandrie… Certes, ce projet n’est pas encore sorti des laboratoires, mais les technologies sont connues et publiées.

14

Sans crainte de se tromper, on peut donc assurer que les améliorations que nous avons connues ces dernières années en termes de stockage et de microprocesseurs vont se poursuivre au moins au même rythme.

L’architecture

15

Cette accélération de la performance concerne aussi les architectures. Aujourd’hui, il en existe deux grands types : le scale up, c’est-à-dire des ordinateurs de plus en plus puissants, mais aussi le scale out avec une multiplication de processeurs en parallèle. Le gros avantage de cette technique tient à son faible coût puisqu’elle requiert des lames montées en parallèle qui coûtent moins de deux mille dollars pièce.

16

Entre ces deux types d’architectures, on trouve les clusters : ce sont des machines qui travaillent ensemble, avec des operating systems différents mais étroitement liés.

17

À l’avenir, les technologies de type blue gene, qui offrent des capacités de traitement extrêmement intensives, vont se généraliser aux États-Unis, mais aussi en Europe. Certes, on ne les trouve pas encore dans notre catalogue, mais certains centres de recherche possèdent déjà non plus cent vingt ou deux cent cinquante processeurs dans une même armoire, mais deux mille avec des technologies de connexion très innovantes !

18

Ainsi, avec une technologie et des architectures en pleine évolution, les utilisateurs vont bénéficier au moins jusqu’à la fin de la décennie d’une croissance plus qu’exponentielle.

Linux

19

Comme pour l’internet, Linux a d’abord été utilisé par les universités : une fois qu’un nouveau produit est disponible, un petit cercle s’en empare puis il touche, de proche en proche, de nouvelles catégories. Enfin, le monde du travail s’y intéresse. Le groupe IBM consacre, quant à lui, des sommes considérables au développement de Linux.

20

L’aventure Linux a commencé par les infrastructures, puis s’est développée sur des applications, et concerne maintenant les postes clients eux-mêmes (PC – thinkpad).

Les infrastructures

21

Fire walls, file and print, web server, e-mail… sont parmi les infrastructures principalement concernées. Les entreprises ont adopté Linux pour des raisons de coût et pour se libérer de Microsoft. En outre, nos clients nous disent que la technologie Linux est plus fiable. Ainsi, une banque anglaise qui travaille avec les pays émergeants a décidé de basculer tous ses sites Microsoft sous Linux pour en assurer une meilleure sécurité.

Les applications

22

Un certain nombre d’applications pour le e-commerce sont aussi concernées : Lawson, au Japon, a décidé de n’utiliser pour ses magasins virtuels que du Linux.

23

Tout ce qui concerne les clusters, les super ordinateurs, la simulation pétrolière et sismique et, de façon plus générale, l’industrie, utilise aujourd’hui à 75 % Linux.

24

Si de grands centres de recherche comme le CEA restent sur des technologies plus traditionnelles Unix, les applications des grands éditeurs de logiciel (SAP, People Soft) sont maintenant disponibles et souvent développées sur Linux : par exemple, selon une annonce récente de SAP, ce sera le cas de son operating system stratégique.

Les postes clients (PC – Think pad)

25

Contrairement aux étapes précédentes, cette dernière étape – l’utilisation de Linux par les clients eux-mêmes – est loin d’être mature. Il convient donc d’être prudent et d’attendre un peu. Windows possède encore une richesse d’application que n’offre pas Linux. En outre, dans deux ou trois ans, il y aura sans doute moins d’ordinateurs autonomes : les architectures seront indépendantes des machines et le recours à Linux se justifiera complètement. Les applications ne seront en effet plus dans les ordinateurs mais centralisées et les clients importeront ce dont ils auront réellement besoin. Linux est en phase de croissance continue tandis que Windows marque le pas, mais ce dernier continuera à dominer le marché pendant encore longtemps. Il faut à tout prix éviter que plusieurs Linux ne se développent. C’est pourquoi l’Open Source Development Lab (OSDL) est si important ; Linus Torvals, le père de Linux, a rejoint récemment cette organisation. Ce consortium regroupe au niveau mondial les plus grands industriels et son objectif est de conserver le noyau Linux constant afin que les éditeurs n’aient pas à compiler ou tester régulièrement leurs programmes. L’OSDL va sans doute gagner son pari car tous les acteurs, sauf Microsoft, sont d’accord. IBM milite en faveur d’un monde ouvert, seul à même de garantir la croissance dans les prochaines années.

Le grid computing

26

Aujourd’hui, nous en sommes à l’internet de deuxième génération, c’est-à-dire qu’à partir d’un ordinateur personnel, on peut se connecter n’importe où dans le monde et faire des transactions sur un ordinateur et un seul. Avec le grid computing, nous passerons à l’internet de troisième génération en ayant la possibilité d’utiliser les ressources de tout un réseau d’ordinateur : une opération mobilisera non pas une machine comme aujourd’hui mais des centaines d’ordinateurs à la fois.

L’intra-grid

27

À l’heure actuelle, l’intra-grid commence à se développer dans les entreprises : protégées à l’intérieur d’un fire wall, les ressources non utilisées par les ordinateurs d’un même réseau peuvent l’être désormais. Sur un main frame, le taux d’utilisation de la machine dépasse 80 %. Sur une machine Unix, le taux moyen tourne autour de 20 % et il tombe à 5 % avec des ordinateurs type Intel fonctionnant sous Windows. D’énormes capacités de traitement n’étant donc pas utilisées, cette technologie permet de les optimiser à l’intérieur d’une entreprise.

L’extra-grid

28

Quelques expériences ont déjà eu lieu pour permettre à des entreprises de mettre en commun leurs ressources informatiques avec leurs sous-traitants et leurs clients. Ainsi, pour dessiner une aile d’avion, la capacité de traitement nécessaire est extrêmement élevée : pour y parvenir, il sera possible de demander, pendant quelques semaines, le concours de tous les ordinateurs à l’intérieur, mais aussi à l’extérieur de l’entreprise. Lorsque le Concorde s’est crashé, il a fallu une capacité de traitement supérieure à la normale pour comprendre les raisons de l’accident. Là encore, le recours au grid aurait pu se révéler déterminant.

L’inter-grid

29

Tous les centres de recherche en Allemagne, en Grande-Bretagne et en France ont mis au point ce type de grid. Le niveau de maturité en ce domaine diffère énormément d’un pays à l’autre. Les plus avancés sont les Anglais : le cabinet de Tony Blair a décidé d’injecter trois cents millions de livres pendant les trois ans à venir dans cette technologie. IBM a ainsi développé en partenariat plusieurs projets. Un qui a fait l’objet de publications presse : le projet e-diamond pour la détection des cancers du sein : cinq hôpitaux sont reliés entre eux et ont crée une base de données grid ; lorsqu’une femme vient pour une mammographie, le système indique directement au praticien s’il y a une tâche suspecte, s’il faut faire un examen complémentaire et il lui donne l’historique des traitements concernant les patients qui présentaient la même pathologie. D’ici 2007, ce système sera opérationnel et le plan est de le généraliser dans les quatre-vingt-quinze hôpitaux publics anglais. Des projets identiques sont menés en Italie et en Belgique. La France n’en est pas encore là, même si elle ne reste pas inactive.

Historique du grid

30

Ce système s’est développé dans les années 1990 à la demande des scientifiques. Le Global grid forum, sorte d’organisme de normalisation du grid, a été créé en 2001.

31

Trois étapes :

  • d’abord, les super ordinateurs dans les centres de recherche ont bénéficié de cette technologie ;

  • depuis 2001, le grid est sorti des centres de recherche pure pour entrer dans les entreprises ; dans les deux à trois prochaines années, d’une façon ou d’une autre, toutes les entreprises testeront ces technologies ; IBM a travaillé avec Globus pour développer cette technique et la rendre accessible au monde du business – architecture OGSA ; aujourd’hui 95 % des grilles installées utilisent Globus tool kit, sorte de kit qui permet de construire sa propre grille ; une grille ne s’achète pas, elle se construit ;

  • la prochaine étape permettra de rapprocher les technologies grid et web service ; une fois ce standard adopté, l’internet de troisième génération pourra réellement décoller.

Le grid : cas concrets

32

Voici plusieurs cas concrets pour mieux faire comprendre l’utilité du grid.

Le grid d’IBM

33

IBM utilise grid pour ses propres besoins en matière de simulation de circuits mais aussi pour virtualiser les ressources mises à la disposition des éditeurs de logiciels pour tester les technologies IBM.

34

Il y a deux ans et demi, un centre de recherche Grid innovation center a été implanté à Montpellier. Au départ, nous pensions que 80 % des projets qui nous seraient présentés consisteraient à optimiser les ressources existantes. Il n’en a rien été : quatre projets sur cinq concernent des développements que leurs créateurs n’auraient jamais imaginé mener à bien sans cette technologie. Avec une capacité de traitement bien supérieure à celle dont ils disposaient antérieurement, ils peuvent ainsi innover.

35

Les entreprises qui se sont spécialisées dans les sciences de la vie ont des besoins en capacités de traitement gigantesques, mais très ponctuels pour une semaine tout au plus et ensuite ils ont trois mois de travail d’analyse de campagne. À Montpellier, nous leur proposons d’acheter ces capacités à la semaine. Dans ce même centre, un certain nombre d’applications ont été développées pour la finance, les sciences de la vie, l’automobile, l’aérospatial, l’agriculture, l’électronique, le pétrole, l’éducation… Ce type de technologie n’est pas uniquement réservé aux grandes entreprises : des PME très dynamiques s’y intéressent aussi. Pour que les entreprises adoptent ces nouvelles technologies, il faut avoir une démarche de business.

36

Dans une entreprise on n’installe pas une grille pour moderniser l’infrastructure de calcul. On choisit une application pour laquelle le retour sur investissement est favorable. On la “gridifie” et on passe à la suivante.

37

Enfin, IBM est en train de participer à un projet à l’échelle européenne pour relier tous les centres européens de recherche afin de créer un super ordinateur virtuel plus gros que celui qui existe aux États-Unis.

La banque Charles Schwab

38

Charles Schwab est une banque spécialisée dans le trading on line. Dans le secteur bancaire, les services de credit risk, de market risk et d’operational risk sont traditionnellement indépendants et le taux d’utilisation de leurs ordinateurs va de 2,5 % à 40 %. Notre objectif était de partager ces ressources inutilisées pour être beaucoup plus rapidement opérationnels. Pour faire une opération avec un client, Charles Schwab avait besoin de quinze minutes. Aujourd’hui, ses services y parviennent en trente secondes en utilisant simplement les ressources existantes ! En outre, les analyses de portefeuille se faisaient toutes les 48 heures. Désormais, elles sont réalisées toutes les demi-heures. Pour un banquier, connaître ses risques aussi rapidement lui permet de faire des économies considérables. Cette technologie a donc complètement changé son business model.

Le projet Data grid du CERN

39

Cet organisme va développer dix pétabytes en 2007, soit un terabyte par jour. Les six mille scientifiques répartis dans le monde sur une centaine de sites pourront, à un moment donné, lancer un traitement de données sur tous les ordinateurs de ces centres.

Le projet Décrypton

40

Le projet Décrypton consistait à demander aux internautes de nous adresser tous leurs cycles perdus sur leurs PC afin de faire de la recherche sur la génomique. Quatre-vingt mille personnes ont accepté et nous avons donné des teraflops à l’association française contre les myopathies (AFM) pour faire du décryptage en génomique. En deux mois, alors que nous avions estimé qu’il en faudrait quatre, l’AFM a décodé un nombre impressionnant de protéines et aucun internaute n’a été gêné !

41

Les États-Unis ont actuellement un projet identique avec Small pox et nous allons lancer en France un Décrypton II, qui sera permanent : l’AFM pourra utiliser les ressources existantes sur un réseau universitaire et les cycles des internautes qui nous auront donné leur accord.

42

Grid est donc disponible dans les centres de recherche, dans les universités, et arrive dans l’industrie et dans les banques. Ainsi, les salles de marché ont quasiment toutes adopté Linux et mis en place une grille, ce qui a entraîné un changement complet des business model. Ces technologies commencent aussi à être utilisées dans les domaines de l’engineering et du design : des modules de simulation d’espace qui pouvaient prendre plusieurs jours sont désormais ramenés à quatre ou cinq heures. Dans le domaine pétrolier, Shell est en train de repenser toutes ses activités de simulation grâce au grid.

43

Cette révolution s’est imposée très rapidement grâce à son coût modéré : il n’a pas fallu acheter de nouveaux matériels mais simplement mieux utiliser les ressources existantes.

La virtualisation

44

Qu’est ce que la virtualisation ? La machine physique est reliée à un environnement composé de capacités de traitement et de stockage qui peuvent être totalement délocalisées sans que l’utilisateur final perçoive une quelconque différence.

45

C’est une évolution extrêmement importante car un des points de blocage actuel concerne la gestion de machines informatiques très complexes. C’est pourquoi Linux, mais aussi Microsoft, ont ajouté à leurs programmes une couche logicielle qui permet de virtualiser les ressources. L’intérêt de la virtualisation, c’est qu’il n’y ait plus d’intervention humaine : le système se gère lui-même. Les gestionnaires du système se concertent pour accorder à tel utilisateur un temps donné de réponse. Si une surchauffe intervient et que le délai s’allonge, de nouvelles ressources sont affectées pour que les choses rentrent dans l’ordre. Quand la demande diminue, le système désalloue des machines et les réoriente vers d’autres utilisateurs.

46

D’ores et déjà, cette virtualisation existe pour les capacités de traitement, le stockage et les réseaux. Les entreprises se montrent très intéressées par cette technologie qui permet de mieux utiliser les ressources existantes et d’optimiser le coût d’utilisation.

47

Il n’y a aucun risque de saturation des réseaux car les fibres sont noires, inutilisées à 90 % en Europe, mais aussi aux États-Unis. Les télécoms ont en effet mis en place des réseaux surdimensionnés qui peuvent supporter des charges bien plus lourdes qu’aujourd’hui.

Vers l’informatique autonome

48

En 2000, on s’est aperçu qu’un des freins fondamentaux à la croissance informatique, c’était la complexité dans la gestion informatique. Certains de nos clients consacraient 80 % de leur budget informatique pour maintenir l’existant ! Ils avaient de moins en moins d’argent pour investir dans l’innovation, changer les process source de valeur pour l’entreprise.

49

IBM a donc décidé de résoudre ce problème en incluant dans ses logiciels et dans ses serveurs des agents permettant de rendre possible cette virtualisation, optimisant et sécurisant les ressources. Ainsi, en cas d’attaque de virus, le système réagit lui-même, se protège, se cicatrise et s’auto-configure, en bref une informatique autonome. Nous partageons cette technologie avec nos partenaires et clients. Notre objectif est de parvenir à ce que la structure informatique se gère elle-même, avec un minimum d’intervention humaine. Nous travaillons sur cette question depuis quatre ans et nous disposons de toutes les composantes nécessaires.

50

Sur une échelle de cinq niveaux allant de l’intervention humaine pure à l’autonomie complète des systèmes informatiques, nous permettons à nos clients de se positionner par une méthodologie.

51

Ces technologies – autonomic – sont en open source et sont bien évidemment à la disposition de tous nos partenaires sur le site d’IBM.

52

En revanche, le niveau ultime n’est pas encore atteint. On peut commencer à gérer des infrastructures par business policy mais l’autonomie complète n’est pas encore atteinte même si d’énormes investissements y sont consacrés.

La capacité à la demande

53

La capacité à la demande consiste à facturer nos clients en fonction de ce qu’ils utilisent, tant en termes de stockage, que de hardware ou de logiciels. Même si le marché en ce domaine est en devenir, nous proposons déjà à certains de nos clients d’avoir des coûts variables en fonction de leur demande afin qu’ils puissent s’adapter le plus rapidement possible à leur marché, leur environnement.

L’évolution au niveau du poste client (PC – think pad)

54

Le coût des postes client est non négligeable et représente un poste important du budget informatique si on inclut les coûts globaux d’installation, maintenance des applications, la sauvegarde des données et système – le coût d’usage complet. L’amélioration va venir par centralisation des applications et des outils sur un serveur central. Toute la coûteuse complexité de gestion des applications et sauvegarde sera alors centralisée et pour l’utilisateur final la fin du cauchemar. Sur le poste client (PC, Thinkpad, palmtop, téléphone…) il y aura seulement ce qu’il est convenu d’appeler un container. À la demande, tout ce dont l’utilisateur aura besoin sera téléchargé lors de la connexion à l’internet, une synchronisation applicative en quelque sorte. Cette technologie permettant comme aujourd’hui de travailler en autonome entre deux connexions internet, entre deux synchronisations. Toute la complexité de la gestion des logiciels et des installations sera centralisée. En outre, ce système leur offrira une bien meilleure sécurité car le container n’accepte que ce qui a été filtré auparavant.

Le e-business on demand

55

Autre possibilité : le e-business on demand permet de partager les risques : un client qui reprend totalement son process informatique en attend des gains de productivité. À l’avenir, il pourra nous demander de partager les risques mais aussi les bénéfices. Nous n’en sommes pas encore là mais nous y parviendrons à plus ou moins brève échéance.

Conclusion

56

Dans les années 1940 on a commencé à digitaliser les données. Ensuite vers 1965, on a digitalisé les transactions. En 2004, la prochaine révolution, c’est la digitalisation des process, c’est-à-dire le e-business on demand. Cela va nécessiter des capacités de traitement énormes mais, bonne nouvelle, nous les aurons et à un prix raisonnable et les gains pour l’entreprise seront mesurables et directement liés à leur business model.

Débat

La métamorphose d’IBM

57

Un intervenant : En dix ans, IBM, qui a été reçu quatre fois par l’École de Paris, a profondément évolué : ses effectifs ont fondu de moitié tandis que ce groupe passait du hardware pur au tout service. En outre, avec Linux, il joue la carte de la gratuité. Mais, en vous écoutant, je me demande si IBM n’en revient pas, d’une certaine façon, aux sources : dans un futur proche, tous vos clients se connecteront à un grand serveur central, sorte d’architecte en chef.

58

Michel Teyssedre : Je ne le crois pas. À l’époque où nous gardions jalousement nos secrets, nous avons failli aller dans le mur. La mutation a été douloureuse : nous nous sommes ouverts et c’était fondamental car nos clients l’exigeaient mais nous sommes quand même passés de quatre cent mille à deux cent trente mille salariés ! Nous nous sommes ensuite orientés vers les open system : quand Linux est arrivé, il nous a fallu investir un milliard de dollars pour passer tout notre hardware et middleware sous Linux. Si nous n’avions pas pris ce tournant, nous serions certainement dans une situation très difficile, comparable à celle que traversent bien des constructeurs aujourd’hui. L’IBM d’hier est mort et ne renaîtra pas. Nos clients veulent que nous les aidions à s’adapter à un monde qui change de plus en plus vite et nous pouvons bien sûr le faire au niveau de l’infrastructure mais aussi au niveau des process.

59

Int. : Vous avez racheté de nombreuses sociétés : pourquoi ?

60

M. T. : À l’heure actuelle, IBM investit quatre milliards de dollars dans la recherche fondamentale, et pas seulement en recherche informatique. Dans les dix dernières années, nous avons été la compagnie qui a déposé le plus de brevets. Nous ne considérons cependant pas que nous avons le monopole de l’intelligence et il est naturel que ceux qui créent de nouveaux logiciels ou de nouvelles technologies soient associés à notre développement. Nous faisons d’ailleurs plus d’acquisitions dans le domaine des logiciels que dans celui du hardware.

61

En outre, nous avons conclu de nombreux partenariats : ainsi en est-il avec Microsoft, Cisco et d’autres… Par exemple, nous avons signé un accord avec HP, Alcatel, Nokia et Nortel pour mettre au point un Linux pour les télécoms.

62

Enfin, nous travaillons avec des industriels, des gouvernements, des universités et des laboratoires.

Le rachat de Price Water House

63

Int. : Avec la digitalisation des données, on s’adressait aux informaticiens. Avec celle des process, on s’adresse aux professionnels : votre interlocuteur n’est donc plus le directeur de l’informatique mais tous ceux qui utilisent vos produits. Comment faites-vous pour vous adresser directement à eux ?

64

M. T. : Nous avions un contact privilégié avec la direction informatique et peu avec les directions fonctionnelles métier et c’est pourquoi nous avons racheté Price Water House car ils connaissent les process et ils ont des contacts dans toutes les entreprises. Avec le savoir-faire de cette entreprise, nous allons pouvoir lier les process d’une entreprise à l’outil informatique ce qui nous permettra de faire la différence avec nos concurrents et d’envisager des business models très différents avec, par exemple, le partage de risque que j’évoquais tout à l’heure. Dans les années 1980, certains constructeurs automobiles ont choisi de faire du volume, Renault, Volkswagen, et d’autres de la valeur ajoutée, Mercedes, BMW. Quant à Citroën, Alpha Roméo et les fabricants anglais, ils n’ont pas choisi entre les deux stratégies. On s’aperçoit aujourd’hui que ce sont ceux qui ont fait un choix clair qui sont devenus leaders. Il en va de même en informatique : IBM a choisi de faire de la valeur ajoutée, Dell du volume, tandis que d’autres ne se sont pas vraiment positionnés et se trouvent confrontés à des difficultés.

65

Int. : Comment gérez-vous l’intégration de Price Water House ?

66

M. T. : La complémentarité entre nos deux groupes est extrêmement forte. IBM proposait certes des services pour son matériel et ses logiciels mais il avait peu d’activité de conseil au sens business transformation, spécialité de Price Water House. L’intégration n’est pas simple mais elle ne se fait pas non plus dans la douleur. Les résultats d’IBM de ces deux dernières années confirment d’ailleurs que les choses se passent plutôt bien.

67

Int. : Lorsque vous allez vous attaquer à la digitalisation des process, évolution inéluctable, vous buterez sur l’hétérogénéité des process dans chaque entreprise… Ne faudrait-il pas intégrer ce concept de on demand pour permettre aux entreprises de bénéficier d’une adaptabilité des systèmes suffisante ?

68

M. T. : J’ai traité aujourd’hui l’infrastructure, la plomberie, pour montrer quelles futures technologies allaient simplifier l’environnement de l’entreprise. Mais l’aspect process est effectivement essentiel, et BCS (Price Water House) y travaille d’arrache-pied !

Les relations entre Microsoft et IBM

69

Int. : Quelles sont vos relations avec Microsoft, sachant que vous utilisez Linux et que vous incitez vos clients à faire de même ?

70

M. T. : Nous avons des accords de partenariat avec Microsoft extrêmement étroits, mais nous ne sommes pas mariés ensemble. Nos clients nous incitent à leur proposer plusieurs solutions et c’est d’ailleurs pourquoi grid fonctionne aussi sous Windows. Vous n’assisterez donc pas à une guerre entre IBM et Microsoft. De plus, nous vivons dans un monde qui bouge et il n’est pas dit que le Microsoft de demain sera celui d’aujourd’hui. Dans trois ou quatre ans, les micro-ordinateurs seront sans doute en perte de vitesse car de nouveaux outils seront proposés à des clients légers – palmtop, smart phone –, avec des interfaces plus conviviales. Le clavier n’est pas une fin en soi et il ne sera pas éternel ! Les trois principaux constructeurs de consoles de jeu ont d’ailleurs bien compris cela : leurs prochaines machines tourneront sous architecture Power ce qui modifiera complètement les rapports entre le joueur et sa console.

Nouveautés et résistances

71

Int. : Ces nouvelles technologies ne vont-elles pas forcer les utilisateurs à modifier leurs comportements ? Vont-ils s’y plier ?

72

M. T. : Tout doit être le plus simple possible pour l’utilisateur final, sinon la technologie ne passera pas. L’internet en est un très bon exemple : au début, c’était compliqué et peu de gens s’y intéressaient. Lorsqu’il est devenu plus accessible, tout le monde s’y est converti.

73

Autour de cette table, personne n’a utilisé de grid. Si je demandais à vos enfants s’ils ont déjà téléchargé de la musique sur Kazaa, toutes les mains se lèveraient ! Or il s’agit d’une sorte de grid !

74

Int. : Les évolutions ne sont-elles pas nécessairement ralenties en raison des mentalités qui doivent évoluer ?

75

M. T. : Oui et non ! Cela dépend de l’argent que l’on peut gagner. Ainsi, il y a deux ans, nous avons mis en place le premier partage de ressources dans une banque et toutes, à l’heure actuelle, travaillent sur des projets similaires. Mais une telle évolution transforme aussi complètement notre métier : nous ne sommes plus là pour vendre seulement du hardware mais de la valeur ajoutée.

Bénéfices d’IBM

76

Int. : Étant donné que le coût des équipements informatiques diminue, comment IBM envisage-t-il l’avenir ?

77

M. T. : Nous vendons bien sûr le matériel, mais aussi les logiciels et surtout les services qui vont autour. Aujourd’hui, la part service représente 50 % de notre activité. Il n’en reste pas moins que la demande en capacité de traitement est extrêmement forte : l’année dernière, elle a doublé et la progression devrait se poursuivre et même s’amplifier dans les années à venir. Même si le coût unitaire diminue, la croissance de la demande est telle que nous n’avons aucune inquiétude.

Le personnel d’IBM face à l’évolution

78

Int. : Les collaborateurs d’IBM se voient allouer des ressources informatiques et des mètres carrés de bureau en fonction de leurs besoins. On sait donc exactement ce qu’ils coûtent et donc ce qu’ils doivent rapporter. Comment est-ce vécu ?

79

M. T. : IBM France a souhaité rendre la mobilité de ses collaborateurs complète : depuis deux mois, il n’y a plus de bureaux fixes et le personnel dispose des technologies adéquates pour communiquer de leur voiture ou de leur domicile. Même les directeurs n’ont plus de bureau, ni de secrétaires ! C’est un changement brutal et un choc pour les plus anciens. Comme cette nouvelle politique est très récente, il est encore un peu tôt pour en tirer des conclusions.

80

Par ailleurs, nous mettons les usines en compétition en suivant de très près leurs coûts de fabrication pour un même produit. Quand une entité fait un gain de productivité, elle en est propriétaire pendant six ou douze mois. Ensuite, elle doit transmettre cet avantage compétitif aux autres usines du groupe.

Une fiabilité absolue ?

81

Int. : Un système aussi ouvert ne s’effondrera-t-il pas s’il est confronté à une attaque informatique massive ? Vos clients sont-ils prêts à prendre de tels risques ?

82

M. T. : Nous faisons des investissements énormes pour que nos systèmes se protègent eux-mêmes, sans intervention humaine. Dans le grid tel qu’il existe aujourd’hui, on est à l’intérieur du firewall. Lorsque l’on passera à l’extra-grid qui impliquera les fournisseurs et les clients, il faudra un firewall virtuel étendu. Pour l’instant, les quelques projets en extra-grid sur lesquels nous travaillons communiquent entre eux par réseaux spécialisés.

83

Int. : Les employés d’IBM ayant un accès privilégié à tous les codes clients, un collaborateur indélicat ne pourrait-il pas provoquer des dégâts considérables ?

84

M. T. : Lorsque nous signons un contrat avec un client, nous garantissons l’intégrité de nos collaborateurs. Ensuite, il s’agit d’une question d’éthique. Mais il y a aussi des lois et ce n’est pas parce que nos collaborateurs ne sont pas sur un même lieu physique qu’ils ne sont pas dirigés ! Les règles du jeu sont très claires même si la façon d’animer les équipes a profondément évolué.

85

Paul-Roland Vincent

Résumé

Français

Moderniser l’informatique de ses clients mais tirer les conséquences ultimes des nouvelles technologies en réorganisant complètement les process des entreprises, telle est la stratégie business on demand d’IBM.

Plan de l'article

  1. Technologie et informatique
    1. La technologie
    2. L’architecture
  2. Linux
    1. Les infrastructures
    2. Les applications
    3. Les postes clients (PC – Think pad)
    4. Le grid computing
    5. L’intra-grid
    6. L’extra-grid
    7. L’inter-grid
    8. Historique du grid
    9. Le grid : cas concrets
    10. Le grid d’IBM
    11. La banque Charles Schwab
    12. Le projet Data grid du CERN
    13. Le projet Décrypton
  3. La virtualisation
  4. Vers l’informatique autonome
    1. La capacité à la demande
    2. L’évolution au niveau du poste client (PC – think pad)
    3. Le e-business on demand
  5. Conclusion
  6. Débat
    1. La métamorphose d’IBM
    2. Le rachat de Price Water House
    3. Les relations entre Microsoft et IBM
    4. Nouveautés et résistances
    5. Bénéfices d’IBM
    6. Le personnel d’IBM face à l’évolution
    7. Une fiabilité absolue ?

Pour citer cet article

Teyssedre Michel, « Technologies pour un monde volatil », Le journal de l'école de Paris du management, 6/2004 (N°50), p. 7-13.

URL : http://www.cairn.info/revue-le-journal-de-l-ecole-de-paris-du-management-2004-6-page-7.htm
DOI : 10.3917/jepam.050.0007


Article précédent Pages 7 - 13 Article suivant
© 2010-2014 Cairn.info
back to top
Feedback