Conception des systèmes - Pilotage, informations et risques - Guy Trocellier - E-Book

Conception des systèmes - Pilotage, informations et risques E-Book

Guy Trocellier

0,0

Beschreibung

Comment orienter les choix ? Comment garder la maîtrise du management ? Comment gérer les risques ?

Comment orienter les choix ?
Comment garder la maîtrise du management ?
Comment gérer les risques ?

L’être humain a bien du mérite. Noyé dans un monde complexe plein d’interférences, de domaines entrelacés, il a pu survivre. Pour progresser, il a dû chercher à représenter le monde pour le maîtriser, pour être à même de décider. Et de rupture en rupture, franchir des caps. Au bout de vingt siècles, la géométrie d’Euclide et la pensée d’Aristote ont cédé devant la représentation copernicienne et la mathématique newtonienne. Après Einstein et la relativité, avec la découverte de l’univers quantique, avec la prise de conscience que nous ne connaissons qu’à peine 5 % de l’énergie-matière de l’univers, avec l’arrivée de l’intelligence artificielle qui engendre une rupture sans pareille, menaçant même le cerveau humain, une explosion de complexité inonde désormais un monde dont les dimensions sont incertaines, dont on ne perçoit pas les structures. Des sociologues comme Edgar Morin, des peintres comme Jean-Claude Meynard s’interrogent sur la représentation et le fonctionnement de ce monde, global, interactif et complexe. Les managers, aussi, veulent clarifier leurs décisions et pour cela, ils ont besoin d’un mode de représentation, d’un fléchage pour se repérer. Voilà pourquoi, modestement, les auteurs de ce livre présentent leurs suggestions et tentent d’apporter un peu de lumière sur un chemin bien difficile.

Dans un monde actuel inondé par la complexité, les managers aussi veulent clarifier leurs décisions. Pour cela, ils ont besoin d'un mode de représentation et d'un fléchage pour se repérer ; c'est ce que propose cet ouvrage !

À PROPOS DES AUTEURS

Guy Trocellier est titulaire d’un DESS en Gestion de Projet et d’un DEA en Science de Gestion. Expert ferroviaire international, il est également spécialiste de la gestion du risque au sein des organisations et des projets complexes. Consultant international en intelligence décisionnelle, il a capitalisé une expertise rare et diversifiée des modes de gestion des projets dans plusieurs domaines d’expertise (transport, militaire, organisation). Créateur du concept de gestion des risques par une approche holistique et interactive de l’information, il contribue à la promotion de la pensée systémique face aux problématiques de la vie moderne.
Max Lamotte, diplômé de l’École Centrale Paris et du Centre d’Etudes des Programmes Économiques, a exercé au sein de SNCF des responsabilités dans les domaines Mobilité et Réseau. Vivement intéressé par les décisions stratégiques – il a tenu un poste au sein de l’équipe Investissements, il a cherché à établir et découvrir les liens entre les grandes évolutions philosophiques et scientifiques et les modes de prise de décision stratégique dans l’entreprise. Converti à la gestion de projet, consultant depuis 2000, il a exercé une activité « expertise » dans de nombreux projets, notamment ferroviaires, s’employant aussi dans le domaine de la sécurité. Passionné par la systémique et le concept de complexité développé par Edgar Morin qu’il a découvert au tournant des années 1990, concept révélateur de la difficulté du manager face à une décision stratégique, il s’est beaucoup investi dans la problématique de gestion des risques Projet. Sa rencontre avec Guy Trocellier a nourri un projet de travail en commun qui se traduit aujourd’hui par un ouvrage présentant la méthode MAZE.

Sie lesen das E-Book in den Legimi-Apps auf:

Android
iOS
von Legimi
zertifizierten E-Readern

Seitenzahl: 345

Das E-Book (TTS) können Sie hören im Abo „Legimi Premium” in Legimi-Apps auf:

Android
iOS
Bewertungen
0,0
0
0
0
0
0
Mehr Informationen
Mehr Informationen
Legimi prüft nicht, ob Rezensionen von Nutzern stammen, die den betreffenden Titel tatsächlich gekauft oder gelesen/gehört haben. Wir entfernen aber gefälschte Rezensionen.



Guy TROCELLIER - Max LAMOTTE

Manuel d’intelligence décisionnelle

Conception des systèmes

Pilotage des informations et des risques

Méthode “MAZE” une méthode pour sortir du labyrinthe de la complexité

Chers lecteurs,

Cet ouvrage est préfacé par deux personnalités dont l’expertise dans le domaine de la gestion de projet ou de la gestion des risques n’est plus à démontrer. Ces deux préfaces mettent en évidence les fondamentaux de la méthode proposée ; l’une porte davantage sur le processus de gestion de projet, alors que l’autre met l’accent sur l’intérêt observé en termes de résultats.

Préface

C’est avec enthousiasme ainsi qu’un intérêt renouvelé de page en page que vous allez dévorer un ouvrage qui contient en fait plusieurs développements traitant de la problématique de management des risques sous plusieurs angles.

Il plonge d’abord le lecteur dans des considérations résolument pratiques et concrètes en passant au peigne fin plusieurs grandes catastrophes qui ont marqué le 20ème siècle des grands projets. À chaque fois, l’attention du lecteur est attirée sur plusieurs enseignements qui seront capitalisés au fil de l’eau et constituent une véritable initiation pratique aux enjeux de la complexité.

Puis, à travers un panorama subtil des contextes géo politiques et financiers où œuvrent nos démocraties modernes, il fait émerger les paradigmes fondamentaux qui caractérisent nos problématiques : l’omniprésence des incertitudes, l’indéterminisme des processus et organisation, les difficultés croissantes auxquelles sont confrontés les processus de gouvernance et le rôle central de l’information.

Ces évocations concrètes qui sensibilisent le lecteur aux concepts de la maîtrise des risques projets font alors place à un exposé magistral sur l’histoire des sciences fondamentales de la complexité : cette présentation très complète acquiert alors une lisibilité exceptionnelle, car des résonances apparaissent clairement avec les exemples qui ont précédé.

Cette préparation s’avère particulièrement efficace lorsqu’est abordée la méthode MAZE dont les fondamentaux font bien sûr la part belle aux acteurs, aux fonctions et systèmes développés et aux informations stratégiques permettant le pilotage du projet et constituant ses marqueurs principaux.

J’ai eu la chance d’avoir à mettre en œuvre plusieurs fois cette méthode de bout en bout: elle est la seule qui considère comme un système à part entière l’ensemble de tous les constituants d’un projet, qu’ils soient organisationnels, humains, systèmes de tâches ou « work packages », contenus documentaires d’ingénierie, éléments du soutien logistique intégré, et bien sûr tous les produits ou systèmes techniques (artéfacts technico organisationnels) issus des tâches de développement et qui malheureusement constituent le centre de préoccupation exclusif des décideurs. Mais elle intègre également les composantes « non physiques » interagissant avec l’ensemble des éléments d’un projet telles que les réglementations, les normes ou les enjeux de contexte socio-économiques des environnements géo politiques où ce projet se déroule, et même les enjeux de valeurs ou de culture susceptibles de conditionner certains acteurs du projet.

Cette méthode s’interface idéalement avec les référentiels classiques bien connus de la Sûreté de Fonctionnement, de l’Ingénierie Performantielle, de l’Analyse de la Valeur et du Soutien Logistique Intégré et offre un tableau de bord idéal pour les décideurs en leur fournissant de manière dynamique les KPI du projet devant faire l’objet de toute l’attention et permettant d’identifier des leviers d’actions salutaires consistant à couvrir les risques majeurs au fil de l’eau…

Alors n’hésitez pas, plongez-vous dans cette lecture passionnante qui constituera très bientôt un vade-mecum irremplaçable que vous pourrez appliquer à chacun de vos projets, quels qu’en soient son contour et son périmètre !

Emmanuel Arbaretier

Emmanuel Arbaretier est un ancien élève de l’Ecole Centrale Paris. Il occupe actuellement le poste Industrial Innovation Manager chez APSYS (AIRBUS GROUP), une filiale de la compagnie Airbus.

Préface

Si vous lisez ces lignes maintenant, c’est que, peu ou prou, vous vous identifiez à ces animaux atteints par la peste de La Fontaine, qui, s’ils n’en mourraient pas tous, en étaient au moins affectés. Quelle est cette malédiction qui semble marquer le destin de tant de projets, quasiment jamais conformes aux attentes initiales en termes de coût global, de délai, de performance ? Quand bien même ils arrivent, au bout d’un parcours jamais linéaire, à satisfaire certaines parties prenantes, c’est souvent au prix d’une érosion subreptice ou résignée des objectifs qui donnaient toute sa beauté et sa force fédératrice à la vision de départ !

La carte n’est pas le territoire. Mais, sans carte, comment s’orienter et forger un destin vertueux au projet ? Sur la Carte du Tendre que Madame de Scudéry dessinerait, elle déclinerait à l’envi l’infinie variété des paysages qu’engendrent complexité et incertitude.

Certes, nous avons développé des prothèses informatiques et technologiques qui nous permettent d’augmenter notre capacité de traitement de la « complexité d’abondance » (volume de données, algorithmes neuronaux apprenants, capacité de calcul, instantanéité de l’accès à l’information, connectivité des réseaux informationnels, etc.). À ce type de complexité, notre « esprit de géométrie » est bien adapté et nous n’avons eu de cesse que de le renforcer ! Mais il n’est guère utile pour traiter la « complexité de sens » à laquelle la vie réelle des projets nous expose : équivocité, ambiguïté, nouveauté, émotions, conflits et enjeux de pouvoir, versatilité, interdépendance et causalités multifactorielles et non linéaires… Nous devons aussi mobiliser et renforcer notre « esprit de finesse » comme nous y invitait déjà Pascal. Chaque projet est singulier, unique dans son propre espace-temps. Il emporte sa part de novation. Il provoquera sa part de changement, de déstabilisation, de ruptures d’équilibres existants, d’aléas par nature imprévisibles et non probabilisables. Le risque est consubstantiel du projet. Pas de négation de la réalité, chaque projet, une fois franchi son « point de gel », aura sa propre « conversation avec la réalité ».

Vous voilà encore plus perplexes et désemparés. « So What ? ».

C’est justement le grand apport de l’ouvrage de Max Lamotte et de Guy Trocellier que de répondre à cette injonction. Nous apporter cette compétence rare de savoir dresser la carte de nos projets et d’y encastrer les informations utiles et pertinentes pour les parcours à entreprendre !

Mes trente-cinq années de pédagogie par et pour le projet se retrouvent en quelque sorte synthétisée et surtout rendue opératoire avec cet opus par le truchement de ce que les auteurs ont appelé la méthode de management stratégique MAZE.

Modéliser le projet comme un système est en effet une condition essentielle pour manager des projets complexes et incertains. La frontière d’un système dépend des objectifs du modélisateur, sur quoi il veut agir et ce qu’il veut piloter. Tout part bien des objectifs du projet (pensés, élaborés, communiqués, co-construits et négociés avec les parties prenantes). Le recours à l’analyse de la valeur est ici essentiel pour légitimer la vraisemblance de la création de valeur par la nature des besoins à satisfaire au bénéfice des futurs consommateurs, usagers, utilisateurs, exploitants des livrables du projet. La délimitation du périmètre du projet en découlera et, dans le même temps, l’environnement direct et indirect avec lequel il s’interfacera tout le long de sa trajectoire. Ce faisant, les acteurs clés, détenteurs et producteurs d’informations « stratégiques », celles qui affectent les objectifs du projet et leur pertinence en termes de moyens et d’indicateurs ciblés, sont identifiés et peuvent être « enrôlés » dans le projet. Le système d’information stratégique et de pilotage peut donc se mettre en place.

Ensuite, la déclinaison de ces objectifs en réseau de fonctions permet de structurer le quoi et le comment du projet, de construire le langage de communication avec les experts métiers, de comprendre les interdépendances logiques et spatio-temporelles entre les différents blocs et d’éviter les dérives autofinalisatrices de certains constituants du projet. Les perturbations, les aléas inhérents à la vie des projets sont détectés via le changement de valeur des informations stratégiques et le périmètre de résolution des problèmes délimité.

Les auteurs ont su encapsuler leur méthode MAZE, fruit de la capitalisation de leur longue expérience de praticiens passée au filtre des meilleurs auteurs et théories, dans un artefact informatique permettant de l’opérationnaliser rapidement et ainsi de passer à l’acte. Ils ont aussi su illustrer le contexte managérial d’utilisation de leur approche et son cadre de validité.

Je ne peux donc que recommander la lecture de cet ouvrage à la fois stimulant pour notre réflexivité et convainquant pour nous inviter à concevoir nous-mêmes la bonne carte pour nos futurs parcours de projet !

Daniel Leroy

Daniel Leroy est un ancien élève de l’Ecole Normale Supérieure, actuellement Professeur des Universités en Sciences de Gestion, Université de Tours.

Sommaire

Préambule 6

Introduction 6

Partie I Gestion de projet constat, crise et paradigme 9

1 Retour d’expérience sur des incidents industriels 9

2 Crise de l’entendement 13

3 Nouveau paradigme, nouvelles théories 21

Partie II La méthode maze : fondements, principes et déclinaison opérationnelle 28

1 La méthode Maze et ses fondements 28

2 Principes de la méthode MAZE 32

3 La méthode MAZE : déclinaison opérationnelle 44

Partie III Exigences de management : exigences générales, exigences stratégiques, et évaluation des risques 52

1 Les exigences générales en Management de Projet 52

2 Les exigences du management stratégique 60

3 L’évaluation du risque associé au système projeté 72

Partie IV Conclusion 80

1 La méthode MAZE 80

2 Les avantages de la méthode MAZE 81

3 Un dernier point de vue 81

Préambule

Quelqu’un de bien informé a un jour rapporté que Adam, quittant le paradis terrestre en compagnie de Eve, aurait dit : « Nous vivons un moment de changement intéressant. » Il est évident que ce brave Adam n’avait pas mesuré la portée d’un changement lui faisant quitter un monde sûr, pour un univers incertain. On peut se demander si les managers actuels ne se trouvent pas, peu ou prou, dans cette situation. En effet, tout enthousiastes qu’ils sont, ils ne mesurent peut-être pas que les changements qui interviennent dans nos sociétés depuis une trentaine d’années rendent bien fragiles les orientations qu’ils retiennent chaque jour. S’ils disposent d’outils performants leur permettant de penser que, désormais, tout devient facile, l’expérience montre néanmoins que les problématiques qui se présentent à eux, restent, pour le moins, coriaces, difficiles à appréhender, et… risquées.

Les auteurs ont relevé le défi. Au travers des thèmes poursuivis dans ce document, ils posent le problème du démarrage d’un projet et de la meilleure façon d’aborder cette étape délicate, afin d’être en mesure de construire un système conforme aux objectifs que l’on vise. Nous savons tous très bien qu’il n’est pas possible de tout prévoir, que les événements ne nous obéissent pas, que des erreurs se produisent, que des effets non prévus et indésirables surgissent. Malheureusement, les enchaînements cause/effet que nous mettons en œuvre pour organiser l’avenir selon un schéma visé – et c’est bien ce que veut dire le mot « projet » – ne sont pas toujours correctement réalisés. Il en résulte des écarts entre objectifs et réalisations, qui constituent des risques dont il importe de connaître la nature et l’impact sur le système projeté, afin d’apporter les corrections nécessaires en temps utile.

En deuxième lieu, nous avons considéré que ces vérifications ne pouvaient attendre, pour être entreprises, que la gestion de projet, au sens classique du terme, soit véritablement engagée. C’est donc dans une phase préalable, appelée phase d’émergence, que nous avons décidé de faire porter notre effort de réflexion, afin d’éviter d’être en face d’écarts irrattrapables à un moment où le projet a déjà atteint un stade avancé.

Enfin, il nous a paru évident qu’au stade de l’émergence, les approches linéaires n’étaient pas adaptées à l’identification et à l’évaluation des risques. Nous avons donc posé comme principe qu’une approche globale, interactive et systémique était nécessaire avant de lancer une démarche projet proprement dite, ce qui, évidemment, n’exclut pas la gestion ultérieure des risques, entendue au sens courant.

La méthode qui est ainsi proposée consiste à vérifier la cohérence et l’adéquation aux objectifs des décisions majeures du début de projet, et à gérer les risques d’écarts par rapport aux objectifs. Elle est à considérer comme un outil de cadrage de projet destiné à maîtriser au plus tôt des écarts dont l’amplification ultérieure serait irréversible ou dont le rattrapage serait très coûteux. Elle s’appuie sur le management des informations stratégiques nécessaires à la définition du projet, et sur la notion de système.

Enfin, la méthode est également utilisable pour recentrer des projets-systèmes dont les développements se sont éloignés des objectifs initiaux, ou même modifier et moderniser un système existant.

Introduction

Tous les managers ont été confrontés à l’exercice difficile de la prise de décision dans des environnements évolutifs, complexes et sur la base de données partielles ou provisoires. Bâtir quelque chose pour l’avenir, c’est se lancer dans un projet et c’est se situer dans cette problématique générale : atteindre des objectifs dans le futur sous de nombreuses contraintes. Il s‘agit là d’un pari audacieux, et ce, à plusieurs titres. Il consiste à d’abord supposer connues les exigences des clients, puis à imaginer un environnement permettant au système projeté de vivre, ensuite à définir les composantes du système à venir et à bâtir, et enfin à atteindre le but : le déterminisme causes/conséquences s’impose de telle sorte que ce qui a été prévu, se réalise. Précisément, ce qui était souhaité, est atteint. Un véritable défi !

Il est évident que ces considérations, sommairement évoquées, font l’objet de décisions qui s’étalent dans le temps. Les questions majeures posées concernent la cohérence des décisions qui se succèdent et, par rapport aux objectifs développés dans le cahier des charges qu’il importe de respecter, la pertinence, l’efficacité et bien sûr, la maîtrise des coûts. À cet exercice, qui comporte le plus souvent des prises de décisions irréversibles, se surajoute la difficulté de convaincre et de rassurer sur la pertinence des choix. C’est dans ce contexte que nous avons, dans un premier temps, recherché une nouvelle approche qui puisse satisfaire aux exigences d’une prise de décision rapide, efficace et accessible au plus grand nombre, tout en ayant les moyens de vérifier que les schémas envisagés ne s’écartent pas des objectifs.

L’idée qui vient immédiatement après ce simple constat est qu’il ne faut absolument pas laisser se dérouler linéairement, dans le temps, les prises de décision. Sans calcul et par simple « bon sens », on sait que le risque d’incohérence est trop fort et qu’il faudra à coup sûr faire des retours en arrière, forcément très coûteux, et peut-être, à un moment donné, constater l’impossibilité de continuer. En conséquence, il est impératif de vérifier périodiquement la cohérence d’ensemble du projet vis-à-vis des objectifs initiaux.

La deuxième idée concerne le démarrage d’un projet : les premiers moments d’existence sont cruciaux : une petite variation dans les conditions initiales peut conduire à des écarts de trajectoire importants, peut-être douloureux. Il importe donc de faire preuve d’une extrême rigueur au cours du démarrage, qu’on peut désormais appeler phase d’émergence. Il s’agit d’une phase délicate puisqu’il faut définir quelque chose qui n’existe pas avec des contraintes et des conséquences à prévoir, avec nécessité d’innover. Or il suffit de lire quelques pages de livres ou de revues spécialisées pour constater que bon nombre de prescriptions cantonnent le démarrage à des procédés techniques existants. S’il n’est pas question de négliger le retour d’expérience, il faut cependant faire vivre le projet et, en même temps être précis dans la prise en compte des conditions initiales, puis leurs marges d’évolution.

Une troisième idée, certes sous-jacente depuis toujours mais non clairement exprimée, concerne l’information. Historiquement, c’est le savoir-faire technique qui, seul, autorisait le lancement d’un projet, assorti très vite de moyens financiers. Les aspects sociaux, puis environnementaux, ont été ajoutés. Mais aujourd’hui, si le savoir-faire technique constitue toujours un art majeur, l’information et sa maîtrise s’imposent comme composantes essentielles dans la définition et la maîtrise d’un système projeté. Les informations touchent tous les domaines et peuvent être considérées comme les briques élémentaires auxquelles se rattachent les décisions impactant le projet, qu’elles concernent les fonctions de production ou les fonctions techniques. L’information se présente comme une unité commune à tous les domaines ; il est possible d’en mesurer le niveau de maîtrise, ce qui permet d’en déduire le niveau de maîtrise du projet-système lui-même.

Enfin, et c’est là une quatrième idée, l’idée de cohérence ne peut être développée sans que soit intégrée la notion de système. C’est en effet au moyen de cette notion que l’on pourra définir un périmètre, et donc des échanges avec le milieu extérieur. C’est aussi grâce au système qu’on pourra définir la production et les performances exigées ; et c’est aussi par le système qu’on tentera, soit de définir, soit de décrire et simuler les interactions entre éléments constitutifs du système, interactions qui, très souvent dans les projets sont négligées ou même oubliées.

Forts de ces idées, nous avons, au cours des dernières années, défini une approche réellement novatrice qui a pu être testée et validée avec succès sur de nombreux cas d’application complexes et diversifiés. Après un parcours expérimental jalonné de présentations de notre méthode aux responsables sollicités, nous avons constaté que les notions de système et de complexité se diffusaient désormais à tous les niveaux de la société. Le moment est donc venu de vous présenter et de partager avec le plus grand nombre cette nouvelle méthode, que nous avons appelée « Méthode MAZE », en la structurant d’un point de vue théorique et méthodologique. Cette méthode se situe en principe en amont de la gestion de projet ; elle est destinée à être appliquée, non seulement à différentes étapes de la définition d’un projet, mais sur toute la durée de la gestion du projet afin de garantir de façon quasi continue la cohérence du système projeté. Ainsi, à chaque étape d’application, l’utilisateur de la méthode sera conduit à affiner la granularité des éléments traités, en fonction de l’avancement du projet, tout en maintenant la capacité d’en apprécier la cohérence sur un plan global. Cette approche globale et permanente sur la vie de projet est telle qu’il ne s’agit plus d’une simple gestion de projet, mais de Management de projet-système ; ce changement de perspective nous a d’ailleurs conduits à produire certaines considérations relatives au Management préconisé afin que le développement de la Méthode, par ses exigences, soit bien différencié de la gestion traditionnelle des projets.

Dans la finalité qui lui est assignée, le présent ouvrage, qui n’est ni subversif ni négatif, se propose d’offrir aux managers une assistance leur permettant d’atteindre leurs objectifs en matière de performance de produits et de services proposés ; il comporte trois parties composées chacune de trois chapitres. L’exposé de la première partie porte sur le retour d’expérience relatif à certains accidents industriels, la crise de l’entendement traversée par notre société depuis la fin du xxe siècle et l’émergence de nouvelles théories sur lesquelles il paraît judicieux de s’appuyer ; la deuxième partie expose les fondements, les principes retenus pour la méthode préconisée ainsi que leur déclinaison opérationnelle pour ce qui concerne les principaux éléments. Le Management de système ainsi introduit est complété dans une troisième partie consacrée aux exigences qui doivent être prises en compte, tant au niveau général que sur un plan stratégique ; le dernier chapitre traite de l’évaluation du risque systémique.

On retiendra par ailleurs que la méthode développée repose sur l’identification, l’analyse, ainsi que sur l’attribution des informations disponibles et nécessaires à la conception et la réalisation d’un projet en s’attachant au caractère stratégique des informations. Elle s’inscrit dans une approche qui contribue à la mise en place d’une démarche d’intelligence décisionnelle consistant à comprendre le contexte d’un projet, à en appréhender les incohérences ou les insuffisances, puis à en déduire le niveau de définition par rapport à un niveau de service optimal. Au-delà même de ces différents aspects, et dans une perspective d’amélioration du niveau de risques, la méthode suivie permet de conclure sur la préconisation d’actions correctives adaptées tant sur le plan de l’organisation que sur celui de la connaissance des informations stratégiques, puis sur l’évaluation du niveau de risques du projet. Enfin, on notera que le mode d’affichage retenu pour les résultats offre une communication à la fois graphique et synthétique permettant de souligner l’impact des informations stratégiques, ou de ceux qui les maîtrisent sur la performance finale du projet.

Cet ouvrage ne doit donc pas être considéré comme la énième tentative de présentation de gestion de projet ; il se présente en fait comme un précis d’aide à la décision destiné à fournir aux managers une approche intégrée, simple et cohérente leur permettant de s’assurer, au cours de la phase de définition du projet complexe, que le cahier des charges sera bien pris en compte, et notamment que la définition du projet est complète et conforme à la demande du donneur d’ordre. En ce sens, le projet répond aux besoins, le processus de définition du projet est cohérent et continu, les délais de réalisation sont compatibles avec l’objectif de mise en service, les coûts seront maîtrisés, la performance sera bien celle qui est prévue, ou à défaut, le niveau de performance restera in fine compatible avec les exigences du décideur.

Les auteurs ont centré leur analyse sur l’émergence et en particulier sur l’étape de définition d’un projet complexe, première étape qui est absolument critique dans la réussite du projet. Par le terme « réussite », il n’est pas fait référence à la capacité à produire ou à développer de nouveaux services si celle-ci n’est pas précisée dans le cahier des charges. Il s’agit, plus fondamentalement, de se donner les moyens de préserver la cohérence et la capacité à atteindre le but recherché tout en respectant les niveaux de performance initialement spécifiés ou, à défaut, de présenter en temps utile l’argumentaire sur les écarts potentiels permettant d’arbitrer en toute connaissance de cause.

Le lecteur découvrira que la méthode MAZE induit de la cohérence et produit une évaluation des risques en évitant le recours systématique à de longues listes de critères assorties de statistiques nombreuses et confuses. Se voulant novatrice, applicative, accessible et simple, la méthode MAZE prend ses distances avec les postulats d’efficacité des approches statistiques habituellement mobilisées, ne les excluant pas cependant. Se dessine ainsi un nouveau cadre efficace, managérial et organisationnel, adapté à la structure de l’intention, du besoin et de la demande, tryptique dont la prise en compte vise à réduire et gérer les risques que présentent les projets assortis d’exigences diffuses, multiformes et évolutives, autant de caractères qui définissent les projets complexes.

Dans ce cadre, l’intention des auteurs est de mettre les managers dans des situations où l’incertitude est réduite, où les enjeux sont apparents. Chaque décision importante doit faire naître une alternative entre ce que l’on gagne et ce que l’on perd. La méthode éclaire les managers aussi bien sur les modes de management de problématiques ouvertes que sur la nécessité de représentations significatives, les conduisant ainsi à dépasser les approches trop simplificatrices, les situations attentistes ou fondées sur la recherche d’un consensus inaccessible.

La méthode de management dans la complexité ainsi proposée est directement transposable et applicable à la plupart des domaines d’activité, même simples d’apparence. En effet, dès leur conception, les projets sont souvent à considérer comme complexes en raison des nombreuses interfaces et des interactions qu’ils contiennent. En rupture avec les pratiques entretenues jusqu’ici par la plupart des managers, le cheminement proposé se veut une réponse adaptée aux nouveaux enjeux que présente l’émergence de cyberespaces d’informations pour des projets désormais sans frontières, évoluant dans des milieux ouverts et actuellement non régulés. Bien entendu, l’approche proposée, qui a l’ambition d’être optimale, concerne d’abord les projets en phase d’émergence ; le résultat qu’elle produit se présente comme un écart entre ce qui est souhaité et ce qui est réalisé, à charge pour le manager de décider… en toute connaissance de causes. Mais il se trouve aussi que dans la vraie vie des projets, les approches théoriques optimales ne sont pas toujours appliquées, ou du moins ne sont pas appliquées dans leur intégralité, notamment pour ce qui concerne les lacunes portant sur les définitions préalables. Dans ces cas, la méthode de management par l’information stratégique s’avère également très utile : elle permet de recentrer sur ses fondamentaux un projet mal engagé, en déployant une approche systémique fondée sur la recherche, la collecte et l’ordonnancement des informations stratégiques. C’est fréquemment le cas, lorsqu’à l’origine d’un projet, le premier réflexe a été de mettre en place une organisation par lots techniques.

En conclusion, si vous, lecteur, êtes en charge de projets complexes en phase d’émergence et si vous souhaitez disposer en continu et en temps réel d’une cartographie réaliste des performances attendues et possibles, des enjeux et des risques du projet que vous traitez, alors cet ouvrage et la méthode qu’il présente sont pour vous.

Afin de simplifier la lecture et la compréhension de cet ouvrage, les différentes catégories de donneurs d’ordres ont été regroupées sous le vocable de managers, sans tenir compte des avantages que procure l’application de la loi MOP11 d’une part, et sans rentrer dans les subtilités sémantiques qui définissent les décideurs et les donneurs d’ordres dans les diverses cultures.

Partie I Gestion de projet constat, crise et paradigme

1 Retour d’expérience sur des incidents industriels

Ce chapitre expose de façon succincte le cas de projets qui ont donné lieu à des incidents et dont les dysfonctionnements étaient liés à une gestion défaillante des informations disponibles. Certaines de ces défaillances ont conduit à des accidents graves. La conclusion de ce chapitre en retire quelques enseignements qui nous questionnent sur nos modes de travail, nos modes de pensée et même sur nos valeurs.

Le texte qui suit traite du management de projet-système. Abondamment évoqué dans de nombreux ouvrages, ce sujet est évidemment très difficile puisqu’il consiste à construire un système adapté « à l’avenir » : produit adapté à la demande de clients qui… évoluent, à un environnement fluctuant… Face à cet avenir dont on sait a priori qu’il est par essence incertain, le management de projet peut se définir comme un art : « L’art de diriger et de coordonner les ressources humaines et matérielles tout au long du cycle de vie d’un projet en utilisant des techniques de gestion appropriées pour atteindre des objectifs prédéterminés : d’envergure, de coûts, de délais, de qualité, de satisfaction du client et de satisfaction des participants. » On comprend donc que la connaissance du futur est indispensable si l’on veut éviter de prendre des risques, ou du moins si on veut les réduire. Et c’est là que se trouve une des grandes difficultés du projet : à partir des conditions présentes, comment imaginer les paramètres de l’avenir, ou du moins définir les paramètres qui dans le futur permettront de réduire les risques, comment aborder l’incertitude du futur ? Il s’agit donc d’assumer un véritable sacerdoce : gérer avec rigueur le risque des projets. Assumer les contraintes de la définition ci-dessus nécessite qu’on se dote de règles et d’outils. Un questionnement fondamental interpelle donc plus que jamais nos contemporains managers : existe-il une méthode permettant de limiter les effets pervers dérivant presque toujours des projets complexes ? La réflexion engendrée par ce questionnement montre assez rapidement que la réponse ne peut être une simple réponse directe. À l’évidence, il s’agit d’ouvrir une large problématique dans laquelle les critères de raisonnement séquentiels et habituellement utilisés par les managers ne sont plus suffisants. Le recours à des ressorts puissants et profonds s’avère désormais indispensable si l’on veut dépasser le cadre restreint traditionnel : il faut élargir, approfondir pour comprendre. Il s’agit ainsi de circonscrire et de résoudre ce que le sociologue E. Morin2 a défini par un nouveau concept : la crise de l’entendement. Ce concept peut d’ailleurs être illustré par des exemples vécus dans la vie professionnelle, ou tout simplement en lisant la presse. En effet, de nombreux événements tirés de l’actualité montrent combien, pour les Managers, il est parfois difficile d’exercer et de maîtriser des responsabilités délicates. Que ce soit l’affaire du sang contaminé en 1991, les 70 000 décès liés à la vague de chaleur de 2003, ou l’explosion de la centrale de Fukushima en 2011, le premier réflexe est bien entendu de retenir que, puisqu’il y a catastrophe, c’est qu’il y a non-application des règles. Or, l’aléa est important. Il faut être prudent : souvenons-nous du « responsable mais pas coupable » de Georgina Dufoix en 1991, dualité qui nous interroge sur la validité et la pertinence du système. Souvent, nous nous trouvons en face d’un système complexe non réductible à la simple somme de ses éléments constitutifs ; chacun a fait son travail, mais avec sa fiabilité propre, en fonction des données dont il dispose. Mais force est de reconnaître que le fonctionnement de l’ensemble du système appelle une organisation qui tienne compte au niveau global des insuffisances individuelles ou plutôt des défaillances individuelles statistiquement probables, et offre notamment des boucles de rattrapage garantissant l’efficacité et la fiabilité ou même la qualité globale. L’après-guerre a été marqué par une modernisation des équipements industriels pilotée par les Plans successifs qui visaient en premier lieu à rétablir les outillages et des équipements publics et privés, ensuite à développer la formation et créer les conditions d’une croissance de la productivité dans les domaines de la recherche et du développement, des marchés agricoles, et des entreprises. L’accent a notamment été mis sur les équipements collectifs et la production industrielle. La mise en œuvre plutôt réussie des orientations des différents Plans a permis de réaliser une forte productivité grâce à des investissements importants. Mais l’effort considérable effectué n’a pas été accompagné, dans l’organisation de la chaîne de production, d’une prise de conscience des poids respectifs et de l’imbrication des « hommes » et des outillages automatisés. Par ailleurs, lorsque des accidents se produisaient, les causes pouvaient le plus souvent être attribuées de façon nette soit à la défaillance humaine3, soit à une défaillance technique, rarement à une insuffisance d’équipements de contrôle. Il convenait alors d’installer des dispositifs de sécurité redondants après mise au point d’un plan d’urgence.

On comprend qu’à partir de cette époque, les entreprises ont été dotées en masse d’automatismes et de systèmes de contrôle, créant ainsi des systèmes mêlant étroitement l’intervention des automatismes et l’intervention humaine. Une superposition de textes réglementaires a d’ailleurs accompagné cette évolution, provoquant ainsi dans une population à cheval sur deux systèmes des réflexes de rejet face à des procédures estimées trop compliquées. Pourtant, « tout avait été prévu », mais des incidents de type différent de ceux qu’on avait connus jusque-là, ont commencé à se produire. Et il a bien fallu se rendre à l’évidence : tout ne pouvait être prévu, la fiabilité des agents ne peut être parfaite, et les systèmes constitués de chaînes d’action mêlant automatismes et actions humaines se comportent en systèmes non décomposables. Il faut donc les approcher par leur fonction, et ce à plusieurs niveaux. Ce fut alors l’entrée dans un monde nouveau, moins linéaire, où l’aléa reprenait sa place.

Nous proposons au lecteur de passer en revue quelques accidents très instructifs, d’observer les cheminements qui ont présidé à la définition des projets correspondants (et même aux mises en œuvre correspondantes) afin d’en faire ressortir les insuffisances. À la suite de cet exposé, il sera procédé à une analyse de la situation actuelle assortie des tendances lourdes qu’elle recèle, et de nature à expliquer les insuffisances rencontrées. En effet, si on exclut les accidents consécutifs à des « décisions absurdes »4 ou des comportements incohérents, il est néanmoins avéré que de nombreux accidents ont eu lieu alors que tout ou partie des informations de nature à éviter ou limiter la gravité des accidents étaient disponibles ou accessibles.

1.1 Des accidents qui ont marqué l’opinion et les concepteurs

Les éléments factuels relatifs aux accidents ci-dessous ont été collectés à partir de publications diverses.

Le barrage de Malpasset (Var) 1952-1954

Si on en croit nos lectures d’enfance et d’adolescence, il ne reste qu’une seule des sept Merveilles du monde que l’on puisse admirer : les Pyramides d’Égypte. Et à notre époque, y a-t-il encore des Merveilles ? Un professeur de français des années 1950 avait suggéré aux élèves que les barrages constituaient une sorte de nouvelle merveille, à l’instar de celles qui existaient dans le monde antique. La capacité des hommes à construire de telles merveilles fait rêver. Mais il faut se poser une question : à quel prix ? En voici un exemple.

Les études préalables à la construction du barrage de Malpasset

Les archives attestent que tous les crédits (étude et exécution) demandés dans le cadre des études préalables ont été votés. Les faits décrits ci-après ne sont donc pas consécutifs à un manque de moyens financiers. Consultée, la Faculté des Sciences de Marseille donne un avis géologique préliminaire favorable à un projet de création d’un bassin de retenue. Selon un premier rapport déposé le 15 novembre 1943, le bassin de retenue se présente dans d’excellentes conditions géologiques au point de vue de son étanchéité. Néanmoins, les études préalables ont fait ressortir des insuffisances : la topographie et la géologie du site n’auraient pas été favorables à une voûte mince. Le géologue consulté avait conseillé la construction d’un barrage situé plus en amont, mais apparemment, il ne fut pas écouté.

Les circonstances de l’accident : des imprécisions et des aléas

En raison d’une longue période de sécheresse et de problèmes administratifs, la mise en eau dura anormalement longtemps (près de cinq ans). Durant ce temps, le contrôle du comportement du barrage, notamment lors de sa mise en service, aurait manqué de rigueur. De plus, la réception de l’ouvrage serait intervenue avant que la retenue soit opérationnelle.

Sur la rupture proprement dite, des éléments défavorables ont certainement joué : après la longue période de sécheresse déjà évoquée, des pluies diluviennes se sont abattues sur la région, entraînant une inondation de grande ampleur, qui a contribué à une montée très rapide du niveau d’eau en fin de remplissage de la retenue.

Les causes

Parmi les arguments avancés comme causes de la rupture, on a cité la fragilité du gneiss comme « cause naturelle évidente et indiscutable de la catastrophe ». Les autres, quelle que soit leur nature (causes humaines, techniques ou comportementales) ont suscité la polémique et n’ont pas été admises comme évidentes. Le scénario technique retenu signale une montée très rapide du niveau de la retenue. Les fuites d’eau qui se sont produites ont permis une infiltration dans un gneiss fracturé, ce qui a affaibli la partie haute gauche de l’ouvrage. Sous l’effet de la pression hydrostatique (sous-pression), le barrage s’est peu à peu fissuré, s’est affaissé dans cette partie, puis a explosé en totalité. Par ailleurs, l’étude du projet a été mise en exergue au motif que le lieu d’implantation a été mal choisi, peut-être en raison d’études géotechniques insuffisantes. D’autres éléments ont été invoqués : épaisseur du barrage trop faible, ancrage insuffisant de la voûte du côté gauche, absence de contrôle géotechnique du chantier lors des travaux, manque de rigueur dans le contrôle du premier et seul remplissage après la construction, ouverture tardive de la vanne de vidange au moment de la crue, situation d’autant plus dommageable que le débit correspondant s’est avéré insuffisant pour arrêter la montée du niveau de la retenue.

Le niveau des connaissances techniques de l’époque, un moment mis en cause, permettait normalement de répondre aux questions soulevées. Cependant, les débats ont fait valoir que l’effet des fuites d’eau sous l’ouvrage était bien la cause de la catastrophe. Or, si ces fuites s’étaient déjà produites auparavant sur d’autres ouvrages (Bouey dans les Vosges en 1895), le mémoire rédigé était resté inconnu, et seulement confirmé après la catastrophe de Malpasset.

Enseignements

On retiendra un manque d’approfondissement de la part des bureaux d’études, peut-être un manque de rigueur dans la construction, probablement une absence de procédures dans la mise en service, une ignorance d’un recours au « retour d’expérience », soit pour la catastrophe de Bouey, soit même pour les procédés utilisés par EDF, déjà très avancé sur ce sujet. Certaines conséquences en ont été tirées : il est désormais imposé, pour chaque projet d’infrastructure, de réaliser un panel d’études préalables (archéologiques, hydrologiques, géologiques, environnementales...) et de notes de calculs afin de sécuriser chaque étape de la construction d’un projet d’infrastructure.

L’accident du Concorde

Le 25 juillet 2000, un Concorde à destination de New York, s’est écrasé, peu après son décollage, sur un hôtel à Gonesse, faisant 113 victimes.

Causes de l’accident

Selon le rapport final établi par l’enquête, la cause de l’accident se situe au niveau du pneu avant droit du train principal gauche. Un morceau de métal perdu par un autre appareil serait à l’origine de la détérioration de ce pneu. Il s’ensuit une séquence d’événements mettant en jeu le réservoir de carburant qui perd son étanchéité. Le carburant qui sort du réservoir s’enflamme. Divers enchaînements conduisent à la perte de puissance des moteurs et provoquent en même temps une poussée déséquilibrée. L’avion s’écrase au sol.

Antécédents

Des incidents similaires (dont 57 éclatements de pneus) s’étaient déjà produits.

Analyse et conclusion

On ne peut que s’étonner du fait que des incidents analogues, survenus auparavant et restés sans suite, n’aient pas donné lieu à une prise de mesures significatives et notamment à des modifications techniques. Ainsi le partage d’informations essentielles, la difficulté des acteurs à intégrer dans leurs périmètres d’action l’expérience des autres compagnies sont clairement en cause. Force est de constater en premier lieu que l’existence de « précurseurs » n’a pas été inscrite dans une gestion des risques « système ». D’autre part, la veille technologique par élément technique isolé ne suffit pas : il est nécessaire de rechercher l’efficacité par une meilleure organisation des informations, afin d’identifier les réseaux de dépendance respectifs ainsi que leurs conséquences. On entrevoit là l’opportunité de mettre en place des processus d’intelligence décisionnelle, afin de préserver les fonctions vitales du système, ici de l’avion.

L’accident de la centrale nucléaire de Fukushima Daiichi

Le vendredi 11 mars 2011, a lieu le plus important séisme mesuré au Japon, suivi quelques minutes plus tard, d’un tsunami provoqué par le tremblement de terre. La vague correspondante, d’une hauteur estimée selon certains experts à plus de 30 mètres par endroits, aborde la côte et pénètre à l’intérieur des terres.

Effets du séisme

La détection des premières secousses provoque l’arrêt automatique des réacteurs 1, 2 et 3, et le tremblement de terre proprement dit entraîne la destruction des six lignes d’alimentation électrique externes des réacteurs.

Effets du tsunami

Un peu moins d’une heure après la première secousse, la première vague du tsunami, d’une hauteur de 15 mètres, atteint la centrale nucléaire, suivie de plusieurs autres vagues de moindre importance. N’ayant été bâtie que pour résister à un tsunami de 5,7 mètres de haut, l’installation est entièrement inondée. Cette situation a pour conséquences une perte de la source froide, puis la perte des diesels de secours des réacteurs 1 à 4. La nécessité de disposer de moyens de refroidissements impose alors d’activer un système d’ultime secours permettant de faire circuler l’eau en provenance de la partie inférieure des bâtiments, au pied des cuves des réacteurs. Or, si ce système s’est mis en marche, il s’est cependant arrêté par défaillance des batteries électriques. Dès lors, l’explosion des bâtiments des réacteurs devient inévitable.

Le scénario de l’accident

Le scénario d’accident admis est simple.

Le tremblement de terre entraîne un tsunami, qui lui-même inonde les alimentations électriques, inhibant leur fonctionnement ; d’abord celui de l’alimentation externe, puis celui des alimentations internes, y compris de secours. Résultat : le dispositif de refroidissement, essentiel au fonctionnement des centrales nucléaires, cesse de fonctionner, ce qui provoque une élévation de température des réacteurs au-delà des valeurs critiques.

Analyse et conclusion

La construction de la centrale en bord de mer avait été accompagnée de mesures de sécurité. Pourtant, cette zone côtière de la grande île japonaise, connue pour être exposée au risque de tsunami, n’a pas fait l’objet, semble-t-il, d’une attention suffisante en construisant une digue de protection de 5 mètres de hauteur. En effet, sept tsunamis de 12 à 28 mètres de hauteur ont eu lieu au Japon au début du xxe siècle.

L’accident de Fukushima a également été un révélateur de failles dans l’approche même des procédures d’analyse et de certification des centrales nucléaires. Certes, des organismes de contrôle se sont montrés très compétents, appliquant d’ailleurs rigoureusement une approche cartésienne. Mais les risques nucléaires ont été analysés par nature de risque de manière indépendante : risque d’inondation, risque d’incendie, risque électrique mais non les trois à la fois. Or les trois risques sont superposables et c’est précisément ce qui s’est passé à Fukushima. Les procédures de sécurité ont donc été revues et de nombreuses évolutions ont été réalisées afin de parer l’émergence de risques multiples combinés et interdépendants, en un mot : systémiques.

L’attentat du 11 septembre 2001 aux États-Unis

La question du renseignement

La communauté du renseignement des États-Unis (en anglais, United States Intelligence Community), créée le 4 décembre 1981 par le président des États-Unis Ronald Reagan, comptait 17 services de renseignement appartenant à plusieurs ministères. Si l’on en croit les différents rapports disponibles sur les attentats du 11 septembre 2001, nombre de ces agences disposaient d’informations partielles sur le terrorisme en général et les terroristes impliqués. La mise en commun et l’analyse de ces informations disponibles auraient peut-être pu conduire à la constitution d’un faisceau d’indices suffisant pour permettre l’interception des acteurs des attentats avant qu’ils ne passent à l’acte. Malheureusement, la mise en commun des informations disponibles n’a été réalisée qu’a posteriori, une fois l’attentat perpétré.

Analyse et conclusion

La NSA (National Security Agency), particulièrement mise en cause dans l’échec à prévenir cet attentat, s’est décidée à ne plus jamais « négliger » des informations stratégiques pour la sécurité des USA. C’est pour atteindre cet objectif que le Général Keith Alexander a œuvré à la promotion de la stratégie dite de « la botte de foin ». Cette métaphore, résumée par un ancien responsable du renseignement américain au Washington Post, peut se résumer de la manière suivante : « Plutôt que de chercher l’aiguille dans la botte de foin, son approche était de ramasser toute la botte de foin, de tout ramasser, classer, stocker… pour ensuite pouvoir espérer y retrouver ce que vous cherchez. » On comprend mieux alors cette boulimie de collectes d’informations et d’écoutes tous azimuts, réalisées par de nombreuses agences à travers le monde. Cette approche fait confiance à la puissance de calcul cybernétique et repose sur la pertinence des algorithmes de tri. Mais dans cette quête systématique, certes rassurante, il n’est pourtant question que de mots, d’expressions pour lesquels le discernement et l’intelligence humaine ne pèsent pas lourd face aux puissances de calcul cybernétique des super calculateurs couplés aux méga bases de données ; leur niveau d’efficacité reste à prouver. Pourtant, la NSA avait développé dès les années 2000, un logiciel de suivi des relations entre personnes suspectes sans pour autant se préoccuper du contenu des messages. L’augmentation du volume, de la fréquence et de la durée des communications entre personnes donnait une bonne image de l’activité des individus et du réseau de connexions. Cette approche a été abandonnée quelques mois avant l’attentat du 11 septembre 2001. Depuis, elle est déployée avec succès au sein des services de surveillance autrichiens et français. Ces exemples montrent, dans certains cas, la prévalence du nombre des liens entre deux éléments d’un système (ou deux groupes d’éléments) sur le sens de ces liens.

1.2 En bref

Le repérage de marqueurs de risques