decisions_absurdes

Les décisions absurdes

La concertation peut-elle les éviter ?

Qu’est-ce qu’une décision fiable ? C’est simplement une décision qui contribue aux résultats attendus. Ces résultats sont divers : pour l’équipage d’un avion, il s’agit d’amener ses passagers à destination ; pour un groupe de randonneurs en montagne, se promener en toute sécurité ; pour une équipe de travail dans une entreprise, atteindre ses objectifs de production ; pour les soignants d’un hôpital, procurer un service de santé adapté à ses patients ; pour une troupe de théâtre comique, faire rire son public, etc. Il s’agit donc d’éviter le crash, l’avalanche, la mauvaise option technique, l’erreur médicale ou le manque de succès, tous accidents qui ne sont pas dus à la fatalité, mais souvent à des choix qui auraient été évitables car déterminés par des facteurs humains.

Ce que les accidents nous apprennent

L’étude de catastrophes ou au contraire l’absence d’accident dans des contextes les plus divers permettent de tirer quelques leçons de portée générale.

Première leçon : le fait de ne pas sanctionner les erreurs non-intentionnelles et non répétitives (ni même réprimander ou hausser le ton) évite aux fautifs la tentation de les dissimuler ou de détourner les recherches vers des questions secondaires. Ce principe – qui contredit celui qui prétend que toute erreur doit être sanctionnée pour éviter qu’elle soit répétée – a deux corollaires : le premier est le principe de pédagogie. Il s’agit de comprendre la cause de l’erreur, d’expliquer et de prendre les mesures nécessaires pour qu’elle ne se reproduise pas. Le second corollaire est le principe de punition de la dissimulation de l’erreur : il s’agit d’inciter vigoureusement au retour d’expérience. Cette politique, devenue une règle dans l’armée de l’air et de nombreuses compagnies d’aviation, aurait permis de remédier à temps à de multiples dysfonctionnements , de mettre en place des procédures correctives efficaces et d’offrir au personnel une sécurité psychologique qui contribue aussi à prévenir les erreurs.

Deuxième leçon : la formation des professionnels aux facteurs humains est d’une grande importance car ceux-ci apparaissent primordiaux dans nombre de catastrophes. L’éclairage de sciences comme la psychologie et la sociologie permet de décrypter certaines situations à risques dans lesquels des phénomènes individuels et collectifs peuvent mener à des choix malheureux. Par exemple, les pilotes de ligne connaissent bien cet effet qu’ils nomment « la destinationite » et qui dit qu’il est d’autant plus difficile de renoncer au but qu’on s’est fixé que celui-ci apparaît proche. Si un pilote est informé de mauvaises conditions météo alors qu’il est encore loin de l’aéroport, il choisira sans hésiter de se dérouter. Mais lorsque les pistes sont toutes proches, il ne prend pas la même décision. Lorsque l’issue semble à portée de main, un certain aveuglement empêche de reconnaître les obstacles qui sont devant soi et vous fait persister, parfois de façon funeste…

Troisième leçon, tirée notamment de l’observation de pratiques dans l’aviation et dans l’armée : il est souvent nécessaire de renoncer à la hiérarchie, au profit d’un transfert de pouvoir vers des acteurs sans grade mais « détenteurs d’un savoir et en prise directe avec les opérations ». C’est un principe qui prévaut notamment à bord de nombreux sous-marins, où l’équipage fonctionne comme une équipe et où des choix tactiques, parfois cruciaux, sont guidés par le personnel qui dispose des compétences pour le faire, plutôt que par leurs supérieurs. Un mode de fonctionnement que certains officiers marquent symboliquement en enlevant leurs galons dès lors qu’ils pénètrent dans le submersible. Cette reconnaissance des savoirs de chacun, cet esprit d’équipe et ces transferts de pouvoir limitent les risques d’erreur liés à des abus d’autorité et à l’incompétence. Ce qui fait dire à l’auteur que « c’est parce qu’il n’obéit pas aux relations hiérarchiques militaires traditionnelles qu’un sous-marin est fiable » (p. 129). Ce principe appelé « hiérarchie restreinte impliquée » ne supprime pas la hiérarchie, qui reprend ses droits dans certaines circonstances, notamment parce que son rôle est de définir la mission et d’en expliquer le sens, de veiller au respect des règles ou à la bonne mise en œuvre des décisions.

Quatrième leçon, que l’on peut déduire de la précédente et qui est détaillée ci-après, la mise en discussion des décisions accroît leur fiabilité. Mais sous conditions.

Intelligence collective et fiabilité

Confiance et collégialité sont des facteurs favorables à la fiabilité des décisions. Faut-il penser pour autant que la délibération collective est le meilleur moyen d’être fiable ? Ce n’est pas toujours le cas et il existe plusieurs effets pervers dans les fonctionnements collectifs. Par exemple :

  • L’effet de polarisation. Dans un groupe, ceux qui ont des positions nuancées ont tendance à se rapprocher de ceux qui ont des positions proches mais plus radicales ou exprimées avec plus de force.
  • Le biais de confirmation renforce cet effet : dans une discussion, chacun a tendance à retenir les informations et les arguments qui confirment sa propre opinion.
  • Le paradigme de Asch. Dans un groupe, des personnes en position très minoritaire ont tendance à se rallier à la position de la majorité, ou à taire leur désaccord, de façon à ne pas se singulariser.
  • Cet effet est lui-même renforcé par l’illusion de l’unanimité : le silence de certains est considéré comme un acquiescement par les autres. Ceux-ci, se sentant majoritaires, ont tendance à exprimer plus nettement encore leur position, ce qui renforce l’impact de leurs propos.
  • La communication silencieuse provoque aussi des effets pervers. Dans une délibération, beaucoup de choses ne sont pas dites, chacun cherchant à supputer ce que pense l’autre. Or, beaucoup de ces supputations se révèlent fausses et cela crée des malentendus : on croit être d’accord ou en désaccord alors que ce n’est pas le cas, on pense parler à tort de la même chose ou au contraire ne pas se comprendre…
  • La pensée de groupe privilégie l’harmonie et la cohésion aux dépens des désaccords et des conflits internes : ceux qui ont des doutes sur le bien-fondé de telle ou telle décision préfèrent alors les taire plutôt que de paraître inamicaux. Ce phénomène ne se manifeste pas dans tous les groupes mais lorsque c’est le cas, il est souvent renforcé par une réflexion en vase clos, un sentiment de supériorité du groupe, un certain conformisme.
  • La pression hiérarchique. Dans certains groupes où des relations hiérarchiques s’exercent entre les membres, le désir de ne pas déplaire à ses supérieurs influence sensiblement le positionnement de certains d’entre eux.
  • Le fonctionnement bureaucratique peut limiter la circulation d’information. Par exemple, dans nombre d’organisations, une personne ayant un doute sur telle décision le signalera à sa hiérarchie, mais sans insister, l’insistance ne faisant pas partie des règles habituelles. L’information pourra ainsi ne pas avoir été reçue ou comprise à sa juste mesure.

A ces effets d’influence qui nuisent à la capacité réflexive d’un groupe, il faut ajouter des effets dits « mécaniques », comme celui du nombre. Un grand nombre de participants conduit nécessairement à la rareté du temps d’expression et donc à l’encombrement. En 2005, Bertrand de Jouvenel estimait qu’une réunion de trois heures ne doit pas comporter plus de douze participants si on veut que chacun puisse s’exprimer de façon satisfaisante. Le nombre de participants accentue également les effets de la communication silencieuse : il est plus difficile d’exprimer une contradiction devant un grand groupe que devant quelques personnes. Le grand nombre tend à gommer les positions minoritaires en rendant plus difficile leur expression.

C’est pourquoi le débat doit s’assortir de règles visant à améliorer la qualité de la discussion. L’une de ces règles, par exemple, peut être la présence d’un « avocat du diable ». La présence d’un contradicteur avisé dans les discussions collectives évite en effet au groupe de tomber dans les routines de raisonnement, lui impose d’explorer toutes les pistes et d’évaluer les risques de chacune d’elles. Il y a plusieurs façons d’appliquer ce principe :

  • demander à ce qu’un membre d’un groupe joue ce rôle ;
  • adopter systématiquement une attitude interrogative ;
  • diviser le groupe en sous-groupes pour donner plus de chance aux contradictions et aux positions minoritaires de s’exprimer ;
  • dans les processus de décision publique, ouvrir le débat à des individus ou des organisations aux points de vue différents et sans lien hiérarchique avec les décideurs (associations, etc.)

Autre règle possible : le droit de veto accordé à tous les membres d’un groupe (ou au moins à plusieurs d’entre eux) quelque soit leur statut ou leur légitimité, ce qui revient à préférer les décisions par consensus. Le consensus donne-t-i l pour autant une garantie de fiabilité à la décision ? Pas toujours, cela dépend de la façon dont il est construit.

Intérêts et limites de la décision par consensus

A priori, une décision par consensus permet de limiter le risque d’erreur, mais l’unanimité peut souffrir de deux carences :

  • elle est dite médiocre si elle n’est pas issue d’un véritable débat contradictoire ;
  • elle est dite apparente si certains se taisent alors que les autres donnent un accord explicite. Le principe « qui ne dit mot consent » cache souvent un problème de communication silencieuse et de fausse unanimité et dans ce cas, l’accord obtenu par ce consensus apparent ne reflète parfois que l’avis d’une minorité.

Plusieurs suggestions peuvent être faites pour limiter ces carences :

  • s’assurer que tous les participants ne soient pas liés par des relations hiérarchiques ;
  • une fois que l’accord est en vue, organiser un tour de table pour s’assurer que les silencieux puissent s’exprimer et notamment exprimer leurs réserves ;
  • organiser un vote ;
  • après un accord, se donner un délai de réflexion d’au moins une journée, ou organiser une « délibération de la seconde chance » avec pour but explicite de permettre aux oppositions et aux réserves de se manifester.

L’interaction généralisée

Faire circuler les informations pertinentes de façon fluide, à tous les échelons et entre organisations, est une règle qui permet également de limiter les décisions absurdes. La communication doit être explicite et non tacite, parfois sous forme de « communication à trois voies » : une personne transmet une information, le destinataire reformule ce qu’il en a compris, la première confirme que c’est bien ce qu’elle a voulu dire .

Plusieurs travers fréquents sont à éviter dans la communication :

  • les ambiguïtés de langage, c’est-à-dire les malentendus dérivant de compréhensions différentes des mêmes mots ; se mettre d’accord sur le sens de certains mots fréquemment utilisés dans une concertation (acquérir un vocabulaire commun) n’est pas une perte de temps. Mais au-delà des mots ambigus, certaines formulations abrégées ou l’usage des listes à puces, par exemple dans les présentations Power Point ou les post-it, est une source habituelle de malentendus ou de faux consensus;
  • les dysfonctionnements de la coordination silencieuse, c’est-à-dire le fait que chacun anticipe et imagine ce que font et pensent les autres, sans se donner la peine de vérifier auprès d’eux que ses hypothèses sont exactes ;
  • les difficultés de visualisation de la réalité : les images en donnent parfois une représentation atténuée ou inexacte. Se rendre sur place pour constater les choses ou utiliser des maquettes pour représenter un espace tridimensionnel peut s’avérer plus explicite que d’utiliser des photos ou des plans, même produits par des technologies sophistiquées.

Des « métarègles » de la fiabilité peuvent donc être énoncées : privilégier la décision collégiale à la décision hiérarchique, mettre en place des débats contradictoires, assurer une transmission fluide d’informations, rechercher des consensus solides, etc. Il peut sembler paradoxal que ce soit dans des institutions fortement hiérarchisées (l’armée, l’aviation, l’hôpital…) que de telles règles aient été formulées et commencent à être mises en application. D’autant plus que la culture de la fiabilité en contredit d’autres, comme la culture de la hiérarchie, celle du professionnalisme qui interdit la mise en discussion de « celui qui sait » ou celle de la certification qui préfère la conformité à des référentiels préétablis. Il faut espérer que les coûts matériels et humains provoqués par des décisions absurdes inciteront de façon pragmatique les organisations à s’engager dans la voie d’une plus grande fiabilité de leurs décisions.

Christian Morel est un ancien cadre dirigeant dans l’industrie.

Cette fiche de lecture ne résume pas intégralement l’ouvrage, elle en tire quelques enseignements utiles à la conduite de processus de concertation et de participation. Les fiches de lecture de Comédie revendiquent la subjectivité du rédacteur et n’engagent que lui.

Quelques informations

  • Type de fiche : Note de lecture
  • Année de publication :
    2012
  • Auteur :
    D’après l’ouvrage de Christian Morel : Les décisions absurdes, vol. II : comment les éviter
  • Editeur :
    Gallimard
  • Références :

    270 p.