• Alexis BEN FREDJ

[Partie II] Détection des signaux faibles et acceptabilité du risque

Comme le souligne Pablo Servigne et Raphaël Stevens dans leur ouvrage Comment tout peut s’effondrer sortie en 2015, « sans prévisibilité forte, il est difficile d‘investir financièrement, humainement ou techniquement aux bons endroits et au bon moment » car en effet, « dans nos sociétés, les choix sont habituellement basés sur les capacités que nous avons à prédire les événements. »



Partie 2 – Savoir détecter, anticiper et accepter le risque


Dans le monde anglo-saxon, nous parlons de early warning signals pour travailler sur le champ de la compréhension des signes avant-coureurs, qui est particulièrement prospère dans le domaine environnemental dans le suivi de l’évolution des écosystèmes. Or, bien que les chercheurs développent des modèles sophistiqués pour suivre et rendre compte des signaux critiques pour notre planète avec des graphiques projectifs / prospectifs, les indicateurs ne permettent pas de prédire le moment précis de transition / basculement dans la phase critique. En effet, plus on approche des seuils critiques, plus les systèmes deviennent complexes et moins l’interprétation devient limpide. Cela est aussi valable pour les risques économiques, sociétaux, terroristes...


Et tant bien que même, nous avons des modèles de probabilité solides et expérimentés pour prévenir les catastrophes, il arrive qu’une faille dans le système fasse échouée ce en quoi nous avons en grande partie confiance. C’est le cas du tremblement de terre de 2009 à l’Aquila en Italie qui a surpris tout le monde et trahi les outils de mesure. Cette catastrophe s’est traduite par la condamnation par la justice italienne des scientifiques à 6 ans de prison en raison de leur manquement à la prévision précise d’un séisme potentiel.


La difficile acceptabilité et interprétation du risque est défiée à travers le facteur de l’aléa moral pour Pablo Servigne qui précise qu’ « on se comporte comme si l'on n'était pas soi-même exposé au risque. Certains agents se déresponsabilise donc de leurs décisions, mais plus grave encore, bien que leurs actions puissent être considérées comme rationnelles en temps normal, elles peuvent mener à un inévitable échec collectif. »


Il faut accepter cependant que certains risques ne sont pas prévisibles peu importe les modèles scientifiques de mesures mis en place ou les moyens humains et intellectuels que l’on déploie pour prévenir certains événements. On parle dans ces cas-là des fameux cygnes noirs à qui l’on attribue deux principales définitions :


  • Comme les cygnes sont majoritairement blancs la probabilité de voir un cygne noir est extrêmement rare, alors nous n’y pensons plus ou presque plus.


  • Le philosophe mathématicien et ancien tarder Nicholas Nissim Taleb explique le concept des cygnes noirs à travers le