Des biais cognitifs et de l’irrationnel

Cet article a été traduit par des bénévoles d'EA Geneva depuis crucialconsiderations.org


Des cerveaux hérités de l’âge de pierre à l’ère du silicum

Nous possédons la structure la plus complexe de l’univers : le cerveau humain. Cette masse gélatineuse contient le nombre ahurissant d’un milliard de neurones et façonne chacune de nos pensées, actes, souvenirs, émotions et expériences du monde. Il nous permet de reconnaître et d’organiser des schémas complexes permettant de planifier notre avenir, échanger avec les autres, communiquer par le langage, acquérir et transmettre la connaissance et réfléchir de manière abstraite sur ce qui dépasse notre expérience concrète de la réalité. En bref, il nous permet d’exécuter nombre de tâches singulièrement associées à l’ingéniosité humaine.

Cependant, le cerveau humain est également un menteur pathologique sabotant sans relâche nos entreprises. En dépit de sa fantastique complexité, notre cerveau tombe avec une régularité stupéfiante dans un certain nombre de pièges cognitifs. Or, plus c’est le cas, moins nous réussirons à accomplir ce que nous souhaitons vraiment.

La plupart du temps, nous tombons dans ces pièges sans même nous en rendre compte ; il est en effet pratiquement impossible d’observer notre façon de penser avec suffisamment de recul. Prenez par exemple les illusions d’optique. Sur l’échiquier ci-dessous, nous percevons les carrés A et B comme ayant différentes nuances de gris. Même en se référant au diagramme de droite —qui démontre que les deux teintes sont bien identiques— nous avons du mal à dépasser notre perception initiale de différence. D’un point de vue purement intellectuel, nous n’avons aucune difficulté à accepter que ces carrés sont les mêmes. Pourtant, nous aurons toutes les peines du monde à intérioriser cette connaissance. De la même manière que notre cerveau est victime d’illusions d’optique, il peut être trompé par des “illusions de pensées” qui sont aussi difficile à détecter, reconnaître et éviter que les tromperies optiques. Ces “erreurs” dans notre façon de penser s’appellent des biais cognitifs.

optical illusion grey squares.png
Same_color_illusion_proof2.png

 

Les biais cognitifs sont des déviations systématiques par rapport à notre exigence de rationalité, soit des schémas de pensée qui nous mènent systématiquement à accepter des croyances inexactes, et donc à prendre des décisions inappropriées. Ils constituent l’écart entre le modèle descriptif qui détermine comment nous réfléchissons et prenons des décisions, et le modèle normatif qui définit comment nous devrions idéalement penser et décider. Par conséquent, si nous souhaitons augmenter notre capacité à accomplir nos objectifs, nous devons essayer de surmonter nos biais cognitifs.

Des centaines de biais cognitifs ont déjà été découverts et étudiés par divers psychologues et économistes comportementaux. Pour n’en citer que quelques-uns, nous attachons par exemple plus de valeur aux choses qui nous appartiennent (effet de dotation) ; nous n’arrivons pas à lâcher un projet dans lequel nous avons déjà investi beaucoup (biais des coûts irrécupérables) ; nous avons une grande résistance au changement, même quand modifier l’état actuel des choses améliorerait considérablement notre vie (biais du statu quo) ; nous avons une confiance démesurée en nos propres capacités (biais de l’excès de confiance) ; et nous avons tendance à chercher seulement des preuves qui confirment – plutôt que de réfuter – notre hypothèse (biais de confirmation).

Ces exemples peuvent vous sembler évidents, voire même insignifiants, et pourtant la superposition de ces erreurs a des répercussions effarantes à l’échelle mondiale. Des milliards de personnes accordent plus d’autorité à des doctrines associées à un dieu anthropomorphisé qu’aux analyses rationnelles et réflectives de leur esprit. Nous vivons dans des sociétés où la production, la consommation et la possession de biens matériels dominent l’évaluation de notre bonheur. Nous investissons nos ressources mentales et physiques dans des projets dont nous savons qu’ils vont inévitablement échouer, et dans des croyances que nous soupçonnons fausses en notre for intérieur ; et nous cherchons activement à empêcher les changements mêmes qui nous libéreraient de cette condition. Nous jugeons notre succès en nous comparant aux autres plutôt que sur  la base de nos propres objectifs, et ainsi —pour citer un passage du film Fight Club— “nous gâchons notre vie à travailler pour acheter des choses dont nous n’avons pas besoin, avec de l’argent que nous n’avons pas, et tout ça pour impressionner des gens que nous n’apprécions pas”. Notre discours public n’est ni rationnel ni honnête sur la direction que nous souhaitons prendre en tant que société et nous ne sommes absolument pas habilités pour identifier ce qui compte vraiment. Enfin, dans tout ça, bien entendu, c’est notre propre esprit qui nous fournit cette impulsion vers l’irrationnel.

Mais alors comment notre cerveau parvient-il à être à la fois un organe d’une formidable complexité et le saboteur de nos meilleurs plans ? La réponse vient du décalage entre, d’un côté ce pourquoi notre cerveau a été optimisé, et de l’autre côté la situation dans laquelle nous nous trouvons actuellement. L’évolution a optimisé nos cerveaux pour qu’ils maximisent la prolifération des gènes de nos ancêtres dans l’environnement dans lequel ils vivaient. L’évolution culturelle a progressé si vite durant les dix milles dernières années que l’évolution biologique s’en est trouvée bien incapable de la rattraper. C’est ce qui fait que nous vivons, à l’âge de silicone, avec un cerveau datant de l’âge de pierre ; nous sommes des machines de réplication génétique qui essayent désespérément d’atteindre des objectifs individuels n’ayant rien à voir avec la propagation des gènes – des objectifs souvent très abstraits, d’impartialité morale par exemple. De plus, nous vivons dans une société hautement technologique au sein de laquelle interagissent des millions de personnes. C’est donc une situation très différente de l’environnement de chasseur-cueilleur dans lequel notre cerveau a évolué. Il n’est ainsi pas étonnant que notre façon de penser ne soit souvent pas adaptée à la réalité moderne dans laquelle nous nous trouvons – le contraire serait d’ailleurs vraiment étonnant.

Mais tout n’est pas perdu. Plus nous serons capables d’identifier les sources de nos erreurs dans notre façon de penser, mieux nous serons équipés pour les corriger. Justement, la compréhension et la manière de combattre les biais cognitifs est de plus en plus étudiée. Le vieil adage “connais ton ennemi” reste d’actualité, et sur la base de cette première et cruciale étape de reconnaissance, il existe une multitude d’actions à entreprendre pour se défendre contre ces biais.

La première étape consiste à reconnaître que réfléchir est difficile et que, sans un effort de concentration, les êtres humains réfléchissent rarement de manière optimale. Deuxièmement, il faut s’entraîner systématiquement à bien réfléchir. La discipline nécessaire à l’étude du piano ou à la résolution de Sudoku peut être imitée pour entraîner notre cerveau à réfléchir mieux, et ainsi nous améliorer à atteindre nos objectifs. Nous pouvons aussi améliorer la prise de décision via le nudging (petit coup de coude), c’est-à-dire en aménageant l’environnement de telle sorte que les gens choisissent préférentiellement l’option qui est dans leur meilleur intérêt. Le nudging peut être réalisé individuellement, en petits groupes, ou dans la société dans son ensemble.

Quelles que soient nos valeurs ou les objectifs auxquels nous aspirons, il y a une action qui aura le meilleur résultat pour satisfaire nos valeurs ou mener à nos buts. Être rationnel est difficile, mais il s’agit simplement de maximiser ses chances de succès et d’éviter les nombreux pièges qui pourraient s’y opposer. Nous avons tous la faculté de nous améliorer et de devenir meilleurs à réfléchir et prendre des décisions ; et même si nous n’arriverons jamais à être parfaitement rationnels, il est toujours possible, et souhaitable, de s’améliorer.

Références

Baron, J. (2000). Thinking and deciding. Cambridge University Press.

Kahneman, D., Knetsch, J. L., & Thaler, R. H. (1991). Anomalies: The endowment effect, loss aversion, and status quo bias. The journal of economic perspectives, 193-206.

Simon, P., & de Laplace, M. (2004). Richard P. Larrick. Blackwell handbook of judgment and decision making, 316.

Samuelson, W., & Zeckhauser, R. (1988). Status quo bias in decision making. Journal of risk and uncertainty, 1(1), 7-59.

Stanovich, K. E. (2005). The robot’s rebellion: Finding meaning in the age of Darwin. University of Chicago Press.

Thaler, R. H., & Sunstein, C. R. (2008). Nudge: Improving decisions about health, wealth, and happiness. Yale University Press.

Tversky, A., & Kahneman, D. (1974). Judgment under uncertainty: Heuristics and biases. science,185(4157), 1124-1131.