Vous n’êtes pas seul à ne pas aimer les maths… Votre cerveau aussi ! Notre cerveau n’est pas fait pour trop réfléchir vous l’aurez bien compris ... C’est pourquoi il met en place au quotidien tout un tas de raccourcis pour gagner du temps : les biais. Nous allons en découvrir plusieurs ensembles à travers cet article.
Si je vous dis que les endroits où le nombre de cancer des poumons est le plus faible sont :
Logiquement, vous allez vous dire :
"C’est normal, c’est la campagne, l’air est plus pur, l’eau aussi et de la nourriture locale et saine est plus facile à trouver."
Maintenant si je vous dis que les endroits où le nombre de cancer du foie est le plus fort sont :
Logiquement, vous allez vous dire :
"C’est normal, c’est la campagne, les gens sont souvent plus loin des hôpitaux, ils boivent et fument plus."
Et pourtant les deux réponses sont mauvaises.
Ce n’est ni à cause de déserts médicaux ni à cause du bonheur de la campagne. Mais parce que les populations sont peu nombreuses et donc les statistiques moins fiables et plus à même de diverger.
C’est une simple histoire de statistiques. Et notre cerveau par définition, ne supporte pas les statistiques.
Il va préférer trouver des justifications pour tout et n’importe quoi plutôt que réfléchir.
Vous n’y croyez pas ?
Jouons à pile ou face, qu’est ce qui est le plus probable ?
Pile - Pile - Face - Pile - Face - Face
Face - Face - Face - Face - Face - Face
Les deux ont exactement la même probabilité, et pourtant votre cerveau refuse de le comprendre.
Là où le problème se pose est que l’on n'est pas conscient de ses propres limites.
Par exemple, vous entendez à la radio : “Sur un sondage téléphonique de 300 personnes, 60% des seniors se déclarent favorables au retour de la peine de mort”
Quelle est votre conclusion ? : “Les personnes âgées sont pour la peine de mort.”
Et pourtant vous avez perdu l’information la plus importante. Vous avez résumé la même information peu importe la taille de la série.
Et cela va plus loin que les statistiques. C’est que notre cerveau ne supporte pas le doute. Il donnera la même valeur à une information lu dans un journal scientifique qu’entendu chez le coiffeur.
Le biais sans doute le plus connu.
Le premier chiffre sorti lors d’une conversation/ négociation fixe la base et le postulat de départ.
Prenons un exemple :
On pose à un groupe les questions suivantes :
"Est-ce que le plus grand Sequoïa du monde fait plus ou moins de 350m ? Quelle est la taille du plus grand Sequoïa du monde ?"
Puis on remplace 350m par 50m et on pose la question à un autre groupe.
On obtient deux résultats diamétralement opposé.
Le premier groupe estime en moyenne que le plus grand fait 250m, alors que le second estime 75m.
La différence est donc considérable et uniquement influencé par l’ancrage subit lors de la première question.
Là où le biais d’ancrage est véritablement intéressant est par sa capacité à être mesuré.
En effet on peut le mesurer suivant la formule suivante : Ratio = différence entre les résultats /différence entre les ancrages
Ici : (250-75)/(350 - 50) = 175/300 = 58%
Par exemple le ratio serait de 0% pour quelqu’un ignorant complètement les ancrages et de 100% pour quelqu’un prenant les ancrages comme argent comptant. 58% est une valeur dans la moyenne.
Cette formule de calcul est très utile.
Par exemple, prenons en considération une demande de dons classique.
Le don moyen est de 60€.
Avec un ancrage à 5€, il est à 18€.
Et avec un ancrage à 400€, il est à 160€
Notre ratio est donc de : (160-18)/(400-5) = 36%
Cela veut donc dire, que augmenter de 100€ l’ancrage revient à augmenter le montant du don de 36€.
Bien que cette courbe ne soit pas complètement linéaire, cette formule et ce raisonnement sont très souvent utilisés dans l’application du biais d’ancrage.
Depuis toujours l’homme se prépare au pire de ce qu’il a déjà connu, et la gestion et prévision des risques sont une science très moderne, lancé notamment par Howard Kunreuther dans les années 70.
Prenons un exemple tout simple, les Égyptiens (et toutes les civilisations) dimensionnaient leurs infrastructures fluviales en se basant sur la dernière crue, sans se projeter sur une crue plus importante ni en calculant le coût lié et la rentabilité liée à la fréquence de ces crues.
Dans les faits, notre perception des risques et dangers est liée à notre perception de ceux-ci et à notre vécu.
Dans les années 80 aux USA Paul Slovic et Sarah Lichtenstein dévoilent une étude édifiante.
On présente aux participants deux causes de mortalité et on leur demande de les classer et d’estimer leur probabilité.
Parmi les résultats on peut souligner ceux-ci :
On peut en tirer une remarque très intéressante :
Il existe une réelle corrélation entre la perception d’un danger et sa couverture médiatique.
Des événements très ponctuels comme le botulisme aux USA dans les années 80 ont une notoriété et donc un danger perçu disproportionné.
Ainsi le simple fait d’entendre une mention de quelque chose change notre perception et notre ressenti sur cette chose.
💡 En même temps, il est extrêmement complexe de mesurer un risque car suivant l’industrie quelle est la bonne unité :
Le meilleur exemple ces dernières années reste les actes terroristes, notre perception et notre peur de ces derniers n’ont aucune réalité lorsque l’on compare réellement au nombre de victime.
Et ces biais ne touchent pas que vous et moi mais aussi les grandes institutions comme les gouvernements.
Le COVID en est un exemple, la médiatisation a conduit dans un premier temps a des conséquences et des actions qui n’auraient peut-être pas été aussi intenses si la planète entière n’avait pas communiqué à ce sujet.
Prenons l’exemple suivant :
Julie est une étudiante très intelligente mais manque de créativité. Elle a souvent besoin de clarté et d’ordre dans ce qu’elle fait. Elle aime les tâches répétitives et mécaniques.
Un peu geek, elle n’est pas forcément très sociale et aime s’isoler pour faire de longues sessions de travail.
Maintenant classez par probabilité le champ d’étude de Julie :
Vous obtenez souvent quelque chose de ce genre :
Parce que sa description correspond à ce que vous percevez d’un développeur.
En effet, il est plus facile de raccrocher une description à un petit groupe de personne plutôt qu’à quelque chose de très large comme les “sciences sociales” ou “professeur”. Ainsi plus le groupe est grand plus il est dur d’en ressortir des clichés.
Pourtant, en réalité il y a beaucoup plus d’étudiants professeur que développeurs back-end donc la probabilité que Julie soit professeur est nettement supérieure à celle qu’elle soit développeuse.
Et cela peut vite être problématique dans la vie du quotidien car lorsqu’on se base sur des faits perçus et non représentatif l’erreur n’est pas loin.
Par exemple vous voyez quelqu’un lire un livre dans le métro nommé “Biais et heuristique”.
Quel est le plus probable :
Et pourtant il y a bien plus de personnes en France n’ayant pas le bac qu’ayant un doctorat.
Un autre exemple très parlant en reprenant la structure ci-dessus :
Thibault a 31 ans, il est végétarien et a fait des études de philosophie. Pendant ses études il était très concerné par les sujets de discrimination, d’écologie et de droits sociaux.
Classez les affirmations par probabilité :
Évidemment j’imagine que banquier se classe en dernière position.
Maintenant, qu’est ce qui vous semble le plus probable ?
Vous choisissez le second exemple ?
Comme à peu près 90% des gens cela n’a pas véritablement de sens.
Regardons ce graphique
Le choix 2 nous positionne à l’intersection des deux cercles donc dans un échantillon bien plus petit.
Cet effet, appelé “Conjuction fallacy” par Daniel Kahneman est très complexe à éviter car même lorsque l’on s’en rend compte une petite voix dans notre tête continue à crier “mais il ne peut pas être juste un banquier”.
C’est le biais “Less is More”.
Notre cerveau tend à croire les situations qui lui semblent le plus cohérentes, peu importent les statistiques ou la réalité.
Cela nous pousse par la suite vers un biais de comparaison
On demande à deux groupes d’estimer le prix d’un set de vaisselle :
Groupe A
4 assiettes
4 couteaux
4 fourchettes
Groupe B
4 assiettes
4 couteaux
4 fourchettes
3 verres fêlés
Lorsque l’on demande d’estimer les deux en même temps le A est estimé 2€ de plus
Lorsque l’on demande d’estimer séparément le B est estimé 10€ de plus.
Et pourtant le B comprend la même chose que le A avec même des éléments supplémentaires.
Mais la moyenne de qualité du B lorsque l’on le compare au A diminue sa valeur.
L’incidence d’un événement sur un suivant est souvent surestimée.
Prenons par exemple un coach sportif. D’après lui crier et incendier quelqu’un qui fait une mauvaise performance a de meilleures répercussions que récompenser quelqu’un qui a fait une surperformance.
Pourtant découpons cette affirmation :
Ainsi peu importe ce qui se passe entre les deux essais la probabilité fait seulement que les performances vont évoluer, il ne serait donc pas bon d’en traduire des diktats d’éducation.
Les biais de réflexions, que l’on traite depuis le début de l’article sont en réalité utile pour le cerveau.
C’est grâce à eux que l’on gagne du temps dans nos réflexions quotidiennes, en déduisant des choses sans forcément passer par la logique.
La majorité du temps les biais conduisent à des raisonnements justes.
Et sans le biais on n’arriverait jamais à des raisonnements ou des prédictions risqués.
On ne pourrait jamais dire “je te l’avais dit” quand une start-up défie tous les indicateurs en explosant le marché ou quand un ami devient major de promo en loupant ses premiers partiels.
Donc les biais ont du bon.
Mais il est crucial de savoir qu’ils existent et de garder toujours cette petite voix en tête qui dit “attention, tu peux être biaisé”.
Le biais vient de notre cerveau n°1, comme nous l'avions évoqué dans notre premier article sur les sciences comportementales et l'écologie positive : https://www.luniwave.com/blog/biais-cognitifs-et-ecologie-positive. Il faut donc parfois se forcer à utiliser notre cerveau n°2 pour réfléchir de manière logique.