
Paris, le samedi 3 décembre 2016 – Surpuissance
d’internet, manipulation de la presse, manque de culture
scientifique : les raisons pour lesquelles de prétendues alertes
sanitaires, en dépit des dénégations de la majorité des
scientifiques, connaissent tant de succès sont régulièrement
énumérées.
Mais ces éléments, aussi importants soit-ils, ne sont pas seuls en
cause. Notre esprit est façonné pour recevoir, traiter et accepter
certaines informations plutôt que d’autres. Ces mécanismes sont
décryptés pour nous par Jean-Paul Krivine, rédacteur en chef de
Science et pseudo-sciences, la revue de l’Association française
pour l’information scientifique, qui éclaire d’une manière précise
et dépassionnée les raisons de nombreuses croyances
actuelles.
Par Jean-Paul Krivine*
L’espérance de vie s’est régulièrement accrue depuis des
décennies1 des maladies auparavant incurables
bénéficient maintenant de traitements qui permettent de redonner de
l’espoir, la qualité de l’eau et celle de l’air s’améliorent
régulièrement2,3. Bien entendu, les nouveaux sujets de
préoccupation ne manquent pas, mais comment comprendre que, dans ce
contexte, nos contemporains soient devenus « des
hypocondriaques permanents à peine étonnés que surgisse une
nouvelle alerte sanitaire, fatalistes face aux scénarios de fin du
monde qui sont devenus les narrations dominantes de notre avenir
commun4» .
Une récente enquête5 lace la France en tête des pays
réticents aux vaccins : plus de 40 % des personnes interrogées ne
les jugent pas sûrs et 18 % remettent en cause leur efficacité.
Ceci malgré un bilan sanitaire sans appel depuis plus d’un siècle
et des effets secondaires limités et sans commune mesure avec les
ravages des maladies dont les vaccins nous protègent. Les
organismes génétiquement modifiés (OGM) pour l’alimentation
suscitent également inquiétudes et rejet pour 55 % des
Français6 alors que les OGM autorisés à la consommation
ont fait l’objet d’études et d’évaluations approfondies (bien plus
importantes que celles faites pour les plantes conventionnelles) ne
révélant aucun danger et que des centaines de millions d’animaux et
d’êtres humains en consomment depuis des décennies sans que les
études aient montré le moindre impact sanitaire7. Les
ondes de la téléphonie mobile font peur malgré les messages
rassurants délivrés par les agences sanitaires sur la base de
milliers d’études. La simple trace de résidus de pesticides, à des
niveaux bien en deçà des limites réglementaires et encore plus
éloignés des seuils toxicologiques, suscite des peurs conduisant
certains à craindre pour leur santé la simple consommation de
fruits et légumes.
Mal informés ? Certes, l’information scientifique a un rôle crucial à jouer. Mais elle ne suffit pas. Et il serait trop simple de réduire les comportements évoqués plus haut à des attitudes irrationnelles ou à de simples manipulations de l’opinion. Des manipulations, il y en a, mais il existe aussi de "bonnes" raisons pour des craintes infondées.
L’information scientifique : indispensable… mais insuffisante
L’opinion a priori que l’on a sur un sujet influe sur
la perception des risques associés. Les travaux en économie
comportementale ont ainsi montré que, quand les gens sont
favorables à une technologie, ils estiment qu’elle offre de
formidables avantages sans quasiment aucun risque, mais quand ils y
sont hostiles, ils ne considéreront que les
inconvénients8.De façon symétrique, les mêmes études ont
révélé qu’une information présentant les avantages d’une
technologie changeait aussi l’avis porté quant à ses risques : «
dans le monde imaginaire où nous vivons, les bonnes
technologies n’ont que peu d’inconvénients, les mauvaises
technologies n’ont pas d’avantages, et toutes les décisions sont
faciles »8.
Dans certains des exemples évoqués, l’utilité perçue peut être
faible : la vaccination protège contre des maladies que l’on ne
voit jamais autour de soi ou qui ont quasiment disparu de l’espace
public, les OGM de première génération ont des propriétés utiles
pour l’exploitant agricole, mais ne présentent aucun bénéfice pour
le consommateur… De plus, quelque chose de perçu comme imposé sans
que ses bénéfices apparaissent évidents est propice au
développement de fantasmes sur ses dangers potentiels et sur
l’existence de manipulations de tous ordres.
L’argument de l’utilité collective se heurte à d’autres
difficultés. Certes, la nécessité d’une antenne relais pour
permettre au téléphone mobile de fonctionner est comprise par tous,
mais elle peut toujours être installée « plus loin ». La
couverture vaccinale nécessaire peut être assurée par « les
autres ». Le fameux syndrome « pas dans mon jardin
»9 n’est pas dépourvu d’une certaine rationalité :
pourquoi serait-ce à moi de supporter les « externalités
négatives », les effets délétères (réels ou supposés) pour ce
qui est d’intérêt général ?
De façon évidente, l’accès à une information scientifique sérieuse,
documentée et compréhensible par tous peut aider à démêler le vrai
du faux et à aller au-delà des peurs et des émotions ressenties
face à l’avalanche d’informations et d’affirmations délivrées par
les journaux, les télévisions ou Internet. Mais ce n’est pas
suffisant. Pour s’en convaincre, il suffit de mentionner, par
exemple, la couverture vaccinale insuffisante des personnels de
soins10, catégorie ayant a priori
un accès plus facile et plus direct à une information précise et de
qualité. Par ailleurs, se pose une question plus générale : que
faut-il croire dans un monde où il est impossible de tout vérifier
par soi-même, et quelles sources sont les plus légitimes
?11
Controverse scientifique ou débat de société ?
En réalité, les questions scientifiques sont invoquées de façon indue et brouillent le débat de société sous-jacent (organisation et finalité du système de soins, modèle économique souhaité, type d’agriculture à privilégier, etc.). Ceci au profit d’une prétendue controverse dont les tenants et aboutissants échappent largement, si ce n’est complètement, au commun des mortels12 .
Ainsi, Nicolas Chevassus-au-Louis, dans La Malscience : de la fraude dans les labos13 après avoir décrit les opérations de manipulation des données scientifiques qui se multiplient dans les laboratoires et avoir rappelé les méthodes parfois employées par les industriels (avec l’exemple bien connu de l’industrie du tabac) dénonce l’adoption par certaines associations des procédés condamnés chez l’adversaire : « Un CRIIGEN14 [nous] semble mener en matière de recherche sur les OGM le même rôle que le défunt Council for Tobacco Research financé par les cigarettiers américains : celui de procureur instruisant à charge une question scientifique sans le moindre souci d’impartialité. S’il est une conclusion à tirer de l’affaire Séralini, c’est assurément que, pour la première fois, un groupe associatif a recouru aux méthodes de l’industrie, convaincue depuis des décennies que rien ne vaut une publication scientifique pour défendre sa cause, et que peu importe la qualité du travail de recherche mené ».
« Combien sont-elles exactement, s’interroge Gérald Bronner15 , les victimes de ces vertueux “inquiéteurs”, tous les individus dont la vie aurait pu être sauvée si les coûts impliqués par la chasse aux risques illusoires avaient été convertis en politique de prévention ou de recherche ? ».
Pour atteindre leur but et emporter l’adhésion, certains vont intelligemment exploiter l’existence de biais cognitifs constitutifs de la « rationalité subjective » qui caractérise nos modes de pensée et de décision.
Les biais cognitifs
Ces biais cognitifs sont maintenant bien établis et tout un champ disciplinaire a été créé il y a une trentaine d’années : l’économie comportementale16 . Ils nous concernent tous et font qu’il existe pour chacun d’entre nous de « bonnes raisons » pour des croyances infondées17 .
Le poids de nos idées a priori
Le biais de confirmation opère comme un filtre
informationnel et une grille de lecture : nous privilégions les
informations qui confirment nos croyances et avons tendance à
écarter ou discréditer celles qui les contredisent. À cela s’ajoute
le fait que rechercher une information contradictoire requiert un
effort, et que faire face à une « dissonance cognitive
»18 est désagréable. Rejeter, ignorer ou disqualifier
l’élément perturbateur (un fait, un argument, une information) est
alors cognitivement plus facile. Par exemple, la croyance aux
qualités sanitaires bénéfiques de l’alimentation bio est bien
ancrée19 . Les études scientifiques ne mettant en
évidence aucun avantage pour la santé20 auront toutes
les raisons d’être écartées plutôt qu’analysées au risque de
perturber une croyance bien ancrée jusque dans la vie
quotidienne.
Le biais de croyance opère de façon similaire. La logique d’un
argument est biaisée par la croyance en la vérité ou la fausseté de
la conclusion : « quand les gens pensent qu’une conclusion est
vraie, ils sont aussi tout à fait enclins à croire des arguments
qui semblent l’étayer, même quand ces arguments sont erronés
»21 .
Une mauvaise perception du hasard
Le cerveau humain doit souvent procéder à des analyses avant de prendre une décision. Mais ses ressources sont limitées, les informations dont il dispose sont parcellaires et, souvent, le temps disponible est très contraint. Il doit procéder à des raccourcis engendrant de nombreux biais. Ainsi, le hasard est-il perçu plus régulier dans l’espace et dans le temps qu’il ne l’est en réalité. Un petit échantillon sorti d’une série bien plus importante peut alors présenter une irrégularité surprenante qui n’a, en réalité, rien d’anormal quand elle est replongée dans l’ensemble des données.
De cette façon, plusieurs cas de cancers pédiatriques observés dans un village de Gironde ont inquiété les habitants. L’épandage de pesticides est suspecté. L’Agence régionale de santé (ARS Aquitaine), saisie par le maire d’un des villages, Preignac, a procédé à une analyse détaillée élargissant son enquête à neuf autres communes avoisinantes22 . Elle relève à Preignac des fréquences de tumeurs parfois cinq ou six fois plus importantes que ce qui serait attendu. Cela peut sembler énorme, et on comprend que ces seuls ratios ne rassurent pas les parents et habitants. Cependant, dans sa conclusion, l’agence précise que « Si l’on ne peut écarter l’absence d’excès de cas de cancer sur Preignac ou sa zone, celui-ci reste faible et ne concerne pas un type de cancer spécifique. Les méthodes épidémiologiques ne permettent pas de savoir si cet excès est lié à une fluctuation aléatoire des maladies (pouvant être compensée par un déficit dans les années à venir) ou si cet excès est véritablement lié à un facteur de risque environnemental commun. En outre, on constate que dès que l’on agrandit la zone d’étude aux autres communes limitrophes, l’excès de risque est moindre ». On est en effet sur un nombre très faible de cas attendus, et un facteur 5 ou 6, sur un très petit sous-groupe peut résulter de la simple fluctuation statistique. Une situation similaire a été rapportée en Belgique, dans la commune de Fernelmont où l’Agence wallonne pour une vie de qualité (AVIQ) a enquêté suite à une demande d’habitants relative à des cas de cancers.
Malheureusement, « notre esprit est profondément biaisé en faveur d’explications causales et gère mal les “simples statistiques” »23.
Trompé par les chiffres
Le nombre de cancers du sein diagnostiqués chaque année en
France est passé de 21 000 en 1980 à 49 000 en 2012 (source :
Institut national du cancer). Aux États-Unis, l’autisme touchait
une personne sur 500 en 1995. En 2010, c’est une personne sur 68
qui est diagnostiquée (source : Center for Disease Control and
Prevention). Le nombre de cancers de la thyroïde diagnostiqués en
France a augmenté de 6 % par an entre 1980 et 2005 (source :
Institut de veille sanitaire24 ). Faut-il alors parler
d’« épidémies » et invoquer, pour les cancers du sein la
responsabilité des « produits chimiques de notre environnement » au
travers d’une « alerte » médiatisée par L’Obs en
partenariat avec France Info25, pour l’autisme,
celle des pesticides comme l’a fait avec retentissement l’émission
Cash Investigation de février 201626, ou, pour
les cancers de la thyroïde, les conséquences du " nuage de
Tchernobyl " ?
Les chiffres paraissent éloquents et la conclusion semble ne pas
souffrir la moindre contestation. Pourtant, une analyse plus
poussée donne des explications très simples. Pour les cancers du
sein, l’accroissement et le vieillissement de la population rendent
compte d’une très grande partie de l’augmentation. Ramenée à un «
taux pour 100 000 à âge égal », on constate même, depuis 2004, une
diminution de l’incidence de la maladie en France26.
Pour l’autisme, la tendance observée aux États-Unis se retrouve
dans la plupart des pays, mais l’explication tient à deux éléments
principaux : l’amélioration du suivi et du diagnostic et le
changement de définition de la maladie, incluant maintenant des
troubles classés auparavant comme "déficience
intellectuelle"27. Enfin, en ce qui concerne les cancers
de la thyroïde, l’Institut de veille sanitaire25 invoque
« le rôle prépondérant de l’évolution des pratiques
médicales » (un meilleur diagnostic) ajoutant que ses analyses
permettent d’« exclure un impact important des retombées de
Tchernobyl en France » (l’augmentation de l’incidence de ce
cancer a d’ailleurs commencé en 1982 alors que l’accident de
Tchernobyl s’est produit quatre ans après). Les chiffres bruts sont
malheureusement trop souvent exploités de façon alarmiste au
travers de fausses alertes sanitaires.
Encore une fois, notre cerveau est disposé pour se faire tromper :
« des informations statistiques “sans relief” sont généralement
ignorées quand elles sont incompatibles avec les impressions que
l’on a d’un cas »28 .
La mauvaise attribution d’une cause à un effet
Pour agir ou s’adapter efficacement, l’être humain souhaite trouver les raisons d’un effet observé. Cette recherche de causes est à l’origine de nombreux biais de raisonnement29 et le risque est grand de confondre une coïncidence temporelle avec une causalité. Les statisticiens savent bien que corrélation n’est pas causalité30 , il n’empêche que notre cerveau a naturellement tendance à effectuer ce raccourci. Ainsi, certaines vaccinations ont été accusées de provoquer des maladies auto-immunes (dont la sclérose en plaques). Si les vaccins sont régulièrement innocentés, il n’en demeure pas moins que le soupçon reste, appuyé par les témoignages poignants de personnes atteintes de sclérose en plaque juste après une vaccination. Comme le rappelle l’Agence nationale de sécurité du médicament et des produits de santé31,« la sclérose en plaques n’est pas une maladie rare […]. L’incidence (c’est-à-dire le nombre de nouveaux cas par an) est de 4,1 à 8,2 cas pour 100 000 habitants. Ces données sont à mettre en perspective avec les 11 cas de sclérose en plaques survenus entre le 1er janvier 2007 et le 31 décembre 2010 qui ont été déclarés au système français de pharmacovigilance dans les suites d’une vaccination contre le virus de l’hépatite B ».
Le poids de nos émotions, de nos sentiments et de nos valeurs
L’être humain n’est pas l’"agent rationnel" un temps imaginé par les économistes, agent qui serait égoïste (au sens où il privilégierait son seul intérêt propre), avec des goûts et des préférences qui ne varieraient pas et qui élaborerait ses actions à l’aune d’une mesure d’utilité objective. En réalité, il ne prend pas toujours les décisions que l’on qualifierait de "rationnelles", ne pèse pas le pour et le contre de façon raisonnée et complète. Aux biais cognitifs évoqués plus haut s’ajoutent d’autres distorsions faisant de nous des êtres « non rationnels, mais pourtant prévisibles »32.
Les risques plus que les bénéfices
Notre cerveau « comporte un mécanisme conçu pour accorder la
priorité aux mauvaises nouvelles, […] les menaces sont prioritaires
par rapport aux opportunités ». Ainsi, des «
termes chargés émotionnellement attirent très vite
l’attention »33 , plus vite que des termes
rassurants ou positifs. C’est ainsi que des manchettes telles que «
les OGM sont des poisons », « les vaccins provoquent
de graves invalidités », « les fruits sont bourrés de
pesticides » ou « le scandale des statines » sont
assurées du meilleur impact.
Cette prédisposition entre en résonance avec la propension de notre
cerveau à surestimer la probabilité d’événements rares. Ainsi, «
l’effet de possibilité », la simple idée que quelque chose
d’effrayant puisse se réaliser nous pousse à consacrer des
ressources disproportionnées au regard de la probabilité réelle que
le phénomène se produise et des conséquences attendues. En réalité,
les probabilités sont ignorées et seul compte le fait que « ce
soit possible ». Cette crainte est renforcée par l’information
souvent délivrée par les médias qui donne corps dans notre
imaginaire à des scénarios pour ces événements rares ou
irréalistes. Dès lors, il ne suffit pas de réduire ou de limiter le
risque, l’inquiétude ne sera éliminée que par le risque zéro, sans
considération ni pour sa faisabilité, ni pour son coût, ni même par
les nouveaux risques que les décisions mises en œuvre peuvent
engendrer.
Par ailleurs, en situation d’incertitude, on préfère souvent ne rien faire. Pour la plupart des gens, les conséquences d’une inaction sont mieux acceptées que celles, même identiques, d’une action volontaire. Ainsi pourrait s’expliquer une partie des réticences vis-à-vis de la vaccination qui « pourrait être davantage motivée par une crainte égoïste de regrets que par un souhait d’optimiser la sécurité de l’enfant »34.
Le bon et le mauvais
Nous l’avons vu, l’opinion a priori qu’un individu a sur un sujet influe sur sa perception des risques associés. Or, la première chose que fait notre cerveau confronté à une nouveauté n’est pas d’évaluer le risque (ce qui est complexe), mais de décider d’abord si c’est bon ou mauvais. Dans ce registre, le naturel est bon (et donc sans risque) et le synthétique ou l’artificiel est mauvais (donc a priori risqué)… Les traitements naturels sont vus comme agissant en douceur, à l’opposé des produits de synthèse perçus comme agressifs, oubliant que c’est la maladie qui est dure. L’engouement pour les médecines naturelles ne s’explique-t-il pas, en partie, par cette vision idyllique d’une nature bonne ?
Le rôle amplificateur d’Internet
Internet est une source d’information sans précédent,
démocratisant l’accès à la connaissance, mais c’est également un
amplificateur redoutable de toutes les fausses informations, un
outil incomparable pour diffuser toutes sortes de rumeurs et
favoriser les manipulations35. Le biais de confirmation
évoqué plus haut va trouver résonance sur la toile. Ceux qui
proclament la dangerosité des vaccins, ceux qui affirment que la
moindre trace de résidu de pesticide nuit à la qualité sanitaire
des fruits et légumes que l’on consomme, ceux qui affirment que le
cholestérol ne joue aucun rôle dans les maladies cardiovasculaires
et, donc, que l’usage des statines est inutile ou encore ceux qui
affirment que les ondes qui nous entourent sont dangereuses sont
beaucoup plus actifs sur Internet que les scientifiques qui n’ont,
a priori, pas de raison d’avoir une âme militante. Il suffit, pour
s’en convaincre, de taper sur son moteur de recherche l’un
quelconque des mots clés associés aux sujets mentionnés pour voir
que les premières pages affichées sont, dans une écrasante
majorité, celles de sites militants. C’est ainsi que, dans la
consultation avec son médecin, le patient vient souvent, non
seulement avec une idée assez précise des maux dont il souffre,
mais aussi, porteur d’une bonne partie des craintes véhiculées par
Internet.
Le patient plus informé est une bonne chose, elle va dans le sens
d’un meilleur dialogue avec son médecin. Mais quand l’information
recueillie est fausse ou mensongère, c’est l’effet inverse qui se
produit.
Quelles solutions ?
L’esprit humain ne peut bien entendu pas être réduit à ses biais
cognitifs. L’essentiel de nos jugements et de nos actes est la
plupart du temps approprié. Il importe alors de bien identifier les
situations propices aux erreurs de jugement. L’information
scientifique est une nécessité : mieux connaître un sujet contribue
à alimenter notre esprit par des éléments de nature à susciter le
doute et la réflexion. Développer un esprit critique, connaître la
« cartographie de nos erreurs systématiques » et suivre
une méthode de réflexion sont autant d’autres composantes utiles.
Comprendre comment la connaissance scientifique se construit peut
aider à faire le tri dans la moisson d’informations recueillie sur
Internet.
Il n’en reste pas moins que le discours scientifique, où le doute
doit rester une composante originelle, sera toujours moins
percutant que les certitudes anxiogènes énoncées avec aplomb et de
façon définitive. Ne peut-on pas espérer un rôle plus actif des
pouvoirs publics dans la promotion de l’information scientifique,
au risque, certes, de ne pas caresser dans le sens du poil une
opinion parfois mal informée et inquiète de toutes les catastrophes
qui nous sont régulièrement promises ?
*Jean-Paul Krivine est rédacteur en chef de Science et pseudo-sciences, la revue de l’Association française pour l’information scientifique
Références :
1www.ined.fr/fr/tout-savoir-population/chiffres/france/mortalite-cause-deces/esperance-vie/
2www.statistiques.developpement-durable.gouv.fr/indicateurs-indices/f/1965/1115/evolution-qualite-physico-chimique-cours-deau.html
3www.statistiques.developpement-durable.gouv.fr/lessentiel/ar/227/226/evolution-qualite-lair-agglomerations-francaises-situation.html
4Gérald Bronner, La planète des hommes, réenchanter le
risque, PUF 2014.
5www.vaccineconfidence.org/
6Eurobaromètre, 2010, en réponse à la question « Les
aliments génétiquement modifiés ne sont pas bons pour vous et votre
famille ».
http://ec.europa.eu/public_opinion/archives/ebs/ebs_341_fr.pdf
7https://www.nap.edu/catalog/23395/genetically-engineered-crops-experiences-and-prospects
8Daniel Kahneman, Système 1, système 2, Flamarion 2011,
p. 172.
9Syndrome « nimby » de l’anglais : « Not In My BackYard
».
10http://www.cclin-arlin.fr/bulletin/2016/03/03-pdf/03-floret.pdf
11Voir à ce sujet le dossier « Comment s’établit la
vérité scientifique ? Le difficile chemin vers la connaissance »,
Science et pseudo-sciences n°318, octobre 2016.
12Sur bon nombre des sujets évoqués plus haut, le
consensus scientifique est fort et on peut raisonnablement estimer
que les sujets de désaccord scientifiques sont suivis avec plus de
pertinence par les autorités sanitaires, a priori plus compétentes
pour en considérer les impacts, que le citoyen normal qui aura
plutôt son avis à donner sur les conséquences sociétales. Ce qui
n’enlève rien, bien au contraire, à la nécessaire information
scientifique accessible à tous. Cette remarque ne signifie pas que
l’organisation de l’expertise publique soit perfectible (voir les
récentes affaires Biotrial Mediator ou Dépakine).
13Nicolas Chevassus-au-Louis, La Malscience : de la
fraude dans les labos, Éditions du Seuil, 2016.
14CRIIGEN : association militant contre les OGM.
15Gérald Bronner, La démocratie des crédules, PUF
2013.
16Tversky, A. &Kahneman, D. (1974), « Judgment under
uncertainty: heuristics and biases », Science, Vol. 185, pp.
1124–1131. Voir aussi le livre de vulgarisation de Daniel Kahneman
(déjà cité).
17Raymond Boudon, L’art de se persuader des idées
douteuses, fragiles ou fausses, Fayard 1990.
18La dissonance cognitive apparaît quand un comportement
ou une situation est en conflit avec des connaissances ou des
convictions. Théorieproposée par Léon Festinger (1957) A Theory of
Cognitive Dissonance. California: Stanford University Press.
19http://www.bva.fr/fr/sondages/les_francais_et_le_bio.html
20« Les fruits et légumes bio ne sont pas meilleurs pour
la santé », Léon Guéguen, Science et pseudo-sciences n°314, octobre
2015. Dans le dossier : « Quelques idées reçues sur le bio ».
21Kahneman 2013, op. cit. p.59.
22InVS, « Investigation d’une suspicion d’agrégat de
cancers pédiatriques dans une commune viticole de Gironde », Juin
2013. http://opac.invs.sante.fr/doc_num.php?explnum_id=10089
23Kahneman 2013, op. cit. p.222.
24InVS, « Évolution de l’incidence du cancer de la
thyroïde en France métropolitaine, Bilan sur 25 ans », 2011.
http://invs.santepubliquefrance.fr/publications/2011/bilan_cancer_thyroide/bilan_cancer_thyroide.pdf
25« Comment se construit une fausse alerte », Catherine
Hill, 23 septembre 2016. Sur le site www.pseudo-sciences.org
26« Comment les téléspectateurs ont été abusés par Cash
Investigation », 2 mars 2016. www.pseudo-sciences.org/spip.php?article2614
27« Y a-t-il une épidémie d’autisme ? », Franck Ramus,
Science et pseudo-sciences n°317, juillet 2016.
28Kahneman 2013, op. cit. p.301.
29Jacques Van Rillaer, « Psychologie des attributions
causales », Science et pseudo-sciences n° 305, juillet 2013.
30Voir par exemple Hubert Krivine, Petit traité
d’hazardologie, Cassini 2016.
31http://ansm.sante.fr/var/ansm_site/storage/original/application/f6c024ab94698457d8ae667fd5c98206.pdf
32Pour reprendre le titre du livre de Dan Ariely,
Predictablyirrational. HarperCollins, 2008.
33Kahneman 2013, op. cit. p.361.
34Kahneman 2013, op. cit. p.421.
35Voir, à ce propos, l’ouvrage de Gérald Bronner : La
démocratie des crédules. Op. cit.