
Charlottesville, le samedi 23 mai 2015 – La recherche en psychologie avait été secouée par un violent séisme en 2012 avec la publication dans Perspective on Psychological science de travaux suggérant qu’un pourcent seulement des résultats présentés dans cette discipline seraient parfaitement reproductibles (dont la moitié seulement par une équipe différente de celle à l’origine des premières conclusions). Longtemps le "replicagate" a suscité répliques et polémiques.
Dans une véritable mise en abyme, des chercheurs ont voulu tester la "reproductibilité" de ces données si alarmantes. Ils se sont attelés à conduire l’investigation sur un nombre de recherches plus important et à l’aide d’une méthode plus rigoureuse et transparente. Le "Reproductibility Project" conduit par le Center for Open Science (COS) vient de présenter ses résultats préliminaires (mais qui n’ont pas encore fait l’objet d’une relecture par les pairs). Sur cent travaux, il apparaît que trente-neuf ont été "reproduits" avec succès, vingt quatre n'on pu l'être que partiellement, tandis que trente-sept n’ont pas pu être reproduits. Des résultats bien moins dévastateurs que ceux mis en avant en 2012 mais qui confirment s’il en était besoin la faillibilité de la recherche en psychologie.
La psychologie, pas seule concernée
Beaucoup, dans le sillage de ces résultats, font remarquer que la psychologie est probablement loin d’être la seule discipline à connaître une "crise de la reproductibilité". Fataliste, John Ioannidis, épidémiologiste à Stanford, analysant la littérature scientifique des dix années précédentes, affirmait dans un article publié en 2005 dans Plos Medicine : « la plupart des résultats de recherche sont faux, dans la plupart des protocoles et dans la plupart des disciplines ». On pourrait croire la formule exagérée, pourtant d’autres y font écho. Il y a quelques jours dans le Monde, Karim Jerbi, professeur au sein du département de psychologie de l’université de Montréal rappelait : « Une étude de la revue Nature Reviews in Neuroscience (Button et al. 2013) révèle que la majorité des résultats publiés en neurosciences ne seraient pas fiables, car ils ne respectent pas un critère, pourtant fondamental (…) celui de la reproduction des résultats ». D’ailleurs, commentant les résultats du « Reproductibility Project » beaucoup se sont demandé si des taux similaires ne seraient pas retrouvés dans d’autres disciplines. La psychologie n’est en effet certainement pas la seule à être guettée par une crise de la reproductibilité et des résultats attendus dans le domaine de la biologie du cancer, comme le précise le docteur Hervé Maisonneuve sur son blog, permettront de disposer d’autres données.
La fin du P ?
Cette question de la reproductivité ouvre un large champ d’interrogations sur les critères utilisés pour affirmer la pertinence scientifique d’une étude. Dans cette perspective, il en est qui estime qu’il faudrait en finir avec le « dogme des résultats statistiquement significatifs ». C’est ce que rapporte dans le Monde Karim Jerbi. Il signale qu’en avril, les éditeurs de la revue Basic and Applied Social Psychology (BASP) ont annoncé une véritable révolution : l’interdiction dorénavant de lui soumettre des articles « qui estiment la significativité statistique par des tests classiques, dits des valeurs P. Selon ce journal, la démarche habituelle de la statistique inférentielle (…) n’est simplement pas valide. Elle mènerait souvent à de fausses interprétations et serait, par conséquent, à l’origine de médiocrités scientifiques. La rupture est radicale » relate Karim Jerbi dans sa tribune publiée dans le Monde. Le chercheur indique encore que la polémique est grande au sein de la communauté scientifique après l’édiction de ces nouvelles règles.
Pas certain en effet que cette révolution ne soit reproduite par d’autres.
Aurélie Haroche