Extras
Imprimer
Ajouter aux Favoris
Envoyer à un ami

Chroniques

Science et médias: dialogue de sourds?

« Manger du chocolat noir diminue votre risque de cancer », « Une heure d’exercice par jour augmente votre espérance de vie de 5 ans ». De tels titres sont désormais monnaie courante dans les médias. Ces derniers annoncent des résultats d’études scientifiques, qui sont souvent résumés en quelques lignes. On présente uniquement les conclusions de ces études, sans discussion sur la méthodologie ou avis d’un expert dans le même domaine. Après tout, ce qui importe c’est la conclusion, non? Peut-être pas.

Le récent travail d’une journaliste, Caryl Rivers, et d’une scientifique, Rosalind C. Barnett, sonne le signal d’alarme sur cette pratique. Dans leur livre « The Truth About Girls and Boys : Challenging Toxic Stereotypes About our Children », les auteures discutent d’une étude scientifique sur l’éducation des jeunes enfants. L’étude était arrivée à la conclusion que les filles et garçons pensent de manière différente. On y précisait, entre autres, que les garçons sont biologiquement prédisposés à penser en termes mathématiques, alors que les filles portent leur attention sur les personnes et les émotions. Cette étude a été déboutée par la communauté scientifique, mais pourtant, elle a trouvé une grande résonnance dans les médias généralistes. Tant et si bien que, toujours selon les auteures, les conclusions de cette étude sont maintenant ancrées dans la croyance populaire et sont devenues un exemple de stéréotypes sur les relations entre homme et femme.

Une réflexion s’impose. Que se cache-t-il derrière ces titres? Est-ce que rapporter des résultats d’études scientifiques sans mise en contexte comporte des risques? Si oui, comment les éviter?

La particularité de la démarche scientifique

« Je suis un peu pessimiste. Le contexte médiatique ne rend pas possible le traitement correct des annonces les plus spectaculaires » mentionne le professeur Yves Gingras, spécialiste de l’histoire et la sociopolitique des sciences. À son avis, rapporter le résultat d’une étude d’une telle manière ne rend service ni au public, ni à la science. Les journalistes scientifiques Pascal Lapointe et Jean-François Cliche partagent cet avis.

Avant tout, rapporter uniquement les conclusions d’une étude pose des difficultés puisque cela ne cadre tout simplement pas avec la spécificité du cheminement du savoir en science, comme le remarque Pascal Lapointe: « La science, ça se construit par des publications dans des revues scientifiques, mais une étude ne fait jamais révolution. Dans n’importe quelle science, autant la psychologie que la physique quantique, il faut toujours une deuxième, troisième, quatrième étude pour que ça se construise et que ça se confirme. C’est pour cette raison que la publication dans une revue est aussi fondamentale pour les scientifiques et c’est une chose que les journalistes ignorent en général. » 

Conséquemment, présenter le résultat d’une étude sans la situer par rapport aux autres effectuées dans le même domaine envoie un faux message au public: que l’état de la science a « changé ». Comme le remarque Yves Gingras, ce n’est pas parce qu’une étude amène un nouvel élément que la théorie dominante sera modifiée dans les manuels. Les résultats de l’étude doivent pouvoir être répétés afin de les considérer comme avérés. « Surtout quand il s’agit d’études statistiques et épidémiologiques par exemple, ça peut causer des fausses perceptions ou des fausses croyances au sein de la population. Les statistiques, ça n’annule pas le hasard ça ne fait que le quantifier. Donc, dans des études épidémiologiques il faut que les résultats soient reproduits avant de pouvoir parler de quoi que ce soit de concluant », remarque Jean-François Cliche. 

Par la suite, se limiter à rapporter une conclusion d’une étude sans mentionner certains détails pertinents relativement à la méthodologie, tels la taille de l’échantillon ou les groupes visés, augmente le risque d’interprétations erronées. Yves Gingras, illustrant l’importance de certains détails relatif à une étude, fait référence au cas du médicament Vioxx. Des médias ont relaté que certaines études scientifiques ont conclu que le médicament augmentait le risque de problèmes cardiaques, ce qui a semé un vent d’inquiétude dans la population :« Lorsque l’on annonce que Vioxx est finalement plus dangereux qu’on ne le croyait et qu’on dit qu’il y a deux fois plus de chances ou de probabilités d’avoir des problèmes cardiaques, les gens s’inquiètent deux fois plus. Sauf ce que l’on oublie parfois d’expliquer, c’est que oui c’est deux fois plus de chance, mais si vous avez une chance sur 20 000, ça veut dire deux chances sur 20 000. Ce n’est pas grand-chose. » 

Cette affaire tend à démontrer que relater une conclusion n’est parfois pas suffisant, et qu’il faut la mettre en perspective pour en comprendre véritablement le sens.

Un problème… d’équilibre?

La spécificité du savoir scientifique se heurte parfois avec une pratique courante du journalisme : le devoir d’équilibre. Remettre une étude dans son contexte signifie pour certains de présenter l’opinion de deux scientifiques aux opinions opposées. Bien que présenter un « pour » et un « contre » peut s’avérer une façon efficace de présenter un portrait équilibré à certaines occasions, cette technique s’exerce de manière différente particulièrement dans le domaine scientifique, comme le dénote Yves Gingras : « En science, un pour n’égale pas un contre. Si vingt études démontrent qu’un fait existe et qu’une nouvelle étude démontre qu’un fait n’existe pas, il ne faut pas conclure que cela signifie que le fait n’existe pas. Il faut mentionner que c’est la première étude sur vingt qui est arrivée à cette conclusion et que seules d’autres études pourront nous confirmer. Soyons donc circonspects sur la conclusion ultime. »

Il faut donc, encore une fois, tenir compte de la façon dont l’opinion se situe par rapport à la recherche effectuée dans le même domaine. En science, un fait prouvé par 30 études scientifiques est considéré comme ayant une valeur supérieure à celui qui n’aurait été démontré que par une ou deux études. Si l’opinion cité est minoritaire, il serait donc essentiel de le mentionner. 

Comment mettre une étude scientifique en contexte?

Les trois intervenants consultés aux fins de cet article sont en accord: un journaliste devrait contacter un expert dans le même domaine n’ayant pas participé à l’étude en cause afin d’obtenir ses commentaires puisqu’il pourra plus aisément la situer par rapport à d’autres travaux de recherche. Selon Pascal Lapointe, l’utilité première de l’expert n’est pas  de démentir la recherche : « L’utilité d’un deuxième expert, ce n’est pas de nous dire à brule-pourpoint : « Ha! Ils ont tort». C’est très peu probable qu’un scientifique puisse dire ça en cinq minutes sans avoir lu l’étude. Mais le scientifique, puisqu’il est expert dans le domaine, sera capable de la situer dans un contexte auquel le journaliste n’aura pas pensé. »

Quelles questions peut-on poser à l’expert? Le European Food Information Council, dans son document Comprendre les études scientifiques, suggère quelques questions pertinentes pouvant être posées en de telles circonstances:

« (1) les résultats de l’étude pourraient-ils être interprétés autrement, de telle sorte à arriver à d’autres conclusions? (2) L’étude comporte-t-elle certains biais méthodologiques dont il conviendrait de tenir compte lors des conclusions? (3) Les résultats de l’étude peuvent-ils être appliqués à d’autres groupes? (4) Comment ce travail s’inscrit-il dans l’ensemble de la recherche sur le sujet? »

Le journaliste peut donc se poser d’autres questions ou prendre d’autres mesures afin de tenter d’attester la crédibilité d’une étude. Sur ce point, le European Food Information Council mentionne que le fait de consulter seulement les résumés des études n’est pas suffisant, puisque ces derniers contiennent peu de détails permettant d’en attester la validité. Yves Gingras note également que lorsqu’une étude apparait idéologiquement marquée, le journaliste doit redoubler de prudence.  « Qui a subventionné l’étude? » ou encore « D’où provient-elle? » sont des questionnements qui s’imposent. Toujours selon Yves Gingras, plusieurs cas de fraude ont été dénoncés dans les dernières années, alors que, des compagnies pharmaceutiques présentaient de « fausses études » en guise de publireportage pour convaincre des médecins de prescrire leurs produits. Une étude peut donc sembler légitime, mais certaines vérifications permettent parfois de constater le contraire. Pascal Lapointe remarque qu’une autre vérification efficace consiste à déterminer si l’étude provient d’une revue scientifique, qui a donc été révisée par des pairs, ou si elle provient d’une revue non scientifique, la première étant généralement considérée comme plus fiable que la seconde.

Importance de la couverture médiatique de la science

« Le problème fondamental c’est lié, à mon humble avis, au fait que curieusement les journalistes sous-estiment l’impact de ce qu’ils écrivent » déplore Yves Gingras. De récentes études ont démontré que la population a davantage recours aux médias qu’aux professionnels de la santé pour obtenir de l’information sur les risques en matière d’alimentation, comme le mentionne la professeure Danielle Maisonneuve dans sont article « Les sources scientifiques et profanes dans les médias : leur rôle dans la construction des normes sociales en santé ».  Publier les résultats d’une étude scientifique, particulièrement dans le domaine de la santé et l’alimentation, ne doit donc pas être pris à la légère. Les résultats d’études scientifiques peuvent avoir une énorme résonance auprès du public, ce qui commande une certaine prudence pour les journalistes lorsqu’ils les rapportent. 

Cette entrée a été publié avec les mots-clefs , , , , , , , , , , , , .

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *