Et encore …

Evidence-based medicine: 
pas toujours évidente

DOI: https://doi.org/10.4414/bms.2017.05991
Date de publication: 04.10.2017
Bull Med Suisses. 2017;98(40):1316

Hans Stalder

Prof. Dr méd., membre de la rédaction

Il y a 25 ans, David Sackett a décrit l’evidence-based medicine (EBM) comme «l’usage conscient, explicite et judicieux des meilleures connaissances actuelles (evidence) pour prendre des décisions concernant les soins de patients individuels» [2, 3]. Il a défini l’étude prospective randomisée et à double insu comme étant le meilleur standard pour l’évidence. Des méta-analyses des meilleures études devraient donner des indices clairs pour aboutir à des guidelines pour le comportement clinique adéquat. Cette approche issue de l’épi­démiologie clinique, une nouvelle discipline à cette époque, a aidé à clarifier beaucoup de dilemmes en médecine, comme le traitement hormonal après la ménopause, l’anticoagulation dans la fibrillation auriculaire et l’indication à certaines interventions chirurgicales.

«I am not against the industry, quite the opposite […]. However, corporations should not be asked to practically perform the assessments of their own products. If they are forced to do this, I cannot blame them, if they buy the best advertisement (i.e., ‘evidence’) for whatever they sell» [1].

L’application de l’EBM dans l’activité clinique de tous les jours se révèle beaucoup plus ardue, un aspect qui n’a pas échappé à Sackett. N’est-il pas lui-même retourné faire une residency après des années passées comme professeur d’épidémiologie clinque? Le fait que l’EBM s’applique à des maladies comme entités est la raison principale de ces difficultés. Le patient individuel ne correspond que rarement au collectif étudié, ayant un autre âge, un autre sexe, un autre entourage social, ou souffrant de comorbidités.

Mais le vrai problème actuel est que l’EBM a été dé­tournée par l’industrie pour devenir ce que certains appellent finance-based medicine [1]. Qui d’autre a les ressources pour organiser des études prospectives randomisées? Sponsorisées par l’industrie pour lancer ses produits, elles s’adressent souvent à des issues peu pertinentes pour la médecine, telle l’amélioration des marqueurs substitutifs (surrogate outcomes) – la tension artérielle, des lipides ou le glucose –, au lieu de s’adresser à ce qui est cliniquement pertinent – les complications cardiovasculaires. Une corrélation est souvent confondue avec une relation causale. Le nouveau médicament à vendre est comparé avec des ­dosages insuffisants du précédent et souvent les effets secondaires sont occultés. Et pire, il se révèle que même les plus prestigieux journaux favorisent des études sponsorisées par l’industrie pour des raisons économiques, car les tirés à part (que les représentants nous apportent) se vendent à des prix forts [4].

Comment se comporter au cabinet lorsque nous hésitons à changer un traitement si on ne peut même plus faire confiance aux meilleurs journaux (sans mentionner les soi-disant experts avec titres académiques)?

D’abord, il faut se rendre compte qu’aujourd’hui, à l’époque où les maladies chroniques prévalent, les ­progrès en médecine ne sont pas toujours aussi stu­péfiants que nous le suggère la presse quotidienne. La première question à se poser est de savoir si l’échantillon examiné dans une étude correspond au patient donné dans sa situation actuelle. Rappelons-nous que les résultats de traitements préventifs (hypertension, hyperlipidémie, diabète) se mesurent sur une dizaine d’années; une étude sur deux ans, et qui de plus concerne seulement les marqueurs substitutifs, ne ­devrait guère changer nos attitudes.

Le plus souvent, même dans les meilleurs journaux, les résultats sont indiqués en pourcentage de valeurs relatives, par exemple le nouveau médicament dépasse de 20% l’ancien ou le placebo. Il faut exiger des valeurs absolues et calculer le nombre de sujets à traiter (number needed to treat: 1/[p(A)–p(B)] × 100, le p étant la probabilité, A le traitement nouveau, B le traitement classique ou le placebo). Si cette valeur est par ex. 100, il faut penser que notre patient n’a que une chance sur 100 de profiter de l’effet du médicament, ou, autrement dit, qu’on doit traiter 100 patients pour en améliorer (ou sauver) un seul; les 99 autres auront à supporter les effets secondaires et interactions médicamenteuses et… les frais.

Mais finalement, ayons confiance en notre expertise clinique, sans laquelle, comme Sackett déjà le sou­lignait, «la pratique risque d’être tyrannisée par l’évidence, car même une excellente évidence externe peut être inapplicable ou inappropriée à un patient individuel» [3]. Et si certains professeurs suivaient l’exemple de Sackett pour rafraîchir leur expérience clinique par un stage d’assistanat?

Adresse de correspondance

hans.stalder[at]saez.ch

1 Ioannidis JPA. Evidence-based medicine has been hijacked: A report to David Sackett. J Cl Epidemiol. 2016:73;82–6.

2 Evidence-Based Medicine Working Group. Evidence-based medicine. A new approach to teaching the practice of medicine. JAMA. 1992;268:2420–5.

3 Sackett DL, Rosenberg WMC, Gray JAM, Haynes RB, Richardson WS. Evidence based medicine: what it is and what it isn’t. BMJ. 1996;312:71.

4 Lundh A, Barbateskovic M, Hróbjartsson A, Gøtzsche PC (2010). Conflicts of interest at medical journals: The influence of industry-supported randomised trials on journal Impact factors and revenue – Cohort study. PLoS Med. 7(10): e1000354. doi:10.1371/journal.pmed.1000354.

Verpassen Sie keinen Artikel!

close