Cardiogramme
Logo   Accueil | Table des matières | Téléchargements | Liens |   Mentions légales   | Contact |Abréviations
Logo  

L'évolution des connaissances

Un peu d'épistémologie

La connaissance scientifique est par nature dynamique et dubitative; elle n’est jamais une certitude: «dans un sens, toute vérité n’est qu’une erreur qui corrige une autre erreur» (V. Frankl). Elle progresse par essais successifs et par corrections continues, à la manière des robots cybernétiques. L’activité humaine de connaître ne mène jamais à une image des phénomènes qui soit certaine et vraie, mais seulement à une interprétation conjecturale de phénomènes caractérisés par leurs régularités (86). Karl Popper l’a superbement décrit: «La science ne repose pas sur une base rocheuse. La structure audacieuse de ses théories s’édifie en quelque sorte sur un marécage. Elle est comme une construction bâtie sur pilotis. Les pilotis sont enfoncés dans le marécage, mais pas jusqu’à la rencontre de quelque base naturelle ou «donnée» et, lorsque nous cessons d’essayer de les enfoncer davantage, ce n’est pas parce que nous avons atteint un terrain ferme. Nous nous arrêtons tout simplement parce que nous sommes convaincus qu’ils sont assez solides pour supporter l’édifice, du moins provisoirement» (57). Toute théorie scientifique peut être mise en défaut par une nouvelle observation ou un nouveau paradigme; elle n’est jamais «ultime», mais toujours momentanée, provisoire et attaquable, «falsifiable» comme il est convenu de l’appeler (58). Toute pensée scientifique est également tributaire d’un ensemble de concepts tacitement acceptés et partagés par la communauté intellectuelle, qui forment le paradigme momentanément en vigueur au sein de la société. Toute recherche et toute observation sont conçues et interprétées en fonction de ce paradigme, qui est le cadre mental dans lequel évolue la pensée de cette période. Etant structuré et cohérent, ce paradigme se modifie peu, mais il peut s’effondrer devant des découvertes qui contredisent ses fondements (38a). Il laisse alors la place à un nouveau paradigme, au cours d’une de ces révolutions scientifiques qui jalonnent l’histoire, commes celles déclenchées par Galilée, Copernic, Pasteur ou Einstein.

Ceci soulève une question fondamentale: dans quelles circonstances des conclusions peuvent-elles être considérées comme valides? Pour ce faire, elles doivent remplir un certain nombre de conditions (28):

  • leur base est un collectif de données objectives analysable statistiquement;
  • ces données sont susceptibles d’être organisées en une théorie cohérente;
  • cette théorie prédit certaines observations que l’on peut effectivement faire;
  • ces observations sont reproductibles par d’autres équipes.

Dans le domaine de l’anesthésie, le premier point est rempli par les nombreuses études expérimentales et cliniques rétrospectives ou prospectives dont les résultats statistiques, particuliers à chacune d’entre elles, sont des acquis incontestables. Leur organisation en théories cohérentes est actuellement beaucoup plus touffue. Une explication théorique est une proposition qui reformule les observations en un système de concepts acceptable pour un groupe d’experts qui partagent les mêmes critères de validation (50). Hormis la rigueur de l’observation et la cohérence logique des conclusions, ces critères sont souvent mal définis en médecine. La prédiction des observations - le troisième point - est naturellement limitée dans des systèmes aussi complexes qu’un organisme humain soumis au stress d’une opération. Quant au dernier point, la littérature médicale de ces vingt dernières années abonde en études cardiovasculaires dont les résultats n’ont jamais pu être reproduits.

Cela n’est guère surprenant, parce que l’équilibre hémodynamique est un système multifactoriel en réajustement constant. Nos mesures ne perçoivent que la résultante des interactions et rétro-actions complexes entre de très nombreux facteurs. Or, dans les systèmes complexes, la causalité n’est plus linéaire mais elle est multiple et interdépendante: modifier un élément du système peut ou non entraîner des conséquences selon l’état des autres éléments du système au sein duquel il interagit. L’erreur logique fondamentale consiste à confondre participation essentielle et responsabilité unique (50). Pour que surviennent une panne ou un accident, il faut que plusieurs éléments soient atteints: chaque modification rétrécit la marge de sécurité de l’ensemble, mais n’est pas à elle seule la cause déclenchante. En fait, il n’est pas étonnant que l’on éprouve tant de difficultés à mettre en évidence des facteurs prédictifs indépendants, par exemple dans l’estimation du risque opératoire, car la méthode classique d’investigation ne permet d’étudier une relation qu’après l’avoir isolée de l’ensemble complexe du système global. Mais la sélection d’un axe d’analyse unique transforme l’objet observé en un mode de causalité dominante parce qu’on réduit au minimum les régulations multiples qui fonctionnent au sein dudit système (1). La relation observée n’a de valeur prédictive que dans le contexte particulier de cette analyse-là, et a toutes les chances de ne pas être reproductible dans un autre contexte.

Car la relation de causalité peut prendre schématiquement deux aspects bien différents. La causalité déterministe est caractérisée par une relation directe entre la cause et son effet ; dans ce système, la cause est l’élément nécessaire et suffisant pour que se produise l’effet. La répétition de la cause engendre à chaque fois la répétition de l’effet. C’est en isolant un phénomène simple et en observant son évolution que se sont construites les théories scientifiques en physique classique comme en biologie. La causalité probabiliste, au contraire, n’entretient pas de relation directe et univoque entre une cause et un effet. La même cause peut produire un effet différent selon le contexte. Plusieurs mécanismes sont requis pour provoquer l’effet, mais ils sont eux-mêmes interdépendants. Ainsi le phénomène observé est d’origine multifactorielle et ne peut pas être isolé de son contexte. Il existe même une incertitude fondamentale sur la possibilité de déterminer les enchaînements qui conduisent à l’effet observé. On peut certes remonter les successions d’évènements qui ont conduit à un phénomène pour tenter de l’expliquer, mais cette filiation n’est pas la seule possible. Ce qui est juste dans un cas peut se révéler erroné dans un autre. Un succès isolé ne garantit nullement que la théorie soit adéquate. De ce fait, on ne peut pas prévoir comment se mettront en place les multiples éléments en jeu afin d’anticiper ce qui va se produire. L’Histoire en est la meilleure illustration : elle peut tout expliquer en remontant dans le passé, mais elle ne peut rien prévoir en extrapolant dans le futur. Car une explication n’est pas une preuve.

L’instrument de mesure lui-même conditionne les résultats. Nous n’observons pas la nature elle-même, mais la nature soumise à nos méthodes d’investigation (29). Or, c’est l’observateur qui définit les paramètres. En anesthésie, par exemple, le système de lecture «pression-débit» traditionnel (cathéter de Swan-Ganz) observe l’hémodynamique sous un angle qui lui est propre, mais qui ne permet pas de voir la totalité des phénomènes; un autre système, tel celui des données «flux-volume» fourni par l’échocardiographie, opère des mesures sous un autre angle et peut, de la même situation, fournir des interprétations différentes. La sensibilité et la spécificité de chaque méthode varie selon les types de lésions et les classes de patients: L’ECG, qui analyse les modifications électriques liées aux variations du débit coronaire, a une sensibilité variable selon le type d’ischémie en cause. Il est vain de décider arbitrairement qu’un mode d’observation est la référence-clef; il s’agit de les utiliser de concert pour qu’ils se complètent mutuellement, et de construire ainsi par bribes et par morceaux le modèle le plus adéquat possible de la réalité.

Cette dépendance vis-à-vis du système d’observation a des conséquences cliniques immédiates. Selon que l’on utilise le taux de CK-MB, les critères de l’OMS (angor, modifications ECG et élévation des CK-MB), la troponine I ou la troponine T, l’incidence de l’infarctus myocardique postopératoire varie entre 1.4%, 3%, 12% ou 17% respectivement (35,60). Le problème est donc de savoir si un système de mesure sous-estime l’incidence et si un autre la surestime. Augmenter la sensibilité sacrifie la spécificité: on risque de traiter des affections qui n’existent pas. De plus, nous avons tendance à confondre le marqueur d’un phénomène avec le phénomène lui-même. La troponine n’est pas l’infarctus, les CEA ne sont pas le cancer du côlon, et le chiffre du BIS™ n’est pas le sommeil du malade. La carte géographique n’est pas le territoire!

En clinique, la validité d’une conclusion est prouvée en dernier ressort par l’introduction de modifications thérapeutiques qui améliorent la qualité des prestations offertes aux patients. Le fait que ces améliorations soient significatives sera prouvé à son tour par des études de contrôle de qualité sur le devenir des malades. Celles-ci sont encore peu nombreuses en anesthésiologie et n’apportent pas toujours des réponses assez claires pour pouvoir établir un consensus réel sur le sujet en question. Celles qui existent donnent souvent des résultats équivoques.

La suite...