Etudes & Biais

  • RSS
  • Accueil
  • A propos
  • Lecture critique
  • Plainte vs EMA
  • Liens
  • Contact

Lecture critique (3) : Analyse de la population incluse et ajustements.

Posted on 2 avril 2013 by Alexis in Article, Lecture critique 2 Comments
  • Home
  • Article
  • Lecture critique (3) : Analyse de la population incluse et ajustements.

Les publications des essais cliniques doivent décrire la population incluse. C’est la loi !

Normalement, la randomisation bien conduite doit répartir, dans les différents groupes, de manière à peu près équivalente les patients selon les facteurs susceptibles de modifier la réponse au traitement, que ces facteurs soient connus ou (encore) inconnus ; et c’est tant mieux ! Car pour réaliser une bonne évaluation comparative, il faut que les différents groupes soient initialement le plus similaire possible. Il y a des techniques spécifiques de randomisation, dont la stratification, qui permettent d’améliorer la similarité des groupes sur certains critères.

Malheureusement la perfection n’étant pas de ce monde, il arrive que la randomisation, même bien faite, aboutisse à un déséquilibre sur certains critères recueillis dans le cahier d’observation. Plus il y de critères, plus on a une chance avoir un déséquilibre lié au hasard (si la randomisation est bien faite, tous les déséquilibres sont liés au hasard par définition).

Aussi faut-il présenter les résultats de la randomisation et la répartition des patients selon les différents groupes de traitement. De manière générale, la présentation de la population incluse décrit pour les principaux critères la moyenne de chaque groupe, l’écart-type ou l’erreur standard de la moyenne et ensuite un petit p pour vérifier l’absence de différence significative entre les groupes.

Bon, maintenant que l’on sait qu’il y a ou non des différences significatives entre les groupes sur les principales caractéristiques, on en fait quoi ?

  • On ne peut pas conclure d’une absence de différences significatives que les groupes sont identiques.
  • Des différences significatives peuvent ne pas avoir d’influence notable sur l’évaluation des produits comparés
  • Des différences non significatives peuvent avoir un impact important sur cette évaluation.
  • L’impact de ces différences peut favoriser ou défavoriser n’importe lequel des produits comparés

Donc après cette comparaison, on ne sait pas grand chose ; sauf peut-être que la randomisation n’a « pas trop mal marché » ou « a foiré », et encore, car la significativité dépend de la variabilité des critères et bien sûr du nombre de cas. Certes, on a une description de la population incluse.

Après avoir présenté la population incluse et sa répartition entre les groupes, il faudra présenter les résultats des analyses statistiques sur l’efficacité.

L’objectif de ces analyses est de fournir la meilleure évaluation possible de la comparaison entre les traitements.

On peut alors décider ou non de réaliser une analyse avec ajustements.

Les ajustements sont des méthodes statistiques qui améliorent la similitude des groupes comparés. Ils permettent de réduire la variabilité totale des réponses aux différents traitements et augmentent l’efficacité des tests. Il y a de nombreuses discussions sur ces ajustements. L’EMA est en train de rédiger une mise à jour des guidelines publiées en 2003.

Mais ces ajustements doivent se faire sur les critères qui ont une réelle influence sur l’évolution des patients. Si dans votre étude, les personnes qui habitent aux étages pairs s’améliorent sous le traitement A et ceux, plus nombreux, habitant aux étages impairs tirent un bénéfice moindre sous le même traitement, l’ajustement favorisera votre traitement A, il vous sera demandé des explications sur la raison de ce choix et vous aurez peut-être quelques difficultés à le justifier.

Donc, il faut des règles précises pour choisir les variables sur lesquelles réaliser les ajustements.

En particulier, il faut éviter deux écueils :

  • Le « cherry picking » : piocher parmi les différentes variables, celles qui nous intéressent dans la liste
  • Le choix de variables dont l’influence sur l’évolution des patients n’est pas certifiée

Le moyen le plus simple d’éviter ces deux écueils est de ne choisir comme variables d’ajustement, que celles qui ont été prédéfinies dans le protocole. Certaines ont pu être utilisées comme critère de stratification.  L’influence de ces critères sur l’évolution doit avoir démontrée lors d’essais antérieurs.

Un cas particulier concerne les centres investigateurs. Généralement, dans les essais multicentriques, une randomisation par centre est opérée. On ajuste donc sur le critère de stratification.

Néanmoins, il est possible de découvrir lors de l’analyse de l’essai, un critère très influent sur la comparaison des produits.

Il peut être justifié d’ajuster sur cette variable.

Un des problèmes est qu’il existe peut-être d’autres variables très influentes, et peut-être même très influentes dans le sens opposé. Donc on est potentiellement dans la situation du « cherry picking »

L’important est ensuite de bien décrire ce qui est fait. Malheureusement, ce n’est pas toujours le cas

L’absence d’information et les informations qui, a contrario, sont mises en valeur doivent inciter à la prudence.

Les ajustements peuvent aussi biaiser l’évaluation d’autres manières. Par exemple, si le critère d’ajustement est manquant chez certains patients, l’ajustement ne peut tenir compte de ces patients correctement.

Tout ajout de variable autre que celles prédéfinies ou utilisées lors de la stratification ainsi que toute exclusion d’une variable prédéfinie ou utilisée doit attirer l’attention.

Il est demandé dans les différentes guidelines de publication que soient justifiés les choix et que les résultats avant et après ajustements soient précisés.

Share

2 comments on “Lecture critique (3) : Analyse de la population incluse et ajustements.”

  1. FRG dit :
    31 janvier 2019 à 4:41

    Merci pour cet article qui clarifie de nombreux points…

    Je me pose une question : est ce logique d’ajuster à posteriori sur des facteurs X et Y alors que la randomisation a été faite en stratifiant sur les facteurs X et Y ?? J’ai l’impression de faire quelquechose de redondant …

    merci de votre réponse

    Reply
    • Alexis dit :
      31 janvier 2019 à 6:41

      Merci de l’intérêt porté au site.
      Je ne suis pas statisticien et j’ai donc cherché la réponse.
      B Falissard page 230 de l’abrégé Masson « Comprendre et utiliser les statistiques dans les sciences de la vie » sept 2007 précise que la non utilisation des variables de stratification lors des ajustement aboutirait à une perte de puissance, même si, j’en conviens, la différence entre les deux analyses, sans et avec ajustement, doit être minime.
      Ajuster sur les variables de stratification est la solution dans les modèles linéaires ; c’est plus compliqué dans les modèles non linéaires.
      En conclusion, il faut que vous continuiez à faire les ajustements sur les critères de stratification.

      Reply

Leave a Reply Cancel reply

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Search

Commentaires récents

  • Alexis dans Lecture critique (3) : Analyse de la population incluse et ajustements.
  • FRG dans Lecture critique (3) : Analyse de la population incluse et ajustements.
  • Daniel Pérez dans La vérole et le bar-tabac
  • Azaïs dans Je viens de télécharger les analyses de la FDA sur Tecfidera ®
  • Alexis dans Chic ! Avec l’intelligence artificielle, on va avoir plein d’études biaisées.

Articles récents

  • Chic ! Avec l’intelligence artificielle, on va avoir plein d’études biaisées.

    3 avril 2018
  • Deux ans sans publication mais pour la bonne cause

    13 mars 2018
  • Quand il y a un « trou » (dans les données), c’est qu’y a un loup ! (Martine et Alexis)

    19 juin 2015
  • J’adore supputer, ce sera donc un peu moins sérieux… quoi que…

    21 mai 2015
  • Deux autres petits trucs qui rendent les odds-ratios un peu « odd ».

    14 mai 2015
  • Bon la dompéridone on n’y croit pas trop…et qu’est ce qui la différencie du mediator ?

    1 mai 2015
  • La vérole et le bar-tabac

    19 avril 2015
  • Domperidone

    14 avril 2015
  • Propensity scores, ou comment transformer une étude de suivi en un essai randomisé.

    3 avril 2015
  • The Will Rogers phenomenon, et petite digression sur le dépistage

    9 février 2015
  • Tiens, la National Academy Press publie un document sur les données des essais cliniques

    5 février 2015
  • Le monitoring nouveau des essais cliniques est sorti. Bonne ou mauvaise nouvelle pour les fraudeurs (et pour ceux qui les recherchent) ?

    30 janvier 2015
  • Faire une étude sur cohorte positive, fastoche !

    27 janvier 2015
  • Fraude et essai clinique biaisé. La détection des fraudes permet-elle d’exclure les essais cliniques biaisés ?

    6 janvier 2015
  • Les méta-analyses ne seraient-elles pas réellement intéressantes quand elles sont non-valides en raison d’une hétérogénéité ?

    5 décembre 2014
  • Lecture critique (12) Analyse des essais cliniques randomisés en double aveugle destinés à mettre en évidence une supériorité: récapitulatif

    20 novembre 2014
  • Finalement, il ne s’est rien passé à l’EMA ce jeudi 2 octobre.

    7 octobre 2014
  • Si on commence à critiquer les avis de l’EMA …

    28 février 2014
  • Les courbes de survie

    18 février 2014
  • Réponse de l’EMA à mon mail du 20 Novembre 2013 … et ma réponse

    9 février 2014
  • 20 novembre 2013 – 21 janvier 2014 : nouvelle plainte contre l’EMA

    21 janvier 2014
  • La FDA, ses analyses sélectives et l’Alemtuzumab

    6 janvier 2014
  • NNT

    18 décembre 2013
  • Incidence et Prévalence

    13 décembre 2013
  • Risque de sclérose en plaques avec les vaccins (ou autre produit)

    27 novembre 2013
  • Suite des relations avec l’EMA

    20 novembre 2013
  • A la recherche du bon critère d’évaluation

    18 octobre 2013
  • Evénements indésirables rares et loi de Poisson (ou loi binomiale)

    11 octobre 2013
  • Policy 0070 on publication and access to clinical-trial data

    3 septembre 2013
  • Lecture critique (11) : biais ou risque de biais,

    30 août 2013
  • Ô temps, suspends ton vol ! … de données valides

    16 juillet 2013
  • Individual Patient Data (IPD) : une nécessaire mise à disposition de la communité scientifique

    11 juillet 2013
  • P…. d’effet placebo !

    2 juillet 2013
  • Règles CONSORT pour les essais tronqués

    27 juin 2013
  • Lecture critique (10) : Les analyses de sous-groupes

    26 juin 2013
  • Alltrials pour les biais de publication… et les autres biais?

    19 juin 2013
  • Lecture critique (9) : L’aveugle dans les essais cliniques.

    10 juin 2013
  • Analyse critique (8) : La cohérence externe

    5 juin 2013
  • Je viens de télécharger les analyses de la FDA sur Tecfidera ®

    18 mai 2013
  • La puissance

    12 mai 2013

(c) 2013 Etudes & Biais -