Etudes & Biais

  • RSS
  • Accueil
  • A propos
  • Lecture critique
  • Plainte vs EMA
  • Liens
  • Contact

La puissance

Posted on 12 mai 2013 by Alexis in Article No Comments
  • Home
  • Article
  • La puissance

Un test statistique est réalisé pour donner une information sur la probabilité qu’une différence entre deux résultats soit liée au hasard. On considère par habitude ou convention que si cette probabilité (que la différence entre les deux résultats soit liée au hasard) est inférieure à 5%, alors la différence est dite « significative »

Si la probabilité est supérieure à 5%, que conclure ? En fait rien.

Rien car on ne peut pas conclure qu’il n’existe pas de différence entre les deux résultats. On peut juste dire qu’on ne l’a pas vue et qu’elle existe peut-être ou pas ! Quand on cherche quelque chose, on peut la trouver ou pas, tout dépend de l’ardeur que l’on met à la rechercher…

En statistique, l’ardeur que l’on met à rechercher une différence s’appelle la puissance. C’est aussi une probabilité : celle de mettre en évidence une différence significative si cette différence existe vraiment.

Pour faire un essai clinique, il faut d’abord une idée puis on établit le budget. Ce budget dépend du nombre de patients que l’on va inclure dans l’essai. Et ça tombe bien car de ce nombre de patients va aussi dépendre la puissance des tests qui seront réalisés. Plus on prend de patients, plus on augmente la probabilité de trouver une différence significative si elle existe réellement mais plus cela coute cher.

Il y a une formule mathématique qui relie les deux probabilités décrites ci-dessus, le nombre de sujets, la variance et la différence que l’on suppose exister entre les deux groupes comparés.

Le nombre de sujets à inclure augmente si :

  1. La puissance augmente
  2. La différence supposée entre les résultats des deux groupes diminue (d’où l’intérêt de choisir un critère d’évaluation adéquat, mais qui n’augmente pas trop la variance, ou une population qui permette de bien démontrer la différence – si on veut démontrer un effet préventif sur la mortalité, il faut des morts, si possible consécutifs à la maladie que l’on souhaite prévenir)
  3. La variance augmente (les ajustements, l’homogénéité des réponses et donc des populations peut aider à diminuer la variance)
  4. Le risque a diminue (mais dans les faits, a reste toujours à 5 %)

Les formules pour calculer le nombre de sujets à inclure sont disponibles sur internet  et en application pour Smartphones.

Ensuite, le calcul dépend (un peu) du test et certains tests sont plus puissants que d’autres. Bref tout cela se discute mais dans tous les cas, le nombre de sujets à inclure est réalisé sur le critère principal d’évaluation. Cela signifie que la puissance des tests pour les calculs statistiques suivants n’est possiblement pas optimisée:

  1. Critères secondaires d’évaluation :
  2. Evaluation des différences entre les groupes à l’inclusion
  3. Evaluation de la tolérance

Pour certains critères, on peut généralement recalculer la puissance à partir des données fournies dans les publications mais c’est un peu compliqué. Pour la tolérance, l’absence de différence entre les groupes comparés ne doit pas être prise comme « argent comptant » pour conclure sur l’absence d’augmentation d’un risque.

Je vous ai présenté ci-dessus l’intérêt de la puissance pour des essais destinés à démontrer une différence entre des résultats.

A contrario, si vous souhaitez ne pas mettre en évidence une différence significative entre deux produits, incluez peu de patients. Bien évidemment, si vous concluez de l’absence de différence significative que les deux produits sont aussi efficaces, il est possible que l’on se moque de vous… ou pas.

En fait, quand on vous dit que deux choses sont similaires, dans la quasi-totalité des cas, on n’a seulement pas réussi à mettre en évidence une différence. Regardez le nombre de cas utilisés pour la démonstration afin de vous faire une idée de l’ardeur mise à rechercher cette différence (vous pouvez retrouver une approximation de la puissance avec les petits logiciels disponibles).

Si maintenant, je veux démontrer que mon produit n’est pas différent ou inférieur à un autre sur le plan de l’efficacité. Je dois normalement faire un essai d’équivalence ou de non-infériorité. De tels essais nécessitent beaucoup de patients ; d’autant plus que l’on considérera comme cliniquement intéressante une petite différence.

L’autre solution, moins onéreuse, est de faire comme si on voulait démontrer une supériorité de son produit (parce qu’il agit sur le récepteur trucmuche et que c’est super important de chatouiller ce récepteur ou simplement parce qu’un autre argument –prix, tolérance … pourra plus aisément être mis en valeur) et prendre peu de patients. Avec un peu de chance (et parfois un peu de biais), on peut alors aboutir à une différence non significative. Cette méthode est bien sûr mauvaise mais comme peu de personnes la critiqueront, pourquoi ne pas tenter sa chance.  Cette technique est aussi valable pour éviter de mettre en évidence un risque (cf Seralini et OGM).

 

 

Share

Leave a Reply Cancel reply

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Search

Commentaires récents

  • Alexis dans Lecture critique (3) : Analyse de la population incluse et ajustements.
  • FRG dans Lecture critique (3) : Analyse de la population incluse et ajustements.
  • Daniel Pérez dans La vérole et le bar-tabac
  • Azaïs dans Je viens de télécharger les analyses de la FDA sur Tecfidera ®
  • Alexis dans Chic ! Avec l’intelligence artificielle, on va avoir plein d’études biaisées.

Articles récents

  • Chic ! Avec l’intelligence artificielle, on va avoir plein d’études biaisées.

    3 avril 2018
  • Deux ans sans publication mais pour la bonne cause

    13 mars 2018
  • Quand il y a un « trou » (dans les données), c’est qu’y a un loup ! (Martine et Alexis)

    19 juin 2015
  • J’adore supputer, ce sera donc un peu moins sérieux… quoi que…

    21 mai 2015
  • Deux autres petits trucs qui rendent les odds-ratios un peu « odd ».

    14 mai 2015
  • Bon la dompéridone on n’y croit pas trop…et qu’est ce qui la différencie du mediator ?

    1 mai 2015
  • La vérole et le bar-tabac

    19 avril 2015
  • Domperidone

    14 avril 2015
  • Propensity scores, ou comment transformer une étude de suivi en un essai randomisé.

    3 avril 2015
  • The Will Rogers phenomenon, et petite digression sur le dépistage

    9 février 2015
  • Tiens, la National Academy Press publie un document sur les données des essais cliniques

    5 février 2015
  • Le monitoring nouveau des essais cliniques est sorti. Bonne ou mauvaise nouvelle pour les fraudeurs (et pour ceux qui les recherchent) ?

    30 janvier 2015
  • Faire une étude sur cohorte positive, fastoche !

    27 janvier 2015
  • Fraude et essai clinique biaisé. La détection des fraudes permet-elle d’exclure les essais cliniques biaisés ?

    6 janvier 2015
  • Les méta-analyses ne seraient-elles pas réellement intéressantes quand elles sont non-valides en raison d’une hétérogénéité ?

    5 décembre 2014
  • Lecture critique (12) Analyse des essais cliniques randomisés en double aveugle destinés à mettre en évidence une supériorité: récapitulatif

    20 novembre 2014
  • Finalement, il ne s’est rien passé à l’EMA ce jeudi 2 octobre.

    7 octobre 2014
  • Si on commence à critiquer les avis de l’EMA …

    28 février 2014
  • Les courbes de survie

    18 février 2014
  • Réponse de l’EMA à mon mail du 20 Novembre 2013 … et ma réponse

    9 février 2014
  • 20 novembre 2013 – 21 janvier 2014 : nouvelle plainte contre l’EMA

    21 janvier 2014
  • La FDA, ses analyses sélectives et l’Alemtuzumab

    6 janvier 2014
  • NNT

    18 décembre 2013
  • Incidence et Prévalence

    13 décembre 2013
  • Risque de sclérose en plaques avec les vaccins (ou autre produit)

    27 novembre 2013
  • Suite des relations avec l’EMA

    20 novembre 2013
  • A la recherche du bon critère d’évaluation

    18 octobre 2013
  • Evénements indésirables rares et loi de Poisson (ou loi binomiale)

    11 octobre 2013
  • Policy 0070 on publication and access to clinical-trial data

    3 septembre 2013
  • Lecture critique (11) : biais ou risque de biais,

    30 août 2013
  • Ô temps, suspends ton vol ! … de données valides

    16 juillet 2013
  • Individual Patient Data (IPD) : une nécessaire mise à disposition de la communité scientifique

    11 juillet 2013
  • P…. d’effet placebo !

    2 juillet 2013
  • Règles CONSORT pour les essais tronqués

    27 juin 2013
  • Lecture critique (10) : Les analyses de sous-groupes

    26 juin 2013
  • Alltrials pour les biais de publication… et les autres biais?

    19 juin 2013
  • Lecture critique (9) : L’aveugle dans les essais cliniques.

    10 juin 2013
  • Analyse critique (8) : La cohérence externe

    5 juin 2013
  • Je viens de télécharger les analyses de la FDA sur Tecfidera ®

    18 mai 2013
  • La puissance

    12 mai 2013

(c) 2013 Etudes & Biais -