Etudes & Biais

  • RSS
  • Accueil
  • A propos
  • Lecture critique
  • Plainte vs EMA
  • Liens
  • Contact

Fraude et essai clinique biaisé. La détection des fraudes permet-elle d’exclure les essais cliniques biaisés ?

Posted on 6 janvier 2015 by Alexis in Article 6 Comments
  • Home
  • Article
  • Fraude et essai clinique biaisé. La détection des fraudes permet-elle d’exclure les essais cliniques biaisés ?

La fraude regroupe selon la justice fédérale américaine trois types d’actions.

1. La fabrication de données
2. La falsification de données
3. Le plagiat (et le vol de données)

La démonstration de la fraude nécessite trois conditions : un écart par rapport aux pratiques, le caractère intentionnel, en toute connaissance ou par négligence coupable (imprudence) et l’existence d’une preuve.

Voici le texte en anglais.
I Research Misconduct Defined

Research misconduct is defined as fabrication, falsification, or plagiarism in proposing, performing, or reviewing research, or in reporting research results.

• Fabrication is making up data or results and recording or reporting them.
• Falsification is manipulating research materials, equipment, or processes, or changing or omitting data or results such that the research is not accurately represented in the research record.
• Plagiarism is the appropriation of another person’s ideas, processes, results, or words without giving appropriate credit.
• Research misconduct does not include honest error or differences of opinion.

II. Findings of Research Misconduct

A finding of research misconduct requires that:

• There be a significant departure from accepted practices of the relevant research community; and
• The misconduct be committed intentionally, or knowingly, or recklessly; and
• The allegation be proven by a preponderance of evidence.

 

Réussir à se défendre en cas de fabrication de données ou de plagiat en prétendant qu’on ne savait pas est assez difficile. Le caractère intentionnel de la fraude est évident.

Pour la falsification, c’est moins évident, en particulier s’il s’agit d’une omission de données.

L’omission de données qui auraient permis de mettre en évidence un biais (ou une plus juste évaluation des résultats) est une fraude. Mais pour omettre des informations, il faut les avoir recherchées. Si vous n’avez pas suffisamment évalué les données afin de rechercher un biais, vous n’omettez pas de les indiquer puisqu’elles n’existent pas. Ne pas avoir suffisamment évalué les résultats pour éliminer un biais est donc, à la lecture de cette définition, sans conséquence. On peut éventuellement passer pour un incompétent coupable de négligence, mais comme personne n’analyse les données individuelles pour rechercher les biais des essais (sauf la FDA), il est peu probable que cela soit découvert. Ce qui est considéré comme une fraude étant la non-publication de données connues, susceptibles de modifier l’appréciation des résultats, il ne faut absolument pas laisser dans les rapports d’essai clinique ou dans un quelconque fichier interne des informations susceptibles de mettre en doute les résultats….
Ainsi par exemple, pour considérer le cas Avonex comme une fraude, il faudrait avoir la preuve que Biogen a écrit le rapport d’essai clinique expliquant les résultats par l’augmentation de l’efficacité au fil du temps en connaissant le biais. Sinon, il s’agit seulement d’une négligence. Le fait que les analyses aient été retirées du rapport remis à l’EMA laisse néanmoins un doute.
Lors de la World Conference on Research Integrity de 2010, des chercheurs ont publié une charte de bonne conduite définissant les conditions de respect de l’intégrité en recherche. Ce sont des règles « positives » (c’est bien de faire comme ça) par opposition aux règles « négatives » (ce n’est pas bien de faire ça – c’est le cas des définitions de la justice fédérale américaine). L’objectif de ces règles est de stimuler la création de codes de bonne conduite par les gouvernements, les sociétés savantes… Cette charte a été adoptée par le CNRS en 2012 (voir le document Promouvoir une recherche intègre et responsable ).

La règle numéro 3 de cette charte (Les chercheurs doivent utiliser des méthodes appropriées, baser leurs conclusions sur une analyse critique de leurs résultats et les communiquer objectivement et manière complète) souligne la nécessité d’une analyse critique des résultats.

Reste à définir ce que doit contenir l’analyse critique.
C’est le rôle des règles de publication. Pour les essais cliniques, il y en plusieurs dont celles de CONSORT (Consolidated Standards of Reporting Trials).
Publier ses résultats selon les règles CONSORT (Statement, Explanation and Elaboration et checklist) consiste ainsi à rendre publiques les informations permettant au lecteur de s’assurer de l’absence de biais. L’auteur délègue à la communauté scientifique la recherche de biais. Il est censé donner les informations devant permettre leur détection. Mais s’il donne des informations permettant de mettre en évidence les biais, l’étude ne devrait pas être publiée. La tentation de ne pas donner les informations est forte.
Comme signalé précédemment, pour les essais tronqués, il manque les informations nécessaires à la détection de l’impact d’un biais d’attrition.
Des exemples de fraudes sont colligés sur le site http://retractionwatch.com/ . Ce sont celles, comme le nom du site l’indique, ayant abouti à la rétractation des publications. La plupart des rétractations concernent des expérimentations de biologie cellulaire, moléculaire… Il semble y avoir assez peu d’essais cliniques de phase 2 ou 3. Sur Medline, 363 des 3437 « retracted publication » concernent un « clinical trial »
Les raisons de la rétractation des essais cliniques semblent souvent indépendantes d’un biais méthodologique. Il y a des non respects du consentement, des auto-plagiats, des fabrications probables de données, des publications par inadvertance (!), des erreurs d’anonymisation, l’absence d’approbation par l’université, des problèmes de copyright, mais aussi, certes, des erreurs d’analyse, ou des erreurs multiples.

Je n’ai pas analysé les 363 études mais même en regardant sur le site retractionwatch, on retrouve peu d’essais cliniques dont la rétractation est liée à la mise en évidence d’un biais. Il y a des falsifications de données probables (analyses avec levée de l’aveugle) mais peu de mise en évidence d’un biais.
Les 5 études du Lancet sont retirées pour absence de consentement/approbation par un comité d’éthique (3), falsification de données lors de l’analyse statistique (1), erreurs mises en évidence par des co-auteurs à partir des données brutes (1). Les 3 du nejm le sont pour erreur, suspicion de fabrication de données.

 

Il est finalement possible que les essais cliniques ne soient pas biaisés !

Autre possibilité, les informations disponibles ne permettent pas de les déceler.

 

Il faut avouer que certaines fabrications de données sont vraiment mal faites :
Série de plus de 100 patients alors que le chirurgien n’en a opéré qu’une vingtaine
Des distributions incompatibles avec la réalité
Des coefficients de corrélation identiques d’une étude à l’autre malgré l’augmentation du nombre de patients

Ces cas sont finalement assez rares. On cite toujours le cas des petits pois de Mendel (résultats trop beaux pour être obtenus par expérimentation)
Dans d’autres cas, il faut faire des calculs un peu plus longs pour mettre en évidence la fabrication mais il faut avoir les données individuelles.
L’auteur de cet article a publié une thèse sur ce sujet. Il a interrogé des scientifiques sur les différents types de « misconducts » et a obtenu leur avis sur leur fréquence de survenue et leur impact potentiel sur les résultats des essais (résultats page 44 de la thèse)
La fabrication de données et la falsification sont peu fréquentes selon les investigateurs interrogés. Par contre, les autres sources de biais sont plus fréquentes.
Voici toutes les données

fraude 3

Finalement, il semble que pour les essais cliniques, la fraude ne représente que la partie émergée de l’iceberg. Les données individuelles des essais cliniques permettraient probablement de mettre en évidence de nombreux biais. C’est peut-être la raison pour laquelle, il y a tant d’opposition, tant de la part de ceux qui réalisent les essais que de ceux qui préfèrent analyser les essais à partir des données résumées des publications plutôt qu’à partir des données individuelles.

En conclusion, les rétractations pour fraude ne permettent probablement pas de déceler les essais cliniques biaisés.

 

Share
biais, essai clinique, fraude

6 comments on “Fraude et essai clinique biaisé. La détection des fraudes permet-elle d’exclure les essais cliniques biaisés ?”

  1. melissa dit :
    6 janvier 2016 à 7:21

    bonsoir je voudrai justement savoir pour quoi l’essai record a été accusé de fraude

    Reply
    • Alexis dit :
      6 janvier 2016 à 9:18

      Il y a plusieurs essais dénommés RECORD. Pouvez vous donner plus d’info sur cet essai? Merci

      Reply
  2. SARAH dit :
    8 janvier 2016 à 4:10

    bonjour
    quels sont les règles pour les essais tronqués?

    Reply
    • Alexis dit :
      8 janvier 2016 à 5:24

      Il n’y en a pas et c’est dommage.
      J’en parle un peu ici : http://www.etudes-et-biais.com/regles-consort-pour-les-essais-tronques/
      Merci de votre intérêt pour le site

      Reply
  3. SARAH dit :
    8 janvier 2016 à 4:31

    je cherche une documentation en français sur consort statement
    merci

    Reply
    • Alexis dit :
      8 janvier 2016 à 5:13

      Il y a deux traductions disponibles des règles CONSORT au bout de ce lien : http://www.consort-statement.org/downloads/translations. Mais la quasi-totalité de la documentation scientifique est en anglais.
      Merci de votre intérêt pour le site

      Reply

Leave a Reply Cancel reply

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Search

Commentaires récents

  • Alexis dans Lecture critique (3) : Analyse de la population incluse et ajustements.
  • FRG dans Lecture critique (3) : Analyse de la population incluse et ajustements.
  • Daniel Pérez dans La vérole et le bar-tabac
  • Azaïs dans Je viens de télécharger les analyses de la FDA sur Tecfidera ®
  • Alexis dans Chic ! Avec l’intelligence artificielle, on va avoir plein d’études biaisées.

Articles récents

  • Chic ! Avec l’intelligence artificielle, on va avoir plein d’études biaisées.

    3 avril 2018
  • Deux ans sans publication mais pour la bonne cause

    13 mars 2018
  • Quand il y a un « trou » (dans les données), c’est qu’y a un loup ! (Martine et Alexis)

    19 juin 2015
  • J’adore supputer, ce sera donc un peu moins sérieux… quoi que…

    21 mai 2015
  • Deux autres petits trucs qui rendent les odds-ratios un peu « odd ».

    14 mai 2015
  • Bon la dompéridone on n’y croit pas trop…et qu’est ce qui la différencie du mediator ?

    1 mai 2015
  • La vérole et le bar-tabac

    19 avril 2015
  • Domperidone

    14 avril 2015
  • Propensity scores, ou comment transformer une étude de suivi en un essai randomisé.

    3 avril 2015
  • The Will Rogers phenomenon, et petite digression sur le dépistage

    9 février 2015
  • Tiens, la National Academy Press publie un document sur les données des essais cliniques

    5 février 2015
  • Le monitoring nouveau des essais cliniques est sorti. Bonne ou mauvaise nouvelle pour les fraudeurs (et pour ceux qui les recherchent) ?

    30 janvier 2015
  • Faire une étude sur cohorte positive, fastoche !

    27 janvier 2015
  • Fraude et essai clinique biaisé. La détection des fraudes permet-elle d’exclure les essais cliniques biaisés ?

    6 janvier 2015
  • Les méta-analyses ne seraient-elles pas réellement intéressantes quand elles sont non-valides en raison d’une hétérogénéité ?

    5 décembre 2014
  • Lecture critique (12) Analyse des essais cliniques randomisés en double aveugle destinés à mettre en évidence une supériorité: récapitulatif

    20 novembre 2014
  • Finalement, il ne s’est rien passé à l’EMA ce jeudi 2 octobre.

    7 octobre 2014
  • Si on commence à critiquer les avis de l’EMA …

    28 février 2014
  • Les courbes de survie

    18 février 2014
  • Réponse de l’EMA à mon mail du 20 Novembre 2013 … et ma réponse

    9 février 2014
  • 20 novembre 2013 – 21 janvier 2014 : nouvelle plainte contre l’EMA

    21 janvier 2014
  • La FDA, ses analyses sélectives et l’Alemtuzumab

    6 janvier 2014
  • NNT

    18 décembre 2013
  • Incidence et Prévalence

    13 décembre 2013
  • Risque de sclérose en plaques avec les vaccins (ou autre produit)

    27 novembre 2013
  • Suite des relations avec l’EMA

    20 novembre 2013
  • A la recherche du bon critère d’évaluation

    18 octobre 2013
  • Evénements indésirables rares et loi de Poisson (ou loi binomiale)

    11 octobre 2013
  • Policy 0070 on publication and access to clinical-trial data

    3 septembre 2013
  • Lecture critique (11) : biais ou risque de biais,

    30 août 2013
  • Ô temps, suspends ton vol ! … de données valides

    16 juillet 2013
  • Individual Patient Data (IPD) : une nécessaire mise à disposition de la communité scientifique

    11 juillet 2013
  • P…. d’effet placebo !

    2 juillet 2013
  • Règles CONSORT pour les essais tronqués

    27 juin 2013
  • Lecture critique (10) : Les analyses de sous-groupes

    26 juin 2013
  • Alltrials pour les biais de publication… et les autres biais?

    19 juin 2013
  • Lecture critique (9) : L’aveugle dans les essais cliniques.

    10 juin 2013
  • Analyse critique (8) : La cohérence externe

    5 juin 2013
  • Je viens de télécharger les analyses de la FDA sur Tecfidera ®

    18 mai 2013
  • La puissance

    12 mai 2013

(c) 2013 Etudes & Biais -