Tuesday 14 March 2017

Définition De La Marge De Non Infériorité

Essais de non-infériorité L'objectif des essais de non-infériorité est de comparer un nouveau traitement à un traitement actif dans le but de démontrer qu'il n'est pas cliniquement pire en ce qui concerne un critère d'évaluation spécifié. On suppose que le traitement de comparaison a été établi pour avoir un effet clinique significatif (contre le placebo). Ces essais sont fréquemment utilisés dans des situations où l'utilisation d'un essai de supériorité contre un contrôle de placebo peut être considérée comme contraire à l'éthique. La non-infériorité est évaluée le plus facilement à l'aide d'une approche fondée sur l'intervalle de confiance (IC). Tout d'abord, nous spécifions une marge de non-infériorité, d. C'est la différence maximale que nous sommes prêts à tolérer dans une direction donnée si le nouveau traitement ne doit pas être considéré (cliniquement) inférieur. Si un intervalle de confiance de 95 pour la différence entre les moyens de traitement se situe au-dessus ou au-dessous de cette valeur limite (dans une direction favorable), on considère que la non-infériorité a été établie. Supposons qu'un traitement d'essai, T, soit considéré comme inférieur s'il produit une mesure de 3 points ou plus en dessous d'un traitement témoin, C, en moyenne. Si un IC de 95 pour la différence entre les moyennes, T C, se situe au-dessus de -3, alors le traitement d'essai est considéré comme non inférieur au témoin. Le schéma ci-dessous illustre les résultats possibles: Le choix de la marge d'infériorité, d, affecte le calcul de la taille de l'échantillon et la conclusion de l'étude. Une règle générale est que cette quantité doit être considérablement plus petite (12 ou 13) que la différence clinique minimale que nous pourrions utiliser pour calculer la taille de l'échantillon dans un essai de supériorité. Quelques liens et articles: À travers le miroir: comprendre la non-infériorité Les essais de non-infériorité permettent de tester si un nouveau produit n'est pas inacceptablement pire qu'un produit déjà utilisé. Cet article présente des concepts liés à la non-infériorité et traite des vues réglementaires de l'Agence européenne des médicaments et de la Food and Drug Administration des États-Unis. Introduction Bien, dans notre pays, dit Alice, haletant encore un peu, vous arrivez généralement à autre part - si vous avez couru très vite pendant longtemps, comme nous l'avons fait. Un pays lent disait la reine. Maintenant, ici, vous voyez, il prend toute la course que vous pouvez faire, pour garder au même endroit. Si vous voulez aller ailleurs, vous devez exécuter au moins deux fois plus vite que Lewis Carroll, à travers le miroir Les statistiques classiques est assez intuitive quand vous essayez de montrer qu'une nouvelle intervention est meilleure qu'une précédente. Vous ne pouvez pas prouver ce que vous voulez prouver tout ce que vous pouvez dire est que les données que vous observez fournir des preuves suffisantes pour rejeter l'hypothèse que les deux interventions ont le même effet. Ensuite, lorsque vous essayez d'estimer l'ampleur de l'effet, tout ce que vous pouvez dire, c'est que si vous répétiez votre expérience un nombre infini de fois et calculez votre intervalle de confiance (IC) comme vous l'avez appris, 95 de ces intervalles couvriraient le vrai effet. (Pas étonnant que les gens s'enfuient à l'inférence bayésienne) Mais aussi difficiles et contre-intuitifs que les statistiques classiques, ils sont simples par rapport aux problèmes d'inférence dans les essais de non-infériorité. Lors de la conception d'un essai pour montrer la supériorité d'une nouvelle intervention, vous spécifiez une hypothèse nulle compatible avec le mot nul, votre hypothèse affirme que les deux interventions sont les mêmes. Vous choisissez alors une hypothèse alternative indiquant que la différence entre les moyens, ou une autre statistique, est. Tout au long de cet article, nous supposons que les résultats positifs plus importants sont meilleurs que les résultats positifs plus petits, et une différence de traitement positive, fournit des preuves de l'avantage. Pour les situations dans lesquelles un résultat plus faible est préférable à un résultat plus important (par exemple, la taille de la tumeur dans les applications de cancer) les signes dans ce papier passerait de négatif à positif. Vous utilisez le taux d'erreur Type I choisi ou la puissance désirée et pour sélectionner la taille de votre échantillon. Le but de votre expérience est de rejeter cette hypothèse nulle, c'est donc en quelque sorte un outil pour vous aider à choisir la taille de votre échantillon. À la fin du procès, l'effet estimé peut être plus grand ou plus petit que, mais tant que la limite inférieure de votre IC 95 est supérieure à zéro, vous pouvez rejeter votre hypothèse nulle. Le présélection ne joue aucun rôle statistique formel dans l'analyse d'un essai de supériorité, bien que la différence d'ampleur entre l'effet hypothétique et l'effet estimé ait une influence sur la façon d'interpréter les résultats. Une expérience de non-infériorité, au contraire, essaie de montrer que la nouvelle intervention n'est pas inférieure à la précédente, ou plus précisément que la nouvelle intervention n'est pas inacceptablement pire que l'intervention utilisée comme contrôle. Ainsi, l'hypothèse nulle semble à l'envers, dans un sens, puisque cette hypothèse n'est pas nulle du tout. Au lieu de cela, il indique que le nouveau traitement est pire que l'ancien par plus de -, où - est la marge de non-infériorité. L'hypothèse alternative indique que la différence dans l'effet entre les interventions nouvelles et anciennes est inférieure à - (Figure 1). Dans le monde inversé de la non-infériorité, l'hypothèse alternative semble nulle, tandis que l'hypothèse nulle inclut une différence de traitement spécifiée de -. Ici, - est une partie intégrante non seulement de la conception, comme dans les essais de supériorité, mais de l'analyse ainsi, un rôle qui ne joue pas dans les essais de supériorité. Le rôle des essais de supériorité, d'équivalence et de non-infériorité. L'inversion des hypothèses nulles et alternatives peut être le premier problème de verres de non-infériorité, mais à mesure que nous regardons plus profondément, l'arriération semble multiplier les essais pour montrer la supériorité pénalisent généralement l'investigateur négligé (bien que pas toujours manutention incorrecte des données manquantes peut bénéficier Un traitement plus toxique, moins efficace, augmentant potentiellement la possibilité d'une fausse découverte dans un essai de supériorité). En revanche, les procès de non-infériorité tendent à récompenser les négligents. Le moins rigoureusement conduit le procès, plus il peut être facile de montrer la non-infériorité. À mesure que les traitements s'améliorent, le bénéfice d'une nouvelle thérapie devient de plus en plus difficile, mais la non-infériorité devient toujours plus facile, en raison de l'absence de constance (délicieusement appelée biocrépès dans les médicaments et le technocrite dans les appareils). Mais attendez plus Les essais de non-infériorité font également face à la question de la sensibilité de l'analyse, la réalité que, dans certains milieux de la maladie, même les médicaments vraiment efficaces ne présentent pas toujours de bénéfice dans un essai clinique. Cela signifie qu'un essai de non-infériorité dans un contexte où le médicament standard n'aurait pas été montré supérieur au placebo serait susceptible de démontrer la non-infériorité du nouveau traitement (voir 1. 2 pour de plus amples discussions sur la sensibilité de l'analyse et d'autres questions Liés aux essais contrôlés actifs). Pour toutes ces raisons et probablement plusieurs autres, beaucoup d'enquêteurs confrontés au défi de concevoir et d'interpréter des essais de non-infériorité se désespèrent souvent lorsqu'ils essaient de les comprendre. Dans ce commentaire, nous expliquons ce qu'un essai de non-infériorité tente de montrer que nous amplifions certains des problèmes discutés ci-dessus, nous distinguons la vue réglementaire de la Food and Drug Administration (FDA) américaine de celle de l'Agence Européenne des Médicaments (EMA) Peut-être, le plus important, nous discutons pourquoi de tels essais sont souvent souhaitables. Supériorité, équivalence et non-infériorité Les enquêteurs comprennent intuitivement, même avant d'appliquer la rigueur statistique, comment mener un essai pour établir la supériorité d'un traitement nouveau. Lorsqu'une nouvelle thérapie est comparée à un contrôle placebo ou, le cas échéant, à un témoin actif, l'investigateur définit un résultat (comme le niveau de douleur ou la survie globale) et déclare le nouveau traitement supérieur si, à la fin de l'essai , La valeur estimée du résultat dans le groupe traité est meilleure que l'estimation dans le groupe témoin. Statistiquement parlant, cela signifie mieux que les données permettent de rejeter l'hypothèse nulle que les deux distributions sont égales, en faveur de l'hypothèse que le nouveau traitement est meilleur que le contrôle. Parfois, l'objectif n'est pas de montrer que le nouveau traitement est meilleur, mais que le nouveau traitement est équivalent au contrôle. Parce que seulement avec une taille d'échantillon infinie serait-il possible de montrer l'équivalence exacte, les enquêteurs au lieu de sélectionner une marge. Encore une fois, appelez-le. À la fin de l'essai, un IC est calculé autour de la différence entre deux statistiques de test (les essais d'équivalence utilisent généralement 90 IC) et si l'IC se trouve strictement dans -, les deux traitements sont appelés équivalents. De tels essais sont utilisés pour montrer qu'un médicament générique est biologiquement le même que le médicament qu'il essaie d'imiter. Ils sont également utilisés pour montrer la cohérence des lots dans les essais de vaccins, dont le résultat est une mesure de la réponse immunitaire. La non-infériorité est différente de l'équivalence. Dans un essai d'équivalence, la conclusion souhaitée est que deux produits sont identiques ou non inacceptablement différents l'un de l'autre. Dans un essai de non-infériorité, en revanche, l'objectif est de montrer qu'un nouveau produit n'est pas inacceptablement plus mauvais qu'un ancien. Pourquoi pourrait-il être raisonnable de poursuivre un produit qui est peut-être moins efficace qu'une thérapie existante? Un nouveau traitement qui n'est pas beaucoup plus mauvais ou non inférieur au traitement standard peut être attractif si, comparé au traitement standard, il Devrait entraîner moins d'effets secondaires ou entraîner une amélioration de la qualité de vie, ou si son schéma posologique est plus facile à tolérer. Supposons qu'il soit possible de définir ce qui est significativement pire (pensez à ceci comme une fenêtre d'indiscernabilité, ou une marge que nous appellerons - nous discutons ci-dessous comment choisir une telle marge), et qu'il existe un traitement existant disponible contre lequel Comparer le nouveau traitement. Le nouveau traitement pourrait être considéré comme n'étant pas inacceptablement inférieur à 3 (c'est-à-dire non inférieur) au traitement existant si, lorsque l'IC autour de la différence de la taille de l'effet entre les traitements nouveaux et existants est calculée, Cet intervalle ne s'étend pas au-delà de la fenêtre d'indiscernabilité définie ci-dessus. On se concentre sur la limite inférieure de cette comparaison de non-infériorité ce qui se produit à l'extrémité supérieure de l'IC n'est pas la principale préoccupation. Dans un essai d'équivalence, en revanche, les investigateurs se soucient des deux extrémités de l'IC et déclareraient le nouveau traitement équivalent au traitement existant seulement si l'IC entier tombe dans cette marge de chaque côté de zéro. Les essais de non-infériorité sont clairement appropriés pour certaines maladies et certains traitements. Lors de l'élaboration d'un nouveau traitement pour prévenir la tuberculose, les chercheurs pourraient être disposés à sacrifier une petite quantité de bénéfice (comme indiqué dans la marge) pour un calendrier de dosage plus simple, moins d'effets secondaires ou d'autres avantages, mais ils seraient ravis si le nouveau traitement Étaient meilleures que les thérapies actuelles (donc aucune restriction sur la limite supérieure de l'intervalle) et ils pourraient aussi déclarer la supériorité. Cela ne se produirait que si la borne inférieure de l'intervalle était au-dessus de zéro, pas simplement au-dessus. Jusqu'à présent, le problème semble simple. Il faut choisir une marge de non-infériorité, exécuter l'essai comparant le traitement expérimental à un témoin actif, calculer l'IC autour de la différence entre les traitements et examiner la limite inférieure de l'IC. Si la limite inférieure est au-dessus de la marge -, le nouveau traitement est considéré comme non-inférieur, et le procès est un succès. De plus, si le nouveau traitement est statistiquement significativement meilleur que le comparateur (c'est-à-dire que la limite inférieure de ce même IC est également supérieure à zéro), la supériorité du nouveau traitement peut également être déclarée. Il est important de noter que le premier test de non-infériorité, puis de supériorité, ne nécessite pas de pénalité statistique pour les tests multiples, car le premier test de non-infériorité avant de tester la supériorité (tout en examinant un IC unique) I, ou, le taux d'erreur des deux tests. Les statisticiens se réfèrent à ce type de tests comme des tests fermés, et un tel processus assure que le taux d'erreur global de l'expérience est maintenu au niveau correct lorsque l'on teste plus d'une hypothèse. L'ordre des tests est important pour déclarer la supériorité, un nouveau traitement doit nécessairement aussi être déclaré non-inférieur. L'inverse (tester d'abord pour la supériorité puis pour la non-infériorité) n'est pas toujours une procédure fermée. Des tests dans cet ordre pourraient conduire à des résultats apparemment anormaux, même lorsqu'on examine un CI unique. Une grande épreuve avec un IC étroit autour de la différence entre le contrôle actif et le nouveau traitement pourrait montrer que la limite inférieure de l'intervalle se situe dans la marge, ce qui signifie que le nouveau traitement est non inférieur au contrôle actif, mais la limite supérieure De l'intervalle est inférieur à zéro, de sorte que le nouveau traitement est également inférieur au contrôle actif. Gardez à l'esprit que l'opposé du non-inférieur n'est pas inférieur, c'est le miracle opposé, non non inférieur. Par exemple, supposons que la marge - soit -3, et que l'IC observé à la fin de l'essai soit -2.7, 1.5. La limite inférieure de l'IC est supérieure à -3, de sorte que le nouveau médicament est non inférieur à l'ancien, mais la limite supérieure de -1,5 est inférieur à zéro, de sorte que le nouveau médicament est également inférieur à l'ancien. Dans ce cas, le CI unique peut être utilisé pour dire que le nouveau traitement est simultanément non inférieur et inférieur. Bien que cet exemple puisse sembler contre-intuitif, il faut se rappeler, lors de l'interprétation des résultats d'un essai de non-infériorité, que le but de l'essai est d'estimer la limite inférieure de l'IC et non d'établir une estimation ponctuelle de l'effet du traitement. Ce test, assis de l'autre côté du miroir, nécessite une interprétation différente de l'habituelle. Dans certains essais, il est statistiquement approprié d'effectuer d'abord une comparaison de supériorité et, si cela ne présente pas d'avantage statistique, d'effectuer une comparaison de non-infériorité. Cela ne serait approprié que si la marge de non-infériorité avait été présélectionnée. La raison pour laquelle un tel commutateur est autorisé provient du fait que nous pouvons considérer le test comme une interprétation d'un CI. L'IC calculée ne sait pas si son but est de juger la supériorité ou la non-infériorité. Si elle est entièrement au-dessus de zéro, alors elle a montré la supériorité. Si elle est entièrement au-dessus -, alors elle a montré non-infériorité. Un essai de non-infériorité peut avoir cinq types possibles de résultats comme représenté à la figure 2. Les deux lignes verticales indiquent zéro et -. Chaque ligne horizontale représente un IC, avec l'effet de traitement estimé noté par le point au centre. L'IC au sommet de la figure est entièrement au-dessus de zéro un essai avec ce résultat conclurait que le nouveau traitement est supérieur et donc, également non-inférieur, au contrôle. L'intervalle suivant, qui s'étend à zéro, mais qui est entièrement au-dessus, représente un essai qui a montré non-infériorité, mais pas la supériorité. Le troisième intervalle, qui chevauche à la fois zéro et -, représente un essai qui n'a montré ni non-infériorité ni supériorité. Le quatrième CI illustre le cas discuté ci-dessus entre les deux lignes verticales, il montre à la fois la non-infériorité (parce qu'elle se trouve entièrement au-dessus de la ligne pour -) et l'infériorité (parce qu'elle se trouve également entièrement en dessous de zéro). L'IC final au bas de la figure montre l'infériorité et ne montre pas la non-infériorité. Résultats possibles d'un essai de non-infériorité. Complications - autres que la marge Parmi les défis dans les essais de non-infériorité par rapport aux essais de supériorité sont les choix de la marge, la population primaire pour l'analyse, et le traitement comparatif. Comme dans notre section précédente, nous retardons la discussion de la marge et abordons les problèmes en premier lieu. La sagesse conventionnelle suggère que dans un essai de non-infériorité, la population primaire pour l'analyse devrait être la population par protocole (PP), qui dans ce cas est l'ensemble des personnes qui ont pris leur traitement assigné et y ont adhéré. (Rappelons que les essais de supériorité utilisent la population totale ou l'intention de traiter (ITT), population pour l'analyse primaire.) Beaucoup appel à la population de PP dans un essai de non-infériorité parce que le plus mal exécuté un essai, ITT analyse montrera non-infériorité. Considérons un essai avec une répartition aléatoire irrémédiablement imparfaite, où au lieu de créer deux groupes de traitement distincts (un ensemble de sujets recevant le nouveau traitement et l'autre le comparateur actif), le schéma de randomisation a réellement créé deux groupes mélangés, chacun composé de demi-sujets recevant le Nouveau traitement et la moitié recevant le comparateur actif. Si cet essai mettait à l'épreuve la supériorité, le test ne trouverait vraisemblablement aucune différence entre les groupes. Toutefois, en tant qu'étude de non-infériorité, un tel essai erroné risquerait fort de démontrer de manière incorrecte une non-infériorité. Cet essai, tel que décrit, est un exemple extrême de l'importance de la sensibilité de l'analyse, en ce sens qu'un essai avec un tel schéma d'attribution erroné a perdu la capacité de distinguer les vraies différences entre les groupes de traitement qui peuvent exister. Montrant un bénéfice dans la population PP. D'autres 4 (dont les auteurs) ne sont pas d'accord avec cette opinion. Appel aux dangers de la négligence n'est pas une raison d'utiliser la population PP, mais plutôt une raison pour s'assurer qu'un essai est bien conçu et soigneusement surveillé, avec l'analyse primaire effectuée sur une population ITT. D'un point de vue réglementaire, cependant, les deux populations sont intéressantes. Les régulateurs américains et européens s'intéressent à la réussite de l'ITT et des PP. La publication de l'EMA Points à considérer sur la permutation entre la supériorité et la non-infériorité 5 stipule spécifiquement qu'un essai de non-infériorité doit montrer une non-infériorité dans les deux populations ITT et PP. Les régulateurs américains 6 citent des préoccupations importantes concernant la possibilité d'une censure informative dans une analyse telle que traitée ou PP, et conseillent aux enquêteurs de planifier les deux types d'analyses dans leurs essais de non-infériorité. Ils ajoutent que les divergences entre les deux types d'analyses nécessiteront un examen attentif, des mots qu'aucun enquêteur ne veut entendre des organismes de réglementation. Un enquêteur peut également avoir plusieurs choix pour le bras de comparaison dans un essai de non-infériorité, mais il doit être un combat équitable. Un exemple d'un contrôle injuste serait un comparateur avec une dose qui est inférieure à l'optimale. Une autre provient de biocreep. Supposons qu'un essai antérieur ait trouvé le médicament A nettement meilleur que le placebo, puis plusieurs années plus tard, le médicament B est trouvé non inférieur au médicament A dans un essai avec une large marge de non-infériorité. Le médicament C est alors comparé au médicament B, encore une fois avec une large marge de non-infériorité, et il est montré qu'il n'est pas inférieur à B. Il s'agit d'un exemple de biocrisie à chaque étape, le nouveau médicament n'a pas été pire que la précédente. Par conséquent, une comparaison d'un nouveau médicament avec le médicament C peut ne pas être juste, parce que le médicament C peut en fait être moins efficace que le médicament A et, si les marges étaient trop grandes, encore moins efficaces que le placebo. Nous mentionnons encore cette situation en parlant de constance. Des données suffisantes doivent être disponibles pour permettre le calcul de la marge de non-infériorité pour la même maladie et le même paramètre. La Ligne directrice 6 de la FDA permet toutefois que le contrôle actif ne soit pas nécessairement approuvé pour l'indication de l'intérêt dans l'essai de non-infériorité si ces données existent. Choisir la marge, conceptuellement Après avoir accepté d'analyser à la fois la population ITT et une certaine version d'une population PP, et après avoir sélectionné le contrôle actif approprié, un enquêteur doit ensuite sélectionner la marge de non-infériorité et la méthode d'analyse. Une approche serait de demander aux cliniciens ou aux patients de considérer le degré d'efficacité qu'ils seraient disposés à sacrifier en échange des avantages potentiels offerts par le nouveau traitement. Un panel d'experts cliniques connaissant les options de traitement existantes et la maladie sous-jacente peut être en mesure d'envisager des compromis sur le niveau de la population de patients et pourrait proposer une marge plausible de non-infériorité. Les groupes de patients pourraient peut-être fournir plus de renseignements sur les compromis que les patients potentiels pourraient être prêts à faire pour un produit avec des avantages tels qu'un calendrier de dosage amélioré ou moins d'effets secondaires. Un tel argument, à la recherche de conseils de l'oracle du jugement clinique ou de l'expérience du patient, peut être attrayant du point de vue de certains médecins, mais une telle méthode Delphic peut avoir un succès limité dans un cadre scientifique ou réglementaire, ce qui pourrait justifier les effets attendus du traitement Et la variabilité. Deux autres approches formelles de la marge et de l'analyse sont le placebo putatif (également connu sous le nom de méthode de synthèse) et l'approche 95-95 dans Rothmann 7. 8. La méthode 95-95 commence par le calcul de M 1. L'effet total du témoin actif par rapport au placebo. Ce calcul utilise généralement des méthodes méta-analytiques avec des données d'études antérieures, comme nous le décrivons ci-dessous, pour obtenir un IC 95 autour de la différence estimée entre le témoin actif et le placebo. Une estimation prudente de cette différence, la limite inférieure de ce CI, est alors utilisée comme M 1. Ensuite, une marge plus petite, M 2. Est spécifié afin de préserver une fraction prédéterminée de l'effet de contrôle actif estimé, par exemple 50 ou 75. On peut interpréter M 2 comme la plus grande perte d'effet (infériorité) qui serait cliniquement acceptable en comparant le médicament à l'essai avec l'actif contrôle. Ces définitions de M 1 et M 2 proviennent de la notation utilisée dans le FDA Guidance document, dont nous discuterons dans la section suivante. Ayant établi la marge M 2. Un essai de non-infériorité utilisant l'approche à marge fixe est réussi si la limite inférieure du CI 95 autour de la différence entre le nouveau traitement et le contrôle actif se situe au-dessus de cette marge. La méthode de synthèse, en revanche, ne nécessite pas de spécification d'une marge spécifique ou d'un effet de contrôle actif. Cette approche spécifie un seuil pour la fraction souhaitée de l'effet du contrôle actif retenu par le nouveau traitement. Ainsi, le test de l'hypothèse de non-infériorité dans ce type d'analyse est basé sur une combinaison de l'estimation et de l'erreur-type (SE) pour la comparaison du contrôle actif avec le placebo, ce qui n'est pas observé dans l'étude actuelle et l'estimation Et SE pour la comparaison du nouveau traitement avec le témoin actif dans la présente étude. Cette méthode suppose que l'effet du témoin actif reste raisonnablement constant dans le temps, ou que si l'effet diminue avec le temps (par exemple par des thérapies concomitantes améliorées), on peut estimer un tel effet modifié. Voir Rothmann et al. 7 pour un aperçu de la modélisation soit de l'effet de contrôle actif, soit de sa variabilité, et des articles de Snappin et Jiang 10. 11 pour une approche unifiée de l'approche à marge fixe et de synthèse, qui traite des hypothèses de sensibilité et de constance de l'analyse et de leurs Implications sur le taux d'erreur de Type I. Nous développons ces concepts dans la section consacrée aux questions techniques. Perspectives réglementaires En mars 2010, les Centres d'évaluation et de recherche sur les médicaments (CDER) et l'Évaluation et la recherche en biologie (CBER) de la FDA des États-Unis ont publié un projet d'orientation pour l'industrie sur les essais de non-infériorité 6. Les documents d'orientation de la FDA représentent la pensée actuelle d'Agencys sur une grande variété de sujets dans le processus de développement de médicaments, y compris les questions cliniques, les statistiques, la fabrication, la sécurité et l'étiquetage. Ce guide s'ouvre sur un aperçu d'introduction des essais de non-infériorité. Il aborde ensuite soigneusement les questions statistiques, y compris les méthodes permettant de déterminer une marge de non-infériorité appropriée, et se termine en abordant les questions à l'aide d'exemples tirés de présentations récentes. Une grande partie de la philosophie sous-jacente à cette directive traite de la préoccupation de la FDA que dans un essai sans groupe placebo (ou plus généralement, un contrôle non traité), le fait de ne pas trouver de différence entre le nouveau traitement et le contrôle actif peut effectivement dire que ni Aurait été mieux que le placebo. Ainsi, une façon de regarder le guide est de considérer qu'il s'agit d'une tentative pour s'assurer qu'une étude qui conclut la non-infériorité a identifié un traitement qui est supérieur au placebo. Le Guide fournit une notation utile, que nous avons adoptée pour notre discussion dans ce document. Comme décrit ci-dessus, on utilise M1 pour désigner l'effet total du témoin actif par rapport au placebo et M2 pour désigner la plus grande perte d'effet (infériorité) qui serait cliniquement acceptable lors de la comparaison du médicament à tester avec le témoin actif. L'effet M 1 est calculé à partir d'informations historiques qu'il n'est pas mesuré directement dans un essai de non-infériorité (à moins que l'essai n'inclut un troisième bras, soit un placebo, soit aucun traitement). Néanmoins, l'avantage présumé du contrôle actif par rapport au placebo doit également être présent dans l'étude en cours, même si l'avantage n'est pas directement observé. Nous allons discuter de cette hypothèse, connue sous le nom de sensibilité d'analyse, plus en détail ci-dessous. Le Guidance note que, dans certains contextes, il peut être raisonnable de démontrer uniquement la non-infériorité par rapport à la marge M 1. Un tel résultat montre que le médicament test a un effet non nul, mais cet effet peut ne pas être cliniquement significatif. La plus petite marge, M 2. Resserre la connexion entre le médicament à tester et le témoin actif, ce qui permet une allégation de non-infériorité seulement si le médicament testé n'a pas perdu trop de l'effet du témoin actif. Le Guide indique:. Une étude de non-infériorité réussie montre rigoureusement que le médicament test a un effet supérieur à zéro si elle exclut une marge NI de M1, tant que M1 est bien choisi et représente un effet que le médicament témoin aurait effectivement eu (contre un placebo , S'il y avait eu un groupe placebo). Il peut également montrer que le médicament testé avait un effet supérieur à une fraction de l'effet du médicament témoin, selon le M2 utilisé. (6, page 12, section III. B). Bien que les essais de non-infériorité soient souvent souhaitables d'un point de vue conceptuel, des difficultés opérationnelles peuvent peser sur le processus de sélection de la marge, soit en raison de données insuffisantes pour étayer une marge sélectionnée, soit d'une marge calculée conduisant à une taille d'échantillon peu pratique. Le Guide traite brièvement d'autres conceptions qui peuvent être préférables dans ces situations, y compris des études complémentaires, des populations de patients soigneusement sélectionnées ou des études randomisées de retrait. L'orientation principale de l'orientation est donnée dans la section IV: Choisir la marge de non-infériorité et analyser les résultats d'un essai NI. Sur le plan conceptuel, le Guide décompose le processus en deux étapes: déterminer un moyen raisonnable d'évaluer l'effet du contrôle actif dans l'étude en cours, puis montrer que le bénéfice du contrôle actif sur le médicament test dans la présente étude n'est pas plus grand Que l'effet (supposé) entier du témoin actif par rapport au placebo. Une fois la marge sélectionnée, soit à partir d'une opinion d'experts, soit à partir d'une analyse formelle des données historiques, les concepteurs de l'essai doivent déterminer comment analyser les résultats d'une étude de non-infériorité. Le Guidance présente deux approches possibles, que nous avons brièvement présentées ci-dessus: la méthode des marges fixes (également appelée méthode IC double ou méthode 95-95 7,8) et la méthode de synthèse. Dans la méthode des marges fixes, un essai de non-infériorité réussit si la limite inférieure du CI 95 autour de la différence entre le médicament test et le témoin actif se trouve au-dessus de la marge, soit M 1 soit M 2. En revanche, la méthode de synthèse ne définit pas une marge ou un effet spécifique du témoin actif sur la base d'essais passés. La directive indique que la méthode de synthèse est conçue pour répondre directement à la question de savoir si le produit testé aurait été supérieure à un placebo avait un placebo été dans l'étude NI accentuation nôtre, et aussi à la question connexe de quelle fraction de l'actif Comparateurs est maintenu par le produit testé (6, page 30). Cette approche combine l'effet du produit d'essai observé dans l'essai de non-infériorité avec un effet de contrôle estimé, soit à partir d'un seul essai ou d'une méta-analyse, pour obtenir un IC unique qui est utilisé pour tester l'hypothèse de non-infériorité Comparer le produit d'essai avec le comparateur actif. Cependant, on peut envisager une autre manière d'appliquer la méthode de synthèse (sous l'effet de la rétention 0 de l'effet témoin actif) pour tester si le produit testé est meilleur que le placebo, en supposant qu'une estimation impartiale peut être obtenue du témoin actif Effet par rapport au placebo. L'hypothèse la plus importante ici est que l'effet du contrôle actif est resté relativement constant (ou peut être modélisé comme discuté ci-dessus) du passé dans l'essai actuel de non-infériorité. Cette méthode est légèrement plus efficace au sens statistique (en termes d'exigence d'une taille d'échantillon plus petite pour avoir la même puissance statistique), mais elle est sensible aux hypothèses et n'intègre pas facilement le jugement clinique dans la définition de M 2. Les lignes directrices se terminent par des réponses à une série de questions communément posées sur les essais de non-infériorité et quelques exemples. Les questions se concentrent sur le choix de la marge et la distinction entre M 1 et M 2. La pertinence du contrôle actif et les options lorsqu'un essai de non-infériorité n'est pas possible. Les exemples illustrent la différence entre les approches d'analyse par marge fixe et de synthèse, comment estimer l'effet de contrôle actif en l'absence d'essais randomisés contrôlés par placebo, situation dans laquelle l'effet de contrôle actif historique est tellement faible qu'une non-infériorité Un essai dans lequel les critères de non-infériorité pour le succès peuvent être assouplis lorsque deux études fournissent des résultats cohérents. En revanche, le document d'orientation EMA sur le choix d'une marge de non-infériorité 9 ne spécifie pas de méthode de sélection de la marge. Au lieu de cela, l'EMA demande aux promoteurs de procès d'utiliser une combinaison de jugement statistique et clinique. La méthode de sélection d'une marge pourrait provenir d'une approche Delphi-type demandant aux experts combien d'avantage sur placebo ils sont prêts à renoncer en utilisant le nouveau produit au lieu du produit déjà montré pour être efficace. Alternativement, les enquêteurs peuvent choisir une marge en utilisant une approche plus formelle. Le document avertit cependant que la marge choisie doit être suffisamment petite pour que le traitement expérimental soit meilleur que le placebo. Selon les termes de l'EMA, une exigence minimale pour le processus décisionnel impliqué dans l'interprétation des données d'un essai de non-infériorité est que nous devons être confiants que le produit d'essai aurait été démontré pour être efficace si un essai contrôlé contre placebo avait été Effectuée. Choix de la marge, techniquement Qu'une méthode Delphic, la méthode de synthèse ou l'approche 95-95 soit utilisée, la première étape dans la définition de la marge de non-infériorité est de rassembler toutes les informations pertinentes sur l'effet du contrôle actif. Pour la méthode Delphic, toutes les informations pertinentes peuvent résider dans l'esprit, l'expérience et le jugement des cliniciens experts. Pour la synthèse et les méthodes 95-95, toutes les informations pertinentes comprennent l'ensemble des données traitant de l'ampleur de l'effet du traitement témoin par rapport au placebo. Ces deux dernières méthodes peuvent utiliser la même approche pour identifier l'effet du témoin par rapport au placebo. Le premier 95 dans la méthode 95-95 a pour but de calculer la taille d'effet pour le groupe de contrôle qui donne une assurance raisonnable d'être au moins égale à Taille de l'effet réel. La philosophie est que le calcul de l'IC 95 pour la taille d'effet estimée, puis le choix de l'extrémité inférieure de cet intervalle donne 95 confiance que la taille de l'effet vrai pour l'intervention de contrôle par rapport au placebo est au moins aussi grande que la taille d'effet calculée. Ayant accepté ce principe comme le chemin du calcul, la prochaine décision est de savoir quelles données utiliser pour calculer ce CI. Le FDA Guidance suggère d'appliquer des techniques méta-analytiques pour calculer la taille d'effet estimée et donc la limite inférieure de l'IC. For convenience in exposition, we discuss here binary outcomes much of the discussion is relevant to other types of outcomes as well. Meta-analysis is a set of methods used to combine data from a group of studies to obtain an estimate of a treatment effect. Thus, the first step in performing a meta-analysis is to collect the group of studies to use. When designing a non-inferiority trial, under ideal conditions the investigator would select a set of studies that includes only randomized trials comparing the control intervention with placebo. The patient population should be similar to the population being studied in the non-inferiority trial being planned the outcomes studied in the trials should be the same as that planned the control regimen (intervention and dose) should be the same as the regimen to be used in the new trial and the current standard of care should be the same as the standard of care in the previous trials (the constancy assumption). Furthermore, the total population studied in the set of trials under consideration should be sufficiently large to produce a precisely estimated effect size. In practice, limitations of available data often force investigators to compromise on some of these criteria. The populations studied in the previous trials may differ in important ways from the population planned for the new trial. The former trials may not all have uniformly compared the control intervention to placebo some of the trials may have used placebo whereas others may have used standard of care, and some might have used another active control. The outcome measures in the previous trials may differ from the outcome in the trial being designed. The intervention in the previous trials might have used different doses from that being contemplated in the new trial, or the relevant trials might have used a drug from the same class as the planned control, but not the same drug. And perhaps the most vexing problem of all, because it is essentially unmeasurable, is the possibility that the standard of care has changed in the years between the time of the previous trials and the trial being planned. If so, a drug shown to be effective in the past would perhaps not be shown to be effective were the same trial performed today. Similarly, if the trials under consideration for the meta-analysis were performed in countries with very different standards of care from the country in which the non-inferiority trial is to be performed, then the effect size of the control may be different from what it would have been in the country for which approval is being sought. Assuming that the set of trials being considered do not egregiously violate the ideal standards mentioned above, the investigators are ready to produce an overall estimate of the effect size. A meta-analysis comparing treatment A with treatment B starts with T randomized trials. If the primary outcome of the trial is binary, for k 1, 2. T . trial k has sample sizes n kA and n kB with S kA and S kB successes, respectively. The outcome of the Mantel-Haenszel (MH) method is the pooled odds ratio across the T trials. Each study can be represented by a 2 2 table with the structure depicted in Table 1. Illustration of a 2 2 table for the k th trial. A method of Peto described by Yusuf 13 is also often used in these settings. The method differs slightly from the MH approach however, for large sample sizes, the two methods yield almost identical results. In both the MH and the Peto methods, the logarithm of the odds ratio under the null hypothesis is approximately normally distributed, with mean zero and variance estimated from the observations. Both methods weight studies according to their sample size, not the size of the treatment effect within the study. In other words, large studies have a large influence on the pooled effect size, while small studies have a small influence on the estimated effect. Furthermore, if the true effect size is in fact identical in all of the studies, then the MH test is the optimal procedure, in the sense that it has the highest statistical power of all possible unbiased tests. This property is often subverted by saying that these tests require that the studies have the same true effect size, or that they are fixed effects models. In fact, neither the MH nor the Peto method requires identical effect sizes. The logical interpretation of a meta-analysis using either of these methods is not that the true effect of the treatment is the same in all situations, but rather that the overall estimate obtained from a meta-analysis is the best estimate of the treatment effect, averaged over all studies included. The FDA Guidance suggests a preference for so-called random-effects models in meta-analyses that will be used to establish the margin in non-inferiority trials. These models, in contrast to the MH and Peto approaches, make very specific assumptions about the distribution of the effect size across all potential studies. The standard method, introduced by DerSimonian and Laird 14 , assumes that the effect size (which in the case of binomial variables is the log odds ratio) comes from a normal distribution with mean and variance 2. This assumption implies that the estimated pooled effect is a weighted average of the effect obtained in each study in contrast to the MH and Peto methods, the weights are a function both of the sample sizes of the various studies and the closeness of each within-study estimate to the estimates from the other studies. As Petitti 15 points out, when results from studies are heterogeneous, random-effects models tend to overemphasize the importance of small studies. Such weighting may be inappropriate small studies are often conducted at a single center, and are more likely to be subject to bias and less likely to have had rigorous checking of data quality or the use of rigorous methods in study conduct. See Teo et al . 16 for a discussion of a random-effects meta-analysis on the use of magnesium, which led to erroneous results. In that case, one small study, with results quite different from other, larger, trials, dominated the estimated effect size because the assumptions of the random-effects model put undue weight on the small trial. The typical presentation of a meta-analysis shows a forest plot depicting the results of each trial, and then a summary statistic showing the estimated effect. Having completed this meta-analysis, the investigator calculates the 95 CI and finds what FDA calls M 1 . the effect size of the control therapy that will be assumed (Figure 3 ). If the outcome is a time-to-event variable or a continuous variable, the meta-analysis is typically performed on the estimated hazard ratios or means, respectively. Choice of M 2 . how much are we willing to lose As the EMA Guidance document stresses, both statistical and clinical judgment should play into the choice of margin. M 1 is calculated, as described above, as the lower end of the 95 CI around the best estimate of the effect size of the control group relative to placebo. This number becomes the starting point for the determination of the margin. The investigator must now ask how much of that benefit is acceptable to lose if the new therapy is adopted. The past experience of the investigators may allow them to define the magnitude of a loss of efficacy that they would be clinically willing to accept. By thinking through a population of, for example, 100 cases, a clinician may be able to quantify such judgments by considering what might be an acceptable loss of efficacy compared with a standard treatment. Sometimes, investigators do not carry out such a formal analysis instead they figure out how much money they can spend. From there, they determine the largest trial that they can run, and justify the margin after the fact. This (not exactly a secret) is what investigators often do for superiority trials the difference is that the purpose of a superiority trial is to show benefit, and if the power is too low for a given sample size, the trial is unlikely to show superiority. In the looking-glass non-inferiority world, however, the analogous action is to make the margin too big, increasing the chance of successfully demonstrating non-inferiority of the new treatment. M 2 is often selected to preserve half of the effect of M 1 however, when a drug is highly effective, losing half its effect, even though it may still be better than placebo, may not be clinically acceptable (Figure 4 ). Consider, for example, a childhood vaccine that prevents 96 of potential cases of disease. A new oral vaccine that only prevents 48 of disease would still be much more effective than placebo, but would hardly be attractive, even if less painful to the child than a shot. Thus, highly effective products for serious diseases should generally be evaluated in trials in which the margin preserves a large proportion of M 1. In other settings, if the benefits of the new product, in terms of adverse events, ease of administration, and cost are very great, investigators might be willing to forego an even higher percentage of M 1 . The second 95 (or, is the new product non-inferior to the old) Having selected M 1 (from the first 95) and M 2 (from judgment), the trial begins. At the end of the trial a 95 CI is calculated from the observed data. If that interval sits completely above the prespecified -, the trial has shown non-inferiority. In fact, we can refer back to Figure 2 and see how the confidence limit compares with the limits shown in the figure. Sample size The sample size for a non-inferiority trial is calculated to satisfy the following equation: In words, this means that the sample size must be large enough so that the probability is sufficiently high that the lower bound of the 95 CI for the estimated difference between the treated group and the control group is greater than the margin, -, when the true difference between the groups, T - C . is . Sample size for a non-inferiority trial is usually calculated under the assumption that the experimental agent and control treatment have equal effects, that is, when is assumed to be zero. Under the assumption that the new treatment is a little better, as is often the case for a new product, the required sample size decreases considerably. Consider, for example, a comparison of two proportions as illustrated in Table 2. For a fixed margin, set to be 10 of the true proportion in the active control, the table presents the approximate sample size required assuming equal treatment effects, a small (5), and a larger (10) benefit for the experimental agent. Approximate sample sizes required for non-inferiority comparison of proportions Sample sizes calculated using Pass 2008 methods for non-inferiority tests of two independent proportions, using the Z statistic with continuity correction and pooled variance, with a target power of 90 and level of 0.025. As an example of how to read the table, consider the row in bold font, in which the true proportion in the active control is 50. The smallest proportion that would be considered not non-inferior is 45 (a loss of 10 from the active control effect). Assuming that the proportions in the new treatment and the active control are equal, the total sample size required would be approximately 2,100 per group. If, however, the new treatment actually provided a 5 benefit over the active control, corresponding to a true proportion of 52.5, the required sample size would be approximately 1,000 per group to show non-inferiority. That is, with a sample size of 1,000 per group, if the true proportion in the active control is 50 and the true proportion in the new treatment is 52.5, then the probability is 90 that the lower bound of the CI is above -5. A 10 benefit, corresponding to a proportion of 55 in the new treatment, would require a sample size of just over 500 per group to show non-inferiority. Assuming a small benefit of the experimental agent compared with the active control cuts the sample size required roughly in half if the larger benefit is more realistic, the sample size is roughly a quarter of that required for the assumption of equal treatment effect. These are still, however, relatively modest improvements over the effect of active control, and although the sample size reductions when assuming these benefits are non-trivial, they are not so large as to suggest switching to a superiority trial to prove these benefits. The sample size required for a superiority trial to demonstrate the small benefit would be nearly 10 times larger than required for the non-inferiority trial, and around four times as large for the larger effect. Concerns about non-inferiority trials Non-inferiority trials have a host of complications. A serious concern, as briefly described above, is assay sensitivity, the ability of a trial to distinguish an effective therapy from one that is not effective, and the issues differ for non-inferiority trials and superiority trials. A superiority trial that lacks assay sensitivity will probably show that the new therapy does not have a statistically significant benefit over control, as the trial will be unable to declare efficacy. By contrast, a non-inferiority trial without assay sensitivity may generate a positive result (that is, it may show evidence of non-inferiority) if it shows no difference between the treatment groups, as this would lead to a conclusion of non-inferiority. Unlike superiority trials, non-inferiority trials have no internal check on assay sensitivity. (The check in a superiority trial is showing that the tested intervention is superior to control.) The EMA, in an effort to mitigate this problem, has suggested that non-inferiority trials, wherever possible, include a placebo arm to allow a direct comparison of both the active control and experimental agent with placebo. (Note that the study may be the new drug, the old drug, and the placebo, all on a background of standard of care.) In many cases, such a trial is not ethically acceptable. That is, randomizing participants to placebo may not be appropriate when an existing therapy with a proven survival benefit exists (for example, in cancer), whereas in other cases (for example, pain relief) a three-arm trial could work well. Another concern specific to non-inferiority trials pertains to the evolving standard of care, as discussed above. Consider the situation with an existing drug (drug A) that is approved for the treatment of an infectious disease on the basis of a placebo-controlled trial. Now suppose that a company applies to regulatory agencies for approval of a new treatment (drug B) using a non-inferiority design with drug A as the active control. Suppose that the trial is successful, that is, drug B is shown to be non-inferior to drug A with respect to the cure rate. Presumably, if drug B has some advantages, such as fewer side effects or an improved dosing schedule, it will then become the standard of care. Then suppose the next company applies for approval of another drug (drug C) using a non-inferiority comparison against drug B. If drug A were actually not superior to placebo in the first trial, it could be fairly easy to show that each new drug is non-inferior to the active control, even when none is any better than placebo. In most cases, the issue with standard of care is not as dire as this illustration might suggest, as the point estimates could show a positive effect even if the margin allowed some loss of efficacy, but the concern is valid. As mentioned earlier, this change in effect is termed biocreep in the case of drugs, and technocreep in the case of devices. Further, in the case of infectious diseases, the organisms themselves might evolve, leaving us with the possibility of true biological biocreep. That is, over time, organisms develop resistance to earlier drugs in the pharmacopoeia, meaning that each new drug is being compared with an active control that might be becoming less and less effective against a strengthening infectious agent. Here, biocreep represents actual biological change in the organism. What is usually called biocreep is more precisely virtual biocreep, where each successive product may be a little bit less effective than the previous product 17. 18 . But what if a non-inferiority trial cannot be performed As alluded to above, a variety of reasons may render a non-inferiority trial unfeasible. A rigorously calculated margin could yield a sample size that cannot be supported financially or by the potential study population. The EMA Guidance specifically warns investigators not to increase their non-inferiority margin when the scientifically derived margin produces an impractically large sample size. Sometimes the necessary data may not exist (or may not be available to a new investigator) to calculate a margin as carefully as desired or the treatment landscape may have changed so much since the historical data were collected that it is unclear what active control to use and whether or not that control really does show a benefit over placebo or the trial may be in a therapeutic area in which well-known effective treatments do not always beat placebo (for example, depression), making it difficult to argue for the assay sensitivity required to plan a non-inferiority trial. Although challenging, such circumstances offer opportunity to the creative trialist (and statistician). Conclusions A non-inferiority trial is reasonable when a new treatment has some property sufficiently favorable that physicians, and their patients, would be willing to sacrifice some degree of benefit relative to an already approved therapy. The advantage could be reduced cost, improved ease of use or dosing schedule (monthly versus weekly injections), simpler storage (not requiring refrigeration), or an improved safety profile. The benefit given up in exchange for these advantages, however, should not be so large that patients and physicians are not willing to use the new product. As discussed in the vaccine example above, an oral formulation that loses half the protection provided by an injection would not be a viable product. The choice of the non-inferiority margin and how much of the existing treatment effect to preserve incorporates in some sense these other aspects of treatment viability. From the perspective of regulators in the USA, however, success in a non-inferiority trial cannot formally incorporate these multi-faceted aspects it simply is not the way their regulations are written at this point. The M 2 does provide some room for flexibility by varying the proportion of the active control effect that is preserved. For serious diseases with known and highly effective treatments, any new product would need to preserve a large amount of the known treatment effect to be considered successful. In other settings (mild headache, for example), a more modest preservation of effect might still be of interest. In selecting M 2 . investigators and drug developers should consider consulting with patients to ascertain whether a margin acceptable to regulators is too large to be acceptable to patients. Expanding the primary endpoint into a composite incorporating efficacy and quality of life, efficacy and cost, or efficacy and safety, would be complicated. We advocate considering whether to revise the relevant legislation to modify the regulations so that regulators are legally able to take into account multiple dimensions of a new product. The resulting analyses would become ever more complicated, but the regulatory decisions would be more nuanced and ultimately better for the public health. At present, however, success in a non-inferiority trial in the USA depends upon success in the primary outcome measure, not on other aspects of benefit, such as safety, and regulatory success using non-inferiority trial designs may require completion of more than one such trial. Declarations Authors original submitted files for images Below are the links to the authors original submitted files for images. The authors declare that they have no competing interests. Authors contributions JS and JW drafted the manuscript. Both authors read and approved the final manuscript. We thank the reviewers for helpful comments and suggestions, and Tara Gentile for assistance with creation of the figures. Authors Affiliations Statistics Collaborative, Inc. References Temple R, Ellenberg SS: Placebo-controlled trials and active-control trials in the evaluation of new treatments Part 1: Ethical and scientific issues. Annals of Internal Medicine. 2000, 133: 455-463. View Article PubMed Google Scholar Ellenberg SS, Temple R: Placebo-controlled trials and active-control trials in the evaluation of new treatments Part 2: Practical issues and specific cases. Annals of Internal Medicine. 2000, 133: 464-470. View Article PubMed Google Scholar Wittes J: Active-control trials: a linguistic problem. International Chinese Stat Assoc Bulletin. 2001, 39-40. Google Scholar Wiens BL, Zhao W: The role of intention to treat in analysis of noninferiority studies. Clin Trials. 2007, 4: 286-291. 10.11771740774507079443. View Article PubMed Google Scholar EMA Committee for Proprietary Medicinal Products (CPMP): Points to Consider on Switching between Superiority and Non-inferiority London. 2000 Google Scholar United States Food and Drug Administration: Guidance for Industry Non-Inferiority Clinical Trials. 2010 Google Scholar Rothmann M, Li N, Chen G: Design and analysis of non-inferiority mortality trials in oncology. Stat Med. 2003, 22: 239-264. View Article PubMed Google Scholar Rothmann MD, Tsou HH: On non-inferiority analysis based on delta-method confidence intervals. J Biopharm Stat. 2003, 13: 565-583. 10.1081BIP-120022775. View Article PubMed Google Scholar EMA Committee for Medicinal Products for Human Use (CHMP): Guideline on the Choice of the Non-inferiority Margin London. 2005 Google Scholar Snappin S, Jiang Q: Controlling the type 1 error rate in non-inferiority trials. Stat Med. 2008, 27: 371-381. 10.1002sim.3072. View Article Google Scholar Snappin S, Jiang Q: Preservation of effect and the regulatory approval of new treatments on the basis of non-inferiority trials. Stat Med. 2008, 27: 382-391. 10.1002sim.3073. View Article Google Scholar Mantel N, Haenszel W: Statistical aspects of the analysis of data from retrospective studies of disease. J Natl Cancer Inst. 1959, 22: 719-748. PubMed Google Scholar Yusuf S, Collins R: Why do we need some large, simple randomized trials. Stat Med. 1984, 3: 409-420. 10.1002sim.4780030421. View Article PubMed Google Scholar DerSimonian R, Laird N: Meta-analysis in clinical trials. Control Clin Trials. 1986, 7: 177-188. 10.10160197-2456(86)90046-2. View Article PubMed Google Scholar Petitti DB: Meta-analysis, Decision Analysis, and Cost-effectiveness Analysis: Methods for Quantitative Synthesis in Medicine. 2000, Oxford: Oxford University Press, 306 pp Google Scholar Teo KK, Yusuf S: Effects of intravenous magnesium in suspected acute myocardial infarction: overview of randomized trials. BMJ. 1991, 303: 1499-1503. 10.1136bmj.303.6816.1499. View Article PubMed PubMed Central Google Scholar Fleming TR: Current issues in non-inferiority trials. Stat Med. 2008, 27: 317-332. 10.1002sim.2855. View Article PubMed Google Scholar Fleming TR, Powers JH: Issues in noninferiority trials: The evidence in community-acquired pneumonia. Clin Infect Dis. 2008, 47 (Suppl 3): S108-S120. View Article PubMed PubMed Central Google Scholar Schumi and Wittes licensee BioMed Central Ltd. 2011 This article is published under license to BioMed Central Ltd. This is an Open Access article distributed under the terms of the Creative Commons Attribution License ( creativecommons. orglicensesby2.0 ), which permits unrestricted use, distribution, and reproduction in any medium, provided the original work is properly cited.


No comments:

Post a Comment