Testen und Schätzen bei adaptiven Designs mit verblindeten und unverblindeten Interimanalysen.
Hypothesis Testing and Estimation in Adaptive Designs with Blinded and Unblinded Interim Analysis
Wissenschaftsdisziplinen
Andere Humanmedizin, Gesundheitswissenschaften (60%); Informatik (20%); Mathematik (20%)
Keywords
-
Interim Analysis,
Clinical Trials,
Adaptive Designs,
Sample Size Reassessment,
Multiple Testing,
Treatment Selection
Die Planung klinischer Studien erfordert zahlreiche Annahmen über Parameter, wie die Variabilität der Endpunkte, die Effektgrößen oder die Sicherheitsprofile der untersuchten Behandlungsmethoden. Oft ist nur wenig Information zu diesen Parametern vorhanden, sodass zuverlässige Schätzungen kaum möglich sind. Ein Lösungsansatz sind Versuchspläne, die eine Adaption des Studiendesigns nach einer Interimsanalyse vorsehen. Solche Studiendesigns erlauben, unbekannte Parameter in Interimsanalysen zu schätzen und danach die Studie entsprechend zu adaptieren. Adaptionen, die in der Literatur betrachtet wurden, sind etwa Anpassungen der Fallzahl sowie die Auswahl von Behandlungsmethoden oder Subgruppen. Wichtige Anforderungen bei der Anwendung adaptiver Designs in konfirmativen klinischen Studien sind die Kontrolle des Fehlers 1. Art sowie die valide Schätzung der Effektgrößen. Die potentiellen Auswirkungen von Designadaptionen auf die Integrität einer klinischen Studie hängen entscheidend von der Art der Interimsanalyse ab, insbesondere, ob sie auf verblindeten oder unverblindeten Daten basiert. Im Gegensatz zu unverblindeten Analysen bleibt bei verblindeten Interimsanalysen die individuelle Zuordnung der Behandlungen zu den Patienten unbekannt. Das Projekt hat zwei Ziele: Zum Einen werden wir den Einfluss von Adaptionen nach verblindeten Interimsanalysen auf die statistischen Eigenschaften von Hypothesentests und Konfidenzintervallen betrachten. Insbesondere werden wir untersuchen, inwieweit die allgemeine Perzeption, dass verblindete Interimsanalysen nur marginale Auswirkungen auf die Integrität einer Studie haben, berechtigt ist. Es wurde gezeigt, dass unter bestimmten Verteilungsannahmen und für bestimmte Adaptionsregeln verblindete Fallzahlanpassungen den Fehler 1. Art kaum beeinflussen. Jedoch ist wenig darüber bekannt, wie robust diese Resultate sind, wenn die Verteilungsannahmen nicht erfüllt sind oder allgemeinere Adaptionen, die über die bekannten Fallzahlanpassungsregeln hinaus gehen, durchgeführt werden. Eine weitere zentrale Frage, die wir untersuchen werden, ist der Einfluss verblindeter Fallzahlanpassungen auf die Eigenschaften von Punktschätzern und Konfidenzintervallen. Der zweite Schwerpunkt des Projekts ist die Entwicklung neuer Testverfahren und Konfidenzintervalle für Versuchspläne mit verblindeten und unverblindeten Interimanalysen, für die die Kontrolle des Fehlers 1. Art analytisch gezeigt werden kann. Für adaptive Designs mit unverblindeten Interimsanalysen, bei denen multiple Hypothesen getestet werden werden wir unsere Arbeiten über einstufige multiple Testverfahren, die auf gewichteten Graphen basieren, auf adaptive multiple Tests erweitern. Diese Methodologie erlaubt, adaptive (parallele) "Gatekeeping Prozeduren" zu konstruieren. Diese haben zum Beispiel Anwendungen in klinischen Studien mit multiplen Behandlungsgruppen, Endpunkten, und/oder Subgruppen, in denen eine Behandlungsgruppe in einer Interimsanalyse ausgewählt wird. Weiters werden wir simultane Konfidenzintervalle für diese Testprozeduren entwickeln.
In herkömmlichen klinischen Studien zur Prüfung neuer Therapien werden oft über mehrere Jahre Patienten rekrutiert, die Ergebnisse aber nur am Ende analysiert. Dagegen erlauben adaptive Studiendesigns die Durchführung von Zwischenanalysen und die Anpassung des Versuchsplans basierend auf Zwischenresultaten. So kann etwa die Anzahl der zu rekrutierenden Patienten bei Bedarf erhöht oder ein Behandlungsarm mit geringem Behandlungserfolg frühzeitig beendet werden. Eine wichtige Anwendung ist auch die Entwicklung von personalisierten Therapien. In adaptiven Studiendesigns können dabei Subgruppen von Patienten, bei denen die Behandlung keine Wirksamkeit zeigt, von der Rekrutierung frühzeitig ausgeschlossen werden. Eine große Herausforderung ist die korrekte statistische Analyse der Daten, die in solchen adaptiven Studien gewonnen werden. Wichtige Anforderungen sind unter anderem die Kontrolle der Falsch-Positiv-Rate bei statistischen Tests zur Vermeidung der irrtümlichen Zulassung unwirksamer Therapien, sowie die verlässliche Schätzung der Größe des Behandlungseffekts. Im ersten Teil des Projekts untersuchten wir die Robustheit von adaptiven Designs und identifizierten Szenarien, in denen die Studienergebnisse durch Adaptionen und die Verwendung von herkömmlichen Analysemethoden verfälscht werden und deshalb unzutreffende Schlüsse über die Behandlungseffekte der untersuchten Therapien gezogen werden könnten. Insbesondere wurde kritisch hinterfragt, inwieweit die allgemeine Meinung, dass verblindete Zwischenanalysen (bei denen die individuelle Zuordnung der Behandlungen zu den Patienten unbekannt bleibt) nur marginale Auswirkungen auf die Integrität einer Studie haben, auch tatsächlich berechtigt ist. Dazu identifizierten wir Beispiele, wo Adaptionen in verblindeten Zwischenanalysen eine substantielle Verfälschung von Studienresultaten verursachen können und geben Bedingungen an, wann verblindete Analysen keinen negativen Einfluss auf die Aussagekraft der Studie haben. In einem nächsten Schritt entwickelten wir neue, robuste Analysemethoden für adaptive Studiendesigns mit verblindeten und unverblindeten Zwischenanalysen, die trotz datenabhängiger Anpassungen des Studiendesigns, eine valide Interpretation der Daten ermöglichen. Ein Schwerpunkt waren dabei Studien, bei denen mehrere Fragen gleichzeitig untersucht werden, wie Studien mit mehreren Behandlungsarmen oder Patientengruppen. Die Projektergebnisse erweitern die Möglichkeiten der Analyse und Evaluierung adaptiver Studien und sind für die klinische Forschung und die Zulassung neuer Therapien durch Regulierungsbehörden von großer Relevanz.
- Tim Friede, Georg-August-Universität Göttingen - Deutschland
- Werner Brannath, Universität Bremen - Deutschland
- Cyrus Mehta, Harvard University - Vereinigte Staaten von Amerika
Research Output
- 447 Zitationen
- 21 Publikationen
-
2018
Titel Flexible alpha allocation strategies for confirmatory adaptive enrichment clinical trials with a prespecified subgroup DOI 10.1002/sim.7851 Typ Journal Article Autor Sugitani T Journal Statistics in Medicine Seiten 3387-3402 -
2012
Titel Unplanned adaptations before breaking the blind DOI 10.1002/sim.5361 Typ Journal Article Autor Posch M Journal Statistics in Medicine Seiten 4146-4153 Link Publikation -
2012
Titel Weighted parametric tests defined by graphs [Internet]. Typ Journal Article Autor Klinglmueller F Journal The Comprehensive R Archive Network (CRAN). -
2011
Titel Maximum inflation of the type 1 error rate when sample size and allocation rate are adapted in a pre-planned interim look DOI 10.1002/sim.4230 Typ Journal Article Autor Graf A Journal Statistics in Medicine Seiten 1637-1647 Link Publikation -
2011
Titel Graphical approaches for multiple comparison procedures using weighted Bonferroni, Simes, or parametric tests DOI 10.1002/bimj.201000239 Typ Journal Article Autor Bretz F Journal Biometrical Journal Seiten 894-913 Link Publikation -
2011
Titel Cross-platform comparison of microarray data using order restricted inference DOI 10.1093/bioinformatics/btr066 Typ Journal Article Autor Klinglmueller F Journal Bioinformatics Seiten 953-960 Link Publikation -
2013
Titel Simultaneous confidence intervals that are compatible with closed testing in adaptive designs DOI 10.1093/biomet/ast035 Typ Journal Article Autor Magirr D Journal Biometrika Seiten 985-996 Link Publikation -
2015
Titel Optimized Response-Adaptive Clinical Trials, Sequential Treatment Allocation Based on Markov Decision Problems DOI 10.1007/978-3-658-08344-1 Typ Book Autor Ondra T Verlag Springer Nature -
2015
Titel Generalizing boundaries for triangular designs, and efficacy estimation at extended follow-ups DOI 10.1186/s13063-015-1018-1 Typ Journal Article Autor Allison A Journal Trials Seiten 522 Link Publikation -
2015
Titel Maximum type I error rate inflation from sample size reassessment when investigators are blind to treatment labels DOI 10.1002/sim.6848 Typ Journal Article Autor Zebrowska M Journal Statistics in Medicine Seiten 1972-1984 Link Publikation -
2016
Titel Sample Size Reassessment and Hypothesis Testing in Adaptive Survival Trials DOI 10.1371/journal.pone.0146465 Typ Journal Article Autor Magirr D Journal PLOS ONE Link Publikation -
2013
Titel Author's reply DOI 10.1002/bimj.201200256 Typ Journal Article Autor Bretz F Journal Biometrical Journal Seiten 266-266 Link Publikation -
2013
Titel Adaptive Budgets in Clinical Trials DOI 10.1080/19466315.2013.783504 Typ Journal Article Autor Posch M Journal Statistics in Biopharmaceutical Research Seiten 282-292 Link Publikation -
2012
Titel GMCP - an r package for a graphical approach to weighted multiple test procedures [Internet]. Typ Journal Article Autor Rohmeyer K Journal The Comprehensive R Archive Network (CRAN). -
2012
Titel False discovery rate control in two-stage designs DOI 10.1186/1471-2105-13-81 Typ Journal Article Autor Zehetmayer S Journal BMC Bioinformatics Seiten 81 Link Publikation -
2014
Titel Connections between permutation and t-tests: relevance to adaptive methods DOI 10.1002/sim.6288 Typ Journal Article Autor Proschan M Journal Statistics in Medicine Seiten 4734-4742 Link Publikation -
2014
Titel A simple and flexible graphical approach for adaptive group-sequential clinical trials DOI 10.1080/10543406.2014.972509 Typ Journal Article Autor Sugitani T Journal Journal of Biopharmaceutical Statistics Seiten 202-216 Link Publikation -
2014
Titel Adaptive clinical trial designs for European marketing authorization: a survey of scientific advice letters from the European Medicines Agency DOI 10.1186/1745-6215-15-383 Typ Journal Article Autor Elsäßer A Journal Trials Seiten 383 Link Publikation -
2014
Titel Adaptive graph-based multiple testing procedures DOI 10.1002/pst.1640 Typ Journal Article Autor Klinglmueller F Journal Pharmaceutical Statistics Seiten 345-356 Link Publikation -
2016
Titel Estimation after blinded sample size reassessment DOI 10.1177/0962280216670424 Typ Journal Article Autor Posch M Journal Statistical Methods in Medical Research Seiten 1830-1846 Link Publikation -
2015
Titel Sample size reassessment for a two-stage design controlling the false discovery rate DOI 10.1515/sagmb-2014-0025 Typ Journal Article Autor Zehetmayer S Journal Statistical Applications in Genetics and Molecular Biology Seiten 429-442 Link Publikation