Veranstaltungen

Wir organisieren regelmäßige Vorträge und Veranstaltungen, um eine stetige wissenschaftliche Weiterbildung zu unterstützen. Diese Veranstaltungen sind öffentlich. Wir freuen uns auf Ihr Kommen.

Gerne können Sie sich auch in unseren Verteiler eintragen lassen und werden dann direkt über neue Termine informiert. Bitte übersenden Sie Ihre Anmeldung per E-Mail an unser IMBE Sekretariat ( Frau Petra Hasselberg imbe-sekretariat@uke.de ).

Seminarreihe Epidemiologie und Biostatistik

Die Seminarreihe Epidemiologie und Biostatistik ist eine fortlaufende Veranstaltung. Einmal pro Monat laden wir herausragende externe Wissenschaftler aus den Bereichen Epidemiologie und Biometrie zu uns ein.

Vortragsreihe zur Metaanalyse

Im Rahmen dieser Seminarreihe veranstaltet das Institut für Medizinische Biometrie und Epidemiologie eine Vortragsreihe zum Thema Metaanalyse.
Die folgenden Vorträge sind geplant:

11.08.2020

PD Dr. Levente Kriston
Einführung in die Metaanalyse


01.09.2020

Prof. Dr. Cordula Braun
GRADE: Die Bewertung der Vertrauenswürdigkeit des
Ergebnisses einer Metaanalyse


06.10.2020

Prof. Dr. Annika Hoyer
Metaanalyse von Diagnosestudien


28.10.2020

Dr. Christian Röver
Bayesianische Metaanalyse


12.11.2020

Prof. Dr. Ralf Bender
Durchführung von Metaanalysen und Evidenzsynthesen bei sehr wenigen Studien


01.12.2020

Dr. Gerta Rücker
Komponenten Netzwerkmetaanalyse mit einer
Anwendung auf ein nicht zusammenhängendes Netzwerk

Details zum nächsten Vortrag

Prof. Dr. Annika Hoyer

Metaanalyse von Diagnosestudien

06.10.2020
W30 Hörsaal, 16:30h

Frühere Veranstaltungen

  • Prof. Dr. Cordula Braun, Freiburg

    GRADE: Die Bewertung der Vertrauenswürdigkeit des Ergebnisses einer Metaanalyse

    01.09.2020
    W30 Hörsaal, 16:00h

    Als fundierte, strukturierte Synthesen der zu einer Fragestellung verfügbaren wissenschaftlichen Evidenz stellen die Ergebnisse von systematischen Reviews (mit und ohne Meta-Analyse) eine bedeutsame Wissensquelle für die evidenzbasierte Gesundheitsversorgung dar. Ihre Vertrauenswürdigkeit kann durch verschiedene Aspekte beeinflusst werden - und sollte daher grundsätzlich bewertet und mit dem Ergebnis kommuniziert werden. Der GRADE-Ansatz bietet ein systematisches, transparentes Vorgehen zur Bewertung der Vertrauenswürdigkeit von Evidenz und hat sich in den vergangenen Jahren international zunehmend als fester Bestandteil von systematischen Reviews und der Leitlinienentwicklung etabliert. Die Anwendung des GRADE-Ansatzes in systematischen Reviews bzw. Metaanalysen umfasst die Bewertung der Vertrauenswürdigkeit ihrer Ergebnisse anhand verschiedener Kriterien mit Ableitung eines Gesamturteils. In diesem Vortrag wird der GRADE-Ansatz und seine grundlegende Anwendung, mit Fokus auf Evidenz aus Interventionsstudien, vorgestellt.

    Für diese Veranstaltung gelten die gängigen CORONA-Regeln. Für Interessenten, die nicht persönlich anwesend sein können, wird der Vortrag per ZOOM übertragen. Die Zugangsdaten erhalten Sie von Frau Alexandra Höller


  • PD Dr. Levente Kriston, Hamburg

    Einführung in die Metaanalyse

    11.08.2020
    Campus Lehre N55 Ian-Karan-Hörsaal, 16:00h

    Metaanalysen sind im Laufe der letzten vierzig Jahre allgegenwärtiger Bestandteil der gesundheits- und verhaltenswissenschaftlichen Literatur geworden. Der Vortrag erläutert die Motivation hinter der Entwicklung von Metaanalysen, beschreibt ihre zentralen Merkmale und nimmt Stellung zu ihren Limitationen. Anschließend werden offene Fragen und aktuelle Entwicklungen adressiert, um eine Einordnung dieser Methode in das wissenschaftliche Repertoire der modernen Medizin vorzunehmen.

  • Bild Vorlesung

    Dr. Alice Nennecke, Prof. Annika Waldmann, Hamburgisches Krebsregister

    Gynäkologische Tumoren: Erste Daten aus der flächendeckenden klinischen Krebsregistrierung
    Was können die Daten des Hamburgischen Krebsregisters (HKR) aussagen? Eine Bestandsaufnahme 5 Jahre nach dem Start der klinisch-epidemiologischen Erfassung.

    11.02.2020
    Campus Lehre N55 Raum 310/311, 15:00h

    Auf Basis einer bundes- und landesrechtlichen Gesetzesgrundlage wurde die Krebsregistrierung im Jahr 2014 in Hamburg umfassend erweitert. Seitdem verarbeitet das HKR nicht nur die Daten der Wohnbevölkerung, sondern von allen in Hamburg onkologisch versorgten Personen. Auch der Umfang der registrierten Informationen wurde ausgeweitet. Während ehemals nur Angaben zur Diagnose und zum Versterben vorlagen, umfasst der Datenbestand seit 2014 auch Informationen zur Therapie und zur Krankheitsprogression. In Hamburg besteht eine elektronische Meldepflicht für alle ärztlich geleiteten Einrichtungen der onkologischen Versorgung, d.h. Kliniken, Praxen, MVZ, Pathologie-Institute.

    Jährlich erhält das HKR rund 80.000 Meldungen zur Diagnose, Behandlung und zum Verlauf von Tumorerkrankungen. Rund 16.500 Krebsneuerkrankungsfälle werden pro Jahr in Hamburg behandelt (Anteil Frauen: 46 %), rund 10.500 treten in der Wohnbevölkerung auf (Anteil Frauen: 50 %). Gynäkologische Tumoren sind für mehr als ein Drittel der hier diagnostizierten bzw. behandelten Erkrankungen bei den Frauen verantwortlich, wobei Brustkrebs mit 2.500 Fällen etwa 3- bis 4mal so häufig vorkommt wie Tumoren in/an Vulva, Vagina, Gebärmutter(hals) und den Eierstöcken

    Anhand der Daten und Auswertungen zu den gynäkologischen Tumoren sollen Möglichkeiten aber auch Schwierigkeiten bei der Interpretation der Analysen vorgestellt werden. Des Weiteren werden im Vortrag „Zugangswege“ zu den Daten aufgezeigt.


  • Bild Vorlesung

    Prof. Dr. Antes, Freiburg

    Künstliche Intelligenz und Big Data - Hope oder Hype?

    28.01.2020
    W 30 Hörsaal , 16:00h

    ! Raumänderung
    von N55 Raum 310/311 in W 30 Hörsaal

    Künstliche Intelligenz und Big Data - Hope oder Hype

    Gerd Antes

    Unter den Schlagworten Big Data, Digitalisierung, personalisierte Medizin und künstliche Intelligenz hat sich eine neue Welt entwickelt, die goldene Zeiten für unsere Gesundheitsversorgung verspricht, dafür aber die Eckpfeiler unseres wissenschaftlichen Denkens außer Kraft setzt. Das Zeitalter der Kausalität ist Vergangenheit, dank unbegrenzter Datenmengen wird Korrelation zu Kausalität. Der damit erzeugte Hype hat zu einer faszinierenden Kritiklosigkeit geführt. Die Datensintflut macht Theorie und Wissenschaft obsolet [1,2].

    Eine rationale, auf Fakten und Daten gegründete, wissenschaftliche Betrachtung des versprochenen Nutzens versus Risiken und Kosten (Fundament jeder Technikfolgenabschätzung) sucht man vergeblich. Neben den fundamentalen logischen Widersprüchen sind die damit initiierten gesellschaftlichen Auswirkungen überfällig für eine umfassende Bewertung, die jedoch nicht erfolgt. Stattdessen ist die Digitalisierung zu einer Ideologie mutiert, die als Staatsraison realisiert werden muss. Die Frage nach Zielen und Sinn wird tunlichst vermieden. Kritische Fragen zu den technisch nicht erfüllbaren, hype-getriebenen Versprechungen gehen in dieser Stimmung unter.

    Besonders sichtbar wird diese Entwicklung daran, dass klassische Qualitätsparameter nicht mehr auftauchen oder nur marginale Beachtung finden. Insbesondere die Variabilität in Daten und den Analyseergebnissen – für die Qualitätsbewertung unverzichtbar – ist weitgehend verschwunden. Ebenso eine profunde Methodenbeschreibung, wie sie in den letzten beiden Jahrzehnten im Publikationsprozess immer massiver gefordert wurde. Besondere Anforderungen werden in dieser Lage an die wissenschaftliche Methodik der Datenauswertung gestellt. Diese Arbeiten gibt es, jedoch werden sie durch die Übermacht der Versprechungen, dass die unbegrenzte Datenmenge sie überflüssig macht, kaum öffentlich sichtbar [3]. Insbesondere fundamentale mathematische Arbeiten mit dem Ergebnis, dass mehr Daten nicht mehr Wissen bedeuten, dringen nicht in die Diskussion um die Qualität von Big Data ein [4,5,6]. 2019 scheint jedoch ein Jahr der Besinnung zu sein, in dem Bias, klinische Sicherheit, die Reproduzierbarkeit von Ergebnissen und andere kritische Punkte zunehmend thematisiert wurden [7,8,9].

    Referenzen

    [1] Anderson, C. (2008). The End of Theory: The Data Deluge Makes the Scientific Method Obsolete. Wired. https://www.wired.com/2008/06/pb-theory/

    [2] Calude, C. S., Longo, G.(2017). The Deluge of Spurious Correlations in Big Data. Found Sci. 22: 595. https://doi.org/10.1007/s10699-016-9489-4

    [3] Taleb, N. (2016). A Mini-MOOC Tutorial: The Randomness of Correlation and its Hacking by Big Dataists. https://nassimtaleb.org/tag/big-data/

    [4] Meng, X.-L., Xie, X. (2017). I Got More Data, My Model is More Refined, but My Estimator is Getting Worse! Am I Just Dumb? Econometric Reviews, 33:1-4, 218-250, DOI: 10.1080/07474938.2013.808567

    [5] Meng, X.-L.(2017). Statistical paradises and paradoxes in big data (I): Law of large populations, big data paradox, and the 2016 US presidential election. Ann. Appl. Stat., Volume 12, Number 2 (2018), 685-726.

    [6] Kimmelmann, J., Tannock, I. (2018). The paradox of precision medicine. Nat Rev Clin Oncol., 341-342. doi: 10.1038/s41571-018-0016-0.

    [7] Challen, R., Denny, J., Pitt, M., Gompels, L., Edwards, T., Tsaneva-Atanasova, K. (2018).

    Artificial intelligence, bias and clinical safety.

    [8] Beam, A., Manrai, A. K., Ghassemi, M. (2019). Challenges to the Reproducibility of Machine Learning Models in Health Care. JAMA. Published online January 6, 2020. doi:10.1001/jama.2019.20866

    [9] Aschwanden. C. (2020). Artificial Intelligence Makes Bad Medicine Even Worse. Wired. https://www.wired.com/story/artificial-intelligence-makes-bad-medicine-even-worse/


  • 26. November 2019, 14 bis 15 Uhr
    Seminarraum 1. OG, Gebäude N61 UKE

    Fallzahl-Rekalkulation in Studien mit adaptivem Design
    – was tun im Angesicht der Flexibilität?

    Prof. Dr. Meinhard Kieser
    Institut für Medizinische Biometrie und Informatik
    Universität Heidelberg

    Die Fallzahl spielt eine wesentliche Rolle für klinische Studien, weil sie über die Chance, das Studienziel zu erreichen, und über den mit der Durchführung verbundenen Aufwand entscheidet. Deshalb sollte die Fallzahl weder zu niedrig noch zu hoch angesetzt sein. Naturgemäß liegen zum Zeitpunkt der Planung der Studie nur sehr eingeschränkt Kenntnisse über Parameter, die den notwendigen Stichprobenumfang determinieren, vor. Beispielsweise besteht üblicherweise eine erhebliche Unsicherheit bezüglich des zu erwartenden Therapieeffekts – ansonsten müsste man die Studie ja gar nicht mehr durchführen. Eine wesentliche Triebfeder für die Entwicklung adaptiver Studiendesigns war der Wunsch, mögliche Fehlspezifikationen, die aufgrund von Unsicherheiten in der Planungsphase vorgenommen werden, im Studienverlauf auf der Basis neu verfügbarer Informationen korrigieren zu können. Hierzu wurden zahlreiche methodische Ansätze entwickelt, deren Anwendung es ermöglicht, in adaptiven Studiendesigns die initial festgelegte Fallzahl im Studienverlauf unter Einhaltung des spezifizierten Signifikanzniveaus nach beliebigen Regeln zu modifizieren. Angesichts dieser enormen Flexibilität stellt sich die Frage, welche Strategien zur Bestimmung des finalen Stichprobenumfangs für die Anwendung empfehlenswert sind. Im Vortrag werden verschiedene Methoden zur Fallzahl-Rekalkulation in adaptiven Studiendesigns vorgestellt, die Prinzipien, denen sie folgen, beleuchtet, und deren Eigenschaften dargestellt.

    Referenzen

    Bauer, P., Bretz, F., Dragalin, V., König, F., Wassmer, G. (2016). Twenty‐five years of confirmatory adaptive designs: opportunities and pitfalls. Statistics in Medicine 35:325–347.

    Cui, L., Hung, H.M., Wang, S.J. (1999). Modification of sample size in group sequential clinical trials. Biometrics 55:853–857.

    Lehmacher, W., Wassmer, G. (1999). Adaptive sample size calculations in group sequential trials. Biometrics 55:1286–1290.

    Pilz, M., Kunzmann, K., Herrmann, C., Rauch, G., Kieser, M. (2019). A variational approach to optimal two-stage designs. Statistics in Medicine 38:4159–4171.

  • Prof. Dr. med. André Karch, Münster

    Mathematische Modelle als methodisches Tool der
    Bevölkerungsmedizin –

    Einfluss des demografischen Wandels auf den Effekt der Impfprogramme gegen Varizellen und Herpes Zoster in Deutschland

    Epidemiologische Studien deuten darauf hin, dass eine reduzierte Exposition gegenüber Varizellen zu einem erhöhten Risiko für Herpes Zoster (HZ) führen kann. Die Reduktion der Exposition gegenüber Varizellen ist eine Folge der Varizellenimpfung aber auch des demografischen Wandels. Wir haben analysiert, wie sich die Kombination von Impfprogrammen und demographischer Dynamik auf die Epidemiologie von Varizellen und HZ in Deutschland in den nächsten 50 Jahren auswirken wird und inwiefern veränderte demographische Annahmen den Effekt der Impfprogramme modifizieren können.

    Hierzu verwendeten wir ein deterministisches dynamisches Kompartimentmodell, um die Auswirkungen verschiedener Varizellen- und HZ-Impfstrategien auf die Varizellen- und HZ-Epidemiologie in drei demographischen Szenarien zu bewerten, nämlich in der prognostizierten Population für Deutschland bis 2060, in der prognostizierten Population für Deutschland unter Berücksichtigung einer erhöhten Einwanderung, wie in den Jahren 2015/2016 beobachtet, und in einer stationären Population, die annimmt, dass die aktuelle Bevölkerungsstruktur sich nicht über die Zeit verändert.

    Anhand des beschriebenen Beispiels werden Stärken und Limitationen dynamischer mathematischer Modelle als Werkzeug der Bevölkerungsmedizin diskutiert sowie ihre Rolle bei der Entstehung von Impfempfehlungen in verschiedenen europäischen Ländern näher beleuchtet.

    Prof. Dr. med. André Karch

  • 03.04.2019 15:00 h
    Campus Lehre N55, Seminarraum 210 / 211

    Do we believe that our mind causes cancer?

    Professor Dr. Christoffer Johansen, Copenhagen

    For centuries it has been discussed if psychological factors may cause cancer. In the population and also in the clinical world this is quite often assumed to be the case. Our personality, stress in everyday life or work related stress and depression or negative thoughts have all been pointed at as causing cancer. The evidence for this hy-pothesis is based on a number of studies and this presentation illustrates how the design of these epidemiologi-cal studies may be the main cause for associations, pointing to the need for more strict scientific criteria for cau-sation or inference.


  • 12.03.2019 11:30 h
    Campus Lehre N55, Seminarraum 310 / 311

    Methoden zur Meta-Analyse kompletter ROC-Kurven
    Eine statistische Herausforderung

    Dr. rer. nat. Annika Hoyer
    Deutsches Diabetes Zentrum (DDZ) Heinrich-Heine-Universität Düsseldorf

    Während Verfahren zur Meta-Analyse, also zur gewichteten Zusammenfassung der Ergebnisse mehrerer Studien, im Rahmen von Interventionsstudien mittlerweile weit verbreitet sind, besteht weiterhin ein Bedarf an innovativen statistischen Methoden zur Meta-Analyse diagnostischer Studien. Dies lässt sich auf die komplexe Datengrundlage mit einer mindestens bivariaten Zielgröße, bestehend aus Sensitivität und Spezifität, zurückführen. Hierbei bezeichnen Sensitivität und Spezifität die bedingten Wahrscheinlichkeiten eines positiven bzw. negativen Testergebnisses in der Population der Erkrankten bzw. der Gesunden.
    Eine besondere Herausforderung entsteht, wenn Einzelstudien nicht nur ein Paar von Sensitivität und Spezifität berichten, sondern komplette Receiver Operating Characteristic (ROC) Kurven, bei denen Sensitivität und Spezifität an mehreren verschiedenen diagnostischen Schwellenwerten ausgewertet werden. Eine Möglichkeit, mit dieser Datengrundlage geeignet umzugehen, besteht in der Adaption statistischer Verfahren aus der Überlebenszeitanalyse, wie in der Anwendung bivariater time-to-event-Modelle für intervall-zensierte Daten.
    Im Vortrag werden neu entwickelte, innovative Verfahren für die komplexe Situation der Meta-Analyse von kompletten ROC-Kurven vorgestellt und diskutiert.

  • 27.11.2018 11:00 h
    Campus Lehre N55, Seminarraum 310 / 311

    Fallzahlanpassungsstrategien in klinischen Studien

    Prof. Dr. Tim Friede
    Institut für Medizinische Statistik , Göttingen

    Die Fallzahlplanung gehört zu den wesentlichen Aspekten eines Studiendesigns. Allerdings werden hierbei einige Annahmen gemacht, die erst im Verlauf der Studie überprüft werden können. Unter Umständen wird dann eine Anpassung der Fallzahl notwendig. Im Vortrag geben wir zunächst einen Überblick über verschiedene Fallzahlanpassungsstrategien. Motiviert durch klinische Studien aus der kardiovaskulären Forschung und der Multiplen Sklerose gehen wir dann näher auf Fallzahlanpassungen in Studien mit Ereigniszeiten oder rekurrierenden Ereignissen als Endpunkte ein.


  • 09.10.2018 14:00h
    Campus FORSCHUNG N27 Raum 14

    Prenatal Exposure to Air Pollution and Adverse Birth Outcomes


    Amy Padula, PhD, MSc, University of California, San Francisco

    Abstract:

    Air pollution is known to cause a wide array of health effects including cardiovascular and respiratory disease. However, the relationship between air pollution and birth outcomes is less well-established. My research investigates traffic-related air pollution exposure and adverse birth outcomes in the San Joaquin Valley of California, which has some of the highest air pollution in the U.S. and approximately 60,000 births per year. We examined prenatal exposures to carbon monoxide, nitrogen dioxide, nitrogen oxide, ozone, particulate matter, polycyclic aromatic hydrocarbons, and traffic density based on geocoded maternal residence. The birth outcomes under study include preterm birth, term low birth weight, neural tube defects, cleft lip and/or cleft palate, gastroschisis, 27 congenital heart defects and 26 additional birth defect phenotypes. We found air pollution exposures during pregnancy significantly increases the risk of preterm birth and neural tube defects. These effects are more pronounced for subjects living in poor neighborhoods. In addition, I investigated gene-environment interactions between air pollution exposures and gene variants in biotransformation enzyme pathways and risk of spina bifida. The results indicate that the combination of several gene variants in metabolic enzymes with high levels of air pollution increase a woman’s risk of having a fetus with spina bifida. These results suggest that based on their genetic background some individuals may be more susceptible to the adverse effects of pollution.


  • 20.09.2018 10:00h
    Campus Lehre N55, Seminarraum 210 / 211

    Control of the „population-wise error rate“
    in clinical trials with multiple populations


    Prof. Dr. Werner Brannath
    Kompetenzzentrum für Klinische Studien, Bremen

    Werner Brannath*1, Kornelius Rohmeyer1 und Charlie Hillner1 1

    Kompetenzzentrum für Klinische Studien Bremen (KKSB) und Institut für Statistik (IfS),
    FB 03 Mathematik/Informatik, Universität Bremer, Linzer Str. 4, 28359 Bremen

    In confirmatory clinical trials in which several populations are investigated simultaneously, control of the multiple type I error rate is usually considered necessary. However, if a treatment or a treatment strategy is tested in several disjoint populations, each population is effected by only a single hypothesis test. Hence, multiple testing adjustments appear unnecessarily conservative in this case. This observation leads us to define a new and more liberal concept of multiple type error control that accounts for the actual risk of the individual populations by any of the trials false rejections. The new concept should lead to an almost unadjusted testing when the population overlaps are small. To this end we suggest to control the risk for a randomly chosen, future patient to belong to a population that is exposed to an inefficient treatment by the trials final test decisions. We call this the ``population-wise’’ error rate. We will introduce single stage and sequential two-stage multiple test procedures with control of the ``population-wise’’ error rate and will investigate their utility in comparison to more traditional approaches by examples and simulations.

  • 28.06.2018 14:00h
    Campus Lehre N55, Seminarraum 310 / 311

    Parametrische Überlebenszeitmodelle oder
    "Wer braucht eigentlich noch das Cox-Modell"?


    Prof. Dr. Oliver Kuß
    Deutsches Diabetes-Zentrum (DDZ), Heinrich-Heine-Universität, Düsseldorf

    Regressionsmodelle für stetige, binäre, ordinale und nominale Zielgrößen werden in Biostatistik und Epidemiologie ohne wesentliche Bedenken und zurecht mit parametrischen Annahmen berechnet. Es ist bemerkenswert, dass dieses Prinzip nicht auch für Regressionsmodelle für Überlebenszeiten gilt, wo nahezu ausschließlich ein semiparametrisches Modell, das Proportional Hazard- oder Cox-Modell, verwendet wird. Dies ist umso erstaunlicher, da die Liste der Nachteile (Erschwerte Kommunizierbarkeit des Hazard Ratios, impliziter Selektionsbias sogar in randomisierten Studien, Non-Collapsibility, Interpretation auf einer Wahrscheinlichkeits- und nicht auf der eigentlich interessierenden Zeitskala) des Cox-Modells lang ist. Gänzlich mysteriös wird die Angelegenheit dadurch, dass es parametrische Überlebenszeitmodelle sogar schon vor dem Cox-Modell gab, diese nicht schwerer zu verstehen oder zu berechnen sind und, vor allem, die genannten Nachteile nicht haben.

    Im Vortrag werden die Nachteile des Cox-Modells und die Vorteile der parametrischen Überlebenszeitmodelle gegenübergestellt und diskutiert.

Archiv