拉斯维加斯赌城

图片

In Zeiten von Big Data und Künstlicher Intelligenz sehen sich Entscheidungstr?ger der Problematik immer gr??erer Datenmengen und derer korrekter Interpretation gegenüber. Diese Entwicklung ist nicht nur, aber insbesondere auch im Gesundheitsbereich mit der Einführung von Krankenhausinformationssystemen oder der Telematikinfrastruktur zu beobachten. Der Lehrstuhl für Health Care Operations/Health Information Management versucht, Data Science Methoden vor allem, aber nicht ausschlie?lich im Gesundheitsbereich einzusetzen, um die vorliegenden Daten zu analysieren und entsprechende Handlungsempfehlungen abzuleiten.

Medizinische Entscheidungen etwa bzgl. der Diagnose, Prognose oder des spezifischen Behandlungsprozesses eines Patienten unterliegen zumeist einer stochastischen Unsicherheit. So gelten z.B. Polymerase-Ketten-Reaktion (PCR) Tests zur Diagnose einer SARS-CoV-2 Infektion zwar als Goldstandard, allerdings kann es auch hier mit einer bestimmten Wahrscheinlichkeit zu Fehldiagnosen kommen. In der Praxis nutzen Mediziner deshalb neben der Vielzahl medizinischer Methoden aus ihrer Erfahrung heraus individuelle integrierte heuristische Entscheidungsprozesse zur Entscheidungsfindung. Der Lehrstuhl für Health Care Operations/Health Information Management versucht, mit entsprechenden mathematisch-statistischen Methoden wie Machine Learning Algorithmen, klassischen Prognoseverfahren oder Simulationsmodellen die Entscheidungsfindung des Arztes bzw. des Gesundheitsversorgers in verschiedenen Bereichen zu unterstützen.

Covid-19-Forschung

Unsere Forschung der letzten Jahre besch?ftigte sich im Bereich Medical Decision Making nicht nur, aber insbesondere auch mit der COVID-19-Pandemie. Bitte besuchen Sie unsere Internetseiten zur COVID-19 Forschung für einen ?berblick über die Forschungsprojekte und weitere Informationen.

Data Analytics in Disaster Medicine

Wegen der Corona-Pandemie galt in Bayern im Frühjahr 2020 drei Monate lang landesweit der Katastrophenfall. Die Ausrufung des Katastrophenfalls ist dabei, zumindest auf regionaler Ebene, nicht selten, wenn man etwa an Naturkatastrophen, Terroranschl?ge oder Massenverkehrsunf?lle denkt. Der Katastrophenfall stellt nicht nur Beh?rden vor besondere Herausforderungen, sondern insbesondere auch das Gesundheitssystem, da zumeist eine Vielzahl von Verletzten oder Erkrankten zu erwarten ist. Für sog. Massenanf?lle von Verletzten (MANV) wurde bereits eine Vielzahl von Vorsichtungsalgorithmen zur Priorisierung bzw. Triage der Behandlungsdringlichkeit entwickelt. Dabei haben die Algorithmen zumeist ihren Ursprung in der Praxis. Der Lehrstuhl für Health Care Operations/Health Information Management versucht hier eine Datenperspektive einzunehmen und bestehende Algorithmen zu evaluieren, aber auch, etwa mit Machine Learning Methoden, neue Algorithmen zu entwickeln.

Von den Biowissenschaften in die Betriebswirtschaft: Simultane Inferenzstatistik

Wird anhand eines Datensatzes simultan über mehrere Nullhypothesen entschieden, kann es zu einer Inflation des Fehlers erster Art und damit der falsch-positiven Ergebnisse kommen. Deshalb haben Statistiker und sp?ter insbesondere Mediziner in den letzten 80 Jahren eine Vielzahl von Methoden für solche multiplen Testprobleme entwickelt. Trotz hoher Relevanz finden diese Methoden in der empirischen Forschung vergleichsweise wenig Anwendung wie wir in einer Analyse hochklassiger betriebswirtschaftlicher Ver?ffentlichungen nachweisen k?nnen. Besonders der medizinische Kontext aktueller Forschungsarbeiten, die Vielzahl der Methoden und der zweistufige Auswahlprozess scheinen Hürden darzustellen. Die ersten beiden Punkte adressieren wir durch umfangreiche Simulationsstudien zur Herausarbeitung von Methodenempfehlungen für den betriebswirtschaftlichen Anwender. Bezüglich des zweistufigen Auswahlprozesses entwickeln wir zwei neue multiple Testverfahren (SiMaFlex und SteMaFlex), die in der Lage sind, den zweistufigen Entscheidungsprozess in eine einstufige Entscheidung zu überführen. Performanceanalysen zeigen, dass diese neuen Methoden bestehende Verfahren sogar dominieren. Durch einen Fokus auf diese anwendungstheoretischen Problemkreise versuchen wir, den Forschungsbereich der simultanen Inferenz von der Medizin in die wirtschaftswissenschaftliche Forschung zu übertragen und so publizierte Ergebnisse noch zuverl?ssiger zu machen.

Data Envelopment Analysis

Die Data Envelopment Analysis (DEA) ist die am h?ufigsten verwendete Methode zur Effizienzmessung von Non-Profit Organisationen. Mit ihrer Hilfe l?sst sich beispielsweise die Performance von Krankenh?usern oder Universit?ten vergleichen. Dabei k?nnen Best Practice Beispiele identifiziert und von diesen gelernt werden. Seit der Erfindung der DEA Methode hat sich eine Vielzahl von Modellen entwickelt. Welches dieser Modelle die pr?zisesten und robustesten Ergebnisse liefert ist jedoch bis heute unklar. Mit unserer Forschung versuchen wir diese Fragen zu beantworten, um eine zuverl?ssige Effizienzmessung im Gesundheitswesen zu erm?glichen. Entscheidend für dieses Benchmarking von unterschiedlichen DEA Modellen ist die Erzeugung von künstlichen Daten, mit deren Hilfe die Modellergebnisse verglichen werden k?nnen. Mittels Monte-Carlo-Simulation wird eine Vielzahl unterschiedlicher Szenarien generiert, die sich unter anderem in der tats?chlichen Effizienz der Einheiten, der Anzahl der verwendeten Inputs und der Art der vorliegenden Skalenertr?ge unterscheidet. Nach Erzeugung mehrerer Testinstanzen, welche die Robustheit der Resultate sicherstellen, wird anhand verschiedener Performance Indikatoren die Genauigkeit der DEA Modelle bestimmt.
Abseits der Identifikation der besten Modelle wurde im Bereich der Data Envelopment Analysis ein Literaturüberblick über Anwendungen der DEA Methode im Gesundheitswesen erstellt. Neben zahlreichen nützlichen deskriptiven Statistiken stellt dieser auch einen Wegweiser zu Ver?ffentlichungen mit wichtigen methodischen Erkenntnissen dar.

拉斯维加斯赌城