Close

Synchronizing Healthcare

Methodische Mängel

Alle reden von Big Data. Von der Best Practice ist die Analyse riesiger Datensätze jedoch noch ein Stück entfernt.

13. Januar 2020
Elisabeth Tschachler
SCHAFFLER VERLAG, ÖKZ: 60. JG (2019) 11
Dieser Artkel wurde 9 mal gelesen.
ClipDealer / everythingpossible

Bildinhalt: ClipDealer / everythingpossible

Bildrechte: Symbolbild

Peter Klimek hat eine einfache Definition für Big Data: „Alles, was nicht in ein Excel-File passt.“ So simpel die Erklärung, so verzwickt das Gebiet, auf dem der promovierte Physiker an der MedUni Wien und am Complexity Science Hub Vienna tätig ist: die Erforschung komplexer Systeme. Erst unlängst wurden seine neuesten in Kooperation mit Endokrinologen und Gender-Medizinern gewonnenen Erkenntnisse im Fachjournal Annals of the Rheumatic Diseases veröffentlicht1 . Anhand von mehreren Millionen Datensätzen konnten die Forscher zeigen, dass es einen Zusammenhang zwischen der Dosierung von Statinen und Osteoporose gibt.

Forschungsansätze und Studien, die auf der maschinellen Auswertung riesiger Datensätze basieren, werden nicht nur häufiger, Big Data ist auch in der Medizin zu einem regelrechten Hype geworden. 8422 Treffer erbringt das Stichwort in pubmed, der US-amerikanischen National Library of Medicine; erste diesbezügliche Arbeiten datieren aus 2003, allein in diesem Jahr sind es mehr als 2200. Die Themen reichen von den Outcome-Unterschieden der Anwendung von Laser oder Skalpell bei Prostatektomie über die Infektionsraten von MRSA bis zur Häufigkeit, mit der Brustkrebspatientinnen Beruhigungsmittel nehmen. In einem aktuellen Report sagt der Unternehmens- und Strategieberater McKinsey der Verwendung von Big Data im amerikanischen Gesundheitswesen ein Einsparungspotenzial von 300 Milliarden Dollar voraus (bei Ausgaben von derzeit insgesamt 3,65 Billionen).

Mit Daten gesäumter Holzweg

Skeptiker wie der deutsche Mathematiker Gerd Antes dämpfen die Begeisterung. „Die leichte Auswertbarkeit der riesigen Datenmengen durch künstliche Intelligenz ist eine der großen Lügen, die uns täglich beschert werden“, sagt er im Interview mit der ÖKZ (siehe Artikel "Auch plausible Aussagen können falsch sein"). Erstens gehe es um die – oft mangelnde – Qualität der Daten. Miese Datenqualität produziert in der Analyse einfach Mist. Dergleichen Limitationen sind sich Big-Data-Experten wie Peter Klimek durchaus bewusst. Grundlage der Statine-Osteoporose-Studie waren deshalb nicht Verschreibungsdaten, sondern Abgabemengen der Cholesterinsenker, und die wurden auf Patientinnen eingeschränkt, die Statine über einen längeren Zeitraum regelmäßig verschrieben bekamen und auch in der Apotheke bezogen. „Damit scheint es plausibel, dass die Arzneimittel tatsächlich genommen wurden.“

Dennoch besteht die Gefahr, aus der Zusammenschau von vielen Daten die falschen Schlüsse zu ziehen. Wie bei Beobachtungsstudien wird allzu leicht die Größe der Effekte überschätzt, störende Faktoren werden oft unzureichend beschrieben oder überhaupt nicht identifiziert und Probanden werden nicht nach dem Zufallsprinzip ausgewählt. All das führt häufig auf den mit Daten gesäumten Holzweg. Illustres Beispiel: Google Flu Trends. Allein aufgrund der Sucheingaben der Nutzer – nach Schnupfen- oder Halswehmitteln, nach Allgemeinmedizinern oder HNO-Ärzten –, abgeglichen mit realen Krankheitsdaten der US-amerikanischen Seuchenschutzbehörde der vorangegangenen Jahre, wollten die Suchmaschinenbetreiber vorhersagen können, wie sich die nächsten Grippewellen ausbreiten würden. Was anfänglich wie eine Erfolgsgeschichte klang und im Fachblatt Nature als Paradebeispiel für sinnvolle Big-Data-Nutzung veröffentlicht wurde, scheiterte 2013 spektakulär – Googles Prognosen waren weit überzogen. Der Grund lag vermutlich darin, dass Google die eigenen Algorithmen geändert hatte. Doch Details zum methodischen Ansatz sind nicht bekannt.

Hypothesen weiterverfolgen

Und genau das ist es, was etwa Gerd Antes den Big-Data-Analysten vorwirft: Es mangle an Methodik. Wohin der Weg führen müsse, sei klar, meint Peter Klimek und verweist auf die aktuelle Statine-Osteoporose-Studie. Es gehe darum, interdisziplinär an die Sache heranzugehen und Hypothesen, die von klinischen Medizinern und Grundlagenforschern aufgestellt werden, mithilfe neuer Datenanalysemethoden und Personen mit Domainwissen weiterzuverfolgen. „Das Standardwerkzeug der Statistik stammt vom Anfang des 20. Jahrhunderts und wurde für einige wenige Daten geschaffen. Bei Millionen Datensätzen brauchen wir andere Werkzeuge.“ Best-Practice-Methoden würden gerade erarbeitet. „Methodisch mache ich mir da weniger Sorgen“, sagt Klimek. Die Grenzen von Big Data würden vielmehr darin liegen, dass jene Erkrankungen mit der größten Krankheitslast auf mehreren unterschiedlichen Faktoren – Umwelteinflüssen, Genetik, Lifestyle – beruhen, für die es nur ungenügende Daten gebe, um individuelle Risiken herausfiltern zu können.

Und in Österreich sei das Problem überhaupt die Fragmentierung des Gesundheitswesens, die es schwierig bis unmöglich mache, lückenlose Krankengeschichten von Patienten zu erhalten, um zu analysieren, wie sich bestimmte Interventionen niederschlagen und daraus Erkenntnisse für Behandlungsschritte zu gewinnen.

1

Leutner M et al (2019): Diagnosis of osteoporosis in statin-treated patients is dosedependent. Annals of the Rheumatic Diseases. Published Online First: 26 September 2019. doi: 10.1136/annrheumdis-2019-215714

Schaffler Verlag

Zeitschrift
ÖKZ

Ausgabe
11/2019 (Jahrgang 60)

Verlag
Schaffler Verlag

Diese Website verwendet Cookies.
Mehr erfahrenOK