zurück zum Artikel

Elektronische Patientenakte: "Für Datensicherheit bleibt kaum Zeit"

Marie-Claire Koch
Menschlicher Körper

(Bild: metamorworks/Shutterstock.com)

2025 soll es für alle gesetzlich Versicherten eine elektronische Patientenakte geben. Warum für Sicherheit kaum Zeit bleibt, erklärt Bianca Kastl im Interview.

Bald sollen Patientendaten unter anderem zu Forschungszwecken, aber beispielsweise auch der öffentlichen Gesundheit zur Verfügung stehen, zunächst innerhalb der EU in einem Europäischen Gesundheitsdatenraum (EHDS), perspektivisch weltweit. Dass die Daten dafür automatisch aus den elektronischen Patientenakten (ePA) der gesetzlich Versicherten fließen sollen, sorgt für heftige Kritik und ist nicht nur bei Datenschützern umstritten. Dabei war die ePA eigentlich für eine bessere Versorgung der Versicherten gedacht und nicht, um die Weitergabe der Daten gesetzlich zu manifestieren. Über die Pläne zur ePA und dem Gesundheitsdatenraum haben wir mit Bianca Kastl gesprochen, die beruflich digitale Infrastrukturen im öffentlichen Gesundheitswesen betreut.

Bianca Kastl
Ansichten zur elektronischen Patientenakte und Gesundheitsdaten

heise online hat mit Experten über den Fortschritt der Digitalisierung im Gesundheitswesen gesprochen.

heise online: Wie wäre es möglich, Daten für die Forschung zu verwenden?

Bianca Kastl: Forschung auf großen zentralen Datenbergen ist ein sehr analoges Konzept von Wissensgenerierung. Motto: Erst mal alle Akten durchforsten. Viele denken immer, wir müssen alle Daten im Zugriff haben, damit wir Wissen generieren können. Wir sind da technisch gesehen eigentlich schon viel weiter. An der Datenspende-App in der Corona-Pandemie oder der Corona-Warn-App [3] haben wir das beispielsweise gesehen. Die Menschen konnten die Daten bei sich behalten und auf der Basis war es möglich, die Fragen zu den Daten zu bringen beziehungsweise anonyme Auswertungen zu erstellen.

Im Kontext EHDS und Forschungsdatenzentrum machen wir genau das Gegenteil. Wir schieben die Daten von den Leistungserbringern oder Patientinnen irgendwo zentral hin, um sie dort zu verarbeiten. Die Erkenntnisse lassen sich aber auch sehr viel näher bei den Menschen generieren. Das wäre eine Option, bei der Wissen und Informationen ausgetauscht werden können, ohne Vertraulichkeit zu gefährden.

Ziel ist es auch, zunächst die Daten zu sammeln und dann explorativ zu forschen. Wie sinnhaft ist das?

Wir haben immer eine selektive Forschungsfrage, die wir beantworten wollen, auch im Bereich explorativer Forschung. Dabei suchen wir zum Beispiel Zusammenhänge aufgrund von Alter, mit weiteren Krankheiten, aber auch in Zusammenhang mit anderen Medikamenten. Das heißt, wir führen tatsächlich immer eine Auswahl durch: Welchen Aspekt wollen wir eigentlich genauer betrachten?

Das Vorgehen geht aktuell aber in folgende Richtung: Es soll ein möglichst vollständiger digitaler Zwilling [4], also eine möglichst genaue digitale Kopie eines Menschen erstellt werden, um dann diesen digitalen Körper remote erforschen zu können. Mit dieser zentralen Datenhaltung an einer anderen Stelle werden wir aber immer veraltete und eigentlich nicht gut verknüpfte Daten erreichen, weil Patientinnen wesentlich mehr Daten in ihrem normalen Umfeld erzeugen, etwa mit Wearables oder anderen Apps.

Führt man das am besten mit zentralen Datenspeichern durch oder bei den Patienten auf dem Gerät?

Man kann jetzt eine konsequente Vorstellung vertreten und sagen, das machen wir möglichst dezentral, individuell bei den Menschen und es kommen auch keine Daten zu anderen Leuten. Das ist natürlich aber auch nicht unbedingt niederschwellig, weil es eine entsprechende grundlegende Digitalkompetenz und Technik voraussetzt. Im Prinzip geht es aber auch darum, dass man dabei eine Art von persönlichem digitalen Gesundheitsassistenten hat, der auch intelligent genug ist, einerseits die Datensouveränität zu erhalten, andererseits auch Forschungsfragen beantworten zu können. Das kann auf den Smartphones der Menschen sein, die entsprechend gut ausgestattet sind und auch das technische Know-how haben.

Aber es kann auch sein, dass ich für meine Angehörigen solche Dinge verwalte, oder ich meiner vertrauenswürdigen Ärztin die Verarbeitung dieser Daten übergebe oder ich diese Aufgaben einem neutralen Dienstleister übergebe. Krankenkassen und alle, die irgendwie mit Kostenträgerschaft im Gesundheitswesen zu tun haben, sind da grundsätzlich die schlechtesten Stellen dafür, weil die eben Interessenkonflikte haben.

Da gibt es auch Vorschläge von Ärzten, dass diese die Rechte für die Verwaltung der Daten erhalten sollen. Ist das dann noch eine ePA für Patienten?

Kastl: Nein, das ist keine ePA für Patienten mehr. Gesundheit funktioniert dann am besten, wenn sie nicht verwaltet wird, sondern wenn ich mich selbst um sie kümmere. Das heißt natürlich auch, dass ich bestimmte Dinge selbstbestimmt entscheiden können muss. Ich kann nicht sagen, dass jemand meine Gesundheit managt, an Gesundheit bin ich hoffentlich meistens selbst interessiert. Der Vorschlag, dass andere die Daten verwalten, erscheint sehr entmündigend. Wer sollte das wollen? Wenn es um meine eigene Gesundheit geht, dann würde ich mich doch auch selbst darum kümmern.

Natürlich gibt es Szenarien, bei denen man sagen kann: "Okay, da müssen Menschen gesundheitlich betreut und von anderen gepflegt werden". Aber auch die Art, wie die Willensbekundung in Pflegeszenarien geschehen soll, kann ähnlich wie bei einer Patientenverfügung selbstbestimmt erfolgen. Ein System, dass diese Selbstbestimmung von vornherein wegnehmen würde, wäre sehr entmündigend. Das würde suggerieren, dass Menschen sich nicht um ihre eigene Gesundheit kümmern können.

Es ist auch geplant, dass wenn die Daten erst einmal in der ePA sind, dass man dann extra widersprechen muss, damit sie eben nicht weitergegeben werden dürfen. Wie schätzen Sie die Umsetzung in der Realität ein?

Sobald wir in Opt-out-Szenarien gehen, gibt es auch eine sehr starke Macht-Asymmetrie. Zum Vergleich: In einem Opt-in-Szenario habe ich als Anbieter Interesse daran, mein System und seine Vorteile möglichst gut darzustellen und damit Vertrauen zu gewinnen. Ich muss mich positiv darum bemühen, dass die Leute meine Leistungen nutzen. Im Opt-Out-Szenario ist es allerdings so, dass das System gewinnt, wenn es die Widerspruchsmöglichkeiten möglichst wenig thematisiert.

Es wirkt so, als würde es in Opt-out-Systemen darum gehen, möglichst viele Daten abzugreifen und alles, was Mitwirkung erfordert, wirkt störend und das bei einem System, in dem wir uns eigentlich um Menschen und deren individuelle Bedürfnisse kümmern wollen.

Für die Anmeldung bei der ePA soll es Versicherten künftig möglich sein, das Sicherheitsniveau herabzustufen. Grund ist, dass viele Smartphones bisher nicht über ein entsprechendes Hardware-Sicherheitsmodul verfügen. Wie sinnhaft ist es, zum jetzigen Zeitpunkt mit einem niedrigeren Sicherheitsniveau zu planen?

Wir versuchen dann nicht mehr das höchstmögliche Sicherheitsniveau zu erreichen. Begründet wird das im Prinzip damit, dass das zugunsten der Steigerung der NutzerInnenfreundlichkeit passieren müsse. Die Anwendungen wie die ePA oder das eRezept seien dann einfacher zu nutzen. An der Stelle wird aber Nutzerfreundlichkeit aber mit niedriger Sicherheit verwechselt, weil man einen weniger sicheren Zentralschlüssel anlegt.

Eigentlich müsste man fragen: "Was brauche ich überhaupt in meinem Gesundheitsalltag? Wie genau brauche ich meine Rezepte? Was brauche ich wie häufig?" Meine gesamte Patientengeschichte brauche ich beispielsweise äußert selten. Eine nutzerzentrierte Betrachtung des Sicherheitsniveaus ginge dahin, dass wir uns die häufig genutzten Funktionen herausnehmen und diese mit einer etwas einfacheren Anmeldung, aber auch zusätzlich am Nutzungsverhalten ausgerichteten Absicherung auszustatten.

Wir versuchen diesen Gesamtschutzbedarf etwas herunterzubrechen, indem wir sagen: "Es ist vollkommen okay, dass ich, wenn ich auf meinem Smartphone meine Rezepte benutzen will, da nur meine biometrischen Merkmale und die Bindung an das Gerät benötige. Wenn ich jetzt aber meine gesamten Daten benötige, dann sollte ich mich sauber authentifizieren". Man generiert so quasi spezielle Schlüssel für einzelne Funktionen.

Also, dass es bei schützenswerteren Daten dann ein höheres Niveau gibt?

Per Definition sind Gesundheitsdaten schon sehr stark schützenswert und das ist gut so, aber kann man das Prinzip auch etwas mit Vertrauensbeziehungen veranschaulichen. Wesentlicher persönlicher Vertrauensanker wäre für PatientInnen zum Beispiel immer die individuelle HausärztIn. Ich vertraue meiner Hausärztin dann zum Beispiel die Möglichkeit an, meine individuellen Daten bei Facharztterminen weiterzugeben, aber eben nur dieser einer Hausärztin, nicht dem gesamten Gesundheitswesen.

Mit persönlichen Vertrauensbeziehungen ließe sich aber sicherheitstechnisch einiges vereinfachen in der Nutzung, weil wir den individuellen, natürlichen persönlichen Kontext der Interaktionen mit in die Sicherheitsbetrachtung einbeziehen können. Wenn ich jetzt eine neue Interaktion ausführen will, mit neuen AkteurInnen interagiere oder auf im Behandlungsalltag ungewöhnlich viele Daten zugreifen will, brauche ich dann eben noch eine zusätzliche Bestätigung.

Die Gematik spricht davon, dass es auch in der geplanten ePA ein feingranulares Berechtigungsmanagement geben soll.

Bei allem, was mit der Opt–out-ePA und ähnlichem passieren soll, kennen wir bisher lediglich die Grobkonzepte. Wir kennen die Konzepte aus dem Forschungsdatenzentrum, aber mit dem Umbau auf die Opt-out-ePA wird da technisch sehr viel gedreht werden müssen. Da sollten wir dann die genauen Spezifikationen abwarten.

Das Bemerkenswerte ist natürlich, wenn das mit den Gesundheitsdigitalisierungsgesetzen in Kraft tritt, gibt es eigentlich keine Möglichkeit mehr, dass Sicherheitsforschende konstruktiv kritisch eingreifen können, denn die Zeit, in der das umgesetzt werden soll, ist viel zu kurz. Als kritische digitale Zivilgesellschaft und unabhängige Sicherheitsforschung wird man dadurch vor vollendete Tatsachen gestellt – wie etwa auch der Bundesdatenschutzbeauftragte Ulrich Kelber [5] oder das Bundesamt für Sicherheit in der Informationstechnik [6], die nach Planung im Digitalgesetz nur noch "im Benehmen" konsultiert werden.

Gibt es denn eine Möglichkeit, in der übrigen Zeit ein angemessenes Sicherheitsniveau zu gewährleisten?

Ich glaube nicht, weil die Umsetzung zu sehr politisch getrieben ist. Es geht um politische Ziele, nicht um die bestmögliche digitale Umsetzung. Die Gematik ist sehr abhängig vom BMG, was mit dem noch kommenden Gematikgesetz [7] auch gesetzlich manifestiert werden soll. Die Gematik wird dann zu 100 Prozent dem BMG unterstellt. Das führt dann aber mit einer abhängigen Gematik dazu, dass die Gematik auf irgendeine Art und Weise das technische Konzept für einen politischen Willen liefern muss. So gelangen wir in eine Situation mit gefährlicher politischer Zielsetzung, bei der politisch eher unbeliebte Themen wie Privacy und IT-Sicherheit hinten runterfallen werden. Mit sicheren und privatsphäre-freundlichen Systemen gewinnst man erst einmal politisch lange nichts, außer in dem Moment, wenn etwas schiefgeht.

Beispielsweise sollen auch die Daten in der ePA nicht mehr verschlüsselt sein, oder?

Es gibt verschiedene Arten von Verschlüsselung, was angegangen wird, ist die patientenindividuelle Verschlüsselung der Daten, um mehr Zugriffsmöglichkeiten zu liefern und letztendlich auch eine Opt-out-ePA überhaupt erst zu ermöglichen. Technisch wäre eine Verarbeitung von individuell verschlüsselten Daten dezentral mit entsprechenden Freigaben auch möglich, das passt aber nicht ins Opt-out-Konzept.

Das ist für das beim Bundesinstitut für Arzneimittel und Medizinprodukte (BfArM) angesiedelte Forschungsdatenzentrum auch geplant. Die Daten sollen dort zentral zusammenlaufen und werden auch über eine Stelle beim BfArM verwaltet. Wie schätzen Sie das ein?

Das ist ein inhärenter Interessenkonflikt. Jemand, der an Forschung Interesse hat und dem BMG unterstellt ist, will Gesundheitsforschung ermöglichen. Wir gehen dann vielleicht auch ein wenig über ethische und finanziellen Risiken hinweg, weil wir sagen, dass es für den Gesundheitsstandort Deutschland gut ist. Eigentlich würde man sich das aus PatientInnen-Sicht eher bei einer Stelle wünschen, die sich unter anderem etwas mehr mit den ethischen Belangen von PatientInnen beschäftigt. Aber nicht bei einer Stelle, die dem BMG unterstellt ist, das wiederum dafür zuständig ist, dass der Gesundheitsstandort in Deutschland aus wirtschaftlicher Sicht floriert.

Außerdem ist es aktuell so, dass es bereits ein Gerichtsverfahren der Gesellschaft für Freiheitsrechte gibt [8], bei dem eine Vertreterin des CCC – Constanze Kurz – und ein Versicherter mit einer seltenen Erkrankung klagen, weil ihre Krankenkassen die Daten an das FDZ weitergeben. Grund ist, dass die Daten nicht ausreichend sicher gesammelt werden und es bisher keinen Opt-out gibt. Anscheinend werden die Risiken billigend in Kauf genommen.

Woher kommt der Wunsch nach dem Europäischen Gesundheitsdatenraum (EHDS) und wofür ist er gut?

Primär geht es beim EHDS darum, diesen Gesundheitsdatenforschungsstandort Europa wirtschaftlich zu festigen und weniger um die individuellen Rechte der Patienten.
Der Wunsch kommt hauptsächlich aus der Richtung MedTech und aus dem Pharmabereich. Der EHDS ist ja eher im Kern die Schaffung eines gemeinsamen Datenmarkts. Inzwischen können Versicherte immerhin der Weitergabe von Sekundärdaten widersprechen, was ursprünglich gar nicht vorgesehen war. Auch die Öffnung der Anwendungszwecke von Forschung für gemeinwohlorientierte Forschung ist ein zweischneidiges Schwert des EHDS. Einerseits klingt es gut, aber es entfernt sich eigentlich von diesen europäischen Werten, denn von Selbstbestimmung und Souveränität kann da eher keine Rede sein.

Bei der ganzen Angelegenheit gibt es eine klare Zielsetzung: Wir wollen wirtschaftliche Forschung ermöglichen. Eine ganz große Gefahr besteht darin, dass die grundlegenden Opt-out-Rechte bei der elektronischen Patientenakte, also dem Anlegen einer elektronischen Akte, mit dem EHDS kassiert werden. Das ginge komplett an den Leuten vorbei und hat mit der Datenschutzgrundverordnung mit Prinzipien wie einer informierten Einwilligung nicht mehr viel zu tun. Gerade Europa rühmt sich, mit der Datenschutz-Grundverordnung ein Paradebeispiel geschaffen zu haben, wie man Rechte im digitalen Raum darstellen kann. Und genau in dem Bereich Gesundheit, mit den sensibelsten Daten, passiert das nicht.

Wäre es sinnvoller abzuwarten, bis die Verordnung über den europäischen Gesundheitsdatenraum verabschiedet wurde?

Der EHDS hat sich ohnehin sehr nach hinten verschoben. Die interessante Frage ist, welche Positionen vertritt Deutschland auf europäischer Ebene? Weil es sein könnte, dass Deutschland auf europäischer Ebene resolutere Positionen vertritt, für die man in Deutschland selbst kein Mandat findet. Also dass man bewusst und aktiv das, was man in Europa kommuniziert, nicht transparent macht. Und das gibt es auf vielen Ebenen. Es gibt es im Bereich eIDAS [9], Chatkontrolle und so weiter. Und das gibt es im Gesundheitswesen auch und es gibt auch kein BMG, das offen darüber spricht, welche Schwierigkeiten es gibt, sich europäisch zu behaupten.

Wie bewerten Sie, dass Palantir einen Auftrag für den NHS England erhalten hat?

Die Entwicklung in UK ist der unsrigen in Deutschland ein paar Jahre voraus. Dort gibt es bereits digitale Infrastrukturen in der medizinischen Forschung, die Möglichkeiten bieten, die den Zielen des GDNG oder EHDS gleichen.

Man sieht in UK aber auch, dass es mit einer sehr offenen Beschreibung von gemeinwohlorientierten Zielen dazu kommt, dass auch Akteure im Bereich Gesundheitsdaten technisch mitspielen werden, die eigentlich einen Interessenkonflikt hätten.

Sollten Hersteller mit so umfangreichen Möglichkeiten zur Vernetzung über unterschiedliche Bereiche des Lebens und engen Verbindungen zu Geheimdiensten auch noch Gesundheitsdaten verarbeiten? Ich denke eher nicht. Ein ähnliches Problem werden wir aber im Kontext der Gesundheitsdatennutzung in der EU und in Deutschland bekommen.

Dürfte auch Palantir da mitmachen?

Ja, aktuell wäre das meiner Einschätzung nach möglich. Ich habe das auch relativ deutlich in meiner Stellungnahme zum Gesundheitsdatennutzungsgesetz (GDNG) gesagt, dass die aktuelle Planung dem Gemeinwohl widerspricht. Das Entscheidende ist, dass wir keine Gemeinwohldefinition haben, die irgendwie allgemeingültig ist. Die Forschungs- und Pharmaunternehmen behaupten: "Wir handeln gemeinwohlorientiert, weil es der Gesundheit dient". Ähnliches kann Palantir oder Big Tech für sich auch behaupten – bei einer sehr abstrakten Definition von Gemeinwohl ohne Prüfung von inhärenten Interessenskonflikten. Dass es dabei um viel individuellen Gewinn auf Kosten der Allgemeinheit und Machtausübung geht, das scheint weniger relevant.

Würde es Sinn ergeben, wenn die Patienten selbst entscheiden könnten, beispielsweise über ein Drop-Down-Menü, an welche Studie oder welches Forschungsinstitut die Daten gehen?

Ein solcher Forschungsdialog auf Augenhöhe wäre wichtig. Der funktioniert eigentlich genau so. Forschende sagen: "Wir haben folgende Studien, ich suche über Kohorten Leute zusammen, etwa mit bestimmter Altersgruppe, bestimmten Vorerkrankungen et cetera." Bei medizinischen Studien benötigen wir oftmals ganz bestimmte Personen. Über eine sehr stark patientenorientierte ePA könnten Forscher die Studienteilnehmer rekrutieren. Dann könnten die Forschenden auch transparent machen, was eigentlich beforscht werden soll, was der Zweck des Ganzen ist.

Im GDNG ist das zwar angerissen, aber es geht meiner Ansicht nach nicht weit genug und ist eher umständlich. Ich muss mich aktiv darum bemühen, herauszufinden, was beforscht wird und wozu es Ergebnisse gibt, die vielleicht erst nach 2 Jahren veröffentlicht werden auf medizinischen Fachplattformen.

Eine positive digitale Umsetzung von medizinischer Forschung würde auch einen direkten Rückkanal bieten, um über Ergebnisse benachrichtigt zu werden. Aktuell geht das maximal über eine sehr komplexe Kette von Dritten wie die Vertrauensstelle beim Robert-Koch-Institut [10], dem FDZ und weitere. Das ist Forschung, die von den Menschen weg geht und diese nicht einbindet. Eine wirklich digitale gedachte Patientenakte könnte Forschungsfragen aber direkt beantworten, Anonymisierung oder Pseudonymisierung direkt an der Quelle durchführen und wäre damit sicherer, weil nur PatientIn und Forschungsvorhaben davon wissen würden, sich aber nicht kennen müssen.

Es bringt auch nichts, Daten irgendwo anonym zentral auf einen Haufen zu werfen auf Vorrat. Sowohl das Forschungsdatenzentrum als auch die Vertrauensstellen, die den Zugang zu den Daten regeln sollen, scheren sich tatsächlich wenig um schon vorhandene Infrastrukturen. Die Medizin-Informatik-Initiative tut da einiges im Bereich digitale Forschung. Die sind schon einen Schritt weiter und tauschen Informationen untereinander. Es gibt also schon einen kleinen Gesundheitsdatenraum in Deutschland [11].

Und das Forschungsdatenzentrum kommt auch.

Ja, daher ist es bemerkenswert, dass man mit dem Forschungsdatenzentrum (FDZ) und der Verbindung zur elektronischen Patientenakte (ePA) einen zentralen Punkt schafft, der sich nicht um die bestehende Infrastruktur kümmern. Stattdessen wird etwas Neues aufgebaut.

Es wird gesagt, dass die Daten alle dezentral gespeichert werden sollen und es herrscht da auch viel Unklarheit, einerseits dezentral, andererseits spricht Gesundheitsminister Karl Lauterbach von Crawlern im FDZ.

Es wirkt wie ein Taschenspielertrick. Wenn man überlegt, was mit den Abrechnungsdaten passiert, sind die erst mal dezentral bei den Krankenkassen, werden dann aber zentral zusammengefasst. Man schiebt diese Daten zusammen mit den ePA-Daten ins Forschungsdatenzentrum, verknüpft sie dort. Man setzt noch eine Pseudonymisierung darüber aber es ist relativ witzlos, wenn die Pseudonyme oder die Generierung der Pseudonyme nachher auflösbar in nur zwei zentralen Punkten liegen. Für ernsthafte Cyberkriminelle wäre das kein Thema – Vertrauenswürdige Ausführungsumgebung (VAU) hin oder her.

Wenn Lauterbach jetzt von einem Crawler spricht [12], der zum Einsatz kommen soll, muss man eine Art von zentralen Datenberg haben, den man crawlen kann. Die ganzen Ziele in so kurzer Zeit umzusetzen mit dem Opt-out-Gedanken zusammen, führt zwangweise zu schlechter Security.

Der Bundesbeauftragte für Datenschutz und Informationsfreiheit, Prof. Ulrich Kelber, hatte angekündigt, dass die Gesetze möglicherweise keinen Bestand haben werden. Wie sehen Sie das?

Ministerposten kommen und gehen, Lauterbach will sich eher kurzfristig für seine politische Errungenschaft feiern lassen: Er ist der, der die ePA endlich in die breite Nutzung gebracht hat. Man spekuliert auf die kurzfristigen politischen und finanziellen Gewinne, kein System, das für die nächsten 20 Jahre hält. Die Errungenschaften von Jens Spahn in der Digitalisierung des Gesundheitswesens versuchen wir sicherheitstechnisch ja immer noch zu heilen, siehe laufende Klage zum Forschungsdatenzentrum.

Künftig wird es ja auch bessere Methoden für Angreifer geben?

IT-Security ist ein Prozess, kein statischer Zustand. Das gesamte Thema, auch im Bereich KI und ähnlichem, bewegt sich gerade sehr. Wir haben da ganz neue Szenarien: Bei Nature etwa gibt es ein Paper, dass jemand sich über ChatGPT plausible Forschungsdaten generiert und daraus eine Studie gebaut hat [13]. Die Studie war dann natürlich ohne jeglichen Wert.

Das, was das Forschungsdatenzentrum versucht, ist die nötigsten Sicherheitsvorkehrungen zu treffen, etwa Pseudonymisierung und das Wiederherstellen eines Personenbezugs unter Strafe zu stellen, "okay, wenn du die Pseudonymisierung auflöst, dann gibt es eine Bestrafung dafür", steht zum Beispiel im Entwurf des GDNG.

Vertraulichkeit ist aber nur ein Schutzziel. Ich bin mir gar nicht so sicher, ob der kontinuierliche Austausch von ePA-Daten mit dem FDZ so stabil funktionieren kann, weil man hier sehr viele Daten von vielen Akteuren automatisch an einen zentralen Punkt übermittelt. Eigentlich auch eine Art DDoS-Angriff, wenn man es darauf anlegen würde. Noch viel schädlicher wären Szenarien, bei denen AngreiferInnen Ausgangsdaten verfälschen, um Menschen durch falsche Erkenntnisse und daraus resultierende Diagnosen und Behandlungen körperlich zu schaden.

All das wird aber auch nicht differenziert genug thematisiert, warum wir bei den Risiken durch starke Zentralisierung eine solche Forschungsdateninfrastruktur brauchen. Bei der letzten Anhörung zum Gesundheitsdatennutzungsgesetz habe ich keine differenzierte Diskussion über die technische und gesellschaftliche Ausgestaltung der Digitalisierung des Gesundheitswesens wahrnehmen können. Das ist durchaus bemerkenswert, weil zum Beispiel bei der Anhörung zum GDNG fast alle Redezeit hatten, von Leistungserbringern zu Krankenkassen, die eigentlichen PatientInnen aber nicht. Und um die sollte es eigentlich ja gehen.

(mack [14])


URL dieses Artikels:
https://www.heise.de/-9570491

Links in diesem Artikel:
[1] https://www.heise.de/hintergrund/Digital-Health-Gesundheitsdaten-gehoeren-auch-dem-Gesundheitssystem-9540075.html
[2] https://www.heise.de/hintergrund/Elektronische-Patientenakte-Was-Aerzte-wirklich-wollen-9566427.html
[3] https://www.heise.de/news/Corona-Warn-App-ab-jetzt-im-Schlafmodus-9154458.html
[4] https://www.heise.de/meinung/Kommentar-Der-digitale-Patient-ist-ein-ideales-Entfuehrungsopfer-9061633.html
[5] https://www.heise.de/news/Bundesdatenschutzbeauftragter-Kelber-Zu-unbequem-fuer-zweite-Amtszeit-9543729.html
[6] https://www.heise.de/news/Elektronische-Patientenakte-fuer-alle-kommt-2025-E-Rezept-soll-durchstarten-9289182.html
[7] https://www.heise.de/news/Bundesregierung-Unterlassene-Hilfeleistung-wenn-Krankenkassen-nicht-warnen-9544470.html
[8] https://www.heise.de/hintergrund/Missing-Link-Ausverkauf-der-Gesundheitsdaten-im-Namen-der-Forschung-8002830.html
[9] https://www.heise.de/news/ITRE-Ausschluss-verschiebt-Abstimmung-ueber-eIDAS-9542354.html
[10] https://www.heise.de/hintergrund/Woher-die-medizinischen-Forschungsdaten-kommen-7495454.html
[11] https://www.heise.de/news/Ethikratvorsitzende-Alena-Buyx-Datenschutz-wird-zu-Unrecht-gescholten-7818228.html
[12] https://www.heise.de/news/Gesundheitsdaten-Lauterbach-will-Crawler-beim-Forschungsdatenzentrum-9338574.html
[13] https://www.heise.de/news/ChatGPT-Mediziner-demonstrieren-Gefahren-erfundener-KI-Messdaten-9539835.html
[14] mailto:mack@heise.de