Die Elektronische Patientenakte (ePA) in Deutschland: Eine Multidimensionale Risikoanalyse

Herzliche Einladung: Teilen Sie eine spontane Resonanz (1–3 Sätze). Neben inhaltlichen Punkten hat hier auch die innere Reaktion Platz – Eindrücke, Gefühle, Bilder oder kleine Körper‑Notizen (kurz: was beim Lesen in Resonanz oder Dissonanz geht). Der Raum ist öffentlich und moderiert – respektvoll und klar gerahmt. Hausordnung
Sie können Kategorien auswählen – müssen aber nicht:

Ihr Beitrag wird direkt veröffentlicht (ggf. nach Moderation). Kein Scrollen nötig.

Begleitmaterial

Table of Contents

Einleitung: Das Spannungsfeld zwischen digitalem Fortschritt und informationeller Selbstbestimmung

Der Paradigmenwechsel zur „ePA für alle“: Vom Opt-in zum Opt-out

Die Digitalisierung des deutschen Gesundheitswesens hat mit der Einführung der „ePA für alle“ durch das Digital-Gesetz (DigiG) eine entscheidende Wende erfahren (Bundesministerium für Gesundheit, n.d.). Seit dem 15. Januar 2025 wird für alle gesetzlich Versicherten in Deutschland automatisch eine elektronische Patientenakte (ePA) angelegt, es sei denn, sie legen aktiv Widerspruch ein (Der Bundesbeauftragte für den Datenschutz und die Informationsfreiheit [BfDI], n.d.). Dieser Übergang von einem Opt-in-Verfahren, bei dem Versicherte die ePA explizit beantragen mussten, zu einem Opt-out-Modell markiert einen Paradigmenwechsel. Die politische Begründung für diesen Schritt liegt in der äußerst geringen Nutzungsquote des bisherigen Modells, die bei unter einem Prozent der Versicherten lag (Kassenärztliche Vereinigung Bremen, n.d.). Diese mangelnde Akzeptanz wurde auf komplexe Antragsverfahren und einen für die Bürgerinnen und Bürger nicht erkennbaren Mehrwert zurückgeführt (Verbraucherzentrale Bundesverband, 2023). Mit dem Opt-out-Verfahren verfolgt die Politik das Ziel, eine flächendeckende Verbreitung der ePA zu erzwingen und so die versprochenen Effizienzgewinne und Verbesserungen in der Gesundheitsversorgung zu realisieren (Bundesministerium für Gesundheit, n.d.).

Dieser Wandel ist jedoch mehr als eine technische Anpassung zur Steigerung der Nutzerzahlen. Er stellt eine grundlegende sozio-politische Entscheidung dar, die das Verhältnis zwischen Bürger und Staat im digitalen Raum neu definiert. Anstatt die grundlegenden Ursachen für die geringe Akzeptanz – wie mangelnde Benutzerfreundlichkeit, fehlendes Vertrauen in die Sicherheit und unklaren Nutzen (Fernarzt, n.d.) – zu beheben und ein attraktives Produkt zu schaffen, das die Bürger freiwillig nutzen wollen, wählte der Gesetzgeber einen mandatierten Ansatz. Diese Strategie zwingt ein System mit bekannten Mängeln der gesamten Bevölkerung auf. Dadurch werden individuelle Risiken, die zuvor nur einen Bruchteil der Versicherten betrafen, zu einem systemischen, nationalen Risiko für die Gesundheitsdaten von über 70 Millionen Menschen skaliert (Chaos Computer Club [CCC], 2024). Die Umstellung auf das Opt-out-Modell ist somit ein Experiment mit hohem Einsatz, bei dem die sensiblen Daten der gesamten Bevölkerung als Sicherheit für die Hoffnung dienen, dass die potenziellen Vorteile die massiv vergrößerten Risiken letztlich überwiegen werden.

Problemstellung: Jenseits der Oberfläche technischer Sicherheitsdebatten

Die öffentliche Debatte über die Risiken der ePA konzentriert sich häufig auf einzelne, isolierte technische Sicherheitslücken. Dieser Bericht vertritt die These, dass eine solche Reduktion der Komplexität des Problems unangemessen ist und zu einer gefährlichen Fehleinschätzung der tatsächlichen Bedrohungslage führt. Die Risiken der ePA müssen als ein komplexes, interdependentes System verstanden werden, das sich aus dem Zusammenspiel von technologischen Architekturentscheidungen, rechtlichen Defiziten, sozio-ethischen Implikationen und praktischen Implementierungsschwächen zusammensetzt.

Die vorliegende Analyse wird die Wechselwirkungen dieser Risikodimensionen aufzeigen. Es wird dargelegt, wie Schwachstellen in einem Bereich – beispielsweise die mangelhafte Benutzerfreundlichkeit der ePA-Apps – die Schutzmechanismen in einem anderen Bereich – wie die rechtlich garantierten, aber praktisch kaum ausübbaren Zugriffsrechte der Patientinnen und Patienten – systematisch untergraben. Ziel ist es, eine holistische Risikobewertung vorzunehmen, die über die offiziellen Sicherheitsversprechen der Gematik und des Bundesgesundheitsministeriums (BMG) hinausgeht. Hierfür werden die kritischen Einwände von zivilgesellschaftlichen Akteuren wie dem Chaos Computer Club (CCC), von Datenschutzbehörden wie dem Bundesbeauftragten für den Datenschutz und die Informationsfreiheit (BfDI) sowie von der organisierten Ärzteschaft systematisch integriert und analysiert.

Technologische und Architektonische Risiken der Telematikinfrastruktur (TI)

Analyse der Sicherheitsarchitektur: Gematik-Spezifikationen und ihre Schwachstellen

Die Gematik, die für die Entwicklung und den Betrieb der Telematikinfrastruktur (TI) verantwortliche Gesellschaft, beschreibt die Sicherheitsarchitektur der ePA als nach „höchsten und modernsten Sicherheitsstandards“ konzipiert (Gematik, n.d.). Diese Entwicklung erfolge in enger Abstimmung mit dem Bundesamt für Sicherheit in der Informationstechnik (BSI) und dem BfDI (Bundesamt für Sicherheit in der Informationstechnik [BSI], n.d.). Die Architektur der TI basiert auf einem geschlossenen Virtuellen Privaten Netzwerk (VPN), an das Arztpraxen, Krankenhäuser und Apotheken über spezielle Router, die sogenannten Konnektoren, angebunden sind. Die Authentifizierung der Akteure im System erfolgt über kryptografische Smartcards wie den elektronischen Heilberufsausweis (eHBA) für Ärztinnen und Ärzte oder die Institutionskarte (SMC-B) für die Praxen selbst (BSI, n.d.).

Die Gematik verfolgt einen transparenten Ansatz, indem sie die technischen Spezifikationen, Implementierungsleitfäden, Programmierschnittstellen (APIs) und Schemata öffentlich auf Plattformen wie GitHub und dem Gematik-Fachportal zur Verfügung stellt (Gematik, n.d.). Ein deklariertes Ziel der neueren ePA-Versionen ist die „Modernisierung der Sicherheitsarchitektur“ (Gematik, n.d.). Trotz dieser formalen und umfassenden Dokumentation weisen Kritiker auf grundlegende konzeptionelle Schwächen hin. Die Komplexität des Gesamtsystems, das aus unzähligen Komponenten verschiedener Hersteller besteht, sowie die zentrale Speicherung von Zugriffs- und Metadaten schaffen inhärente Angriffsvektoren, die nicht durch einzelne Software-Updates behoben werden können (CCC, 2024).

Die Rolle des Chaos Computer Club (CCC): Chronik und Analyse persistenter Sicherheitslücken

Der Chaos Computer Club (CCC) begleitet die Einführung der ePA seit Beginn mit intensiven Sicherheitsanalysen und scharfer Kritik. Aufgrund wiederholt aufgedeckter, gravierender Sicherheitslücken fordert der Club ein „Ende der ePA-Experimente am lebenden Bürger“ (CCC, 2024). Die Kritik des CCC ist nicht punktuell, sondern systematisch und verweist auf persistente Mängel im Design und in der Implementierung der TI (Dölger, 2025).

Ein zentraler und wiederkehrender Angriffspunkt ist der Prozess zur Ausgabe und Authentifizierung der Heilberufs- und Praxisausweise. Sicherheitsforscher des CCC demonstrierten mehrfach, wie es mit relativ geringem Aufwand möglich war, sich gültige Karten Dritter zu beschaffen und damit unberechtigten Zugriff auf Patientendaten zu erlangen (CCC, 2024). Eine weitere kritische Schwachstelle, die der CCC aufdeckte, ermöglichte es, über elektronische Ersatzbescheinigungen für Versichertenkarten in Kombination mit illegal erworbenen Praxisausweisen und weiteren Informationen einen gültigen Behandlungskontext zu simulieren. Dies hätte Angreifern theoretisch den Zugriff auf einzelne Patientenakten erlaubt (Gelbe Liste, n.d.). Obwohl die Gematik diese spezifische Lücke nach eigenen Angaben geschlossen hat, illustriert der Vorfall die grundsätzliche Fragilität des Authentifizierungskonzepts. Darüber hinaus warnt der CCC vor fundamentalen Mängeln in der Spezifikation, die es ermöglichen könnten, Zugriffstoken für die Akten beliebiger Versicherter zu generieren. Ein solcher Fehler hätte das Potenzial für einen Massenzugriff auf die Daten von über 70 Millionen Menschen (CCC, 2024). Die Kernforderungen des CCC zielen daher auf eine grundlegende Neuausrichtung des gesamten Projekts ab: eine unabhängige und belastbare Bewertung von Sicherheitsrisiken, eine transparente Kommunikation dieser Risiken gegenüber den Betroffenen und ein offener Entwicklungsprozess über den gesamten Lebenszyklus des Systems (CCC, 2024).

Authentifizierung und Zugriffskontrolle: Kritische Schwachstellen im Identitätsmanagement

Das System der Zugriffskontrolle weist erhebliche Schwachstellen auf, die die informationelle Selbstbestimmung der Patientinnen und Patienten untergraben. Der Standardzugriff einer Arztpraxis auf die ePA wird durch das bloße Stecken der elektronischen Gesundheitskarte (eGK) des Patienten im Kartenterminal ausgelöst (Kassenärztliche Bundesvereinigung, n.d.). Dies gewährt der Praxis automatisch für einen Zeitraum von 90 Tagen Zugriff auf die gesamte, nicht vom Patienten eingeschränkte ePA (Kassenärztliche Bundesvereinigung, n.d.). Diese lange Zugriffsdauer stellt ein erhebliches Risiko dar, da sie weit über den unmittelbaren Behandlungskontext hinausgeht und der Praxis auch Wochen nach dem letzten Patientenkontakt noch den Einblick in neu hinzukommende Dokumente ermöglicht.

Auch die Authentifizierung der Versicherten selbst zur Nutzung der ePA-App steht in der Kritik. Die Nutzung von Video-Ident-Verfahren wurde vom CCC als unsicher entlarvt und erfolgreich gehackt (CCC, 2024). Der BfDI bemängelte zudem wiederholt, dass die allgemeinen Authentifizierungsverfahren für die Versicherten-Frontends nicht den strengen Anforderungen der DSGVO entsprechen (Zapf, 2020). Diese Schwächen im Identitätsmanagement sowohl aufseiten der Leistungserbringer als auch der Versicherten stellen ein fundamentales Risiko für die Sicherheit der hochsensiblen Gesundheitsdaten dar.

Das Ökosystem als Risiko: Unsicherheiten in Praxisverwaltungssystemen (PVS) und der Konnektor-Infrastruktur

Die Sicherheit der ePA und der gesamten TI hängt nicht nur von der zentralen Infrastruktur der Gematik ab, sondern in entscheidendem Maße von der Sicherheit der dezentralen Endpunkte in den rund 140.000 Arzt- und Psychotherapiepraxen in Deutschland (KES, n.d.). Genau hier zeigen sich jedoch gravierende Mängel. Studien des BSI wie „SiRiPrax“ und „CyberPraxMed“ belegen, dass die IT-Sicherheit in vielen Praxen unzureichend ist. Lediglich ein Drittel der befragten Praxen gab an, die Anforderungen der gesetzlich vorgeschriebenen IT-Sicherheitsrichtlinie nach § 75b SGB V vollständig umgesetzt zu haben (TREMAR, n.d.).

Die in den Praxen eingesetzte Software selbst ist eine weitere Fehlerquelle. Praxisverwaltungssysteme (PVS) leiden laut Nutzerberichten häufig unter Fehlern, Systemabstürzen und fehlerhaften Schnittstellen, was nicht nur den Praxisablauf stört, sondern auch potenzielle Sicherheitsrisiken birgt (Gelbe Liste, n.d.). Es gibt konkrete Berichte über Sicherheitslücken in weit verbreiteter PVS-Software wie „inSuite“ (Maulbetsch, 2022). Die Konnektoren, die als sichere Gateways zur TI fungieren sollen, wurden vom CCC als überteuerte Hardware mit geplanter Obsoleszenz kritisiert. Dieses Modell schaffe ein kartellähnliches Geschäftsmodell für die Hersteller und verursache enorme Kosten für das Gesundheitswesen, ohne die Sicherheit nachhaltig zu verbessern (CCC, 2024). Das schwächste Glied in dieser Kette bestimmt die Sicherheit des Gesamtsystems, und die Evidenz deutet darauf hin, dass die Endpunkte in den Praxen ein erhebliches und oft vernachlässigtes Risiko darstellen.

Bewertung der Sicherheitsgutachten: Eine kritische Auseinandersetzung mit dem Fraunhofer SIT-Bericht

Die Gematik und das BMG stützen ihre öffentlichen Aussagen zur Sicherheit der ePA maßgeblich auf ein Gutachten des Fraunhofer-Instituts für Sichere Informationstechnologie (SIT) (Fraunhofer-Institut für Sichere Informationstechnologie SIT, n.d.). Dieses Gutachten kommt zu dem Schluss, dass das Sicherheitskonzept der „ePA für alle“ „insgesamt angemessen“ sei (Ärztezeitung, 2024). Die Methodik dieser Prüfung basierte primär auf einer Analyse der umfangreichen Spezifikationsdokumente der Gematik. Hierfür wurde eine KI-gestützte Suchmaschine („gematik-GPT“) eingesetzt, um für theoretisch entwickelte Angriffsszenarien die entsprechenden Gegenmaßnahmen in den Dokumenten zu identifizieren (Ärztezeitung, 2024).

Dieser Ansatz der reinen Dokumentenprüfung wird vom CCC scharf kritisiert. Er bezeichnet die positive Bewertung als „halluzinierte Fehldiagnose“, da eine solche Analyse keine verlässliche Aussage über die Sicherheit der tatsächlichen, komplexen Implementierung in der Praxis treffen kann (CCC, 2024). Es besteht eine fundamentale und gefährliche Diskrepanz zwischen der so attestierten „Sicherheit auf dem Papier“ und der „Sicherheit in der Praxis“, wie sie durch die realen Angriffsversuche des CCC getestet wird. Der politische Prozess stützt sich auf erstere, um die Legitimität für den flächendeckenden Rollout zu schaffen, während die Warnungen vor letzterer ignoriert werden. Dies führt zu einer Fassade der Sicherheit, die realen Angriffen nicht standhält. Eine genauere Lektüre des SIT-Berichts selbst zeigt zudem, dass auch die Fraunhofer-Forscher durchaus Verbesserungsbedarf identifiziert haben. Sie empfehlen ergänzende Maßnahmen, beispielsweise zum Schutz vor Innentätern, und Verbesserungen an den Schnittstellen zu Krankenkassen und Leistungserbringern (Ärztezeitung, 2024). Besonders kritisch bewerten sie die von der Gematik vorgesehene Reaktionszeit von bis zu 72 Stunden an Wochenenden und Feiertagen zur Behebung gemeldeter Schwachstellen. Dieses Zeitfenster sei viel zu lang und biete Kriminellen eine gezielte Angriffsgelegenheit (Arzt & Wirtschaft, n.d.). Der aktuelle Prozess der Sicherheitsvalidierung gleicht somit einem „Sicherheitstheater“, das politische Rückendeckung generiert, aber keine robuste, praxistaugliche Sicherheit schafft.

Rechtliche Risiken und datenschutzrechtliche Defizite

Die ePA im Konflikt mit der Datenschutz-Grundverordnung (DSGVO)

Die Einführung und Ausgestaltung der ePA stehen in einem Spannungsverhältnis zur europäischen Datenschutz-Grundverordnung (DSGVO). Der Bundesbeauftragte für den Datenschutz und die Informationsfreiheit (BfDI) hat in wiederholten und unmissverständlichen Stellungnahmen dargelegt, dass die ePA, wie sie im Patientendaten-Schutzgesetz (PDSG) und später im Digital-Gesetz (DigiG) konzipiert wurde, an zentralen Stellen gegen die DSGVO verstößt (Zapf, 2020).

Die Kritik entzündet sich vor allem an der Verarbeitung von Gesundheitsdaten, die gemäß Artikel 9 DSGVO als „besondere Kategorien personenbezogener Daten“ gelten und einem besonders hohen Schutzniveau unterliegen (Zapf, 2020). Der BfDI hat angekündigt, dass seine Behörde gezwungen sein könnte, aufsichtsrechtliche Maßnahmen gegen die gesetzlichen Krankenkassen zu ergreifen, sollte die ePA in der als europarechtswidrig eingestuften Form umgesetzt werden. Diese Maßnahmen könnten von formellen Warnungen bis hin zur Untersagung der Datenverarbeitung reichen (Bündnis für Datenschutz & Patientenrechte, n.d.).

Analyse der Stellungnahmen des Bundesbeauftragten für den Datenschutz (BfDI)

Die Kritik des BfDI ist fundamental und bezieht sich auf mehrere Kernaspekte der ePA-Architektur. Ein zentraler und durchgängiger Kritikpunkt ist das unzureichende Zugriffsmanagement (Bündnis für Datenschutz & Patientenrechte, n.d.). Nach Auffassung des BfDI müssen Patientinnen und Patienten die volle und tatsächliche Hoheit über ihre Daten besitzen, was die gesetzlichen Regelungen nicht ausreichend gewährleisten. Die (ehemalige) Bundesdatenschutzbeauftragte Louisa Specht-Riemenschneider forderte konkret wesentliche Verbesserungen bei den ePA-Apps, da diese keine adäquaten Funktionen zur feingranularen Steuerung des Datenzugriffs durch Ärzte bieten (Born, 2025).

Weitere Kritikpunkte betreffen die als unzureichend sicher bewerteten Authentifizierungsverfahren für die Versicherten (Zapf, 2020) sowie die Regelungen zur Freigabe von Daten für Forschungszwecke (Bündnis für Datenschutz & Patientenrechte, n.d.). Trotz dieser wiederholten und schwerwiegenden Einwände wurden die Bedenken des BfDI im Gesetzgebungsprozess weitgehend ignoriert (Bündnis für Datenschutz & Patientenrechte, n.d.). Dies deutet auf einen politischen Willen hin, die Digitalisierung des Gesundheitswesens auch auf Kosten datenschutzrechtlicher Standards voranzutreiben. Damit schafft der deutsche Gesetzgeber bewusst eine nationale Rechtsgrundlage, die in einem wahrscheinlichen Konflikt mit dem übergeordneten EU-Recht steht. Dies erzeugt eine erhebliche Rechtsunsicherheit für alle Beteiligten – Patientinnen und Patienten, Ärzte, Krankenhäuser und Krankenkassen – und birgt das Risiko, dass zentrale Bestandteile des ePA-Systems zukünftig durch Gerichte für unzulässig erklärt werden könnten.

Mangelhafte granulare Steuerung: Die Illusion der Patientensouveränität

Obwohl von offizieller Seite stets die Datenhoheit und Selbstbestimmung der Versicherten betont wird (Bundesministerium für Gesundheit, n.d.), erweist sich die tatsächliche Steuerungsmöglichkeit in der Praxis als äußerst begrenzt. Die mit der „ePA für alle“ eingeführte Rechteverwaltung ist grob granular und zwingt die Nutzer zu pauschalen Entscheidungen.

Wenn ein Versicherter den Zugriff einer bestimmten Arztpraxis auf seine ePA verhindern möchte, kann er dies nur vollständig tun. Ein differenzierter Zugriff, bei dem beispielsweise ein Facharzt nur bestimmte relevante Befunde einsehen darf, ist nicht vorgesehen (BfDI, n.d.). Ebenso können einzelne Dokumente oder Ordner nicht nur für spezifische Praxen freigegeben werden. Die einzige Alternative zur vollständigen Freigabe für alle berechtigten Leistungserbringer ist das „Verbergen“ eines Dokuments, sodass es nur noch für den Versicherten selbst sichtbar ist (Kassenärztliche Vereinigung Niedersachsen, n.d.). Auch bei den sogenannten Anwendungsfällen, wie der automatisch generierten Medikationsliste, gilt ein „Alles-oder-nichts-Prinzip“ (Völker Rechtsanwälte, n.d.). Ein Widerspruch gegen die Nutzung der Medikationsliste durch Ärzte führt zur Löschung des gesamten Anwendungsfalls in der Akte (BfDI, n.d.). Diese mangelnde Granularität höhlt die versprochene Patientensouveränität aus. Organisationen wie die Deutsche Aidshilfe kritisieren dies scharf, da es für Patientinnen und Patienten mit stigmatisierenden Erkrankungen wie HIV extrem schwierig ist, ihre sensiblen Daten wirksam zu schützen. Eine HIV-Diagnose kann an verschiedensten Stellen in der ePA auftauchen – in Befundberichten, in der Medikationsliste oder in den Abrechnungsdaten der Krankenkasse – und müsste an jeder dieser Stellen mühsam und einzeln verborgen werden (Reuter, 2024).

Das Gesundheitsdatennutzungsgesetz (GDNG): Risiken der sekundären Datennutzung

Parallel zur primären Funktion der ePA in der Patientenversorgung schafft das Gesundheitsdatennutzungsgesetz (GDNG) die rechtliche Grundlage für die sekundäre Nutzung dieser Gesundheitsdaten zu Forschungszwecken. Gemäß § 363 des Fünften Buches Sozialgesetzbuch (SGB V) werden pseudonymisierte Daten aus der ePA automatisiert an ein zentrales Forschungsdatenzentrum (FDZ) übermittelt, das beim Bundesinstitut für Arzneimittel und Medizinprodukte (BfArM) angesiedelt ist. Dieser Prozess findet statt, es sei denn, der Versicherte widerspricht aktiv, was einem Opt-out-Verfahren entspricht (PwC Legal, n.d.).

Obwohl die Daten in pseudonymisierter Form übermittelt werden, um einen direkten Rückschluss auf Individuen zu verhindern, zeigen wissenschaftliche Analysen, dass das Risiko einer Re-Identifizierung erheblich und oft unterschätzt wird (Behre, 2022). Bereits die Kombination weniger quasi-identifizierender Merkmale wie Postleitzahl, Geburtsdatum und Geschlecht kann ausreichen, um eine Person in einem großen Datensatz eindeutig zu identifizieren (Drepper & Pommerening, 2024). Eine Studie hat gezeigt, dass allein mit diesen drei Merkmalen 87 % der US-Bevölkerung eindeutig identifizierbar sind (Drepper & Pommerening, 2024). Da die ePA eine große Menge an Daten aus verschiedensten medizinischen Kontexten zusammenführt, entsteht ein extrem informationsreicher Datensatz, der das Risiko einer erfolgreichen Re-Identifizierung signifikant erhöht (Müller, 2018). Obwohl der Versuch einer Re-Identifizierung strafbar ist (Deutscher Bundestag, n.d.), bleibt das technische Risiko eines Angriffs bestehen, insbesondere im Falle eines Datenlecks beim zentralen Forschungsdatenzentrum.

Die Konferenz der unabhängigen Datenschutzaufsichtsbehörden des Bundes und der Länder (DSK) hat den Entwurf des GDNG umfassend kritisiert (PwC Legal, n.d.). Die DSK beanstandet, dass das Gesetz zentrale Datenschutzgrundsätze, die Informationspflichten gegenüber den Betroffenen sowie deren Rechte erheblich aufweicht. Zudem würden die Risiken, die mit der Verknüpfung unterschiedlicher Gesundheitsdaten einhergehen, nicht ausreichend berücksichtigt (PwC Legal, n.d.). Aus diesem Grund fordert die DSK nachdrücklich die Durchführung einer Datenschutz-Folgenabschätzung für das Gesetz. Weiterhin kritisiert sie das Fehlen wirksamer rechtlicher Schutzmechanismen für die Forschenden und die Daten, wie etwa ein strafbewehrtes Forschungsgeheimnis, ein Zeugnisverweigerungsrecht oder ein Beschlagnahmeverbot für Forschungsdaten (PwC Legal, n.d.).

Sozio-ethische und gesellschaftliche Risiken

Das Phänomen des „Function Creep“: Zweckentfremdung von Gesundheitsdaten

Ein zentrales sozio-ethisches Risiko bei der Einführung großer, zentralisierter Datensysteme ist der sogenannte „Function Creep“. Dieser Begriff beschreibt die schleichende und oft unbemerkte Ausweitung der Nutzung eines Systems oder von Daten über den ursprünglich definierten und legitimierten Zweck hinaus (Office of the Information and Privacy Commissioner of Saskatchewan, n.d.). Die ePA wurde primär mit dem Ziel der Verbesserung der individuellen Gesundheitsversorgung des einzelnen Patienten eingeführt (§ 341 SGB V) (Bundesministerium der Justiz, n.d.). Das kurz darauf verabschiedete GDNG stellt bereits den ersten, gesetzlich verankerten „Function Creep“ dar, indem es die ursprünglich für die Behandlung gesammelten Daten für einen sekundären Zweck, die Forschung, freigibt (PwC Legal, n.d.).

Es besteht das erhebliche Risiko, dass der einmal geschaffene, umfassende Datenpool Begehrlichkeiten bei weiteren Akteuren weckt. Denkbar sind zukünftige Forderungen nach einer Nutzung der Daten für Zwecke des Public-Health-Managements, der Pandemiebekämpfung, der Steuerung des Gesundheitswesens oder sogar durch Strafverfolgungsbehörden. Die Geschichte von Datensystemen, wie die der australischen Steuer-Identifikationsnummer, zeigt, dass solche Zweckausweitungen oft schrittweise und unter dem Verweis auf Effizienz oder öffentliche Sicherheit erfolgen, was zu einer sukzessiven Aushöhlung der ursprünglichen Zweckbindung führt (Koops, 2021).

Stigmatisierung und Diskriminierung: Gefahren für vulnerable Patientengruppen

Die zentrale Sammlung von Gesundheitsdaten in der ePA birgt erhebliche Risiken der Stigmatisierung und Diskriminierung, insbesondere für Menschen mit sensiblen Diagnosen wie HIV-Infektionen, psychischen Erkrankungen, Suchterkrankungen oder Schwangerschaftsabbrüchen (Born, 2024). Diskriminierung im Gesundheitswesen ist bereits heute eine belegte Realität (Reuter, 2024). Die ePA könnte dieses Problem verschärfen, wenn beispielsweise eine Zahnärztin aufgrund einer in der ePA einsehbaren HIV-Diagnose eine Behandlung ablehnt oder unter diskriminierenden Vorsichtsmaßnahmen durchführt.

Die bereits beschriebene mangelnde granulare Steuerung der Zugriffsrechte (siehe 3.3) macht es für Betroffene extrem schwierig, sich wirksam zu schützen, ohne auf die potenziellen Vorteile der ePA gänzlich verzichten zu müssen (Reuter, 2024). Ein besonderes Risiko stellt der potenzielle Zugriff durch Betriebsärztinnen und -ärzte dar. Selbst wenn hierfür eine aktive Einwilligung (Opt-in) erforderlich ist, könnten Arbeitnehmerinnen und Arbeitnehmer in einem asymmetrischen Machtverhältnis unter Druck geraten, ihre ePA freizugeben, was zu Nachteilen im Arbeitsleben führen kann (Reuter, 2024). Langfristig besteht zudem die Sorge, dass private Versicherungen (z. B. Lebens- oder Berufsunfähigkeitsversicherungen) versuchen könnten, Zugang zu ePA-Daten zu erhalten. Dies könnte zu einer präziseren Risikoselektion und damit zu höheren Tarifen oder zum Ausschluss von chronisch kranken Menschen führen, ein Phänomen, das als „statistische Benachteiligung“ bezeichnet wird (Nocun, 2018).

Aushöhlung der ärztlichen Schweigepflicht und Wandel der Arzt-Patienten-Beziehung

Die ärztliche Schweigepflicht ist das Fundament des Vertrauensverhältnisses zwischen Arzt und Patient. Die Architektur der ePA, die einen standardmäßig breiten Zugriff für alle an der Behandlung beteiligten Leistungserbringer vorsieht, durchbricht dieses traditionell bilaterale Vertrauensverhältnis. Dies könnte zu einem „Chilling Effect“ führen: Patientinnen und Patienten könnten aus Sorge vor einer unkontrollierbaren Verbreitung ihrer Daten zögern, sensible Informationen im Arztgespräch preiszugeben. Dies würde die Anamnese und Diagnosestellung erheblich erschweren.

Gleichzeitig könnten Ärztinnen und Ärzte eine Form der „defensiven Dokumentation“ praktizieren. Aus Sorge, dass subjektive Einschätzungen oder Verdachtsdiagnosen von anderen Behandlern ohne den nötigen Kontext missinterpretiert werden könnten, könnten sie dazu übergehen, nur noch gesicherte und objektivierbare Fakten zu dokumentieren (Nützel, 2021). Paradoxerweise könnte das Instrument, das die Datenverfügbarkeit verbessern soll, so zu einer Verschlechterung der Datenqualität an der Quelle führen. Dies würde nicht nur die individuelle Behandlung beeinträchtigen, sondern auch die Qualität der für die Forschung vorgesehenen Daten systematisch verzerren.

Usability als Systemrisiko: Die Folgen mangelnder Nutzerfreundlichkeit und Akzeptanz

Ein oft unterschätztes, aber fundamentales Risiko der ePA liegt in ihrer mangelhaften Benutzerfreundlichkeit (Usability). Zahlreiche Erfahrungsberichte und Bewertungen der ePA-Apps verschiedener Krankenkassen in den App-Stores zeichnen ein verheerendes Bild (Fernarzt, n.d.). Zu den häufigsten Kritikpunkten gehören extrem komplizierte, mehrstufige und fehleranfällige Registrierungs- und Authentifizierungsprozesse, die viele Nutzer zur Verzweiflung bringen (Fernarzt, n.d.). Hinzu kommen technische Instabilität, häufige App-Abstürze und eine unübersichtliche Benutzeroberfläche (Fernarzt, n.d.).

Diese mangelnde Usability ist mehr als nur ein Komfortproblem. Sie wird zu einem systemischen Sicherheitsrisiko. Wenn Versicherte aufgrund technischer Hürden ihre gesetzlich verankerten Rechte – wie den Widerspruch gegen Zugriffe oder das Verbergen von Dokumenten – nicht effektiv wahrnehmen können, wird die versprochene Patientensouveränität de facto ausgehebelt. Die schlechte Nutzerfreundlichkeit untergräbt die gesamte Sicherheitsarchitektur, die auf der aktiven Steuerung durch den Nutzer basiert. Für Menschen ohne digitale Affinität, ohne moderne Smartphones oder ohne stabilen Internetzugang entsteht zudem eine „digitale Kluft“. Sie sind von der Verwaltung ihrer eigenen Gesundheitsdaten weitgehend ausgeschlossen und auf die Hilfe von Dritten oder Ombudsstellen angewiesen, was eine weitere Hürde darstellt (Verbraucherzentrale, 2024).

Internationaler Vergleich: Lehren aus europäischen eHealth-Strategien

Die Herausforderungen und Risiken der deutschen ePA lassen sich durch einen vergleichenden Blick auf die eHealth-Strategien anderer europäischer Länder besser einordnen. Die folgende Tabelle stellt zentrale Merkmale der Systeme in Deutschland, Dänemark, Estland, Österreich und Frankreich gegenüber.

Tabelle 1: Vergleich europäischer elektronischer Gesundheitsaktensysteme

KriteriumDeutschland (ePA)Dänemark (Sundhedsjournalen)Estland (e-Health Record)Österreich (ELGA)Frankreich (DMP)
EinwilligungsmodellOpt-out (seit 2025) (Bundesministerium für Gesundheit, n.d.)De-facto Opt-out (System seit Geburt) (SBK Siemens-Betriebskrankenkasse, n.d.)De-facto Opt-out (System seit 2008) (e-Estonia, n.d.)Opt-out (Wikipedia-Autoren, 2024)Opt-out (seit 2022) (G-NIUS, 2025)
DatenspeicherungDezentral (Daten bei Leistungserbringern, Akten bei Kassen) (Nützel, 2021)Zentraler Zugriff auf dezentrale Daten (SBK, n.d.)Dezentraler Abruf über zentrales Portal (X-Road) (Invest in Estonia, n.d.)Dezentral mit zentralem Verweisregister (Wikipedia-Autoren, 2024)Zentralisiert (Cuggia & Bouzille, 2016)
PatientenkontrolleGeringe Granularität (nur kompletter Entzug des Zugriffs) (BfDI, n.d.)Zweckgebundener Zugriff (Notfall vs. Routine) (SBK, n.d.)Hohe Granularität (Patient kann Zugriffe sperren/verfolgen) (e-Estonia, n.d.)Abgestuftes Opt-out möglich (Wikipedia-Autoren, 2024)Patient kann Dokumente verbergen (G-NIUS, 2025)
SicherheitsmerkmaleTI-Infrastruktur, eHBA/SMC-B (BSI, n.d.)Nationale ID (CPR-Nummer) (SBK, n.d.)Blockchain (KSI) zur Integritätssicherung, e-ID (e-Estonia, n.d.)e-card als Schlüssel, Protokollierung (Wikipedia-Autoren, 2024)Berufsausweis (CPS) (G-NIUS, 2025)
ForschungsdatennutzungOpt-out (GDNG) (Bundesministerium der Justiz, n.d.)Anonymisierte Nutzung für Forschung (SBK, n.d.)Genom-Projekt, personalisierte Medizin (Invest in Estonia, n.d.)Gesetzliches Verwendungsverbot für Versicherungen etc. (Wikipedia-Autoren, 2024)N.A.

Dänemark und Estland: Modelle zentralisierter, bürgerzentrierter Systeme

Dänemark und Estland gelten als Vorreiter der Digitalisierung im Gesundheitswesen (AOK, n.d.). Ihr Erfolg basiert auf entscheidenden strategischen Weichenstellungen, die in Deutschland fehlen. Beide Länder haben ihre Gesundheitssysteme auf einer bereits existierenden, etablierten und von der Bevölkerung akzeptierten nationalen digitalen Identitätsinfrastruktur aufgebaut – der CPR-Nummer in Dänemark und der e-ID in Estland (SBK, n.d.). Dies löste das komplexe Problem der sicheren Authentifizierung von Bürgern und Leistungserbringern von Anfang an. Estland geht technologisch noch einen Schritt weiter, indem es auf einen dezentralen Datenabruf über die sichere Datenaustauschplattform X-Road setzt und die Integrität der Daten und Zugriffsprotokolle mittels KSI-Blockchain-Technologie sicherstellt (e-Estonia, n.d.). Entscheidend ist auch die klare rechtliche Verankerung des Dateneigentums beim Bürger, der jederzeit nachvollziehen und steuern kann, wer auf seine Daten zugegriffen hat (e-Estonia, n.d.).

Österreich (ELGA) und Frankreich (DMP): Alternative Ansätze zu Opt-out und Zugriffskontrolle

Die Systeme in Österreich und Frankreich bieten ebenfalls wichtige Vergleichspunkte. Das österreichische ELGA-System ähnelt dem deutschen Ansatz insofern, als es auf einem Opt-out-Prinzip und einer dezentralen Speicherung mit einem zentralen Verweisregister basiert (Wikipedia-Autoren, 2024). Allerdings bietet es den Bürgern ein abgestuftes Opt-out und verankert klare gesetzliche Verwendungsverbote, beispielsweise für Versicherungen oder Arbeitgeber (Wikipedia-Autoren, 2024). Zudem wurde eine zentrale Ombudsstelle zur Unterstützung der Bürger bei der Wahrnehmung ihrer Rechte eingerichtet (Öffentliches Gesundheitsportal Österreichs, n.d.). Frankreichs Weg mit dem Dossier Médical Partagé (DMP) ist besonders lehrreich, da es den gleichen Wandel wie Deutschland vollzogen hat: von einem wenig erfolgreichen Opt-in-Modell zu einem Opt-out-System, um die Nutzungsquote zu erhöhen (G-NIUS, 2025). Dies zeigt, dass Deutschland eine Strategie importiert, ohne jedoch die notwendigen Voraussetzungen für deren Gelingen, wie eine bessere klinische Integration und eine funktionierende digitale Infrastruktur, geschaffen zu haben.

Einordnung des deutschen Sonderwegs: Politische Ambition versus implementierte Realität

Im internationalen Vergleich wird deutlich, dass Deutschland bei der Digitalisierung des Gesundheitswesens Jahre hinterherhinkt und in entsprechenden Rankings regelmäßig die letzten Plätze belegt (Boston Consulting Group, 2023). Der deutsche „Sonderweg“ ist geprägt von jahrzehntelangen, schleppenden Entwicklungsprozessen, einer durch den Föderalismus bedingten Komplexität und einer übermäßigen Fokussierung auf formale Sicherheitsdebatten, die die praktische Umsetzbarkeit und die Nutzerfreundlichkeit vernachlässigen (Nützel, 2021). Der aktuelle politische Druck, diesen Rückstand aufzuholen, führt zu überhasteten legislativen Entscheidungen wie dem Wechsel zum Opt-out-Verfahren. Anstatt jedoch die grundlegenden Probleme – das Fehlen einer einheitlichen digitalen Identitätsinfrastruktur und die mangelnde Integration in die klinischen Arbeitsabläufe – zu lösen, wird lediglich das Risiko eines unfertigen und fehleranfälligen Systems auf die gesamte Bevölkerung skaliert.

Synthese und Ausblick: Ein Plädoyer für ein vertrauensbasiertes digitales Gesundheitswesen

Zusammenfassende Bewertung der Risikodimensionen

Die Analyse der elektronischen Patientenakte in Deutschland offenbart ein systemisches Risiko, das sich aus der engen Verknüpfung technologischer, rechtlicher, sozio-ethischer und praktischer Mängel ergibt. Technische Sicherheitslücken in der Infrastruktur und den Endgeräten werden durch eine Rechtslage verschärft, die im Konflikt mit europäischem Datenschutzrecht steht und den Bürgerinnen und Bürgern nur eine illusionäre Kontrolle über ihre Daten gewährt. Diese Mängel können in der Praxis aufgrund der katastrophalen Benutzerfreundlichkeit der Anwendungen nicht kompensiert werden, was wiederum erhebliche sozio-ethische Gefahren wie Diskriminierung und die Aushöhlung des Arztgeheimnisses nach sich zieht.

Das für den Erfolg eines solch sensiblen Systems unabdingbare Vertrauen der Bevölkerung (CCC, 2024) wird durch den aktuellen Ansatz systematisch untergraben. Die wiederholte Missachtung von Expertenwarnungen des CCC und des BfDI, intransparente Entwicklungsprozesse und eine Gesetzgebung, die Zwang an die Stelle von Akzeptanz und Überzeugung setzt, haben eine Vertrauenskrise geschaffen. Die „ePA für alle“ wird in ihrer jetzigen Form den selbstgesteckten Zielen einer Verbesserung der Versorgung bei gleichzeitigem Schutz der informationellen Selbstbestimmung nicht gerecht.

Empfehlungen für eine neugestaltete, risikoadaptierte ePA

Eine zukunftsfähige und vertrauenswürdige ePA erfordert eine grundlegende Neuausrichtung. Anstatt weitere Detailverbesserungen an einem im Kern fehlerhaften System vorzunehmen, sind mutige Reformen in den folgenden Bereichen notwendig:

Anstelle von einmaligen Gutachten, die eine trügerische „Sicherheit auf dem Papier“ attestieren, muss ein permanenter und transparenter Prozess von realen Penetrationstests, öffentlichen Sicherheitsaudits und Bug-Bounty-Programmen etabliert werden. Die Architektur sollte grundlegend überdacht werden, hin zu Modellen, die stärker auf Dezentralisierung und konsequente clientseitige Ende-zu-Ende-Verschlüsselung setzen, um die Risiken zentraler Datenaggregation zu minimieren.

Das Digital-Gesetz und das Gesundheitsdatennutzungsgesetz müssen dringend überarbeitet werden, um die Konformität mit der DSGVO herzustellen. Eine gesetzliche Verankerung einer echten, feingranularen Zugriffsteuerung, die es Patientinnen und Patienten ermöglicht, den Zugriff auf einzelne Dokumente für einzelne Ärzte zu steuern, ist die Mindestvoraussetzung für die Legitimität eines Opt-out-Systems. Die Aufsichtsbefugnisse von BfDI und BSI müssen gestärkt werden, idealerweise durch ein Vetorecht bei sicherheitskritischen Entscheidungen der Gematik (Mühling, 2025).

Die Benutzerfreundlichkeit und Barrierefreiheit der ePA-Anwendungen für Versicherte und der Module in den Praxisverwaltungssystemen für Leistungserbringer müssen radikal priorisiert werden. Es müssen niedrigschwellige, auch analoge Wege zur Wahrnehmung der Betroffenenrechte (z. B. über Ombudsstellen) für digital weniger affine Bürgerinnen und Bürger geschaffen und proaktiv kommuniziert werden (Verbraucherzentrale, 2024). Eine neue, ehrliche Informationskampagne ist erforderlich, die nicht nur die potenziellen Vorteile bewirbt, sondern auch die Risiken und die konkreten Widerspruchsmöglichkeiten klar und verständlich benennt, um eine informierte Entscheidung zu ermöglichen und verlorenes Vertrauen zurückzugewinnen.

Literaturverzeichnis

AOK. (n.d.). E-Health: Fortschritte in der EU. AOK-Bundesverband. Abgerufen am 4. Oktober 2025, von https://www.aok.de/pp/gg/gesundheitssystem/e-health-fortschritte-in-der-eu/

Arzt & Wirtschaft. (n.d.). Cybersicherheit in Arztpraxen. Abgerufen am 4. Oktober 2025, von https://www.arzt-wirtschaft.de/digital-health/cybersicherheit-in-arztpraxen

Arzt & Wirtschaft. (n.d.). Fraunhofer SIT-Studie: Gravierende Sicherheitslücken bei der ePA. Abgerufen am 4. Oktober 2025, von https://www.arzt-wirtschaft.de/digital-health/fraunhofer-sit-studie-gravierende-sicherheitsluecken-bei-der-epa

Ärztezeitung. (2024, 10. Oktober). Fraunhofer SIT bestätigt: ePA für alle ist sicher. https://www.aerztezeitung.de/Wirtschaft/Fraunhofer-SIT-bestaetigt-ePA-fuer-alle-ist-sicher-453474.html

Behre, K. (2022). Modellierung des Re-Identifizierungsrisikos von pseudonymisierten, personenbezogenen Gesundheitsdaten [Dissertation, Georg-August-Universität Göttingen]. https://ediss.uni-goettingen.de/bitstream/handle/11858/15828/Dissertation_Behre.pdf?sequence=1&isAllowed=y

Born, G. (2024, 28. Dezember). Elektronische Patientenakte (ePA): Vernichtende Kritik von CCC und Fachleuten. Borns IT- und Windows-Blog. https://www.borncity.com/blog/2024/12/28/elektronische-patientenakte-epa-vernichtende-kritik-von-ccc-und-fachleuten/

Born, G. (2025, 13. Juli). Bundesdatenschutzbeauftragte fordert Verbesserungen bei ePA-App. Borns IT- und Windows-Blog. https://www.borncity.com/blog/2025/07/13/bundesdatenschutzbeauftragte-fordert-verbesserungen-bei-epa-app/

Boston Consulting Group. (2023, März). Digital Health in Europa: Deutschland droht den Anschluss zu verlieren. https://web-assets.bcg.com/7d/f3/8c7722cd4309b2c121f645a1db39/bcg-digital-health-vergleich-eu-mar2023.pdf

Bundesamt für Sicherheit in der Informationstechnik. (n.d.). Telematics infrastructure — secure networking of medical care. Abgerufen am 4. Oktober 2025, von https://www.bsi.bund.de/EN/Themen/Unternehmen-und-Organisationen/Standards-und-Zertifizierung/E-Health/Telematikinfrastruktur/telematikinfrastruktur.html

Bundesministerium für Gesundheit. (n.d.). Die Vorteile der ePA. Abgerufen am 4. Oktober 2025, von https://www.bundesgesundheitsministerium.de/epa-vorteile/

Bundesministerium für Gesundheit. (n.d.). ePA für alle. Abgerufen am 4. Oktober 2025, von https://www.bundesgesundheitsministerium.de/themen/digitalisierung/elektronische-patientenakte/epa-fuer-alle.html

Bundesministerium für Gesundheit. (n.d.). Gesetz zur Beschleunigung der Digitalisierung des Gesundheitswesens (Digital-Gesetz – DigiG). Abgerufen am 4. Oktober 2025, von https://www.bundesgesundheitsministerium.de/ministerium/gesetze-und-verordnungen/guv-20-lp/digig.html

Bundesministerium der Justiz. (n.d.). Sozialgesetzbuch (SGB) Fünftes Buch (V) – § 341 Elektronische Patientenakte. Gesetze im Internet. Abgerufen am 4. Oktober 2025, von https://www.gesetze-im-internet.de/sgb_5/__341.html

Bundesministerium der Justiz. (n.d.). Sozialgesetzbuch (SGB) Fünftes Buch (V) – § 363 Verarbeitung von Daten der elektronischen Patientenakte zu Forschungszwecken; Verordnungsermächtigung. Gesetze im Internet. Abgerufen am 4. Oktober 2025, von https://www.gesetze-im-internet.de/sgb_5/__363.html

Bündnis für Datenschutz & Patientenrechte. (n.d.). Bundesdatenschutzbeauftragter schickt Warnung an Krankenkassen: elektronische Patientenakte (ePA) ist nicht DSGVO-konform! Abgerufen am 4. Oktober 2025, von https://patientenrechte-datenschutz.de/bundesdatenschutzbeauftragter-schickt-warnung-an-krankenkassen-elektronische-patientenakte-epa-ist-nicht-dsgvo-konform/

Chaos Computer Club. (2024). CCC fordert Ende der ePA-Experimente am lebenden Bürger. https://www.ccc.de/en/updates/2024/ende-der-epa-experimente

Cuggia, M., & Bouzille, G. (2016). The French personal medical record (DMP): a centralized patient-controlled record to promote patient empowerment and information sharing. Yearbook of Medical Informatics, 25(Suppl 1), S73–S77. https://doi.org/10.15265/IYS-2016-s015

Der Bundesbeauftragte für den Datenschutz und die Informationsfreiheit. (n.d.). Die elektronische Patientenakte (ePA). Abgerufen am 4. Oktober 2025, von https://www.bfdi.bund.de/DE/Buerger/Inhalte/GesundheitSoziales/eHealth/elektronischePatientenakte.html

Deutscher Bundestag. (n.d.). Innenausschuss stimmt für Gesetz zur Bekämpfung der Kinderpornografie. Abgerufen am 4. Oktober 2025, von https://www.bundestag.de/presse/hib/kurzmeldungen-1099050

Dölger, C. (2025, 9. April). CCC: Gematik nimmt EPA-Sicherheitslücken hin. Pharmazeutische Zeitung. https://www.pharmazeutische-zeitung.de/ccc-gematik-nimmt-epa-sicherheitsluecken-hin-155211/

Dölger, C. (2025, 30. September). CCC noch nicht zufrieden mit ePA-Sicherheit. Pharmazeutische Zeitung. https://www.pharmazeutische-zeitung.de/ccc-noch-nicht-zufrieden-mit-epa-sicherheit-159240/

Drepper, J., & Pommerening, K. (2024). Reidentifikationspotenzial von Gesundheitsdaten. Bundesgesundheitsblatt, Gesundheitsforschung, Gesundheitsschutz, 67(2), 164–170. https://doi.org/10.1007/s00103-023-03820-2

e-Estonia. (n.d.). e-Health Records. Abgerufen am 4. Oktober 2025, von https://e-estonia.com/solutions/e-health-2/e-health-records/

e-Estonia. (n.d.). e-Prescription. Abgerufen am 4. Oktober 2025, von https://e-estonia.com/solutions/e-health-2/e-prescription/

Fernarzt. (n.d.). Elektronische Patientenakte (ePA). Abgerufen am 4. Oktober 2025, von https://www.fernarzt.com/magazin/elektronische-patientenakte-epa/

Fraunhofer-Institut für Sichere Informationstechnologie SIT. (n.d.). Neues ePA-Sicherheitskonzept auf dem Prüfstand. Ingenieur.de. Abgerufen am 4. Oktober 2025, von https://www.ingenieur.de/technik/fachbereiche/medizin/wie-sicher-sind-unsere-gesundheitsdaten-in-der-epa-experten-klaeren-auf/

G-NIUS. (2025). Dossier Médical Partagé (DMP). Abgerufen am 4. Oktober 2025, von https://gnius.esante.gouv.fr/en/regulations/regulation-profiles/dossier-medical-partage-dmp

Gelbe Liste. (n.d.). ePA: Sicherheitslücke nach Hinweis des Chaos Computer Clubs geschlossen. Abgerufen am 4. Oktober 2025, von https://www.gelbe-liste.de/allgemeinmedizin/ccc-epa-sicherheitsluecken-geschlossen

Gelbe Liste. (n.d.). Häufige Fehler bei Praxisverwaltungssystemen. Abgerufen am 4. Oktober 2025, von https://www.gelbe-liste.de/allgemeinmedizin/haeufige-fehler-praxisverwaltungssysteme

Gematik. (n.d.). api-ePA. GitHub. Abgerufen am 4. Oktober 2025, von https://github.com/gematik/api-ePA

Gematik. (n.d.). ePA für alle. Fachportal Gematik. Abgerufen am 4. Oktober 2025, von https://fachportal.gematik.de/anwendungen/elektronische-patientenakte-fuer-alle

Invest in Estonia. (n.d.). e-Health. Abgerufen am 4. Oktober 2025, von https://investinestonia.com/business-opportunities/e-health/

Kassenärztliche Bundesvereinigung. (n.d.). Elektronische Patientenakte (ePA). Abgerufen am 4. Oktober 2025, von https://www.kbv.de/praxis/digitalisierung/anwendungen/elektronische-patientenakte

Kassenärztliche Bundesvereinigung. (n.d.). FAQ zur ePA. Abgerufen am 4. Oktober 2025, von https://www.kbv.de/praxis/digitalisierung/anwendungen/elektronische-patientenakte/faq-epa

Kassenärztliche Vereinigung Bremen. (n.d.). Elektronische Patientenakte (ePA). Abgerufen am 4. Oktober 2025, von https://www.kvhb.de/praxen/praxisthemen/elektronische-patientenakte-epa

Kassenärztliche Vereinigung Niedersachsen. (n.d.). ePA. Abgerufen am 4. Oktober 2025, von https://www.kvn.de/ePA.html

KES. (n.d.). Cybersicherheit im Gesundheitssektor: Positive Bilanz trotz wachsender Herausforderungen. Abgerufen am 4. Oktober 2025, von https://www.kes-informationssicherheit.de/artikel/cybersicherheit-im-gesundheitssektor-positive-bilanz-trotz-wachsender-herausforderungen/

Koops, B. J. (2021). The concept of function creep. Law, Innovation and Technology, 13(1), 29-56. https://doi.org/10.1080/17579961.2021.1898235

Maulbetsch, K. (2022, 18. August). Sicherheitslücke in der Praxissoftware „inSuite“. Datenschutz-Notizen. https://www.datenschutz-notizen.de/sicherheitsluecke-in-der-praxissoftware-insuite-2537167/

Mühling, B. (2025, 19. Mai). ePA-Sicherheit: Debatte um Veto-Recht für BfDI und BSI. SZ Dossier. https://www.sz-dossier.de/dossiers/digitalwende/2025-05-19-epa-sicherheit-debatte-um-veto-recht-fuer-bfdi-und-bsi

Müller, V. (2018, 18. Oktober). Wie können Mediziner Patientendaten schützen? Forschung & Lehre. https://www.forschung-und-lehre.de/forschung/wie-koennen-mediziner-patientendaten-schuetzen-1113

Nocun, K. (2018, 19. Mai). Tracking durch die Versicherung: Zu Risiken und Nebenwirkungen. Netzpolitik.org. https://netzpolitik.org/2018/tracking-durch-die-versicherung-zu-risiken-und-nebenwirkungen/

Nützel, N. (2021, 3. Januar). Elektronische Patientenakte: Durchbruch oder Flop? Deutschlandfunk. https://www.deutschlandfunk.de/elektronische-patientenakte-durchbruch-oder-flop-100.html

Office of the Information and Privacy Commissioner of Saskatchewan. (n.d.). Technology and Function Creep. Abgerufen am 4. Oktober 2025, von https://oipc.sk.ca/technology-and-function-creep-2/

Öffentliches Gesundheitsportal Österreichs. (n.d.). ELGA: Login & Teilnahme. Abgerufen am 4. Oktober 2025, von https://www.gesundheit.gv.at/gesundheitsleistungen/elga/elga-login-teilnahme.html

PwC Legal. (n.d.). Gesundheitsdatennutzungsgesetz: Ist die Forschung mit Gesundheitsdaten fortan leichter? Abgerufen am 4. Oktober 2025, von https://legal.pwc.de/de/news/fachbeitraege/gesundheitsdatennutzungsgesetz-ist-die-forschung-mit-gesundheitsdaten-fortan-leichter

Reuter, M. (2024). Elektronische Patientenakte: Deutsche Aidshilfe warnt vor Diskriminierung. Netzpolitik.org. https://netzpolitik.org/2024/elektronische-patientenakte-deutsche-aidshilfe-warnt-vor-diskriminierung/

SBK Siemens-Betriebskrankenkasse. (n.d.). Im Fokus: Dänemark und die ePA – von Geburt an alles im Griff. Abgerufen am 4. Oktober 2025, von https://www.sbk.org/presse/digitale-reisen-durch-unsere-gesundheitsversorgung/im-fokus-daenemark-und-die-epa-von-geburt-an-alles-im-griff/

TREMAR. (n.d.). IT-Sicherheit in Arztpraxen. Abgerufen am 4. Oktober 2025, von https://www.tremar.de/blog/42-it-sicherheit-praxen

Verbraucherzentrale. (2024, 25. Oktober). Elektronische Patientenakte (ePA): Digitale Patientenakte für alle kommt. https://www.verbraucherzentrale.de/wissen/gesundheit-pflege/krankenversicherung/elektronische-patientenakte-epa-digitale-patientenakte-fuer-alle-kommt-57223

Verbraucherzentrale Bundesverband. (2023, 27. September). Stellungnahme zum Referentenentwurf eines Gesetzes zur Beschleunigung der Digitalisierung des Gesundheitswesens (Digital-Gesetz – DigiG). Bundesministerium für Gesundheit. https://www.bundesgesundheitsministerium.de/fileadmin/Dateien/3_Downloads/Gesetze_und_Verordnungen/Stellungnahmen_WP20/DigiG/stellungnahme_vzbv.pdf

Völker Rechtsanwälte. (n.d.). Elektronische Patientenakte (ePA) – gemäß dem Digital-Gesetz (DigiG). Abgerufen am 4. Oktober 2025, von https://www.voelker-gruppe.com/kompetenzen/ip-it-stuttgart/beitraege/elektronische-patientenakte-epa-gemaess-dem-digital-gesetz-digig

Wikipedia-Autoren. (2024, 25. Oktober). Elektronische Gesundheitsakte (Österreich). In Wikipedia. https://de.wikipedia.org/wiki/Elektronische_Gesundheitsakte_(%C3%96sterreich)

Zapf, E. (2020, 25. August). Elektronische Patientenakte (ePA): BfDI übt Kritik. Datenschutz-Praxis. https://www.datenschutz-praxis.de/verarbeitungstaetigkeiten/elektronische-patientenakte-epa-bfdi-uebt-kritik/

Fiktives Plenum

Begleitmaterial

/topic/ Die ePA für alle
/scene/ Eine Debatte in einem Fernsehstudio über die elektronische Patientenakte.

/note/ Haftungsausschluss: Die folgende Diskussion ist ein fiktives Szenario, das von einer KI auf Basis öffentlich zugänglicher Informationen und der in Ihrem Artikel bereitgestellten Analyse erstellt wurde. Die hier auftretenden Personen und Institutionen sind stereotypisierte Rollen, die bestimmte Argumentationslinien vertreten, um die Komplexität des Themas zu veranschaulichen. Die dargestellten Meinungen sind zugespitzt und spiegeln nicht zwangsläufig die exakten Positionen realer Personen oder Organisationen wider. Dieses Plenum dient ausschließlich der Illustration und stellt keine reale Debatte dar.
/note/ Die Lichter im Fernsehstudio gehen an. Dr. Eva Neumann, die Moderatorin, blickt in die Runde.
Dr. Neumann (Moderatorin): Guten Abend und herzlich willkommen. „Die ePA für alle“ – seit Januar 2025 ist sie Realität. Ein digitaler Meilenstein, der Leben retten soll, oder der Beginn einer neuen Ära der Überwachung? Darüber debattieren wir heute. Herr Minister Dr. Richter, Sie haben das Gesetz verantwortet, das für jeden Versicherten automatisch eine ePA anlegt, der nicht widerspricht. Warum dieser tiefgreifende Schritt, dieses Opt-out-Verfahren?
Dr. Richter (der Gesundheitsminister): Weil wir eine Entscheidung treffen mussten zwischen weiterem digitalen Stillstand und mutigem Fortschritt für die Patientengesundheit. Das alte, freiwillige System ist gescheitert. Die Gründe sind vielfältig, aber das Ergebnis war eindeutig: Die ePA war in der Praxis nicht vorhanden. Das bedeutet: Im Notfall fehlten Informationen über Allergien. Bei einem Facharztwechsel mussten Röntgenbilder auf CDs umständlich transportiert werden. Das ist ineffizient, teuer und vor allem gefährlich. Das Opt-out-Verfahren stellt sicher, dass die ePA zum Standard wird. Sie wird zum digitalen Rückgrat unserer Gesundheitsversorgung. Wir schaffen damit die Grundlage für eine bessere, schnellere und sicherere Behandlung für alle. Das ist kein Zwang, sondern ein Angebot, das aus gutem Grund die Voreinstellung ist. Und jeder, der dieses Angebot nicht annehmen möchte, behält selbstverständlich das Recht, jederzeit und unkompliziert zu widersprechen.
Anna Kowalski (die Oppositionspolitikerin): Herr Minister, Sie malen das Bild eines selbstlosen Angebots, aber die Realität ist eine andere. Sie kehren das Prinzip der informationellen Selbstbestimmung um, das im Kern besagt: Ich entscheide aktiv, wem ich meine Daten gebe. Sie sagen nun: Der Staat nimmt sich die Daten von allen, es sei denn, der Einzelne wehrt sich aktiv. Das ist ein fundamentaler Unterschied. Sie tun so, als sei der einzige Grund für die geringe Akzeptanz die Komplexität gewesen. Aber haben Sie sich je gefragt, warum die Menschen so zögerlich waren? Weil das Vertrauen fehlt! Vertrauen in ein System, das von Anfang an mit Sicherheitslücken behaftet war, dessen Nutzen unklar und dessen Bedienung eine Zumutung war. Anstatt dieses Vertrauen durch ein exzellentes, sicheres und nutzerfreundliches Produkt zu gewinnen, haben Sie den Weg des geringsten Widerstandes gewählt: den Zwang durch die Hintertür. Sie skalieren ein fehleranfälliges System auf 70 Millionen Menschen hoch und hoffen das Beste. Das ist kein mutiger Fortschritt, das ist ein hochriskantes gesellschaftliches Experiment.
Ing. Weber (der Leiter der Betreibergesellschaft der Telematikinfrastruktur): Frau Kowalski, Ihre Wortwahl vom „fehleranfälligen System“ zeichnet ein Zerrbild, das ich so nicht stehen lassen kann. Die Telematikinfrastruktur, in der die ePA lebt, ist eines der am strengsten regulierten und sichersten Netzwerke in diesem Land. Wir sprechen hier von mehrstufigen Firewalls, von einer kompletten Abschottung vom offenen Internet, von kryptografischen Prozessen, die auf Militärniveau angesiedelt sind. Jede einzelne Interaktion wird durch Hardware-Sicherheitsmodule – die Heilberufsausweise und Praxiskarten – autorisiert. Die medizinischen Daten selbst sind Ende-zu-Ende verschlüsselt. Das bedeutet, selbst wenn jemand in unsere Server-Infrastruktur einbrechen würde, würde er nur verschlüsselten, unlesbaren Datenmüll vorfinden. Wir haben ein Sicherheitskonzept, das vom Bundesamt für Sicherheit in der Informationstechnik nicht nur begleitet, sondern maßgeblich mitgestaltet wurde. Die Behauptung, wir würden hier leichtfertig mit Daten umgehen, ist schlichtweg falsch und dient der Verunsicherung.
Dr. Schröder (Sprecherin eines zivilgesellschaftlichen Digitalverbands): Herr Weber, Sie beschreiben hier eine Idealwelt, die auf Ihren Spezifikationsdokumenten existiert. Ich möchte über die Realität sprechen. Sie sprechen von kryptografischen Smartcards als unumstößlichem Sicherheitsanker. Wir haben in der Vergangenheit mehrfach nachgewiesen, dass der gesamte Prozess um die Ausgabe und Verwaltung dieser Karten herum löchrig ist wie ein Schweizer Käse. Es war möglich, durch Social Engineering und das Ausnutzen bürokratischer Schwächen an gültige Heilberufsausweise zu kommen, ohne je ein Medizudium absolviert zu haben. Mit einem solchen Ausweis wird Ihr „sicheres System“ zur offenen Tür.
/same/ Sie betonen die Ende-zu-Ende-Verschlüsselung. Das ist gut und richtig. Aber Sie verschweigen, wo die eigentliche Gefahr lauert: nicht beim Datentransport, sondern an den Endpunkten. In den rund 140.000 Praxen, die mit veralteter Software, unzureichend gesicherten Netzwerken und schlecht geschultem Personal arbeiten. Was nützt die beste Verschlüsselung, wenn der Praxis-PC, auf dem die Daten entschlüsselt werden, mit Malware infiziert ist, die jeden Tastendruck und jeden Bildschirm an einen Angreifer weiterleitet?
/same/ Und Ihr stärkstes Argument, die Bestätigung durch externe Gutachter, ist bei genauerem Hinsehen Ihr schwächstes. Das Fraunhofer SIT-Gutachten, auf das Sie sich so gerne berufen, hat explizit nicht die Sicherheit der gesamten Implementierung in der Praxis getestet, sondern in erster Linie Ihre eigenen Papiere und Konzepte analysiert. Das ist ein theoretisches Gütesiegel, kein praktischer Belastungstest. Sie haben eine Blaupause für ein sicheres Auto zertifizieren lassen, aber niemand hat geprüft, ob in der Fabrik auch alle Schrauben festgezogen werden. Wir haben daran gerüttelt, und es hat bedenklich geklappert.

Prof. Ulrich Keller (ein Bundesdatenschutzbeauftragter): Frau Dr. Schröder spricht einen entscheidenden Punkt an, den ich juristisch untermauern möchte. Die Sicherheit eines Systems bemisst sich nicht nur an seiner technischen Robustheit, sondern daran, ob es die Grundrechte der Betroffenen, in diesem Fall der Patientinnen und Patienten, wirksam schützt. Und hier liegt das fundamentale, rechtliche Problem der ePA, das weit über technische Fragen hinausgeht.

/same/ Die Datenschutz-Grundverordnung, das geltende europäische Recht, fordert für die Verarbeitung von Gesundheitsdaten – das sind Daten der „besonderen Kategorie“ nach Artikel 9 – den höchsten Schutzstandard. Dazu gehört das Prinzip der Datensparsamkeit und der Zweckbindung. Die aktuelle Architektur der ePA verletzt diese Prinzipien. Das „Alles-oder-nichts-Prinzip“ beim Zugriff ist das exakte Gegenteil von Datensparsamkeit. Wenn ich zu einem Orthopäden gehe, um meinen gebrochenen Fuß behandeln zu lassen, gibt es keinerlei rechtliche Grundlage dafür, dass dieser Arzt potenziell auch Einblick in den Entlassungsbericht meiner Psychotherapie von vor fünf Jahren erhält.

/same/ Die ePA zwingt den Patienten in ein unzumutbares Dilemma: Entweder er teilt alles mit allen, oder er muss in einem komplizierten, für viele unverständlichen Prozess beginnen, einzelne Dokumente zu „verbergen“ und damit die Funktionsfähigkeit seiner Akte selbst zu sabotieren. Er wird gezwungen, die Versäumnisse der Systemarchitekten durch permanente, fehleranfällige Handarbeit auszugleichen. Das ist keine „Patientensouveränität“, das ist eine Abwälzung der systemischen Verantwortung auf das schwächste Glied der Kette. Aus diesem Grund haben wir als Datenschutzaufsicht die Krankenkassen als Betreiber der Akten offiziell gewarnt: Die ePA in ihrer jetzigen Form ist nicht DSGVO-konform, und wir behalten uns vor, die weitere Verarbeitung von Daten in dieser Form zu untersagen.

Dr. Richter (der Gesundheitsminister): Herr Professor Keller, ich schätze Ihre Rolle als Hüter des Datenschutzes, aber Ihre Auslegung führt in eine gefährliche Sackgasse. Sie stellen den Datenschutz als ein absolutes, unantastbares Dogma dar, das über allem steht. Wir als Gesetzgeber haben jedoch die Pflicht zur Güterabwägung. Auf der einen Seite steht das – von Ihnen sehr theoretisch interpretierte – Prinzip der maximalen Datensparsamkeit. Auf der anderen Seite steht die sehr konkrete und reale Gefahr, dass Menschen durch fehlende Informationen zu Schaden kommen. Wenn ein Notarzt im Rettungswagen nicht sieht, dass ein bewusstloser Patient einen bestimmten Blutverdünner nimmt, dann kann dieser Patient sterben. Das ist die Realität, über die wir hier sprechen!

/same/ Sie kritisieren das Zugriffsmodell als „Alles-oder-nichts“. Ich nenne es einen praktikablen und für den Behandlungsalltag notwendigen Standard. Eine hyper-granulare Steuerung, bei der ein Patient für jedes einzelne Dokument jedem einzelnen Arzt einzeln Rechte zuweisen muss, wäre ein bürokratisches Monster, das niemand bedienen könnte und das im Ernstfall versagen würde. Die Souveränität des Patienten wird doch gerade dadurch gewährleistet, dass er mächtige und klare Werkzeuge hat: Er kann ein Dokument mit einem Klick für ALLE verbergen. Er kann einer Praxis mit zwei Klicks den kompletten Zugriff entziehen. Das sind verständliche, wirksame Hebel. Ihre Forderung nach einer juristisch perfekten, aber praktisch unbenutzbaren Detailsteuerung würde die ePA ad absurdum führen und wir wären wieder im digitalen Mittelalter. Ihre rechtliche Einschätzung ist eine Interpretation. Unsere ist, dass das Recht auf körperliche Unversehrtheit hier Vorrang hat und dass unser Gesetz diesem Vorrang im Einklang mit europäischem Recht Geltung verschafft.

Prof. Dr. Lang (die Psychotherapeutin und Verbandsvertreterin): Herr Minister, Ihre Güterabwägung ist erschreckend eindimensional und ignoriert die besondere Natur bestimmter Gesundheitsdaten vollkommen. Sie benutzen immer das Beispiel des Notarztes und des Blutverdünners, weil es so plakativ ist. Aber 99% der Arztkontakte sind keine Notfälle. Es sind Routinebesuche. Und in diesen Situationen ist Ihr „praktikabler Standard“ eine Katastrophe für das Vertrauen.

/same/ Lassen Sie mich ein ebenso reales Beispiel geben: Eine Patientin von mir, eine Lehrerin, war vor Jahren wegen einer schweren Depression und Suizidgedanken in stationärer Behandlung. Diese Information ist Teil ihres Entlassungsberichts. Jahre später geht sie wegen Knieproblemen zu einem Orthopäden in ihrer Kleinstadt, dessen Kinder sie in der Schule unterrichtet. Nach Ihrer Logik erhält dieser Orthopäde nun für 90 Tage vollen Zugriff auf ihre Akte. Er sieht diesen alten Entlassungsbericht. Vielleicht ist er professionell, vielleicht aber auch nicht. Vielleicht erzählt er es seiner Frau am Abendbrottisch. Vielleicht ändert sich sein Blick auf meine Patientin.

/same/ Sie sagen, meine Patientin könne das Dokument ja „verbergen“. Wissen Sie, was das in der Praxis bedeutet? Dass ein Mensch, der gelernt hat, seiner Krankheit nicht die Macht über sein Leben zu geben, sich nun permanent mit der digitalen Verwaltung seiner Stigmatisierung beschäftigen muss. Sie zwingen ihn, vor jedem einzelnen Arztbesuch seine gesamte digitale Krankengeschichte durchzugehen und zu überlegen: „Was könnte dieser Arzt gegen mich verwenden? Was muss ich verstecken?“ Das ist keine Souveränität, das ist eine unzumutbare psychische Last. Ihre angebliche Güterabwägung opfert die seelische Unversehrtheit und die Vertraulichkeit, die für viele Behandlungen die Existenzgrundlage ist, auf dem Altar einer vermeintlichen technischen Effizienz.

Dr. Bauer (der niedergelassene Allgemeinmediziner): Frau Professor Lang spricht mir aus der Seele, und ich möchte das aus der hausärztlichen Praxis ergänzen. Das Problem ist ja nicht nur die Stigmatisierung, sondern auch der massive Vertrauensverlust, den dieses System produziert. Meine Praxis lebt davon, dass die Patienten mir alles erzählen, auch Dinge, die ihnen peinlich sind. Sie tun das, weil sie wissen, dass es diesen Raum verlässt.

/same/ Die ePA durchbricht dieses Versprechen. Ich hatte neulich einen Patienten, der mich bat, seinen Verdacht auf eine sexuell übertragbare Krankheit nicht in die ePA einzustellen, weil er Angst hatte, dass seine Frau bei einem späteren Arztbesuch durch Zufall davon erfährt. Was mache ich als Arzt? Natürlich respektiere ich das. Aber das bedeutet, ich führe eine Schattenakte auf Papier oder in einem separaten Feld in meinem System. Die ePA, die eigentlich die eine, verlässliche Quelle sein sollte, wird sofort lückenhaft und unzuverlässig.

/same/ Und das Ganze funktioniert ja auch in die andere Richtung: Ich sehe in der ePA einen Befund eines Kollegen, aber ich weiß nicht, was ich nicht sehe. Hat der Patient drei andere, vielleicht relevantere Befunde verborgen? Ich kann mich auf die Daten in der ePA nicht verlassen. Das zwingt mich, im Patientengespräch alles noch einmal abzufragen. Die ePA sollte Doppeluntersuchungen vermeiden, aber sie erzeugt jetzt eine neue Form der Doppelarbeit: die digitale und die analoge Anamnese. Das System ist in der Praxis schlichtweg nicht praxistauglich, weil es auf der falschen Annahme beruht, dass alle medizinischen Daten gleich sind und dass Patienten digitale Rechte-Manager sind. Das sind sie nicht. Sie sind Menschen, die Hilfe suchen.

Herr Schmidt (der Patient): Wenn ich Ihnen allen so zuhöre, wird mir schwindelig. Sie streiten sich über Gesetze und Architekturen, aber ich sitze hier und fühle mich, als würde über meinen Kopf hinweg verhandelt. Ich habe vorhin gesagt, ich hätte die App-Installation aufgegeben. Ich habe es danach noch einmal probiert, weil mein Enkel mir geholfen hat. Jetzt habe ich diese App auf meinem Handy. Und wissen Sie, was ich da sehe? Eine lange Liste mit Diagnosen, die meine Krankenkasse da reingeladen hat. Da stehen Sachen von vor zehn Jahren, an die ich mich kaum erinnere. Und es gibt einen Schalter, der heißt „Nutzung für Forschungszwecke“. Der war standardmäßig an.

/same/ Ich wurde nicht gefragt. Niemand hat mir erklärt, was das bedeutet. Ich soll jetzt also als Laie entscheiden, ob meine Krankheitsgeschichte der Forschung zur Verfügung gestellt wird? Frau Professor Brandt wird uns sicher gleich erzählen, wie wichtig das ist. Aber ich frage mich: Wem gehören diese Daten eigentlich? Mir? Der Krankenkasse? Dem Staat? Und warum muss ich aktiv werden, um zu verhindern, dass meine Daten irgendwohin fließen, wovon ich nie etwas wusste? Das fühlt sich nicht wie Souveränität an. Das fühlt sich an, als wäre ich zur Ware geworden, ohne je einen Vertrag unterschrieben zu haben. Ich bin kein Gegner von Fortschritt. Aber ich möchte gefragt werden und ich möchte es verstehen. Und das ist hier beides nicht passiert.

Prof. Dr. Julia Brandt (die Forschungsinstitutsleiterin): Herr Schmidt, ich kann Ihre Verunsicherung vollkommen verstehen, und es tut mir leid, dass der Prozess für Sie so intransparent war. Das ist ein klares Versäumnis in der Kommunikation, das wir alle – Politik, Kassen und auch wir in der Wissenschaft – ernster nehmen müssen. Aber lassen Sie mich versuchen zu erklären, warum dieser Schalter, den Sie entdeckt haben, eine so enorme Chance für uns alle birgt, auch für Sie und Ihre Familie.

/same/ Wir stehen in der Medizin oft vor dem Problem, dass wir Krankheiten wie Alzheimer, Parkinson oder bestimmte Krebsarten erst erkennen, wenn sie bereits weit fortgeschritten und kaum noch aufzuhalten sind. Wir vermuten aber, dass es Jahre, vielleicht Jahrzehnte vorher subtile Anzeichen und Muster in den Gesundheitsdaten gibt. Das können bestimmte Laborwerte sein, die sich schleichend verändern, oder Kombinationen von Medikamenten, die häufig verschrieben werden. Mit den Daten von Tausenden, ja Millionen von Menschen können wir mithilfe moderner Analysemethoden genau solche Muster identifizieren. Das ist die Grundlage für völlig neue Ansätze in der Früherkennung und Prävention.

/same/ Wenn Sie dem zustimmen, geben Sie nicht Ihre Identität preis. Ihre Daten – Ihr Name, Ihre Adresse, Ihre Versichertennummer – werden durch ein hochkomplexes, treuhänderisches Verfahren, bei dem das Robert-Koch-Institut eine Schlüsselrolle spielt, durch eine pseudonymisierte Kennung ersetzt. Wir Forscher im Forschungsdatenzentrum sehen niemals Ihren Namen. Wir sehen nur „Datensatz 4711“. Und wir arbeiten in einer streng abgeschotteten, sicheren Umgebung, aus der wir keine Einzeldaten exportieren können, sondern nur aggregierte Ergebnisse. Es ist wie eine Volkszählung für die Gesundheit. Der Beitrag des Einzelnen ist anonym, aber die Erkenntnis für die Gemeinschaft ist von unschätzbarem Wert.

Dr. Schröder (Sprecherin eines zivilgesellschaftlichen Digitalverbands): Frau Professor Brandt, Ihr Plädoyer für die Forschung ist nachvollziehbar und ehrenwert. Aber es basiert auf einer technischen Annahme, die in der Realität nicht haltbar ist: dem Glauben an die Unumkehrbarkeit der Pseudonymisierung. Dieser Glaube ist ein Trugschluss.

/same/ Wir und andere internationale Forschergruppen haben immer wieder gezeigt, dass die Kombination von scheinbar harmlosen, nicht-identifizierenden Datenpunkten einen einzigartigen „digitalen Fingerabdruck“ erzeugen kann. Nehmen wir ein fiktives, aber realistisches Beispiel: ein 67-jähriger Mann aus einer Kleinstadt in Bayern, der eine seltene Form von Rheuma hat, gleichzeitig ein bestimmtes Herzmedikament nimmt und vor drei Jahren eine spezifische Operation hatte. Die Wahrscheinlichkeit, dass es in ganz Deutschland nur eine einzige Person gibt, auf die diese Kombination zutrifft, ist extrem hoch. Wenn nun ein Angreifer diesen pseudonymisierten Datensatz aus dem Forschungsdatenzentrum entwendet – und kein System ist zu 100% sicher – und ihn mit anderen, öffentlich verfügbaren oder gekauften Datensätzen abgleicht, zum Beispiel alten Adressbüchern, Social-Media-Profilen oder Daten von kommerziellen Anbietern, dann kann er diesen „Datensatz 4711“ wieder einer konkreten Person zuordnen.

/same/ Das Gesundheitsdatennutzungsgesetz verbietet zwar den Versuch der Re-Identifizierung unter Strafe, aber das ist ein zahnloser Tiger. Erstens hält das Kriminelle nicht ab. Zweitens gilt das Verbot nur in Deutschland. Sobald die Daten einmal abgeflossen sind, sind sie weltweit verfügbar. Sie verlangen von Herrn Schmidt eine „Datenspende“ auf der Grundlage eines Sicherheitsversprechens, von dem Sie als Wissenschaftlerin wissen müssten, dass es technisch nicht haltbar ist. Das Risiko der Enttarnung ist nicht null, und bei der Sensibilität dieser Daten ist jedes Risiko größer als null potenziell katastrophal für den Betroffenen.

Direktor Hoffmann (der Vertreter des GKV-Spitzenverbands): Frau Dr. Schröder, Sie konstruieren hier ein Worst-Case-Szenario, das in seiner Zuspitzung die Relationen außer Acht lässt. Natürlich gibt es in keinem digitalen System eine hundertprozentige, absolute Sicherheit. Die gibt es auch nicht, wenn Ihre Patientenakte aus Papier in einem überfüllten Praxisarchiv lagert, das vielleicht nicht einmal abgeschlossen ist. Wir müssen die Risiken nüchtern abwägen. Das Forschungsdatenzentrum unterliegt den strengsten Sicherheitsauflagen, die wir in Deutschland haben. Es wird vom BSI permanent überwacht. Ein erfolgreicher Einbruch und Datenabfluss ist extrem unwahrscheinlich.

/same/ Demgegenüber steht ein sehr konkreter, messbarer Nutzen. Wir als Krankenkassen sind nicht nur Kostenträger, sondern wir haben auch einen gesetzlichen Auftrag zur Sicherstellung und Verbesserung der Versorgungsqualität. Die Auswertung der Abrechnungsdaten – und das ist ja die Basis dessen, was wir ins FDZ geben – ermöglicht uns, Versorgungsdefizite zu erkennen. Wir sehen, ob Patienten mit einer bestimmten chronischen Erkrankung in einer Region systematisch unterversorgt sind. Wir können die Wirksamkeit von neuen Behandlungsmethoden in der Breite evaluieren, nicht nur in der künstlichen Situation einer klinischen Studie.

/same/ Herr Schmidt hat gefragt, wem die Daten gehören. Juristisch ist die Antwort komplex. Aber praktisch liegt die Verantwortung für die Gestaltung eines effizienten und gerechten Gesundheitssystems bei uns allen – bei der Solidargemeinschaft. Die Nutzung von anonymisierten und pseudonymisierten Daten ist die Grundlage für ein lernendes Gesundheitssystem. Ein pauschales „Nein“ aus einer theoretischen Angst vor Re-Identifizierung heraus würde bedeuten, dass wir auf die wichtigste Ressource für die Medizin der Zukunft verzichten: Wissen.

Prof. Ulrich Keller (ein Bundesdatenschutzbeauftragter): Herr Hoffmann, Sie sprechen von einem „lernenden Gesundheitssystem“, aber Sie verschweigen, dass dieses Lernen auf Kosten der Grundrechte stattfindet. Das Problem mit dem Gesundheitsdatennutzungsgesetz ist nicht nur das technische Risiko der Re-Identifizierung, sondern seine rechtliche Konstruktion. Es hebelt zentrale Prinzipien der DSGVO aus.

/same/ Der Grundsatz der Zweckbindung besagt, dass Daten nur für den Zweck verarbeitet werden dürfen, für den sie erhoben wurden. Die Behandlungsdaten von Herrn Schmidt wurden erhoben, um ihn medizinisch zu versorgen. Das GDNG definiert diesen Zweck nun per Gesetz um – in Forschung und Steuerung. Das ist der klassische Fall von „Function Creep“, der Zweckentfremdung, vor der wir immer gewarnt haben.

/same/ Noch gravierender ist die Aushöhlung der Informationspflichten. Normalerweise muss ein Patient, bevor seine Daten für einen neuen Zweck genutzt werden, klar und verständlich darüber informiert werden, wer seine Daten für welches konkrete Forschungsprojekt wie lange nutzt. Beim GDNG entfällt all das. Es gibt nur einen pauschalen Hinweis im Informationsschreiben der Kasse und dann die Opt-out-Möglichkeit. Herr Schmidt wird nie erfahren, ob seine Daten zur Entwicklung eines neuen Medikaments von Pharmaunternehmen X oder für eine epidemiologische Studie von Universität Y genutzt werden.

/same/ Das ist keine informierte Einwilligung, das ist ein Blankoscheck. Wir als Datenschutzaufsicht haben gefordert, dass zumindest ein transparentes Forschungsregister aufgebaut wird, in dem jeder Bürger nachverfolgen kann, welche Projekte mit den Daten aus dem FDZ genehmigt wurden. Selbst dieser Minimalkompromiss für ein Mindestmaß an Transparenz wurde im Gesetzgebungsverfahren nur vage verankert. Das System ist auf Intransparenz ausgelegt, nicht auf die Stärkung der Betroffenenrechte.

Dr. Richter (der Gesundheitsminister): Herr Professor Keller, Ihre juristische Kritik ist in sich konsistent, aber sie ignoriert die politische und gesellschaftliche Realität. Wir stehen im internationalen Wettbewerb. Länder wie Dänemark, Estland oder auch die USA und China bauen massive Gesundheitsdatenräume auf, um ihre Forschung und ihre Gesundheitssysteme zu stärken. Wenn wir in Deutschland aus einer überzogenen, weltfremden Auslegung des Datenschutzes heraus einen Sonderweg der totalen Daten-Askese beschreiten, werden wir den Anschluss verlieren. Das hat konkrete Folgen: Medikamente werden woanders entwickelt, neue Therapien kommen bei uns später an, unsere Versorgung wird teurer und schlechter.

/same/ Sie sprechen von „Function Creep“. Ich nenne das eine notwendige Weiterentwicklung. Ein modernes Gesundheitssystem muss in der Lage sein, aus den Erfahrungen von Millionen von Behandlungsfällen zu lernen. Das ist kein Missbrauch, sondern intelligente Nutzung. Wir haben im Gesetz bewusst hohe Hürden eingezogen: Die Daten liegen treuhänderisch beim BfArM, einem staatlichen Institut. Die Nutzung für kommerzielle Zwecke wie Werbung oder für Versicherungs-Tarife ist explizit verboten. Und der Patient behält über das Opt-out-Recht die ultimative Kontrolle. Mehr Schutz bei gleichzeitigem Nutzen ist kaum möglich. Ihre Forderung nach einer Einwilligung für jedes einzelne Forschungsprojekt würde die Forschung durch bürokratischen Aufwand komplett lahmlegen. Das können wir uns als Gesellschaft nicht leisten.

Anna Kowalski (die Oppositionspolitikerin): Herr Minister, Ihr Verweis auf den internationalen Wettbewerb ist ein Totschlagargument, das jede kritische Debatte im Keim ersticken soll. Es geht hier nicht darum, ob wir Daten für die Forschung nutzen, sondern wie. Sie tun so, als gäbe es nur die Wahl zwischen Ihrem intransparenten Zwangsmodell und dem totalen Stillstand. Das ist falsch.

/same/ Es gibt längst Konzepte für vertrauensbasierte, bürgerzentrierte Datenspenden-Modelle. Stellen Sie sich eine Plattform vor, auf der Forschungsprojekte – wie das von Frau Professor Brandt – laienverständlich vorgestellt werden. Und dann kann Herr Schmidt ganz gezielt entscheiden: „Ja, für die Alzheimer-Forschung gebe ich meine Daten frei, aber für das Projekt eines Pharmakonzerns zur Entwicklung eines neuen Lifestyle-Medikaments nicht.“ Das wäre echte Patientensouveränität. Das würde Vertrauen schaffen und eine hohe Beteiligung auf freiwilliger Basis ermöglichen.

/same/ Aber einen solchen Weg haben Sie nie ernsthaft in Betracht gezogen. Warum? Weil es einfacher ist, per Gesetz zu verfügen, als durch Überzeugungsarbeit, Transparenz und ein exzellentes Produkt das Vertrauen der Bürger zu gewinnen. Sie opfern das Vertrauen einer ganzen Generation in die Digitalisierung des Gesundheitswesens für einen kurzfristigen, vermeintlichen Effizienzgewinn. Sie bauen eine riesige, zentrale Dateninfrastruktur auf, die Begehrlichkeiten wecken wird – heute ist es die Forschung, morgen die Pandemiebekämpfung, übermorgen vielleicht die Strafverfolgung. Sie öffnen die Büchse der Pandora und behaupten, Sie hätten den Deckel fest in der Hand. Das ist naiv und politisch unverantwortlich.

Ing. Weber (der Leiter der Betreibergesellschaft der Telematikinfrastruktur): Wenn ich diese politische Debatte höre, muss ich uns als Techniker einmal in Schutz nehmen. Wir bauen die Infrastruktur, die uns der Gesetzgeber aufträgt. Frau Kowalskis Vision einer feingranularen Spendenplattform klingt sympathisch, aber sie ignoriert die technische Realität und die enormen Kosten, die ein solches System verursachen würde. Die Verwaltung von Millionen individueller, dynamischer Einwilligungen für Tausende von Forschungsprojekten wäre ein technischer und administrativer Albtraum. Das aktuelle Opt-out-System ist im Vergleich dazu schlank, effizient und vor allem umsetzbar.

/same/ Und ich möchte noch einmal auf die Kritik von Frau Dr. Schröder und die Usability-Probleme, die Herr Dr. Bauer und Herr Schmidt angesprochen haben, zurückkommen. Ja, die erste Generation der ePA-Anwendungen war nicht optimal. Das ist unbestritten. Aber wir befinden uns in einem agilen Entwicklungsprozess. Die Apps der Krankenkassen werden kontinuierlich verbessert. Die Bedienung wird einfacher, die Prozesse verständlicher. Wir haben mit den Ombudsstellen bewusst eine analoge Brücke für Menschen geschaffen, die kein Smartphone nutzen wollen oder können.

/same/ Aber man muss auch klar sagen: Die beste Technik ist nutzlos, wenn die Nutzer nicht bereit sind, sich ein Mindestmaß an digitaler Kompetenz anzueignen. Wir können die Komplexität reduzieren, aber wir können sie nicht komplett eliminieren. Ein gewisses Maß an Eigenverantwortung ist in einer digitalen Gesellschaft unerlässlich. Die Erwartungshaltung, dass ein so mächtiges Werkzeug wie die ePA funktionieren muss wie ein Lichtschalter – also ohne jedes Nachdenken –, ist unrealistisch. Wir bieten die Werkzeuge für die Souveränität. Dass der Einzelne lernen muss, mit diesen Werkzeugen umzugehen, ist eine gesellschaftliche Aufgabe, keine rein technische.

Prof. Dr. Lang (die Psychotherapeutin und Verbandsvertreterin): Herr Weber, Ihr Appell an die „digitale Kompetenz“ und „Eigenverantwortung“ ist genau die Haltung, die ich als zutiefst problematisch empfinde. Sie kehren hier Täter und Opfer um. Das System ist kompliziert, intransparent und in seiner Standardeinstellung gefährlich für sensible Daten. Aber anstatt das System zu ändern, fordern Sie, der Patient solle sich gefälligst anpassen und lernen, mit den Mängeln umzugehen.

/same/ Gerade im psychotherapeutischen Kontext ist das fatal. Meine Patienten kommen zu mir, weil sie verletzlich sind, weil sie Vertrauen suchen, weil sie einen geschützten Raum brauchen. Sie haben oft nicht die Kraft, sich neben ihrer existenziellen Krise auch noch mit den Tücken einer fehlerhaften App und den juristischen Fallstricken einer Opt-out-Regelung auseinanderzusetzen.

/same/ Ihre Rede von der „Eigenverantwortung“ ist in diesem Kontext eine Form von Zynismus. Sie sagen im Grunde: „Wir haben ein System gebaut, das potenziell deine intimsten Geheimnisse preisgibt. Wenn du das nicht willst, musst du selbst dafür sorgen, die eingebauten Fallstricke zu umgehen. Schaffst du das nicht, ist es deine Schuld – mangelnde Kompetenz.“ Das ist das genaue Gegenteil eines patientenzentrierten Ansatzes. Ein wirklich gutes System wäre von Grund auf so gestaltet, dass es die Verletzlichsten schützt, anstatt von ihnen zu verlangen, sich selbst zu schützen. Es würde sensible Daten per Default separieren („Privacy by Design“) und nicht per Default teilen. Davon sind wir mit der aktuellen ePA meilenweit entfernt.

Dr. Bauer (der niedergelassene Allgemeinmediziner): Und genau hier, Frau Professor Lang, liegt die unlösbare Zwickmühle, in der wir Praktiker stecken. Herr Weber, das hat nichts mit fehlender digitaler Kompetenz zu tun. Ich kann mein Praxisverwaltungssystem bedienen. Das Problem ist, dass die ePA mich zwingt, mich permanent zwischen meiner ärztlichen Dokumentationspflicht und meiner ärztlichen Schweigepflicht zu entscheiden.

/same/ Sehen Sie, das System will, dass ich relevante Befunde hochlade, um die Versorgungskette zu schließen. Das ist der versprochene Nutzen. Gleichzeitig will mein Patient, wie in dem Beispiel von vorhin, dass ich genau das bei sensiblen Themen nicht tue, um sein Vertrauen zu schützen. Was soll ich also tun? Lade ich den Befund nicht hoch, mache ich die ePA wertlos und untergrabe ihren eigentlichen Zweck. Lade ich ihn hoch, missbrauche ich das Vertrauen meines Patienten und setze ihn potenziellen Risiken aus, die Frau Professor Lang beschrieben hat.

/same/ Dieses System zwingt uns in eine tägliche, ethische Grauzone. Es gibt keine saubere Lösung. Jeder Klick wird zu einer Abwägung, die ich eigentlich nicht treffen dürfte. Die ePA ist in ihrer jetzigen Form kein Werkzeug, das mir die Arbeit erleichtert. Sie ist ein moralischer Kompass mit einer Nadel, die sich unaufhörlich im Kreis dreht. Sie hat die Einfachheit und Klarheit des Arzt-Patienten-Verhältnisses genommen und sie durch eine unüberschaubare Matrix aus technischen Möglichkeiten und sozialen Risiken ersetzt. Das ist der eigentliche Schaden, der hier Tag für Tag in den Praxen angerichtet wird.

Herr Schmidt (der Patient): Ich habe Ihnen jetzt die ganze Zeit zugehört. Sie alle haben ja auf Ihre Weise recht. Ich verstehe Sie, Herr Minister, dass Sie etwas verbessern wollen. Ich verstehe Sie, Frau Professor Brandt, dass Sie Krankheiten heilen wollen. Und ich verstehe Sie, Frau Professor Lang und Herr Dr. Bauer, dass Sie sich Sorgen um mein Vertrauen machen. Aber wissen Sie, was bei mir nach dieser ganzen Diskussion hängen bleibt?

/same/ Ein einziges Gefühl: Angst. Und Misstrauen.

/same/ Vorher hatte ich eine Patientenakte bei meinem Arzt. Ich wusste, sie liegt dort in einem Schrank, und nur er und seine Helferin schauen da rein. Jetzt habe ich etwas, das sich „meine“ Akte nennt, aber es fühlt sich überhaupt nicht wie meine an. Es ist ein Ort, an dem unzählige Leute – Ärzte, von denen ich noch nie gehört habe, vielleicht Forscher, vielleicht durch Sicherheitslücken sogar Kriminelle – potenziell herumschnüffeln können. Und ich, der Laie, soll den Türsteher spielen und aufpassen.

/same/ Sie haben ein System gebaut, das technisch vielleicht brillant ist. Aber Sie haben vergessen, dass es hier um Menschen geht. Um Gefühle. Um Vertrauen, das über Jahrzehnte wächst und an einem Nachmittag wie diesem zerstört werden kann. Ich will nicht der Administrator meiner eigenen Krankheiten sein. Ich will ein Patient sein, der einem Arzt vertraut. Und dieses einfache, menschliche Gefühl haben Sie mit Ihrer komplizierten Technik kaputt gemacht. Egal, wie sicher Sie sagen, dass es ist – es fühlt sich nicht sicher an. Und am Ende ist das doch das Einzige, was für mich zählt.

/note/ (Eine spürbare Stille legt sich über die Runde. Herr Schmidt blickt auf seine Hände. Dr. Neumann ergreift nach einem Moment das Wort.)

Dr. Neumann: Ich glaube, Herr Schmidt hat soeben den Kern dessen getroffen, was diese Debatte im tiefsten Inneren ausmacht. Wir sind an einem Punkt angelangt, an dem die Gegensätze unauflösbar scheinen, weil sie auf fundamental unterschiedlichen Weltbildern und Werten beruhen.

/same/ Auf der einen Seite steht der legitime Anspruch der Gemeinschaft und der Politik, repräsentiert durch Herrn Dr. Richter und Frau Professor Brandt. Es ist der Wunsch, durch die intelligente Nutzung von Daten ein effizienteres, sichereres und forschungsstärkeres Gesundheitssystem für alle zu schaffen – ein kollektiver Nutzen, der potenziell Leben rettet. In dieser Logik ist das Recht des Einzelnen auf absolute informationelle Abgeschiedenheit ein Hindernis, das im Sinne des Gemeinwohls überwunden werden muss.

/same/ Auf der anderen Seite steht das ebenso legitime Recht des Individuums auf die Unantastbarkeit seiner privatesten Sphäre, vertreten durch Professor Keller, Frau Dr. Schröder und Professor Lang. Hier wird das Gesundheitsdatum nicht als Ressource für die Allgemeinheit gesehen, sondern als integraler Bestandteil der Persönlichkeit. Das Recht, darüber zu bestimmen, ist ein unveräußerliches Grundrecht. Das Vertrauen, wie es Dr. Bauer und Herr Schmidt beschreiben, ist die Bedingung dafür, dass Medizin überhaupt funktionieren kann. In dieser Logik ist jeder systemische Eingriff, der dieses Vertrauen gefährdet, inakzeptabel – ganz gleich, wie groß der versprochene Nutzen sein mag.

/same/ Die elektronische Patientenakte ist damit mehr als eine technische Neuerung. Sie ist der Schauplatz eines grundlegenden gesellschaftlichen Konflikts. Die Frage ist nicht mehr, ob wir die Technik beherrschen, sondern welche Art von Gesellschaft wir sein wollen: eine, die den potenziellen Nutzen für die Vielen über das absolute Schutzbedürfnis des Einzelnen stellt, oder eine, die den Schutz des Einzelnen als unbedingte Voraussetzung für jedes kollektive Handeln begreift. Diese Frage kann kein Experte und kein Politiker allein beantworten. Sie geht uns alle an.

/same/ Ich danke meinen Gästen für diese außergewöhnlich tiefgehende und ehrliche Debatte. Und ich danke Ihnen, liebe Zuschauer, für Ihre Aufmerksamkeit. Guten Abend.

Zur Entstehung dieses Textes: Eine Reflexion im Lichte des Leitfadens zur KI-Ko-Produktion

/appendix#entstehung/ Zur Entstehung dieses Textes: Eine Reflexion im Lichte des Leitfadens zur KI-Ko-Produktion | Entstehungsprozess & KI-Transparenz

/lead/
Dieser Anhang legt den Entstehungsprozess des vorangegangenen Textes offen. Er dokumentiert eine bewusst gesteuerte Ko-Produktion zwischen einem menschlichen Autor und einer generativen KI.

/section#phase-vorbereitung/ Phase I: Die Vorbereitung – Sicherung des subjektiven Raums | Schritte 1-3 +

Der Beginn des Projekts lag nicht in einer Frage an eine KI, sondern in einer ethisch motivierten Notwendigkeit. Der menschliche Autor arbeitete auf Basis umfangreicher Recherchen eine eigenständige Analyse aus, bevor die Maschine ins Spiel kam. Intention, These und Material wurden vollständig menschlich definiert und die Rolle der KI von vornherein eng begrenzt.

Ausgangspunkt war die Verpflichtung des Psychotherapeuten, seinen Patienten ein Werkzeug zur selbstbestimmten Entscheidung an die Hand zu geben. Dieses Warum rahmte die gesamte Arbeit: nicht Effizienz, sondern Aufklärung und Schutz von Autonomie. Die Leitthese und der Adressatenbezug entstanden aus dieser Verantwortung heraus, nicht aus maschinellen Vorschlägen.

Materialsammlung

Dem Schreibprozess ging eine tiefgreifende, auf zahlreichen Recherchen beruhende Analyse voraus. Der Kanon der Argumente, Belege und Gegengründe wurde vom Autor selbst kuratiert. Dadurch diente die später hinzugezogene KI nicht als Quelle, sondern als Resonanzraum für bereits vorliegendes Material.

Rollendefinition

Der KI wurde eine strikt untergeordnete Rolle zugewiesen: als dramaturgischer Motor, der vorhandene Fakten und Positionen in eine dialogische Form gießt. Inhaltliche Richtung, ethischer Rahmen und Endverantwortung blieben beim Menschen. Die Maschine sollte Form variieren, nicht Substanz setzen.

/section#phase-interaktion/ Phase II: Die Interaktion – Dialektik statt Delegation | Schritte 4-5 +

Die Zusammenarbeit wurde als dialektisches Duell inszeniert, vollständig vom menschlichen Autor orchestriert. Die KI hatte nicht Wissen zu generieren, sondern Konflikte, die im Material angelegt waren, sichtbar zu machen und zuzuspitzen. Iterative Anweisungen hielten die Spannung offen und verhinderten glättende Synthesen.

Dialektisches Prompten

Der Autor forderte wiederholt die Zuspitzung gegensätzlicher Positionen und untersagte harmonische Auflösungen. Sinngemäße Vorgaben lauteten, die Gegenseite schärfer zu formulieren und die Spannungen konsequent offenzulegen. So entwickelte sich eine Interaktion, die Negativität produktiv machte, statt Konsens zu simulieren.

Montage

Der menschliche Autor agierte als souveräner Editor der maschinellen Dialog‑Fragmente. Er prüfte, selektierte und arrangierte diese zu einer Collage, die der intendierten Dramaturgie diente. Dabei wurden Fragmente eingesetzt, nicht Blöcke, sodass die Gesamtarchitektur unter menschlicher Regie blieb.

/section#phase-autorisierung/ Phase III: Die Autorisierung – Rückeroberung der Subjektivität | Schritte 6-7 +

Die Autorisierung markierte den Übergang von ko-produziertem Rohmaterial zu verantworteter Autorschaft. Hier übernahm der Mensch allein die schöpferische Arbeit. Das Ziel war eine klare, verkörperte Stimme jenseits algorithmischer Glätte.

Inkubationsphase

Die Distanzierung vom maschinellen Fluss ermöglichte eine nüchterne Neubewertung des Materials. Im KI‑freien Abschnitt wurden Prioritäten geklärt und argumentative Linien geschärft. Diese Verlangsamung öffnete Raum für kritische Prüfung statt unmittelbarer Weiterproduktion.

Menschlichung

Die KI lieferte rohes, strukturell nützliches, aber seelenloses Material; der Autor unterzog es einer alchemistischen Überarbeitung. Algorithmischer Jargon wurde entfernt und durch präzise, verantwortete Formulierungen in eigener Stimme ersetzt. Erst durch diese vollständige Aneignung entstand ein authentisches Werk, für das der Autor die alleinige Verantwortung übernimmt.

/section#phase-publikation/ Phase IV: Die Publikation – Ethik der Sichtbarkeit | Schritte 8-9 +

Die Veröffentlichung wird als bewusst ethische Praxis verstanden. Der Prozess selbst wird sichtbar gemacht, um die souveräne Steuerung durch den Menschen nachvollziehbar zu halten. Effizienzgewinne werden nicht der Beschleunigung, sondern der Aufklärung zugeführt.

Radikale Transparenz

Die Forderung nach genau dieser Reflexion ist Ausdruck radikaler Transparenz. Sie de‑mystifiziert den Einsatz der KI und macht die Steuerungsentscheidungen des Menschen zum expliziten Bestandteil des Werkes. So wird die Entstehungsgeschichte prüfbar.

Zweckbestimmung

Die durch KI gewonnene Effizienz wird nicht in bloße Produktivität reinvestiert, sondern in die Verfeinerung des Ziels: ein Instrument der Aufklärung zu schaffen. Dieses dient dem Schutz und der Autonomie von Patienten im digitalen Zeitalter und richtet die Mittel der Maschine auf humanistische Zwecke aus.

/end/

Hausordnung (bitte kurz lesen)

Worum es geht: Couch & Agora ist ein professionell gerahmter Diskursraum zu Gegenwartsthemen aus psychoanalytischer Perspektive. Neben inhaltlichen Argumenten haben hier affektive Resonanzen Platz – einschließlich Eindrücken von Übertragung und Gegenübertragung.

  • Haltung: respektvoll, neugierig. Resonanz & Widerspruch willkommen; Beschämung nicht.
  • Spontanität: kurze, rohe Gegenübertragungs‑Eindrücke (Gefühle, Bilder, Körper‑Notizen) sind erlaubt – im öffentlichen Rahmen bitte bewusst formulieren.
  • Keine Diagnosen über Dritte, keine identifizierbaren Fallbezüge. Eigene Erfahrungen anonymisieren.
  • Kein Hass, keine Abwertung von Personen oder Gruppen; keine diskriminierenden Inhalte.
  • Pseudonym möglich. Wir speichern so wenig personenbezogene Daten wie nötig (siehe Datenschutz).
  • Moderation: Beiträge können verschoben, gekürzt oder entfernt werden (sichtbar begründet). Das Kommentarfeld ist i. d. R. 14 Tage geöffnet.
  • Urheberrecht & Nutzung: Sie behalten das Urheberrecht; mit dem Absenden räumen Sie uns ein einfaches Nutzungsrecht zur Darstellung/Moderation/Zitierung auf dieser Website ein.
  • Kein Therapieersatz. In Krisen: 112 (Notruf) / 116117 (ärztlicher Bereitschaftsdienst).

Resonanz & Reflexion

Pseudonym möglich. Die Hausordnung gilt.