Medizinische Daten aus Patientenakten, aus der intensivmedizinischen Überwachung oder aus klinischen Studien werden in maschinellen Lernverfahren genutzt, um neuronale Netze zu trainieren. Diese KI-Modelle unterstützen Ärztinnen und Ärzte bei der Interpretation von Ultraschall-, Röntgen-, MRT- oder CT-Bildern, bei der Diagnostik und Therapieplanung, oder in der medizinischen Forschung. Im Krankenhausmanagement erlauben sie beispielsweise Vorhersagen über den Genesungsprozess von Patientinnen und Patienten und ermöglichen so eine präzisere Kapazitätsplanung oder einen nahtlosen Übergang in die Anschlussversorgung. Hinzu kommen Daten aus Bild-, Video- und Audiomaterial, etwa aus der sozialen Interaktion von Ärzten mit Patienten, die wichtige Rückschlüsse etwa auf das Befinden von Patienten mit psychiatrischen oder psychosomatischen Erkrankungen geben können.
All diese Gesundheitsdaten sind hochsensibel und unterliegen den strengen Bestimmungen der Datenschutzgrundverordnung (DSGVO), den Datenschutzgesetzen von Bund und Ländern sowie einer Reihe weiterer gesetzlicher Vorschriften im Bereich des Gesundheitswesens und der medizinischen Forschung. Dieser Rahmen soll neben der ärztlichen Schweigepflicht die Vertraulichkeit und Integrität der Gesundheitsdaten gewährleisten, ihren Missbrauch verhindern und die Grundrechte und Grundfreiheiten der Patientinnen und Patienten schützen. Auch in deidentifizierter oder pseudonymisierter Form sind Gesundheitsdaten besonders schützenswert, da mit zusätzlichen Informationen, z. B. bei seltenen Krankheiten oder Studien mit kleinen Teilnehmerzahlen, Rückschlüsse auf einzelne Personen möglich sind.
Damit aus diesen hochsensiblen Daten KI-Modelle werden können, bedarf es vertrauenswürdiger Forschungsumgebungen (Trusted Research Environment, TRE), die die Einhaltung der DSGVO und anderer datenschutzrechtlicher Vorschriften sowie der Grundsätze guter wissenschaftlicher Praxis gewährleisten. Am 17. Juli eröffnete das DFKI eine solche Forschungsumgebung für die Verarbeitung sensibler personenbezogener Daten zum Training neuronaler Netze. SEMLA – Secure Machine Learning Architecture – ist eine DFKI-interne Forschungsinfrastruktur, die den Anforderungen der DSGVO und anderer gesetzlicher Bestimmungen gerecht wird. Herzstück ist die Umsetzung sogenannter technischer und organisatorischer Maßnahmen (TOMs) für den Datenschutz und die Datensicherheit, deren Berücksichtigung in datensensiblen Forschungsprojekten gefordert wird.
„SEMLA versetzt uns überhaupt erst in die Lage, mit höchstsensiblen Daten zu arbeiten. Wir werten so zunächst Daten aus Medizinprojekten aus, an denen das DFKI beteiligt ist, und trainieren dann auf diesen Daten neuronale Netze. Dafür besteht intern bereits großer Bedarf. In Zukunft soll SEMLA quelloffen zur Verfügung gestellt werden, damit andere Forschungsinstitute und Marktteilnehmer die SEMLA-Lösung einfach anpassen und nutzen können“, sagt SEMLA-Projektleiter Dr. Jan Alexandersson.
SEMLA ermöglicht Wissenschaftlern die sichere Forschung mit hochsensiblen personenbezogenen Daten. Im Gegensatz zu Cloud-Lösungen speichert und verarbeitet SEMLA die Daten ausschließlich „on premises“, also am DFKI. SEMLA besteht aus einer Recheninfrastruktur (CPU, GPU, Speicher), die in Kaiserslautern betrieben und geschützt wird, sowie einem biometrisch gesicherten Annotations- und Experimentierlabor in Saarbrücken, dem SEMLAb. Die neue Forschungsinfrastruktur ist so ausgelegt, dass mit Daten der zweithöchsten Sensitivitätsklasse 4 nach dem Klassifikationsschema des Alan Turing Institute geforscht werden kann.
Künftig sollen Drittparteien auf den von SEMLA gehosteten Datensätzen über das Internet Modelle berechnen können. Hierfür wird auch eine Zertifizierung nach ISO 2700X und TISAX sowie nach EuroPriSe – dem Europäischen Datenschutzgütesiegel (EuroPriSe, 2022) – angestrebt.