Skip to main content Skip to main navigation

6G und Künstliche Intelligenz in der Medizin – DFKI auf der Medica 2023

Können mobile Operationsroboter helfen, Versorgungslücken in der Medizin zu minimieren? Dieser Frage gehen Forschende der Rheinland-Pfälzischen Technischen Universität Kaiserslautern-Landau (RPTU) und DFKI nach. Sie verbinden Ansätze aus der Robotik mit KI-Methoden unter Einsatz des künftigen Mobilfunkstandards 6G. Ihr Ziel: Eine Analyse, die Potenziale von ferngesteuerter Robotik für Operationseinsätze aufzeigt und Anforderungen an KI und Kommunikationsnetze definiert. Auf der Medizintechnikmesse Medica in Düsseldorf präsentieren sie ihre Arbeit vom 13. bis 16. November am Forschungsstand Rheinland-Pfalz in Halle 3, Stand E80.

Robotik bei Operationen einzusetzen, ist keine grundlegend neue Idee. Innovativ ist vielmehr der Ansatz, derartige Systeme aus der Ferne bzw. mobil bedienbar zu machen. Projektleiter Marc Ruffing, der am Forschungsbereich „Intelligente Netze“ am DFKI und am Lehrstuhl für Funkkommunikation und Navigation an der RPTU und forscht, skizziert die damit verbundenen Herausforderungen: „Bisher muss die operierende Person in der Nähe des Operationssaals anwesend sein, da eine mobile Nutzung von ferngesteuerter Robotik aufgrund der Größe und Infrastruktur solcher Systeme noch nicht praktikabel ist. Zudem ist die Steuerung der Systeme nicht intuitiv. Die operierende Person arbeitet mit Joysticks über einem abgeschirmten Bildschirm. Es fehlt sowohl die natürliche Bewegung als auch das haptische Feedback. Im Gegensatz zum Menschen sind Roboter nicht feinfühlig genug.“

Hoher Anspruch an Latenzzeiten

Diese Hürden zu überwinden, haben sich Ruffing und sein Team zur Forschungsaufgabe gemacht. Sie nutzen hierfür einen Demonstrator, der aus zwei kollaborativen Roboterarmen besteht und somit ein klassisches Setup darstellt. Ein Roboterarm lässt sich durch die Führung des anderen von Menschenhand steuern. Das System ermöglicht ein virtuelles haptisches Feedback in Form von Forcefeedback, das vom gesteuerten Roboterarm an den steuernden Roboterarm übertragen wird. Dadurch kann die steuernde Person spüren, was sie gerade tut. Die Kommunikation zwischen den beiden Robotern erfolgt über ein Netzwerk. Dabei sind keine großen Datenpakete unterwegs – der Knackpunkt ist vielmehr ein anderer: „Gerade bei derartig hochsensiblen Tätigkeiten wie ferngesteuerten Operationen gelten besonders hohe Anforderungen an Latenzzeiten. Steuerbefehle der operierenden Person müssen ohne jegliche Verzögerung am Behandlungsort ankommen“, erklärt Teamleiter Christoph Lipps. „Deswegen schreiben wir anhand des Testszenarios fest, was der künftige Mobilfunkstandard 6G in punkto Echtzeit-Steuerung erfüllen muss.“

Steuerung natürlicher machen

Parallel forscht das Team daran, wie sich mithilfe von intelligenten Technologien die Bedienung des Systems verbessern lässt. Sie erproben unter anderem ein Nahinfrarot-basiertes Motion-Capture-System. Damit lassen sich Objekte wie beispielsweise eine Hand und deren Bewegungen millimetergenau im Raum erfassen. Eine unnatürliche Steuerung per Joystick wäre somit nicht mehr nötig.

Ebenso ist es möglich, eine Mensch-Maschine-Schnittstelle (Brain-Computer-Interface, BMI) ins System einzubinden. „Indem wir mittels Elektroenzephalografie oder Nahinfrarot-Spektroskopie die Hirnströme einer Person messen, können wir Daten gewinnen, die über den Gemütszustand Auskunft geben“, sagt Matthias Rüb, wissenschaftlicher Mitarbeiter im Team. „Für die Auswertung sorgt ein künstliches neuronales Netz, eine Anwendung aus dem Bereich des Maschinellen Lernens. Es scannt die per BCI gemessenen Daten und ordnet diesen Gemütszustände zu. Nimmt die Aufmerksamkeit des Arztes ab oder sein Stresslevel zu, könnte beispielsweise eine Warnmeldung erfolgen.“

Beitrag zum „Open6GHub“

Mit den Erkenntnissen aus dem Projekt wird das Team das Pflichtenheft für die Echtzeit-Fernsteuerung von Operationsrobotern befüllen. „Wir entwickeln keine Medizinprodukte“, fasst Ruffing zusammen. „Vielmehr geht es uns darum, Anforderungen an 6G und an KI zu definieren, um die Technik in die Anwendung zu bringen – etwa in Form eines mobilen Operationssaals oder eingebaut in einen Krankenwagen.“

Angesiedelt ist das Projekt unter dem Dach des „Open6GHub“, das von Professor Hans Dieter Schotten koordiniert wird, der den Forschungsbereich Intelligente Netze am DFKI und den Lehrstuhl Funkkommunikation und Navigation an der RPTU leitet. Neben der RPTU und dem DFKI sind weitere Hochschulen und Forschungsinstitute am beteiligt. Im Forschungsverbund wollen die Partner dazu beitragen, eine 6G-Gesamtarchitektur zu entwickeln und ebenso Ende-zu-Ende-Lösungen unter anderem in folgenden Bereichen auf den Weg zu bringen: Erweiterte Netzwerktopologien mit hochagiler sogenannter organischer Vernetzung, Security- und Resilienz, Thz- und photonische Übertragungsverfahren, Sensorfunktionalitäten in den Netzen und deren intelligente Nutzung und Weiterverarbeitung und anwendungsspezifische Radioprotokolle. Auf dem Weg dorthin sind die Forschenden offen für Dialog und Kooperationen: „Wir suchen einen frühzeitigen und interaktiven Dialog mit der Öffentlichkeit und sind ebenso bereit für Kooperationen mit der Industrie und Anwendern“, so Schotten. „Hierfür werden wir OpenLabs und offene Experimentalfelder installieren. Nicht zuletzt wollen wir durch die Einbeziehung von KMUs und Start-Ups und deren Ergebnissen ein offenes Innovationssystem fördern.“

Pressekontakt:

Communications & Media DFKI Kaiserslautern