Wenn ein Chirurg bei einer OP eines nicht hat, dann die Hände frei. Gerade bei den immer häufiger eingesetzten minimal-invasiven Operations-Methoden, bei denen durch einen kleinen Schnitt ein Katheter eingeführt wird, über den der weitere Eingriff erfolgt. Doch gleichzeitig muss der Arzt die Anatomie des Patienten ständig in allen Details präsent haben. Monitore im OP zeigen deshalb Röntgenschnittbilder oder dreidimensionale Röntgenaufnahmen an. Doch wie soll der Operateur in diesen Bildern blättern? Das Hantieren mit Tastatur, Maus oder Touchscreen verbietet sich, denn deren Oberflächen können nicht steril gehalten werden.
Bedarf im OP
„Wir sehen einen Bedarf für berührungslose Mensch-Maschine-Schnittstellen in Operationssälen“, so Tal Dagan, Vizepräsident Marketing von PrimeSense, dem Unternehmen, dass hinter der Gestensteuerung Kinect von Microsofts steht. Genau diese aus der Welt der Computerspiele bekannte Technologie soll demnächst tatsächlich auch im Operationssaal Anwendung finden, wie Dagan weiter berichtet: „Einige Unternehmen haben sich inzwischen dieser Nachfrage angenommen. So hat zum Beispiel INRIA, ein französisches Forschungsinstitut, eine berührungslose Bedienung im Operationssaal entwickelt, die es den Chirurgen ermöglicht, unabhängig, effizient und sicher mit Patientendaten und medizinischen Bildern wie MRT, CT oder Röntgen zu interagieren.“ Auch Siemens arbeitet an einer ähnlichen Lösung: Experten von Siemens Healthcare und der globalen Forschung Corporate Technology erweiterten die Technik der Microsoft Xbox so, dass Chirurgen per Hand- und Armbewegung Aufnahmen wechseln, Details heranzoomen oder dreidimensionale Bilder drehen können. Nach erfolgreichen Prototyp-Versuchen soll die Technik in zwei Krankenhäusern unter semi-realen Bedingungen - also ohne Patienten - getestet werden. Hier sind die französischen Forscher vom „Institut national de recherche en informatique et en automatique“, kurz INRIA, schon weiter - ihr System wird bereits in Nizza von der Universitätsklinik und dem Krebs-Forschungszentrum getestet, wie Olivier Cantz, Wissenschaftler am INRIA, berichtet. Das Institut ist eine staatliche französische Forschungseinrichtung, die sich ausschließlich den Computerwissenschaften verschrieben hat. Ein Kernthema dabei ist der Computereinsatz in der Medizin: „Interaktive und intuitive Bedienlösungen für medizinische Bilder im Operationssaal sind eine echte Herausforderung“, so Olivier Clatz. Vom Potenzial der Gestensteuerung ist er überzeugt: „Wir kennen keinen Chirurgen, der zur Zeit mit der Steuerung der verfügbaren Schnittstellen zufrieden ist. Natürliche berührungslose Interaktion wird dies bald ändern.“ Die in der Xbox eingesetzte Kinect-Technik von PrimeSense projiziert ein Punktmuster aus infrarotem Licht in den Raum und zeichnet die Szene mit einer Kamera aus einem anderen Winkel auf. Dabei verzerren dreidimensionale Gegenstände oder Personen das aufgenommene Muster, so dass man für jeden Punkt des Kamerabilds den Abstand zur Lichtquelle berechnen kann. Dazu erfasst ein Standard-CMOS Bildsensor das reflektierte Licht, ein Ein-Chip-System (SoC) berechnet daraus mit einem komplexen Algorithmus eine Tiefendarstellung der Szene. Auch ohne zweite Kamera lassen sich so Bewegungen dreidimensional erfassen.
Sensor-Hardware wird individuell angepasst
Doch natürlich kann nicht einfach der PrimeSense-Sensor wie er in der Xbox eingesetzt wird eins zu eins für eine medizinische Anwendung übernommen werden, wie Clatz erklärt: „Wir mussten für Computer und Bildschirm Elektronik-Komponenten entsprechend der Regularien der Medizintechnik nutzen. Wir arbeiten jetzt mit einem ONYX-Computer sowie einem EIZO-Bildschirm, aber viele andere würden auch passen. Zudem mussten wir den Sensor zum Schutz vor Feuchtigkeit mit einer Silikon-Dichtung leicht anpassen.“ Dabei unterstützt PrimeSense Unternehmen intensiv, die Gestensteuerung für die jeweiligen Anwendungsfälle anzupassen. „Die Genauigkeit des Sensors hängt von verschiedenen Parametern ab: Dem Sichtbereich, der Entfernung oder dem Anwendungs-Szenario“, wie PrimeSense Vizepräsident Dagan erklärt. „Wir können entsprechende Hardware-Änderungen am Sensor vornehmen, um die Tiefen-Bildauflösung zu verbessern oder den Sichtbereich zu ändern. Dies erfolgt durch PrimeSense je nach Anforderung des Kunden.“ Für viele Anwendungen allerdings sind die Eigenschaften des Standard-Sensors RD1.08 ausreichend, wie Dagan betont: Er bietet „von Hause aus“ eine x-/y-Auflösung von 3 Millimetern bei einer Entfernung vom 2 Metern vom Sensor und arbeitet in einem Entfernungsbereich zwischen 0,8 und 3,5 Metern. Reichen diese Standard-Spezifikationen nicht, bietet PrimeSense entsprechend auf den Kunden zugeschnittene Produkte an. „Zudem wird die Technologie der nächsten Generation deutliche Verbesserungen in allen Parametern bieten“, verspricht Tal Dagan.
Auch Programmierung muss angepasst werden
Doch die Hardware ist nur die eine Seite der möglichen Anpassungen des Systems, wie Dagan weiter erklärt: „In vielen Fällen kann das, was anfangs wie eine technische Barriere erscheint, durch die Entwicklung eines spezifischen Software-Paketes überwunden werden. Diese Software ist aber die Domain des jeweiligen Kunden.“ Beispiel Siemens: Der PrimeSense-Sensor ist ursprünglich nicht darauf ausgerichtet, langsame, präzise Handbewegungen in exakte Befehle umzusetzen. Deshalb entwickelten die Experten von Siemens Corporate Technology Algorithmen, die zunächst aus den Punktwolken die Hände des Chirurgen identifizieren. Dazu analysieren sie gezielt nur den räumlichen Bereich vor den Anwendern, in dem die steuernden Hände zu erwarten sind. Hat das System die Hände erkannt, registriert es ihre Bewegungen, ohne sich von anderen Personen im Raum beeinflussen zu lassen. Experten von Siemens Healthcare stellten die Verbindung zwischen der Bewegungserkennung und der Darstellung der Röntgenbilder her. Sie definierten die nötigen Befehle - also etwa, dass das Auseinanderbewegen der Hände einen Bildausschnitt vergrößern sollte.
Zugänglich für alle
Umderartige individuelle Programmierungen zu unterstützen, hat PrimeSense die Geräte-Software als Open-Source-System öffentlich zugänglich gemacht. Dabei ist das OpenNIgenannte System im Wesentlichen eine vermittelnde Abstraktionsschicht zwischen Sensoren, zum Beispiel der PrimeSense-Kamera, und einer Middleware, die diese Daten weiter- verarbeitet. „Durch OpenNI können Unternehmen aus den unterschiedlichsten Branchen Applikationen und Lösungen veröffentlichen oder suchen“, so Tal Dagan. „OpenNI ist dabei ein Open-Source-System, das jeder installieren kann und mit dem ein Entwickler innerhalb von wenigen Minuten starten kann, seine eigene Software zu programmieren.“ Auch die Wissenschaftler von INRIA nutzten für ihr System OpenNI, so Olivier Clatz: „Wir stützen uns bei all unseren Low-Level-Funktionen auf das OpenNI/NITE-System.“ NITE ist die von PrimeSense entwickelte Middelware.
Noch viel mehr Anwendungsmöglichkeiten
Doch die Anwendung im Operationssaal ist nur eine der Einsatzmöglichkeiten, die Tal Dagan für die PriemSense-Technologie sieht: „Die 3D-Sensing-Technologie von PrimeSense kann in einer Vielzahl Branchen genutzt werden. Ursprünglich waren wir im Spiele- und TV-Sektor aktiv, aber heute sehen wir einen Bedarf bei Unternehmen, die industrielle Maschinen und Roboter herstellen, Sicherheitssysteme entwickeln, Systeme zur Gesundheitsüberwachung anbieten oder Lösungen für digitale Leitsysteme und vieles anderes entwickeln.“