DE102010042278A1 - Operation navigation system with structured light - Google Patents

Operation navigation system with structured light Download PDF

Info

Publication number
DE102010042278A1
DE102010042278A1 DE102010042278A DE102010042278A DE102010042278A1 DE 102010042278 A1 DE102010042278 A1 DE 102010042278A1 DE 102010042278 A DE102010042278 A DE 102010042278A DE 102010042278 A DE102010042278 A DE 102010042278A DE 102010042278 A1 DE102010042278 A1 DE 102010042278A1
Authority
DE
Germany
Prior art keywords
light
navigation system
operation navigation
operating area
orientation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE102010042278A
Other languages
German (de)
Inventor
Hagen Klausmann
Anton Schick
Rainer Graumann
Martin Ringholz
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Siemens AG
Original Assignee
Siemens AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Siemens AG filed Critical Siemens AG
Priority to DE102010042278A priority Critical patent/DE102010042278A1/en
Priority to PCT/EP2011/067254 priority patent/WO2012049038A1/en
Publication of DE102010042278A1 publication Critical patent/DE102010042278A1/en
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/002Measuring arrangements characterised by the use of optical techniques for measuring two or more coordinates
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • G01B11/2518Projection by scanning of the object
    • G01B11/2527Projection by scanning of the object with phase change by in-plane movement of the patern
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • G01B11/2545Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object with one projection direction and several detection directions, e.g. stereo
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/46Indirect determination of position data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2055Optical tracking systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2065Tracking using image or pattern recognition
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/06Measuring instruments not otherwise provided for
    • A61B2090/061Measuring instruments not otherwise provided for for measuring dimensions, e.g. length
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/373Surgical systems with images on a monitor during operation using light, e.g. by using optical scanners
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/376Surgical systems with images on a monitor during operation using X-rays, e.g. fluoroscopy
    • A61B2090/3762Surgical systems with images on a monitor during operation using X-rays, e.g. fluoroscopy using computed tomography systems [CT]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/361Image-producing devices, e.g. surgical cameras
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/90Identification means for patients or instruments, e.g. tags

Abstract

Die Erfindung offenbart ein Operationsnavigationssystem, das räumlich und zeitlich moduliertes Licht verwendet, das auf ein Objekt (6, 8, 10, 12, O) in einem Operationsbereich (1) emittiert wird, um den Typ und/oder die Position und/oder die Orientierung eines Objekts in Abhängigkeit von der Zeit zu bestimmen.The invention discloses a surgical navigation system that uses spatially and temporally modulated light that is emitted onto an object (6, 8, 10, 12, O) in an operating area (1) in order to determine the type and / or position and / or the Determine the orientation of an object as a function of time.

Description

Die Erfindung betrifft ein Operationsnavigationssystem, das die Position und Orientierung eines medizinischen Instruments, eines medizinischen Werkzeuges, eines Implantats und/oder eines Körperteils mittels strukturiertem Licht erfasst.The invention relates to a surgical navigation system which detects the position and orientation of a medical instrument, a medical tool, an implant and / or a body part by means of structured light.

Im Stand der Technik sind Operationsnavigationssysteme bekannt, die dem Mediziner bei einer Operation, beispielsweise beim Einsetzen eines Implantats, unterstützen. Es werden sowohl optische als auch elektromagnetische Positionserfassungssysteme eingesetzt. Die Genauigkeit der eigentlichen Positionsbestimmung liegt bei den optischen Verfahren bei etwa 0,2 mm und bei den elektro-magnetischen Systemen bei etwa 1 mm. Wenn die Genauigkeit der gesamten Anwendung, d. h. inklusive Bildgebung, Registrierung, Objektbewegung etc., betrachtet wird, werden sowohl bei den optischen, als auch den elektromagnetischen Systemen eine Genauigkeit von etwa 3 bis 5 mm erreicht, wobei die optischen Systeme geringfügig bessere Ergebnisse erzielen.In the prior art, surgical navigation systems are known which assist the physician in an operation, for example when inserting an implant. Both optical and electromagnetic position sensing systems are used. The accuracy of the actual position determination is about 0.2 mm for the optical methods and about 1 mm for the electro-magnetic systems. If the accuracy of the entire application, i. H. including imaging, registration, object movement, etc., an accuracy of about 3 to 5 mm is achieved in both the optical and electromagnetic systems, with the optical systems achieving slightly better results.

Bei der bildgestützten Navigation werden Patientenbilddaten mit der aktuellen Patientenposition über einen sogenannten Registrierungsprozess abgeglichen. Es wird zwischen intraoperativer und präoperativer Bildgebung mit den entsprechenden Registrierungsverfahren unterschieden. Bei der präoperativen Registrierung wird bei der Navigation im Allgemeinen ein dreidimensionaler Datensatz über das Volumen des Operationsbereichs geladen, der beispielsweise mittels Computertomographie, Magnetresonanztomographie, PET, SPECT etc. erstellt wurde. Anschließend wird die Registrierung manuell durchgeführt. Bei intraoperativen Verfahren erfolgt die Erstellung der Bilder im Operationssaal mit bereits am Patienten angeordneten Nachverfolgungsreferenzelementen, wobei die Registrierung daher automatisch erfolgen kann. Hierzu werden insbesondere C-Bögen für die zweidimensionale und dreidimensionale Bildgebung verwendet. Es ist auch möglich, intraoperative CT-Systeme oder MR-Systeme zu verwenden.In image-guided navigation, patient image data is compared with the current patient position via a so-called registration process. A distinction is made between intraoperative and preoperative imaging with the corresponding registration procedures. During preoperative registration, a three-dimensional data set about the volume of the surgical area, which was created, for example, by means of computed tomography, magnetic resonance tomography, PET, SPECT, etc., is generally loaded during navigation. Then the registration is done manually. During intraoperative procedures, the images are created in the operating room with tracking reference elements already arranged on the patient, whereby the registration can therefore take place automatically. For this purpose, in particular C-arms are used for the two-dimensional and three-dimensional imaging. It is also possible to use intraoperative CT systems or MR systems.

Bei der optischen Navigation werden sowohl passive als auch aktive Nachverfolgungsverfahren verwendet. Es ist eine Sichtverbindung zwischen den Instrumenten und dem Kamerasystem erforderlich, was eine praktische Handhabung erschwert. Mittels einer Stereo-Nachverfolgungskamera werden sowohl Infrarotlicht ausgesendet als auch die Reflexionen empfangen und mittels Triangulation räumlich zugeordnet. Bei diesem passiven Verfahren werden reflektierende Markierungselemente auf allen Navigationselementen, dem Patienten sowie gegebenenfalls an dem intraoperativen Bildgebungssystem angebracht. Die reflektierenden Markierungselemente sind als Einwegprodukte ausgelegt und erzeugen daher hohe Betriebskosten, die etwa 50,00 Euro (Stand 2010) pro navigierter Operation betragen. Es ist auch möglich, aktive Markierungselemente, beispielsweise Infrarot-LEDs, zu verwenden. Diese sind hinsichtlich der Sterilisierung problematisch und die hierfür erforderlichen Kabel werden vom Operationspersonal als störend empfunden. Der Einsatz von Batterien führt wiederum zu höheren Betriebskosten. Auch bei der elektromagnetischen Navigation werden die hierzu erforderlichen Kabel vom Operationspersonal als störend angesehen.Optical navigation uses both passive and active tracking techniques. A visual contact between the instruments and the camera system is required, which makes practical handling difficult. By means of a stereo tracking camera both infrared light emitted and the reflections are received and assigned spatially by means of triangulation. In this passive method, reflective markers are applied to all navigational elements, the patient, and optionally to the intraoperative imaging system. The reflective marking elements are designed as disposable products and therefore generate high operating costs, which are about 50.00 Euro (as of 2010) per navigated operation. It is also possible to use active marking elements, for example infrared LEDs. These are problematic in terms of sterilization and the cables required for this are perceived by the surgical staff as disturbing. The use of batteries in turn leads to higher operating costs. Even with the electromagnetic navigation cables required for this purpose are considered by the surgical staff as disturbing.

Operationsnavigationssysteme sind detailliert in Imaging Systems for Mecical Diagnostics, Arnulf Oppelt, Publicis Corporate Publishing beschrieben.Operational navigation systems are described in detail in Imaging Systems for Mecical Diagnostics, Arnulf Oppelt, Publicis Corporate Publishing.

Die Erfindung stellt sich die Aufgabe, Probleme des Standes der Technik zu überwinden und ein verbessertes Operationsnavigationssystem zu schaffen.The invention has as its object to overcome problems of the prior art and to provide an improved operation navigation system.

Die Aufgabe der Erfindung wird durch Verwenden von räumlich und zeitlich moduliertem Licht gelöst, das auf ein oder mehrere Objekt(e) in einem Operationsbereich emittiert wird, um zumindest eines von Typ, Position und Orientierung eines Objektes in Abhängigkeit von der Zeit zu bestimmen.The object of the invention is achieved by using spatially and temporally modulated light emitted on one or more objects in an operating region to determine at least one of type, position and orientation of an object as a function of time.

Ein erfindungsgemäßes Operationsnavigationssystem umfasst eine Lichtabgabeeinrichtung, die strukturiertes Licht auf einen Operationsbereich mit zumindest einem Objekt abgibt, wobei ein Beleuchtungsmuster des strukturierten Lichts räumlich und zeitlich moduliert ist. Das Operationsnavigationssystem umfasst eine Bildaufnahmeeinrichtung, die das vom Objekt emittierte Licht in Abhängigkeit von der Zeit erfasst. Der Ausdruck ”emittieren” kann Reflektieren und/oder Streuen von Licht umfassen. Das Operationsnavigationssystem weist ferner eine Positionsbestimmungseinrichtung auf, die den Typ und/oder die Position und/oder die Orientierung des Objektes aus dem vom Objekt emittierten Licht in Abhängigkeit des Beleuchtungsmusters im Koordinatensystem der Positionsbestimmungseinrichtung bestimmt.A surgical navigation system according to the invention comprises a light emitting device which emits structured light onto an operating area with at least one object, wherein an illumination pattern of the structured light is spatially and temporally modulated. The operation navigation system includes an image pickup device that detects the light emitted from the object as a function of time. The term "emissive" may include reflecting and / or scattering light. The operation navigation system further comprises a position determination device which determines the type and / or the position and / or the orientation of the object from the light emitted by the object as a function of the illumination pattern in the coordinate system of the position determination device.

Durch das zeitlich und örtlich modulierte Licht kann kontinuierlich der Typ, die Position und/oder die Orientierung eines Objektes in einem Operationsbereich bestimmt werden, ohne dass gezwungenermaßen spezielle Markierungselemente auf dem Objekt angebracht werden müssen. Das strukturierte Licht weist vorzugsweise eine für den Menschen unsichtbare Wellenlänge auf, vorzugsweise eine Wellenlänge im Infrarotbereich, beispielsweise zwischen 780 nm und 3 μm. Da keine Markierungselemente bei dem erfindungsgemäßen Operationsnavigationssystem erforderlich sind, können die Operationskosten verringert werden.The temporally and locally modulated light can be used to continuously determine the type, the position and / or the orientation of an object in an operating area without necessarily having to attach special marking elements to the object. The structured light preferably has a wavelength which is invisible to humans, preferably a wavelength in the infrared range, for example between 780 nm and 3 μm. Since no marking elements are required in the surgical navigation system according to the invention, the operating costs can be reduced.

Das Operationsnavigationssystem umfasst eine Datenbank, in der Bild-Informations-Daten, beispielsweise virtuelle dreidimensionale Modelldaten, der Objekte hinterlegt sind. Dadurch wird sichergestellt, dass die Positionsbestimmungseinrichtung den Typ und/oder die Position und/oder die Orientierung eines Objekts erkennt. Ferner können in der Datenbank geometrische Daten hinterlegt sein, mit denen beispielsweise die Spitze eines Operationsinstrumentes oder eine beliebige andere Position, die medizinisch relevant ist, aus der bestimmten Position und/oder Orientierung des Objektes ermittelt werden kann. Diese geometrischen Daten können Teil des virtuellen dreidimensionalen Modells sein. Die Datenbank kann eine geometrische Beschreibung des Objektes aufweisen. Alternativ hierzu können Daten in der Datenbank auf Grundlage eines sogenannten Teach-In-Verfahrens bestimmt werden, bei dem das Objekt durch eine geeignete Bildaufnahmeeinrichtung aufgenommen wird und die relevanten Daten für die Datenbank, beispielsweise durch Merkmalsextraktion, erzeugt werden. The operation navigation system comprises a database in which image information data, for example virtual three-dimensional model data, of the objects are stored. This ensures that the position-determining device recognizes the type and / or the position and / or the orientation of an object. Furthermore, geometrical data can be stored in the database with which, for example, the tip of an operating instrument or any other position that is medically relevant can be determined from the determined position and / or orientation of the object. This geometric data can be part of the virtual three-dimensional model. The database may have a geometric description of the object. Alternatively, data in the database may be determined based on a so-called teach-in method in which the object is captured by a suitable image capture device and the relevant data for the database is generated, for example, by feature extraction.

Die Positionsbestimmungseinrichtung kann dazu ausgebildet sein, zumindest ein bildgebendes System, ein Werkzeug, ein Instrument, ein Implantat, ein Körperteil, ein Referenzobjekt etc. als das zuvor genannte Objekt zu erkennen. Die Datenbank kann dazu eingerichtet sein, als Objekt zumindest ein bildgebendes System, ein Werkzeug, ein Instrument, ein Implantat, ein Körperteil, ein Referenzobjekt etc. zu definieren. Das Referenzobjekt kann an einem Körperteil, einem beliebigen Ort im Operationsbereich und/oder an einem anderen Ort angeordnet sein.The position determination device can be designed to recognize at least one imaging system, a tool, an instrument, an implant, a body part, a reference object etc. as the aforementioned object. The database can be set up to define as object at least one imaging system, a tool, an instrument, an implant, a body part, a reference object, etc. The reference object can be arranged on a body part, any location in the operating area and / or in another location.

Die Positionsbestimmungseinrichtung kann dazu ausgebildet sein, als bildgebendes System eine beliebige Modalität zu erkennen, und die Datenbank kann dazu eingerichtet sein, als bildgebendes System eine beliebige Modalität zu definieren. Die Modalität kann beispielsweise ein Ultraschallsystem, ein Röntgensystem, ein Röntgensystem mit einem C-Bogen, ein MRT-System, ein PET-System, ein SPECT-System umfassen. Dadurch wird eine bildgestützte Navigation ermöglicht, bei der die Position der Objekte in Patientenbilddaten angezeigt werden kann.The position determination device can be designed to recognize any modality as an imaging system, and the database can be set up to define any modality as the imaging system. The modality may include, for example, an ultrasound system, an X-ray system, a C-arm X-ray system, an MRI system, a PET system, a SPECT system. This allows image-based navigation, where the position of objects in patient image data can be displayed.

Die Bildaufnahmeeinrichtung kann eine stereoskopische Kamera aufweisen. Die beiden Kameras der stereoskopischen Kamera können zueinander versetzt und/oder geneigt sein. Durch Verwendung der stereoskopischen Kamera mit zumindest zwei separaten Kameras, d. h. zwei separaten Kombinationen aus Objektiv und Messaufnehmer, beispielsweise CCD-Chip, kann mittels geeigneter mathematischer Verfahren die Position eines Objektes im Raum bestimmt werden, da das Objekt aus zwei unterschiedlichen Positionen bzw. Perspektiven erfasst wird.The image recording device may comprise a stereoscopic camera. The two cameras of the stereoscopic camera can be offset from each other and / or inclined. By using the stereoscopic camera with at least two separate cameras, i. H. two separate combinations of lens and sensor, such as CCD chip, the position of an object in space can be determined by means of suitable mathematical methods, since the object is detected from two different positions or perspectives.

Die Lichtabgabeeinrichtung kann einen Projektor mit einer rotierenden Lichtmaske aufweisen, die beleuchtet wird, wobei das durch die Scheibe erzeugte örtlich und zeitlich modulierte Licht auf den Operationsbereich abgegeben wird. Die rotierende Lichtmaske kann mit Durchlicht oder Auflicht beleuchtet werden. Wird die rotierende Lichtmaske mit Durchlicht beleuchtet, weist die Lichtmaske Bereiche mit einer höheren Transparenz und Bereiche mit einer niedrigeren Transparenz auf. Wird die Lichtmaske mit Auflicht beleuchtet, weist die Lichtmaske stärker reflektierende und schwächer reflektierende bzw. stärker absorbierende und schwächer absorbierende Bereiche auf.The light emitting device may comprise a projector having a rotating light mask which is illuminated, whereby the locally and temporally modulated light generated by the disc is delivered to the operating area. The rotating light mask can be illuminated with transmitted or incident light. When the rotating light mask is illuminated with transmitted light, the light mask has areas of higher transparency and areas of lower transparency. If the light mask is illuminated with incident light, the light mask has areas which are more reflective and less reflective, or more absorbent and less absorbent.

Die Lichtabgabeeinrichtung kann ein streifenförmiges und/oder ein wellenförmiges, beispielsweise sinusförmiges, Lichtintensitätsmuster auf den Operationsbereich abgeben. Werden auf den Operationsbereich ein streifenförmiges und/oder im Wesentlichen sinusförmiges Intensitätsmuster abgegeben, ergibt sich bei einer Beobachtung mittels einer Kamera aus einer zur Projektionsrichtung unterschiedlichen Richtung eine Verzerrung des Musters. Das im Wesentlichen sinusförmige Muster wird in Abhängigkeit von der Entfernung des Objektes in der Phase lateral verschoben. Aus dieser Phasenverschiebung kann der Abstand und die Orientierung zur Kamera berechnet werden.The light-emitting device can deliver a strip-shaped and / or a wave-shaped, for example sinusoidal, light intensity pattern to the surgical area. If a strip-shaped and / or substantially sinusoidal intensity pattern is emitted onto the surgical area, a distortion of the pattern results when the camera is observed by means of a camera from a direction different from the direction of projection. The substantially sinusoidal pattern is laterally displaced depending on the distance of the object in phase. From this phase shift, the distance and orientation to the camera can be calculated.

Die Bildaufnahmeeinrichtung kann eine Mehrzahl Bildaufnahmesysteme, beispielsweise stereoskopischer Kameras aufweisen, die den Operationsbereich aus unterschiedlichen Richtungen erfassen. Vorzugsweise wird jeweils ein Bildaufnahmesystem an einer Ecke des Operationsbereiches angeordnet, so dass insgesamt vier Bildaufnahmesysteme verwendet werden. Dadurch können die Probleme reduziert werden, die sich daraus ergeben, dass ein Teil eines Objektes in Richtung der Sichtlinie zu einer der Kameras verborgen ist. Mit dieser Anordnung kann der Typ, die Position und/oder die Orientierung jedes Objekts im Operationsbereich bestimmt werden.The image recording device may comprise a plurality of image recording systems, for example stereoscopic cameras, which capture the surgical area from different directions. Preferably, an image acquisition system is arranged in each case at a corner of the surgical area, so that a total of four image acquisition systems are used. This can reduce the problems of having a part of an object hidden in the line of sight to one of the cameras. With this arrangement, the type, position and / or orientation of each object in the operating area can be determined.

Ferner ist es möglich, Bildaufnahmesysteme, beispielsweise stereoskopische Kameras, unterschiedlicher Auflösung in einem Operationsbereich zu verwenden. Die Mehrzahl von Bildaufnahmesystemen kann den Operationsbereich mit unterschiedlichen Auflösungen erfassen. Beispielsweise kann ein vergleichsweise grob auflösendes Bildaufnahmesystem verwendet werden, um den gesamten Operationsbereich zu erfassen. Ferner kann ein vergleichsweise hochauflösendes Bildaufnahmesystem verwendet werden, um einen bestimmten Bereich des Operationsbereichs genauer zu erfassen. Die Bildaufnahmesysteme können strukturiertes Licht mit unterschiedlichen Wellenlängen verwenden, damit sich die Bildaufnahmesysteme nicht gegenseitig stören. Ferner können die Bildaufnahmesysteme strukturiertes Licht mit einer unterschiedlichen zeitlichen Modulation verwenden, damit sich die Bildaufnahmesysteme nicht gegenseitig stören.Furthermore, it is possible to use imaging systems, for example stereoscopic cameras, of different resolution in an operating area. The plurality of imaging systems may detect the surgical area at different resolutions. For example, a comparatively coarse resolution imaging system may be used to capture the entire surgical area. Furthermore, a relatively high resolution imaging system can be used to more accurately detect a particular area of the surgical area. The imaging systems can use structured light with different wavelengths so that the imaging systems are not mutually exclusive to disturb. Furthermore, the image acquisition systems may use structured light with a different temporal modulation, so that the image acquisition systems do not interfere with each other.

Das Operationsnavigationssystem kann eine Steuerungseinrichtung umfassen, die dazu ausgebildet ist, die Lichtabgabeeinrichtung und die Positionsbestimmungseinrichtung so anzusteuern, dass die Position und die Orientierung des bildgebenden Systems im Koordinatensystem des Operationsnavigationssystems bestimmt werden. Das bildgebende System kann beispielsweise ein Röntgensystem mit einem C-Bogen sein. Mittels des Operationsnavigationssystems kann die Position des Detektors und/oder des Emitters an einer oder einer Mehrzahl von Schwenkstellung(en) bestimmt werden.The operation navigation system may include a control device that is configured to control the light emitting device and the position determining device so that the position and orientation of the imaging system in the coordinate system of the surgical navigation system are determined. The imaging system may be, for example, an X-ray system with a C-arm. By means of the operation navigation system, the position of the detector and / or the emitter at one or a plurality of pivot position (s) can be determined.

Die Erfindung betrifft auch ein Verfahren zum Bestimmen der Position eines Objektes in einem Operationsbereich. Das Objekt im Operationsbereich wird mit strukturiertem Licht beleuchtet, wobei ein Beleuchtungsmuster des strukturierten Lichtes räumlich und zeitlich moduliert wird. Das vom Objekt emittierte Licht wird in Abhängigkeit von der Zeit erfasst. Die Position und/oder die Orientierung des Objektes werden aus dem vom Objekt emittierten Licht in Abhängigkeit des Beleuchtungsmusters bestimmt. Das Verfahren kann, wie zuvor unter Bezugnahme auf die Vorrichtung erläutert wurde, ausgestaltet sein.The invention also relates to a method for determining the position of an object in an operating area. The object in the operating area is illuminated with structured light, wherein a pattern of illumination of the structured light is spatially and temporally modulated. The light emitted by the object is detected as a function of time. The position and / or the orientation of the object are determined from the light emitted by the object as a function of the illumination pattern. The method may be configured as previously explained with reference to the device.

Die Erfindung betrifft auch ein Computerprogrammprodukt, das in einem Speicher eines Computers mit einem Prozessor geladen werden kann oder geladen ist, wobei das Computerprogrammprodukt Mittel aufweist, die zur Ausführung der Schritte des zuvor beschriebenen Verfahrens eingerichtet sind.The invention also relates to a computer program product that can be loaded into a memory of a computer having a processor or is loaded, the computer program product comprising means adapted to carry out the steps of the method described above.

Die Erfindung wird nachfolgend unter Bezugnahme auf die beigefügten Zeichnungen erläutert, die exemplarische Ausführungsformen darstellen. Es zeigen:The invention will be elucidated below with reference to the accompanying drawings which illustrate exemplary embodiments. Show it:

1 einen schematischen Schnitt durch einen Operationsbereich, bei dem die vorliegende Erfindung angewendet wird; 1 a schematic section through an operating area to which the present invention is applied;

2A einen Projektor mit einer mit Durchlicht beleuchteten Lichtmaske; 2A a projector with a transmitted light illuminated light mask;

2B einen Projektor mit einer mit Auflicht beleuchteten Lichtmaske; 2 B a projector with a reflected-light light mask;

3A ein räumlich streifenförmig moduliertes Lichtmuster; 3A a spatially strip-shaped modulated light pattern;

3B ein räumlich sinusförmig moduliertes Lichtmuster; 3B a spatially sinusoidally modulated light pattern;

3C ein Objekt, das mit einem linienförmigen Lichtmuster beleuchtet wird; und 3C an object illuminated with a linear light pattern; and

4 eine schematische Draufsicht auf eine stereoskopische Kamera mit einem Projektor für strukturiertes Licht. 4 a schematic plan view of a stereoscopic camera with a projector for structured light.

1 zeigt schematisch einen Querschnitt einer beispielhaften Operationsumgebung 1. Die Operationsumgebung umfasst einen Operationstisch 2 auf dem sich ein Patient 4 befindet. Bei der Operation wird ein erstes Instrument 6 verwendet. Am Operationsbereich ist ein erstes Referenzelement 8 angeordnet. Ferner ist am Körper des Patienten 4 ein zweites Instrument 10 positioniert, an dem ein zweites Referenzelement 12 befestigt ist. Der Operationsbereich weist ferner ein Röntgensystem mit einem schwenkbaren C-Bogen 14 auf, an dem ein Röntgenemitter 16 und ein Röntgendetektor 18 angeordnet sind. Mittels des Röntgensystems mit dem C-Bogen 14 können Aufnahmen des Inneren des Körpers des Patienten 4 vor und/oder während der Operation erzeugt werden. 1 schematically shows a cross section of an exemplary operating environment 1 , The operating environment includes an operating table 2 on which a patient is 4 located. The operation becomes a first instrument 6 used. At the operating area is a first reference element 8th arranged. Further, on the body of the patient 4 a second instrument 10 positioned at which a second reference element 12 is attached. The operating area further comprises an X-ray system with a pivotable C-arm 14 on, on which an X-ray emitter 16 and an x-ray detector 18 are arranged. By means of the X-ray system with the C-arm 14 can take pictures of the interior of the patient's body 4 be generated before and / or during the operation.

Das erfindungsgemäße Operationsnavigationssystem weist einen Positionssensor 20 auf, der einen Lichtprojektor 22 und eine Kamera 24 umfasst. Der Lichtprojektor gibt ein streifenförmig und/oder wellenförmig moduliertes Licht 26 auf den Operationsbereich 1 ab. Das strukturierte Licht ist zeitlich und örtlich moduliert. Die Kamera 24 erfasst das vom ersten Instrument 6, ersten Referenzelement 8, zweiten Instrument 10 sowie zweiten Referenzelement 12 emittierte strukturierte Licht in Anhängigkeit von der Zeit. Der Lichtprojektor 22 des Positionssensors 22 kann auch den Detektor 18 des Röntgensystems mit dem C-Bogen 14 beleuchten. Die Kamera 24 kann das vom Detektor 18 emittierte strukturierte Licht erfassen. Es versteht sich, dass der Lichtprojektor 22 auch den Emitter 16 des C-Bogens beleuchten kann, und die Kamera 24 das vom Emitter 16 emittierte Licht erfassen kann. Folglich kann das Operationsnavigationssystem auch die Position des Emitters 16 und/oder des Detektors 18 des C-Bogens bestimmen.The operation navigation system according to the invention has a position sensor 20 up, a light projector 22 and a camera 24 includes. The light projector gives a strip-shaped and / or wavy modulated light 26 on the surgery area 1 from. The structured light is temporally and locally modulated. The camera 24 captures that from the first instrument 6 , first reference element 8th , second instrument 10 and second reference element 12 emitted structured light as a function of time. The light projector 22 of the position sensor 22 can also detect the detector 18 X-ray system with the C-arm 14 illuminate. The camera 24 can that be from the detector 18 detect emitted structured light. It is understood that the light projector 22 also the emitter 16 of the C-arm, and the camera 24 that from the emitter 16 can detect emitted light. Consequently, the operation navigation system can also control the position of the emitter 16 and / or the detector 18 of the C-arm.

Sobald das strukturierte Licht 26 auf ein Objekt auftrifft, verändert sich die Form des strukturierten Lichts. Diese veränderte Form kann von der Kamera 24 erfasst werden und mittels einer Auswerteeinrichtung kann die Position und die Oberfläche eines Objektes bestimmt werden.Once the structured light 26 impinging on an object, the shape of the structured light changes. This altered shape may be from the camera 24 be detected and by means of an evaluation, the position and the surface of an object can be determined.

Die Grundlagen der Bestimmung des Typs, der Position und/oder der Orientierung eines Objektes mit Hilfe strukturierten Lichts sind der DE 10 2010 006 105.0 beschrieben, deren Inhalt hier mit Bezugnahme aufgenommen wird.The basics of determining the type, position and / or orientation of an object with the help of structured light are DE 10 2010 006 105.0 described, the contents of which are incorporated herein by reference.

2A zeigt die Funktionsweise einer ersten Ausführungsform eines Lichtprojektors 22. Der Lichtprojektor weist eine Beleuchtungseinheit 28 auf, die Licht auf eine rotierende Lichtmaske 30 abgibt. Auf der rotierenden Lichtmaske sind linienförmige Bereiche 32, 35 angeordnet. Alternativ hierzu oder zusätzlich können auf der Lichtmaske wellenförmige Bereiche 33, 34 angeordnet sein. Vorzugsweise sind die wellenförmigen Bereiche sinusförmig ausgebildet. Die linienförmigen Bereiche 32, 35 bzw. die wellenförmige Bereiche 33, 34 sind transparent ausgebildet, wohingegen die verbleibenden Bereiche der rotierenden Lichtmaske 30 nicht transparent ausgebildet sind. Das von der Beleuchtungseinheit 28 abgegebene Licht tritt durch die linienförmigen Bereiche 32, 35 bzw. wellenförmigen Bereiche 33, 34 in die Projektionsoptik 25 ein und wird von dieser als strukturiertes Licht 26 auf eine zu untersuchende Oberfläche, beispielsweise einen Operationsbereich, abgegeben. 2A shows the operation of a first embodiment of a light projector 22 , The light projector has a lighting unit 28 on, the light on a rotating light mask 30 emits. On the rotating light mask are linear areas 32 . 35 arranged. Alternatively or additionally, wavy areas can be formed on the light mask 33 . 34 be arranged. Preferably, the wave-shaped regions are sinusoidal. The linear areas 32 . 35 or the wave-shaped areas 33 . 34 are transparent, whereas the remaining areas of the rotating light mask 30 are not transparent. That of the lighting unit 28 emitted light passes through the line-shaped areas 32 . 35 or wavy areas 33 . 34 in the projection optics 25 and is used by this as a structured light 26 on a surface to be examined, for example, an operating area submitted.

Ein wellenförmiges oder sinusförmiges Beleuchtungsmuster wird in Abhängigkeit von der Entfernung eines Objektes in der Phase lateral verschoben. Aus dieser Phasenverschiebung kann der Abstand zum Lichtprojektor 22 bzw. zur Kamera 24 berechnet werden.A wavy or sinusoidal illumination pattern is laterally shifted in response to the distance of an object in phase. From this phase shift, the distance to the light projector 22 or to the camera 24 be calculated.

2B zeigt eine zweite Ausführungsform des Lichtprojektors 22. Die Lichtmaske ist als rotierende Walze 31 ausgebildet, die mit einer Auflichtbeleuchtung 29 beleuchtet wird. Die streifenförmige Bereiche 32, 35 und die wellenförmigen Bereiche 33, 34 sind bei dieser Ausführungsform reflektierend oder lichtemittierend ausgebildet, während die verbleibenden Bereiche der rotierenden Walze lichtabsorbierend ausgebildet sind. Das von den linienförmigen Bereichen bzw. wellenförmigen Bereichen emittierte Licht wird von der Projektionsoptik 25 als strukturiertes Licht 26 auf einen zu untersuchenden Bereich, beispielsweise dem Operationsbereich abgegeben. Alle Muster der Mehrzahl von Mustern können unterschiedlich ausgebildet sein. 2 B shows a second embodiment of the light projector 22 , The light mask is as a rotating roller 31 formed with an incident illumination 29 is illuminated. The strip-shaped areas 32 . 35 and the wavy areas 33 . 34 are formed in this embodiment, reflective or light-emitting, while the remaining areas of the rotating roller are designed to absorb light. The light emitted by the line-shaped regions or wave-shaped regions is emitted by the projection optics 25 as structured light 26 delivered to a region to be examined, for example, the surgical area. All patterns of the plurality of patterns may be formed differently.

3A zeigt ein linienförmiges Muster 32, 35, das auf ein ebenes Objekt abgegeben wird. 3B zeigt ein wellenförmiges Muster, das auf ein ebenes Objekt abgegeben wird. 3C zeigt ein linienförmiges Muster, das auf ein rundes Objekt O abgegeben wird. Es ist zu erkennen, dass sich das linienförmige Muster in einem Bereich wölbt, in dem es auf das runde Objekt trifft. Aufgrund der Wölbung des linienförmigen Musters kann das erfindungsgemäße Operationsnavigationssystem zumindest eines aus dem Typ des Objektes, der Position des Objektes und Orientierung des Objektes messen. Computergestützte Verfahren zum Auswerten von strukturiertem Licht sind dem Fachmann bekannt und folglich wird auf die Auswertung des strukturierten Lichts hierin nicht mehr weiter eingegangen. 3A shows a line-shaped pattern 32 . 35 which is delivered to a flat object. 3B shows a wavy pattern, which is delivered to a flat object. 3C shows a line-shaped pattern, which is delivered to a round object O. It can be seen that the line-shaped pattern bulges in an area where it meets the round object. Due to the curvature of the linear pattern, the surgical navigation system according to the invention can measure at least one of the type of the object, the position of the object and the orientation of the object. Computer-aided methods for evaluating structured light are known to the person skilled in the art and consequently the evaluation of the structured light is not discussed further here.

4 zeigt eine stereoskopische Kamera 36 mit einem Lichtprojektor 22, einer ersten Kamera 38 und einer zweiten Kamera 40. Die erste Kamera 38 weist einen ersten Bildaufnehmer 42 und die zweite Kamera 40 weist einen zweiten Bildaufnehmer 44 auf. Der Lichtprojektor 22 weist eine Lichtabgabeeinrichtung 46 auf, die zeitlich und örtlich moduliertes Licht erzeugt. Das zeitlich und örtlich modulierte Licht wird auf ein Objekt O in Form von linienförmigen Bereichen 32, 35 abgegeben. Die linienförmigen Bereiche 32, 35 werden durch die erste Kamera 38 und die zweite Kamera 40 aufgenommen und an eine Positionsbestimmungseinrichtung 48 übergeben. Die Positionsbestimmungseinrichtung 48 erzeugt eine bildliche Darstellung des Operationsbereichs, die auf einer Anzeigeeinrichtung 56 dargestellt wird. Die Positionsbestimmungseinrichtung 48 ist mit einer Datenbank 54 verbunden, die Repräsentationen der Objekte enthält. Mittels der Repräsentationen der Objekte kann die Positionsbestimmungseinrichtung 48 den Typ des Objektes bestimmen. Die Positionsbestimmungseinrichtung 48 kann auf Grundlage der in der Datenbank 54 enthaltenen Daten bestimmen, ob das Objekt ein Instrument, ein Werkzeug, ein Implantat, ein bildgebendes System etc. ist. Ferner kann die Positionsbestimmungseinrichtung aus den in der Datenbank 54 enthaltenen Daten, die Position des Objektes bestimmen. Insbesondere kann die Positionsbestimmungseinrichtung 48 die Position der Spitze eines medizinischen Instrumentes aus den in der Datenbank 54 hinterlegten Daten bestimmen. 4 shows a stereoscopic camera 36 with a light projector 22 , a first camera 38 and a second camera 40 , The first camera 38 has a first imager 42 and the second camera 40 has a second imager 44 on. The light projector 22 has a light emitting device 46 which generates temporally and locally modulated light. The temporally and locally modulated light is applied to an object O in the form of linear areas 32 . 35 issued. The linear areas 32 . 35 be through the first camera 38 and the second camera 40 taken and to a position determining device 48 to hand over. The position determination device 48 creates a pictorial representation of the operating area displayed on a display device 56 is pictured. The position determination device 48 is with a database 54 connected, which contains representations of the objects. By means of the representations of the objects, the position determining device 48 determine the type of the object. The position determination device 48 can based on the in the database 54 contained data determine whether the object is an instrument, a tool, an implant, an imaging system, etc. Furthermore, the position determination device can be made of those in the database 54 contained data, determine the position of the object. In particular, the position determination device 48 the position of the tip of a medical instrument from those in the database 54 determine stored data.

Das Operationsnavigationssystem umfasst ferner eine Steuerungseinrichtung 50, die mit der Lichtabgabeeinrichtung 46 und mit der Positionsbestimmungseinrichtung 48 verbunden ist. Hierdurch lassen sich die Abgabe von strukturiertem Licht durch die Lichtabgabeeinrichtung 46 sowie das Erfassen der Bilder durch die erste Kamera 38 und die zweite Kamera 40 synchronisieren. Die Steuerungseinrichtung 50 ist auch mit einer C-Bogen-Steuerungseinrichtung 52 verbunden, die dazu ausgebildet ist, ein Schwenken des C-Bogens zu bewirken, so dass die Position des Detektors bzw. des Emitters mittels der Lichtabgabeeinrichtung 46, der ersten Kamera 38 und der zweiten Kamera 40 bestimmt werden kann.The operation navigation system further comprises a control device 50 that with the light emitting device 46 and with the position determining device 48 connected is. This allows the delivery of structured light through the light emitting device 46 as well as capturing the images through the first camera 38 and the second camera 40 synchronize. The control device 50 is also with a C-arm control device 52 connected, which is adapted to cause a pivoting of the C-arm, so that the position of the detector or the emitter by means of the light emitting device 46 , the first camera 38 and the second camera 40 can be determined.

Die Erfindung schlägt vor, mittels strukturierter Beleuchtung die Position und Orientierung von Objekten im Raum direkt zu bestimmen. Separate optisch sichtbare Markierungselemente, LEDs oder elektromagnetische Spulen sind bei diesem Verfahren nicht zwingend erforderlich.The invention proposes to use structured illumination to directly determine the position and orientation of objects in space. Separate optically visible marking elements, LEDs or electromagnetic coils are not absolutely necessary with this method.

Dreidimensionale Modelle aller bei einer Operation verwendeten Instrumente, Werkzeuge, Implantate und Bildgebungsmodalitäten, beispielsweise Röntgensystem mit einem C-Bogen, ein Ultraschallgerät, und optionale Referenzstrukturen werden in einer Datenbank hinterlegt. Die sichtbaren dreidimensionalen Oberflächen aller Objekte, die sich im Operationsbereich befinden, werden durch das System in Echtzeit ermittelt und in Echtzeit den entsprechenden dreidimensionalen Modellen zugeordnet. Die verwendeten Algorithmen können ein Objekt auch identifizieren, wenn nur ein Teil des Objektes optisch sichtbar ist. Folglich können in Echtzeit die aktuelle Position und Orientierung aller sichtbaren Objekte ermittelt werden. Beispielsweise lässt sich die Spitze eines im Körper des Patienten befindlichen Instruments darstellen, wenn der zugehörige Griff des Instruments optisch detektiert werden kann und starr mit der Spitze verbunden ist. Die Position und Orientierung dieser Objekte können nach einer Registrierungsprozedur in die Bilddaten, die beispielsweise mit einer Bildgebungsmodalität ermittelt wurden, eingeblendet und in Echtzeit aktualisiert werden. Werden gleichzeitig die Position und Orientierung von Implantaten und Instrumenten ermittelt, können diese gleichzeitig mit den Bilddaten eingeblendet werden und in ihrer relativen Beziehung zueinander bestimmt werden.Three-dimensional models of all instruments, tools, implants, and imaging modalities used in an operation, such as a C-arm X-ray system, an ultrasound machine, and optional reference structures are stored in a database. The visible Three-dimensional surfaces of all objects that are in the operating area are determined by the system in real time and assigned in real time to the corresponding three-dimensional models. The algorithms used can also identify an object if only a part of the object is optically visible. Consequently, the current position and orientation of all visible objects can be determined in real time. For example, the tip of an instrument located in the body of the patient can be displayed if the associated handle of the instrument can be optically detected and rigidly connected to the tip. The position and orientation of these objects can be faded in and updated in real time after a registration procedure into the image data obtained, for example, with an imaging modality. If the position and orientation of implants and instruments are determined at the same time, they can be faded in simultaneously with the image data and determined in their relative relationship to one another.

Zusätzlich können Referenzstrukturen verwendet werden, die ermöglichen, dass die Lage des Patienten ermittelt wird. Da ein Chirurg während der Operation das Objekt, dessen Position zu ermitteln ist, beispielsweise ein Instrument, in der Hand hält, ist nur ein Teil der Oberfläche des Objektes sichtbar. Dadurch wird die Erkennbarkeit des Objektes negativ beeinflusst. Optional ist vorgesehen, zusätzliche dreidimensionale Strukturen an den Objekten anzubringen, um die Detektierbarkeit zu gewährleisten, auch wenn ein Chirurg das Objekt in der Hand hält.In addition, reference structures may be used to allow the location of the patient to be determined. Since during surgery a surgeon holds in hand the object whose position is to be detected, for example an instrument, only part of the surface of the object is visible. This negatively affects the recognizability of the object. Optionally, additional three-dimensional structures are provided on the objects to ensure detectability, even when a surgeon holds the object in his hand.

Wird zusätzlich eine intra-operative Bildgebung verwendet, so kann die Lage und Orientierung des Koordinatensystems der Bildgebung im Raum gegenüber dem Koordinatensystem des Operationsnavigationssystems auch durch das Operationsnavigationssystem bestimmt werden. Folglich können die Bilder der intra-operativen Bildgebung im Koordinatensystem des Operationsnavigationssystems dargestellt werden. Bei einem Röntgensystem mit einem C-Bogen bedeutet dies, dass die Position und Orientierung des Röntgendetektors und/oder der Röntgenröhre bestimmt werden. Im Fall eines Ultraschallsystems muss lediglich die Position und die Orientierung des Ultraschallapplikators bestimmt werden. In diesen Fällen muss zuvor die relative Beziehung zwischen dem Bildgebungsvolumen und dem Bildgebungsgerät, dessen Position intra-operativ bestimmt wird, ermittelt und vorzugsweise auch abgespeichert werden.If intra-operative imaging is additionally used, the position and orientation of the coordinate system of the imaging in the space in relation to the coordinate system of the surgical navigation system can also be determined by the surgical navigation system. Consequently, the images of the intra-operative imaging can be displayed in the coordinate system of the surgical navigation system. In an X-ray system with a C-arm, this means that the position and orientation of the X-ray detector and / or the X-ray tube are determined. In the case of an ultrasound system, only the position and orientation of the ultrasound applicator need to be determined. In these cases, the relative relationship between the imaging volume and the imaging device whose position is determined intra-operatively must first be determined and preferably also stored.

Es können mehrere stereoskopische Kameras als Positionsbestimmungssysteme verwendet werden, die zeitlich und räumlich moduliertes Licht mit unterschiedlichen Wellenlängen abgeben und die ihre gegenseitige Position kennen oder per Messung bestimmen. Die Erfindung kann auch mit herkömmlichen elektro-magnetischen und/oder optischen Navigationssystemen kombiniert werden. Beispielsweise kann die Position eines flexiblen Instruments im Körper mittels elektromagnetischer Navigation bestimmt werden, wobei die Position des Feldgenerators für die Bestimmung der Position des flexiblen Instrumentes mit dem hierin beschriebenen Verfahren bestimmt wird. Somit lassen sich die Positionen und Orientierungen von Instrumenten im Körper im Koordinatensystem des erfindungsgemäßen Operationsnavigationssystems bestimmen und den mit einer bildgebenden Modalität erzeugten Bildern zuordnen. Zum Verbessern der Erkennungssicherheit können die zu erkennenden Objekte mit einer im Infrarotbereich reflektierenden Schicht versehen sein. Die Erfindung ist nicht auf stereoskopische Kameras beschränkt. Es können auch räumlich unabhängige Kameras verwendet werden, wenn deren Positionen zueinander exakt bekannt sind, beispielsweise wenn sie sich an den Ecken eines Operationssaals, Operationstisches, Operationsbereichs etc., an festen und/oder bekannten Positionen befinden.Several stereoscopic cameras can be used as positioning systems which emit temporally and spatially modulated light of different wavelengths and which know their mutual position or determine by measurement. The invention may also be combined with conventional electro-magnetic and / or optical navigation systems. For example, the position of a flexible instrument in the body may be determined by electromagnetic navigation, where the position of the field generator for determining the position of the flexible instrument is determined by the method described herein. Thus, the positions and orientations of instruments in the body in the coordinate system of the surgical navigation system according to the invention can be determined and assigned to the images generated with an imaging modality. To improve the recognition security, the objects to be recognized may be provided with an infrared-reflective layer. The invention is not limited to stereoscopic cameras. Spatially independent cameras can also be used if their positions are known to each other exactly, for example if they are located at the corners of an operating room, operating table, operating area, etc., at fixed and / or known positions.

Die Erfindung hat den Vorteil, dass mittels dreidimensionaler Techniken Objekte in Echtzeit verfolgt werden können. Bei der üblichen Bewegungsgeschwindigkeit von Objekten in einem Operationsbereich ist eine Abtastrate von 20 bis 30 Hz ausreichend. Optional kann eine Abtastrate von 50 Hz vorgesehen sein.The invention has the advantage that objects can be tracked in real time by means of three-dimensional techniques. At the usual movement speed of objects in an operating range, a sampling rate of 20 to 30 Hz is sufficient. Optionally, a sampling rate of 50 Hz can be provided.

Ferner kann eine Projektion von nur vier Phasenlagen (Sinus) sowie eine Projektion eines Subcodes zur Elimination von eventuellen Mehrdeutigkeiten bei in der Höhe sehr ausgedehnten Objekten vorgesehen sein. Ferner können Algorithmen zum Kompensieren der Bewegungsunschärfe bei schnell bewegten Objekten implementiert sein. Die Projektion des strukturierten Lichtes erfolgt vorzugsweise im infraroten Bereich. Ferner kann das erfindungsgemäße System so implementiert sein, dass es leicht in einer bestehenden Umgebung implementiert werden kann.Furthermore, a projection of only four phase positions (sine) as well as a projection of a subcode to eliminate possible ambiguities in objects that are very extensive in height can be provided. Furthermore, algorithms for compensating for the motion blur can be implemented in fast-moving objects. The projection of the structured light preferably takes place in the infrared range. Further, the system of the invention may be implemented so that it can be easily implemented in an existing environment.

Die Erfindung hat darüber hinaus den Vorteil, dass mittels dreidimensionaler Erfassungstechniken navigationsrelevante Objekte im Operationsbereich ohne Markierungselemente exakt lokalisiert werden können. Der Erfindung liegt die Erkenntnis zugrunde, dass durch den Einsatz der aktiven Triangulation mittels strukturierter Beleuchtung im gesamten dreidimensionalen Raum im Operationsbereich deutliche Vorteile im Hinblick auf Kosten, Handhabung und Weiterentwicklungspotentiale eröffnet werden. Die dreidimensionale Erfassung von Operationsgeräten, beispielsweise Bohrer, Meißel, Tastgeräte etc., erlaubt es auf zusätzliche, den Chirurgen behindernde Hilfsmittel, beispielsweise Markierungselemente oder Kabel, zu verzichten.The invention also has the advantage that by means of three-dimensional detection techniques navigation-relevant objects in the operating area without marking elements can be located exactly. The invention is based on the finding that clear advantages in terms of costs, handling and further development potentials are opened up by the use of active triangulation by means of structured illumination in the entire three-dimensional space in the operating area. The three-dimensional detection of surgical equipment, such as drills, chisels, probes, etc., allows additional, disabling the surgeon aids, such as marking elements or cables to dispense.

Es können kostengünstigere Instrumente genutzt werden, die nicht durch die Zusatzkosten für die Markierungselemente belastet sind. Bei herkömmlichen Operationsnavigationssystemen müssen die Markierungselemente nach jedem Einsatz gewechselt werden, wodurch hohe Kosten entstehen. Ferner können die Kosten für Registrierungselemente am Röntgensystem oder am Ultraschallsystem eingespart werden, da das erfindungsgemäße Operationsnavigationssystem die Registrierung des Röntgensystems durchführen kann. Less expensive instruments can be used, which are not burdened by the additional costs for the marking elements. In conventional navigation systems, the marking elements must be changed after each use, resulting in high costs. Furthermore, the costs for registration elements can be saved on the X-ray system or on the ultrasound system, since the inventive operation navigation system can perform the registration of the X-ray system.

Es sind Bildaufnahmesysteme bekannt, die eine Auflösung von 5000 Punkte pro Linie erlauben. Legt man einen Operationsbereich von 1 m × 1 m zu Grunde, bedeutet das eine Auflösung von deutlich unter 1 mm.Image acquisition systems are known which allow a resolution of 5000 points per line. Based on an operating range of 1 m × 1 m, this means a resolution of well below 1 mm.

BezugszeichenlisteLIST OF REFERENCE NUMBERS

11
Operationsbereichoperation area
22
Operationstischoperating table
44
Patientpatient
66
Erstes InstrumentFirst instrument
88th
Erstes ReferenzelementFirst reference element
1010
Zweites InstrumentSecond instrument
1212
Zweites ReferenzelementSecond reference element
1414
C-BogenC-arm
1616
Emitteremitter
1818
Detektordetector
2020
Positionssensorposition sensor
2222
Lichtprojektoroverhead projector
2424
Kameracamera
2525
Projektionsoptikprojection optics
2626
Strukturiertes LichtStructured light
2828
Beleuchtungseinheitlighting unit
2929
AuflichtbeleuchtungBarlight
3030
Lichtmaskelight mask
3131
Rotierende WalzeRotating roller
3232
Linienförmiger BereichLine-shaped area
3434
Wellenförmiger BereichWavy area
3636
Stereoskopische KameraStereoscopic camera
3838
Erste KameraFirst camera
4040
Zweite KameraSecond camera
OO
Objektobject
4242
Erster BildaufnehmerFirst imager
4444
Zweiter BildaufnehmerSecond imager
4646
LichtabgabeeinrichtungA light emitting device
4848
PositionsbestimmungseinrichtungLocation facility
5050
Steuerungseinrichtungcontrol device
5252
C-Bogen-SteuerungseinrichtungC-arm controller
5454
DatenbankDatabase
5656
Anzeigeeinheitdisplay unit

ZITATE ENTHALTEN IN DER BESCHREIBUNG QUOTES INCLUDE IN THE DESCRIPTION

Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list of the documents listed by the applicant has been generated automatically and is included solely for the better information of the reader. The list is not part of the German patent or utility model application. The DPMA assumes no liability for any errors or omissions.

Zitierte PatentliteraturCited patent literature

  • DE 102010006105 [0032] DE 102010006105 [0032]

Claims (14)

Operationsnavigationssystem, aufweisend – eine Lichtabgabeeinrichtung (22, 46), die strukturiertes Licht auf einen Operationsbereich (1) mit zumindest einem Objekt (6, 8, 10, 12, O) abgibt, wobei zumindest ein Beleuchtungsmuster (26, 32, 33, 34, 35) des strukturierten Lichts räumlich und zeitlich moduliert ist; – eine Bildaufnahmeeinrichtung (24; 38, 40), die das vom Objekt (6, 8, 10, 12, O) emittierte Licht in Abhängigkeit von der Zeit erfasst; und – eine Positionsbestimmungseinrichtung (48), die den Typ und/oder die Position und/oder die Orientierung des Objektes (6, 8, 10, 12, O) aus dem vom Objekt emittierten Licht in Abhängigkeit des Beleuchtungsmusters bestimmt (26, 32, 33, 34, 35)Operation navigation system, comprising - a light emitting device ( 22 . 46 ), the structured light on an operating area ( 1 ) with at least one object ( 6 . 8th . 10 . 12 , O), wherein at least one illumination pattern ( 26 . 32 . 33 . 34 . 35 ) of the structured light is spatially and temporally modulated; An image recording device ( 24 ; 38 . 40 ), that of the object ( 6 . 8th . 10 . 12 , O) light detected as a function of time; and - a position determination device ( 48 ), the type and / or the position and / or the orientation of the object ( 6 . 8th . 10 . 12 , O) determined from the light emitted by the object as a function of the illumination pattern ( 26 . 32 . 33 . 34 . 35 ) Operationsnavigationssystem nach Anspruch 1, gekennzeichnet durch – eine Datenbank (54), in der Bild-Informations-Daten der Objekte hinterlegt sind.Operation navigation system according to claim 1, characterized by - a database ( 54 ), in which image information data of the objects are stored. Operationsnavigationssystem nach Anspruch 1, dadurch gekennzeichnet, dass die Positionsbestimmungseinrichtung (48) dazu ausgebildet ist, zumindest ein bildgebendes System (14, 16, 18), ein Werkzeug (6, 10), ein Instrument (6, 10), ein Implantat, ein Körperteil, ein Referenzobjekt (8, 12) als Objekt zu erkennen, und die Datenbank (54) dazu eingerichtet ist, als Objekt zumindest ein bildgebendes System (14, 16, 18), ein Werkzeug (6, 10), ein Instrument (6, 10), ein Implantat, ein Körperteil, ein Referenzobjekt (8, 12) zu definieren, wobei das Referenzobjekt (8, 12) an einem Körperteil, einem beliebigen Ort im Operationsbereich und/oder an einem anderen Objekt angeordnet werden kann.Operation navigation system according to claim 1, characterized in that the position-determining device ( 48 ) is adapted to at least one imaging system ( 14 . 16 . 18 ), a tool ( 6 . 10 ), an instrument ( 6 . 10 ), an implant, a body part, a reference object ( 8th . 12 ) as an object, and the database ( 54 ) is set up as an object at least one imaging system ( 14 . 16 . 18 ), a tool ( 6 . 10 ), an instrument ( 6 . 10 ), an implant, a body part, a reference object ( 8th . 12 ), the reference object ( 8th . 12 ) can be arranged on a body part, any location in the operating area and / or on another object. Operationsnavigationssystem nach Anspruch 3, dadurch gekennzeichnet, dass die Positionsbestimmungseinrichtung (48) dazu ausgebildet ist, als bildgebendes System eine beliebige Modalität zu erkennen, und die Datenbank dazu eingerichtet ist, als bildgebendes System eine beliebige Modalität zu definieren, wobei die Modalität zumindest ein Ultraschall-System, ein Röntgensystem und ein Röntgensystem mit einem C-Bogen (14, 16, 18) umfasst.Operation navigation system according to claim 3, characterized in that the position-determining device ( 48 ) is designed to recognize any modality as an imaging system, and the database is set up to define any modality as an imaging system, the modality comprising at least an ultrasound system, an X-ray system and a C-arm X-ray system ( 14 . 16 . 18 ). Operationsnavigationssystem nach einem der Ansprüche 1 bis 4, dadurch gekennzeichnet, dass die Bildaufnahmeeinrichtung mehrere Kameras umfasst, die in einem festen geometrischen Verhältnis zueinander stehen und insbesondere eine stereoskopische Kamera (36) aufweist.Operation navigation system according to one of claims 1 to 4, characterized in that the image recording device comprises a plurality of cameras which are in a fixed geometric relationship to each other and in particular a stereoscopic camera ( 36 ) having. Operationsnavigationssystem nach einem der Ansprüche 1 bis 5, dadurch gekennzeichnet, dass die Lichtabgabeeinrichtung (22) einen Projektor mit einer rotierenden Lichtmaske (30, 31) aufweist, die beleuchtet wird, wobei das durch die Lichtmaske erzeugte örtlich und zeitlich modulierte Licht auf den Operationsbereich (1) abgegeben wird.Operation navigation system according to one of claims 1 to 5, characterized in that the light emitting device ( 22 ) a projector with a rotating light mask ( 30 . 31 ), which is illuminated, wherein the locally and temporally modulated light generated by the light mask on the operating area ( 1 ) is delivered. Operationsnavigationssystem nach einem der Ansprüche 1 bis 6, dadurch gekennzeichnet, dass die Lichtabgabeeinrichtung (27) ein streifenförmiges (32, 35) und/oder wellenförmiges Lichtintensitätsmuster (33, 34) auf den Operationsbereich abgibt.Operation navigation system according to one of claims 1 to 6, characterized in that the light emitting device ( 27 ) a strip-shaped ( 32 . 35 ) and / or wavy light intensity pattern ( 33 . 34 ) on the operating area. Operationsnavigationssystem nach Anspruch 7, dadurch gekennzeichnet, dass die Positionsbestimmungseinrichtung (48) dazu ausgebildet ist, mittels Auswerten des auf Grundlage des streifenförmigen (32, 35) und/oder wellenförmigen Lichtintensitätsmusters (33, 34) vom Objekt (6, 8, 10, 12, O) emittierten Lichts die Entfernung des Objektes zu bestimmen.Operation navigation system according to claim 7, characterized in that the position-determining device ( 48 ) is designed, by means of evaluation of the basis of the strip-shaped ( 32 . 35 ) and / or wavelike light intensity pattern ( 33 . 34 ) from the object ( 6 . 8th . 10 . 12 , O) emitted light to determine the distance of the object. Operationsnavigationssystem nach einem der Ansprüche 1 bis 8, dadurch gekennzeichnet, dass die Bildaufnahmeeinrichtung eine Mehrzahl von Bildaufnahmesystemen (36) aufweist, die den Operationsbereich (1) aus unterschiedlichen Richtungen erfassen.Operation navigation system according to one of claims 1 to 8, characterized in that the image recording device comprises a plurality of image recording systems ( 36 ), which covers the operating area ( 1 ) from different directions. Operationsnavigationssystem nach einem der Ansprüche 1 bis 9, dadurch gekennzeichnet, dass die Bildaufnahmeeinrichtung eine Mehrzahl von Bildaufnahmesystemen (36) aufweist, die den Operationsbereich (1) mit unterschiedlichen Auflösungen erfassen.Operation navigation system according to one of claims 1 to 9, characterized in that the image recording device comprises a plurality of image recording systems ( 36 ), which covers the operating area ( 1 ) with different resolutions. Operationsnavigationssystem nach einem der Ansprüche 3 bis 10, gekennzeichnet durch – eine Steuerungseinrichtung (50), die dazu ausgebildet ist, die Lichtabgabeinrichtung und die Positionsbestimmungseinrichtung so anzusteuern, dass die Position und die Orientierung des bildgebende System im Koordinatensystem des Operationsnavigationssystems bestimmt wird.Operation navigation system according to one of claims 3 to 10, characterized by - a control device ( 50 ), which is designed to control the light-emitting device and the position-determining device so that the position and orientation of the imaging system in the coordinate system of the surgical navigation system is determined. Verwenden von räumlich und zeitlich moduliertem Licht, das auf ein Objekt (6, 8, 10, 12, O) in einem Operationsbereich (1) emittiert wird, um den Typ und/oder die Position und/oder die Orientierung eines Objektes (6, 8, 10, 12, O) in Abhängigkeit von der Zeit zu bestimmen.Using spatially and temporally modulated light that is incident on an object ( 6 . 8th . 10 . 12 , O) in an operating area ( 1 ) is emitted in order to determine the type and / or the position and / or the orientation of an object ( 6 . 8th . 10 . 12 , O) as a function of time. Verfahren zum Bestimmen der Position eines Objektes (6, 8, 10, 12, O) in einem Operationsbereich (1), aufweisend die folgende Schritte: – Beleuchten des Objektes (6, 8, 10, 12, O) im Operationsbereich mit strukturiertem Licht, wobei ein Beleuchtungsmuster des strukturierten Lichtes räumlich und zeitlich moduliert wird; – Erfassen des vom Objekt (6, 8, 10, 12, O) emittierten Licht in Abhängigkeit von der Zeit; und – Bestimmen der Position und/oder der Orientierung des Objektes (6, 8, 10, 12, O) aus dem vom Objekt emittierten Licht in Abhängigkeit des Beleuchtungsmusters (26, 32, 33, 34, 35).Method for determining the position of an object ( 6 . 8th . 10 . 12 , O) in an operating area ( 1 ), comprising the following steps: - illuminating the object ( 6 . 8th . 10 . 12 , O) in the operating area with structured light, wherein a pattern of illumination of the structured light is spatially and temporally modulated; - Capture the object ( 6 . 8th . 10 . 12 , O) emitted light as a function of time; and determining the position and / or the orientation of the object ( 6 . 8th . 10 . 12 , O) from the object emitted light as a function of the illumination pattern ( 26 . 32 . 33 . 34 . 35 ). Computerprogrammprodukt, ladbar oder geladen in einen Speicher eines Computers umfassend Mittel, die zur Ausführung der Schritte des Verfahrens nach Anspruch 13 eingerichtet sind.A computer program product loadable or loaded into a memory of a computer comprising means adapted to carry out the steps of the method of claim 13.
DE102010042278A 2010-10-11 2010-10-11 Operation navigation system with structured light Withdrawn DE102010042278A1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
DE102010042278A DE102010042278A1 (en) 2010-10-11 2010-10-11 Operation navigation system with structured light
PCT/EP2011/067254 WO2012049038A1 (en) 2010-10-11 2011-10-04 Operation navigation system having structured light

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102010042278A DE102010042278A1 (en) 2010-10-11 2010-10-11 Operation navigation system with structured light

Publications (1)

Publication Number Publication Date
DE102010042278A1 true DE102010042278A1 (en) 2012-04-12

Family

ID=44800015

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102010042278A Withdrawn DE102010042278A1 (en) 2010-10-11 2010-10-11 Operation navigation system with structured light

Country Status (2)

Country Link
DE (1) DE102010042278A1 (en)
WO (1) WO2012049038A1 (en)

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105637320A (en) * 2013-08-19 2016-06-01 巴斯夫欧洲公司 Optical detector
US10094927B2 (en) 2014-09-29 2018-10-09 Basf Se Detector for optically determining a position of at least one object
US10120078B2 (en) 2012-12-19 2018-11-06 Basf Se Detector having a transversal optical sensor and a longitudinal optical sensor
US10353049B2 (en) 2013-06-13 2019-07-16 Basf Se Detector for optically detecting an orientation of at least one object
US10378888B2 (en) 2015-05-05 2019-08-13 Friedrich-Schiller-Universitaet Jena Device and method for spatially measuring surfaces
US10412283B2 (en) 2015-09-14 2019-09-10 Trinamix Gmbh Dual aperture 3D camera and method using differing aperture areas
EP3578126A1 (en) * 2018-06-08 2019-12-11 Stryker European Holdings I, LLC Surgical navigation system
US10775505B2 (en) 2015-01-30 2020-09-15 Trinamix Gmbh Detector for an optical detection of at least one object
US10823818B2 (en) 2013-06-13 2020-11-03 Basf Se Detector for optically detecting at least one object
US10890491B2 (en) 2016-10-25 2021-01-12 Trinamix Gmbh Optical detector for an optical detection
US10948567B2 (en) 2016-11-17 2021-03-16 Trinamix Gmbh Detector for optically detecting at least one object
US10955936B2 (en) 2015-07-17 2021-03-23 Trinamix Gmbh Detector for optically detecting at least one object
US11041718B2 (en) 2014-07-08 2021-06-22 Basf Se Detector for determining a position of at least one object
US11125880B2 (en) 2014-12-09 2021-09-21 Basf Se Optical detector
US11211513B2 (en) 2016-07-29 2021-12-28 Trinamix Gmbh Optical sensor and detector for an optical detection
US11428787B2 (en) 2016-10-25 2022-08-30 Trinamix Gmbh Detector for an optical detection of at least one object
US11860292B2 (en) 2016-11-17 2024-01-02 Trinamix Gmbh Detector and methods for authenticating at least one object

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102252336B1 (en) 2013-06-13 2021-05-14 바스프 에스이 Optical detector and method for manufacturing the same
US9665182B2 (en) 2013-08-19 2017-05-30 Basf Se Detector for determining a position of at least one object
US11060922B2 (en) 2017-04-20 2021-07-13 Trinamix Gmbh Optical detector
JP7237024B2 (en) 2017-06-26 2023-03-10 トリナミクス ゲゼルシャフト ミット ベシュレンクテル ハフツング a detector for determining the position of at least one object
CN108955526A (en) * 2018-07-27 2018-12-07 朱培恒 A kind of light field scanning means and its light field scan method

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4687326A (en) * 1985-11-12 1987-08-18 General Electric Company Integrated range and luminance camera
DE69503814T2 (en) * 1994-03-17 1998-12-03 Roke Manor Research Video-based system for computer-assisted surgery and localization
EP1142536A1 (en) * 2000-04-05 2001-10-10 BrainLAB AG Patient referencing in a medical navigation system using projected light points
WO2010020397A1 (en) * 2008-08-18 2010-02-25 Naviswiss Ag Medical measuring system, surgical intervention methods, and use of a medical measuring system
DE102010006105A1 (en) 2010-01-28 2011-08-18 Siemens Aktiengesellschaft, 80333 Apparatus and method for sequential pattern projection

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19743811C2 (en) * 1997-10-04 2000-01-05 Henning Wolf Measuring method and measuring device for determining the shape of objects with a rotatably mounted lattice girder
DE102006048234A1 (en) * 2006-10-11 2008-04-17 Steinbichler Optotechnik Gmbh Method and device for determining the 3D coordinates of an object

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4687326A (en) * 1985-11-12 1987-08-18 General Electric Company Integrated range and luminance camera
DE69503814T2 (en) * 1994-03-17 1998-12-03 Roke Manor Research Video-based system for computer-assisted surgery and localization
EP1142536A1 (en) * 2000-04-05 2001-10-10 BrainLAB AG Patient referencing in a medical navigation system using projected light points
WO2010020397A1 (en) * 2008-08-18 2010-02-25 Naviswiss Ag Medical measuring system, surgical intervention methods, and use of a medical measuring system
DE102010006105A1 (en) 2010-01-28 2011-08-18 Siemens Aktiengesellschaft, 80333 Apparatus and method for sequential pattern projection

Cited By (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10120078B2 (en) 2012-12-19 2018-11-06 Basf Se Detector having a transversal optical sensor and a longitudinal optical sensor
US10353049B2 (en) 2013-06-13 2019-07-16 Basf Se Detector for optically detecting an orientation of at least one object
US10823818B2 (en) 2013-06-13 2020-11-03 Basf Se Detector for optically detecting at least one object
US10845459B2 (en) 2013-06-13 2020-11-24 Basf Se Detector for optically detecting at least one object
CN105637320A (en) * 2013-08-19 2016-06-01 巴斯夫欧洲公司 Optical detector
US11041718B2 (en) 2014-07-08 2021-06-22 Basf Se Detector for determining a position of at least one object
US10094927B2 (en) 2014-09-29 2018-10-09 Basf Se Detector for optically determining a position of at least one object
US11125880B2 (en) 2014-12-09 2021-09-21 Basf Se Optical detector
US10775505B2 (en) 2015-01-30 2020-09-15 Trinamix Gmbh Detector for an optical detection of at least one object
US10378888B2 (en) 2015-05-05 2019-08-13 Friedrich-Schiller-Universitaet Jena Device and method for spatially measuring surfaces
US10955936B2 (en) 2015-07-17 2021-03-23 Trinamix Gmbh Detector for optically detecting at least one object
US10412283B2 (en) 2015-09-14 2019-09-10 Trinamix Gmbh Dual aperture 3D camera and method using differing aperture areas
US11211513B2 (en) 2016-07-29 2021-12-28 Trinamix Gmbh Optical sensor and detector for an optical detection
US10890491B2 (en) 2016-10-25 2021-01-12 Trinamix Gmbh Optical detector for an optical detection
US11428787B2 (en) 2016-10-25 2022-08-30 Trinamix Gmbh Detector for an optical detection of at least one object
US10948567B2 (en) 2016-11-17 2021-03-16 Trinamix Gmbh Detector for optically detecting at least one object
US11415661B2 (en) 2016-11-17 2022-08-16 Trinamix Gmbh Detector for optically detecting at least one object
US11635486B2 (en) 2016-11-17 2023-04-25 Trinamix Gmbh Detector for optically detecting at least one object
US11698435B2 (en) 2016-11-17 2023-07-11 Trinamix Gmbh Detector for optically detecting at least one object
US11860292B2 (en) 2016-11-17 2024-01-02 Trinamix Gmbh Detector and methods for authenticating at least one object
US11045259B2 (en) 2018-06-08 2021-06-29 Stryker European Holdings I, Llc Surgical navigation system
EP3578126A1 (en) * 2018-06-08 2019-12-11 Stryker European Holdings I, LLC Surgical navigation system

Also Published As

Publication number Publication date
WO2012049038A1 (en) 2012-04-19

Similar Documents

Publication Publication Date Title
DE102010042278A1 (en) Operation navigation system with structured light
EP0857461B1 (en) Method and system for position determination during X-ray imaging
DE102011078212B4 (en) Method and device for displaying an object
EP1225454B1 (en) Method and device for fixing a position
EP1873666B1 (en) Medical marker tracking system with determination of the marker characteristics
EP2850388B1 (en) Registration method and registration device for a position detection system
EP2309925B1 (en) X-ray image recording system and x-ray image recording method for recording image data using x-ray devices for volume reconstruction
EP0950380A1 (en) Image guided surgery arrangement
DE102008025151A1 (en) Image generation apparatus and method for nuclear imaging
EP1517647A1 (en) Method and instrument for surgical navigation
DE102020201070A1 (en) Display device
DE19807884A1 (en) Computer-aided intra-operative anatomical object visualization method used during complex brain surgery
DE102013203399A1 (en) Method and projection device for marking a surface
DE102019211870A1 (en) Projection device for generating a light distribution on a surface of an examination object for aligning a medical object and method for projecting a light distribution onto a surface of an examination object
DE102014102425B4 (en) Microscope system and microscopy method using digital markers
DE102011006537B4 (en) Method for registering a first coordinate system of a first medical imaging device with a second coordinate system of a second medical imaging device and / or a third coordinate system of a medical instrument, which is defined by markers of a medical navigation device, and medical examination and / or treatment system
WO2018007091A1 (en) Imaging device for an operating theatre
DE102018119343B4 (en) Method for calibrating objects in a reference coordinate system and method for tracking objects
EP3377916A1 (en) Medical coordinate measuring device, and medical coordinate measuring method
DE102011050240A1 (en) Apparatus and method for determining the relative position and orientation of objects
EP3626176B1 (en) Method for supporting a user, computer program product, data carrier and imaging system
DE102021205700B4 (en) Presentation device for displaying an augmented reality and method for providing an augmented reality
DE102008052976B4 (en) tracking system
DE102014212913B4 (en) Method and device for intraoperative navigation
DE102013219134A1 (en) System and method for correlating object information with X-ray images

Legal Events

Date Code Title Description
R016 Response to examination communication
R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: A61B0019000000

Ipc: A61B0034200000

R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee