DE19757912A1 - Verfahren und Vorrichtung zum Vorsehen einer mehrere Quellen darstellenden Anzeige und ein speziell an die Verwendung mit der Vorrichtung angepaßtes Fernsicht-Inspektionssystem - Google Patents

Verfahren und Vorrichtung zum Vorsehen einer mehrere Quellen darstellenden Anzeige und ein speziell an die Verwendung mit der Vorrichtung angepaßtes Fernsicht-Inspektionssystem

Info

Publication number
DE19757912A1
DE19757912A1 DE19757912A DE19757912A DE19757912A1 DE 19757912 A1 DE19757912 A1 DE 19757912A1 DE 19757912 A DE19757912 A DE 19757912A DE 19757912 A DE19757912 A DE 19757912A DE 19757912 A1 DE19757912 A1 DE 19757912A1
Authority
DE
Germany
Prior art keywords
sensor
data
video
image
pixel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
DE19757912A
Other languages
English (en)
Other versions
DE19757912B4 (de
Inventor
Joseph K Leo
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Olympus America Inc
Original Assignee
Olympus America Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus America Inc filed Critical Olympus America Inc
Publication of DE19757912A1 publication Critical patent/DE19757912A1/de
Application granted granted Critical
Publication of DE19757912B4 publication Critical patent/DE19757912B4/de
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B7/00Mountings, adjusting means, or light-tight connections, for optical elements
    • G02B7/28Systems for automatic generation of focusing signals

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Endoscopes (AREA)
  • Instruments For Viewing The Inside Of Hollow Bodies (AREA)
  • Image Processing (AREA)

Description

Die Erfindung betrifft die Anzeige von Informationen von mehreren Quellen in einer Art und Weise, die eine rasche Aufnahme und Interpretation der Informationen ermöglicht. Im einzelnen betrifft die Erfindung die Anzeige von Informationen, die von der Inspektion eines Werkstücks herrühren, und insbesondere die Anzeige von Informationen von einer Ferninspektion des Werkstücks.
Verschiedene Systeme oder Teile müssen periodisch oder, wenn ein Problem vermutet wird, inspiziert bzw. überprüft werden. Z. B. weist ein Flugtriebwerk eine Reihe von Turbinen auf, von denen jede eine Anzahl an Turbinenschaufeln besitzt, die von Zeit zu Zeit überprüft werden müssen. Falls z. B. ein Flugtriebwerk einen Vogel einsaugt, kann ein Riß 110 in einer Turbinenschaufel 106 entstehen, wie dies in Fig. 1b dargestellt ist. Dieser Riß kann entweder a) unbeachtlich sein, so daß keine Wartung erforderlich ist, b) relativ klein sein, so daß der Riß unter Ausbildung eines "Übergangs" (d. h. einer aerodynamisch akzeptablen Form) verschliffen werden kann, oder c) relativ groß sein, so daß die Schaufel 106 ersetzt werden muß.
Wie in Fig. 1a schematisch dargestellt, sind die Turbinenschaufeln 106, die sich radial von einer Achse 104 wegerstrecken, in einem Gehäuse 102 eingeschlossen. Um die Inspektion der Turbinenschaufeln 106 ohne Öffnen des Gehäuses 102 zu erleichtern, sind eine oder mehrere Inspektionsöffnungen 108 vorgesehen. Fernsicht- Inspektionssysteme, die optische Instrumente wie z. B. Boreskope (Bohrungsprüfgeräte), flexible Fiberskope und Videobild-Endoskope einschließen, werden oft zur Ferninspektion von Turbinenschaufeln 106 verwendet. Im einzelnen weist jedes der vorstehend erwähnten optischen Instrumente ein Einführrohr auf, das durch die Inspektionsöffnung 108 eingeführt werden kann. In jedem Fall überträgt das Einführrohr ein an seinem distalen, im Inneren des Gehäuses 102 befindlichen Ende empfangenes Bild zu seinem proximalen Ende, das außerhalb des Gehäuses 102 angeordnet ist. Ein elektronisches Drehwerkzeug (wie z. B. das von Olympus America Inc. angebotene Modell OTT) kann zum automatischen und genauen Drehen der Turbine verwendet werden, so daß jede Turbinenschaufel 106 betrachtet werden kann und die interessierenden Schaufeln 106 für eine spätere genauere Inspektion markiert werden können. Obwohl Boreskope, flexible Fiberskope und flexible Videobild- Endoskope für den Fachmann bekannt sind, wird nachfolgend zur besseren Verdeutlichung ein kurzer Überblick über diese optischen Instrumente gegeben.
Fig. 2a verdeutlicht eine Seitenansicht eines starren Boreskops 200, das in Verbindung mit einer daran befestigten Videokamera (nicht gezeigt) als Videoquelle für das Anzeigesystem der Erfindung verwendet werden kann. Wie aus Fig. 2a ersichtlich, weist das Boreskop einen Körper 202, der z. B. einen Handgriff 203 einschließen kann, sowie ein Einführrohr 204 auf. Der Körper 202 ist mit dem proximalen Ende des Einführrohres 204 verbunden. Am distalen Ende des Einführrohres 204 weist ein Kopfadapter 211 ein Linsensystem 206 mit einem Gesichtsfeld 208 und eine Lichtaussendeeinrichtung 210 auf. Obwohl der gezeigte Kopfadapter 211 eine 90 Grad (oder rechtwinklige) Betrachtung vorsieht, sind andere Kopfadapter (z. B. für eine direkte Sicht, eine schräg um 45 Grad nach vorne gerichtete Sicht und eine um 110 Grad nach rückwärts gerichtete Sicht) verfügbar, wie dies dem Fachmann bekannt ist.
Der Körper 202 des Boreskops schließt einen Scharfeinstellungsring 214 und ein Okular 212 ein. Das Boreskop kann auch eine Umlaufabtast-Skalenscheibe 216 aufweisen, die dem Benutzer das Drehen (Z. B. über 370 Grad) des Einführrohres 204 bezüglich des Körpers 202 ermöglicht. Die Umlaufabtast-Skalenscheibe 216 schließt vorzugsweise einen Umlaufabtastrichtungsanzeiger 218 ein, so daß der Benutzer die Ausrichtung des Kopfadapters 211 bestimmen kann, falls dieser z. B. durch das Gehäuse 102 von der Sicht des Benutzers abgeschirmt ist. Der Körper 202 weist auch vorzugsweise einen Lichtleiterverbinder 220 zur Aufnahme von Beleuchtungslicht von einer externen Quelle auf.
Falls das Boreskop 200 nicht in Gebrauch ist, ist zum Schutz der Okularoptik eine Okularmuschel 222 vorgesehen. Ein Videoadapter 224 kann dazu verwendet werden, eine Videokamera (nicht gezeigt) mit dem Okular 212 so zu verbinden, daß die Inspektion bzw. Überprüfung über einen Videomonitor möglich ist. Die Videokamera gibt Videobilder ab, die z. B. dem National Television Standards Committee (oder "NTSC" ), dem Phase Alternating Line System (oder "PAL") oder dem S-Video (oder Y-C) Standard entsprechen.
Fig. 2b zeigt eine Querschnittsansicht eines Teils des Einführrohres 204 des starren Boreskops 200 der Fig. 2a. Wie zu ersehen ist, bildet eine Wand 228 einen Außenzylinder, der die Wand 230 umgibt, die einen Innenzylinder bildet. Der innerhalb des Innenzylinders begrenzte Raum nimmt eine Objektivlinse 206' und ein Objektivlinsensystem 226 auf, das das Bild von der Objektivlinse 206' zum Okular 212 überträgt. Ein zwischen Innen- und Außenzylinder ausgebildeter Hohlraum kann zur Aufnahme von Lichtleitern, wie z. B. faseroptischen Litzen verwendet werden. Ebenso kann ein Arbeitskanal vorgesehen sein, durch den Sensoren und/oder Werkzeuge (Instrumente) hindurchgeführt werden können.
Fig. 2c zeigt eine Stirnansicht des distalen Endes des optischen Kopfadapters 211' mit direkter Sicht. Wie in Fig. 2c gezeigt, kann um die Objektivlinse 206' ein Fenster 210' zum Durchlassen von Licht, das von den Lichtleitern stammt, vorgesehen werden, um das zu inspizierende Werkstück zu beleuchten.
Fig. 3a stellt ein flexibles Fiberskop 300 dar, das in Verbindung mit einer daran befestigten Videokamera als Videoquelle für das Anzeigesystem dieser Erfindung Verwendung finden kann. Wie bei dem starren Boreskop 200, das vorstehend erläutert wurde, weist das flexible Fiberskop 300 einen Körper 302 und ein Einführrohr 304 auf. Jedoch ist in diesem Fall das Einführrohr 304 flexibel ausgestaltet, so daß dessen distales Ende mit Hilfe einer Links/Rechts-Gelenksteuerung nach links bzw. rechts und mit Hilfe einer Auf/Ab-Gelenksteuerung nach oben bzw. unten gelenkt werden kann. Die Links/Rechts-Gelenksteuerung 310 kann mittels einer Bremse 312 und die Auf/Ab- Gelenksteuerung 314 mittels einer Bremse 316 arretiert werden. Der Körper 302 umfaßt ferner einen Dioptrien- Einstellring 306 und ein Okular 308. Wie bei dem vorstehend erläuterten starren Boreskop 200 kann das Okular 308 mit einer Okularmuschel 350 abgedeckt werden, wenn dieses nicht benutzt wird. Ferner kann ein Adapter 320 verwendet werden, um eine Videokamera (nicht gezeigt) mit dem Okular 308 zu verbinden. Schließlich ermöglicht ein Lichtleiterverbinder 318 eine Verbindung mit einer externen Lichtquelle.
Fig. 3b stellt eine Querschnitts-Seitenansicht und Fig. 3c eine Stirnansicht des distalen Endes des Einführrohres 306 des flexiblen Fiberskops 300 der Fig. 3a dar. Eine Wand 322 bildet einen Außenzylinder und eine Wand 340 einen Innenzylinder. In dem Raum, der vom Innenzylinder begrenzt wird, überträgt ein Bündel von optischen Fasern 330 ein Bild, das an seinem distalen Ende durch eine Objektivlinse 332 fokussiert wird. Ein Lichtleiterkanal 326 und ein Arbeitskanal 328, die zwischen dem Innen- und Außenzylinder angeordnet sind, können z. B. eine Beleuchtungseinrichtung sowie Sensoren und/oder Werkzeuge (Instrumente) aufnehmen.
Fig. 4a stellt eine Seitenansicht eines flexiblen Videobild-Endoskops 400 dar, das als Videoquelle für das Anzeigesystem der Erfindung verwendet werden kann. Wie bei dem vorstehend erläuterten flexiblen Fiberskop 300 umfaßt das flexible Videobild-Endoskop 400 gleichfalls einen Körper 402 und ein flexibles Einführrohr 404. Das distale Ende des flexiblen Einführrohres 404 kann mit Hilfe einer Links/Rechts-Gelenksteuerung 408 nach links bzw. rechts und mit Hilfe einer Auf/Ab-Gelenksteuerung 412 nach oben bzw. unten abgebogen werden. Die Links/Rechts-Gelenksteuerung 408 kann mittels einer Bremse 410 und die Auf/Ab- Gelenksteuerung 412 mittels einer Bremse 414 arretiert werden. Schließlich ermöglicht ein Lichtleiter- und Videokabel 418 über einen Verbinder 420 eine Verbindung zu einer externen Lichtquelle und über einen Verbinder 422 eine Verbindung mit einer Kamerasteuereinheit.
Im Gegensatz zu dem oben erwähnten starren Boreskop 200 und flexiblen Fiberskop 300 weist das Videobild-Endoskop 400 weder Scharfstell- oder Dioptrieneinstellringe noch ein Okular auf. Dies liegt, wie oben erwähnt, darin begründet, daß das Videobild-Endoskop 400 ein Videoausgangssignal für eine externe Kamerasteuereinheit vorsieht. Wie insbesondere aus Fig. 4b ersichtlich ist, die eine teilweise geschnittene perspektivische Ansicht des distalen Endes des Videobild-Endoskops 400 der Fig. 4a wiedergibt, fokussiert eine Objektivlinse 450 ein Bild 458' eines in ihrem Gesichtsfeld 456 liegenden Gegenstands 458 auf eine Abbildungseinrichtung, wie z. B. eine ladungsgekoppelte Einrichtung (oder kurz "CCD") 452. Die CCD 452 (und die zugehörige Schaltung) liefert eine Folge von analogen Wellenformen auf der Grundlage der in jedem Element der CCD-Matrix angesammelten Ladung. Die oben erwähnte Kamerasteuereinheit wandelt die Folge von analogen Wellenformen in Videobilder um, die z. B. dem NTSC-, PAL- oder S-Video-Standard entsprechen.
Wie dies ferner aus der perspektivischen Ansicht der Fig. 4b ersichtlich ist, weist das distale Ende des Einführrohres des Videobild-Endoskops 400 ein Beleuchtungsfenster 432, das Licht von einem Lichtleiter 430 durchläßt, und einen Arbeitskanal 440 auf, der an der Öffnung 442 mündet.
Um dies noch einmal zu wiederholen, jedes der oben erwähnten optischen Instrumente kann einen Arbeitskanal aufweisen, durch den ein Zerkleinerungswerkzeug oder ein Entnahmewerkzeug (z. B. ein Magnet, eine zuziehbare Schlinge, ein Vierdraht-Korb oder Zangen) hindurchgeführt werden können. Ferner kann durch den Arbeitskanal ein Sensor bzw. Meßfühler, wie z. B. eine Wirbelstromsonde oder ein Ultraschallsensor (siehe z. B. den Ultraschallsensor 600 der Fig. 6) hindurchgeführt werden. Solche Sonden oder Sensoren dienen der Bestätigung der Interpretation von Videodaten. Z. B. kann ein Kontrolleur, der eine Turbinenschaufel inspiziert, einen dunklen Abschnitt wahrnehmen, der ein Riß oder lediglich ein Schatten ist. Wirbelstrom- oder Ultraschallsensorausgangssignale können dann dazu verwendet werden, um festzustellen, ob der dunkle Abschnitt wirklich ein Riß oder lediglich ein Schatten ist.
Es ist bekannt, Videodaten mit Sensordaten zu kombinieren. Z. B. ist auf dem Gebiet der Medizin die Verwendung eines endoskopischen Ultraschallzentrums (z. B. das von Olympus Optical Co., Ltd. angebotene Model EU-M30) mit einem Videoskop (z. B. ein von Olympus Optical Co., Ltd. angebotenes Videoskop der EVIS-Serie) und einem Videobearbeitungszentrum (z. B. dem von Olympus Optical Co., Ltd. angebotenen EVIS-Videosystemzentrum) bekannt, um eine Bild-in-Bild-Anzeige des Videoskopbildes in dem Ultraschallbild vorzusehen. Gleichfalls wird in dem U.S. Patent Nr. 4 855 820 ein Videoanzeigesystem erörtert, bei dem das Ausgangssignal eines Temperatursensors über dem Videoausgangssignal einer Videokamera angezeigt wird. Leider werden bei diesen bekannten Systemen die Daten vom Sensor an einer willkürlichen Stelle, d. h. ohne Bezug auf den Ort des Sensors angezeigt. Demzufolge muß die Bedienungsperson ihre Aufmerksamkeit sowohl der Videoanzeige des tatsächlichen Sensors (z. B. um den Sensor bezüglich des betrachteten Gegenstands zu bewegen) als auch der Betrachtung der Ausgangsdaten des Sensors widmen. Der Sensorausgang stellt eine digitale Anzeige, z. B. eine Zahl, dar. Für sich rasch ändernde Daten ist eine derartige Anzeige nicht zweckmäßig, da es schwierig ist, diese rasch aufzunehmen und zu interpretieren.
Das U.S. Patent Nr. 4 642 687 erörtert ein System zum Erfassen von nicht-visuellen Signalen, wie z. B. jenen, die auf Ultraschall oder Strahlung beruhen. Dieses System umfaßt (i) eine bewegliche Sonde, die den Ort eines Detektorsystems anzeigt und ein Lichtquelle einschließt, die im Zustand "EIN" ist, falls die Erfassung positiv ist, (ii) eine Videokamera, die auf die Lichtquelle anspricht, (iii) ein Speichersystem, das die Bildorte bzw. -stellen speichert, an denen die Lichtquelle im "EIN"-Zustand war, und (iv) einen Mischer zum Erzeugen eines Überlagerungsbildes auf der Grundlage des Ausgangssignals des Speichersystems und des Ausgangssignals der Videokamera. Ob die Kamera die Sonde erkennt oder nicht, ist leider vom EIN/AUS-Zustand des Detektors abhängig. Ferner muß offensichtlich die Speicherung und das Auslesen der Bildstellen aus dem Speicher mit dem Videoausgangssignal der Videokamera synchronisiert werden, was in der Tat keine einfache Aufgabe ist.
Es ist somit Aufgabe der Erfindung, eine Anzeigevorrichtung vorzusehen, bei der die Sensordaten zusammen mit dem zugehörigen Videobild leicht und rasch betrachtet, aufgenommen und interpretiert werden können.
Ein solches Anzeigesystem soll mit einem Fernsicht- Inspektionssystem betrieben werden können, das optische Instrumente, wie z. B. Boreskope, Fiberskope und Videobild- Endoskope einschließt.
Ferner soll die Anzeigevorrichtung die Erzeugung eines graphischen Profils des Werkstücks ermöglichen, das inspiziert wird.
Die vorstehende Aufgabe wird gelöst mit einem Verfahren zum Bearbeiten von (i) Videodaten (z. B. eines zu inspizierenden Werkstücks), die ein Videobild eines Sensors einschließen, und (ii) Daten, die von dem Sensor ausgegeben werden, wobei das Verfahren die folgenden Schritte aufweist: (a) Annehmen von analogen Videodaten; (b) Umwandeln der analogen Videodaten in Bilder, wobei jedes Bild Daten einschließt, die einer Matrix von Pixeln entsprechen; (c) Orten des Videobildes des Sensors in einem der Bilder, um eine Ankerstelle zu definieren; (d) Annehmen der vom Sensor ausgegebenen Daten; (e) Digitalisieren der vom Sensor ausgegebenen Daten, um digitalisierte Sensordaten zu erzeugen; (f) Umwandeln der digitalisierten Sensordaten in einen numerischen Wert oder eine graphische Darstellung, und (g) Modifizieren der Pixel in dem einen der Bilder in der Nähe der Ankerstelle auf der Grundlage des numerischen Werts oder der graphischen Darstellung, um ein modifiziertes Bild zu erzeugen. Das modifizierte Bild kann angezeigt, aufgezeichnet und/oder in einer Datei gespeichert werden.
Der Schritt des Ortens des Videobildes des Sensors in dem Bild zum Definieren einer Ankerstelle schließt folgende Unterschritte ein: (i) Überprüfen der Daten, die der Matrix von Pixeln entsprechen, um zu bestimmen, ob ein Pixel innerhalb der Matrix Daten aufweist, die einem Attribut (z. B. Farbe) des Sensors entsprechen; und (ii) Bestimmen der Ankerstelle an einer Stelle eines Pixels, das die Daten besitzt, die dem Attribut (z. B. Farbe) des Sensors entsprechen. Bei einem weiterentwickelten Ausführungsbeispiel weist der Schritt des Ortens des Videobildes des Sensors zum Definieren einer Ankerstelle folgende Unterschritte auf: (i) Unterteilen des Bildes in Teilbilder; (ii) Überprüfen der jedem Pixel entsprechenden Daten in einem der Teilbilder, um zu bestimmen, ob ein Pixel die Daten aufweist, die einem Attribut (z. B. Farbe) des Sensors entsprechen; (iii) falls das Teilbild ein Pixel aufweist, das Daten einschließt, die dem Attribut (z. B. Farbe) des Sensors entsprechen, Festlegen der Ankerstelle als Stelle des Pixels; (iv) falls das Teilbild kein Pixel aufweist, das Daten einschließt, die dem Attribut (z. B. Farbe) des Sensors entsprechen, Fortfahren mit der Bearbeitung des nächsten Teilbildes. Falls es bekannt ist, daß das Videobild des Sensors höchstwahrscheinlich sich in einem bestimmten Teilbild anstatt in anderen Teilbildern befindet, so wird in diesem bestimmten Teilbild zuerst gesucht.
Eine Ausführung des Verfahrens schließt ferner folgende Schritte ein: (i) Auswählen der graphischen Darstellung aus einer Gruppe von in Frage kommenden graphischen Darstellungen; und (ii) Auswählen der Parameter für die ausgewählte graphische Darstellung. Bei dieser Ausführung verwendet der Schritt der Umwandlung der digitalisierten Sensordaten in die graphische Darstellung die ausgewählte graphische Darstellung und die Parameter. Die graphische Darstellung kann ein Fleck, ein Halo (Ring), ein Balkendiagrammzähler oder ein skalierter Vektor sein.
Die Sensordaten können die Daten eines ersten Typs und die Daten eines zweiten Typs einschließen. In diesem Fall umfaßt der Schritt des Umwandelns der digitalisierten Sensordaten in eine graphische Darstellung die folgenden Unterschritt: (i) Variieren eines ersten Attributs der graphischen Darstellung auf der Grundlage der Daten des ersten Typs; und (ii) Variieren eines zweiten Attributs der graphischen Darstellung auf der Grundlage der Daten des zweiten Typs. Das erste und zweite Attribut der graphischen Darstellung kann jeweils die Größe, die Länge, der Durchmesser, der Innendurchmesser, der Außendurchmesser, die Farbe, die Helligkeit, die Schärfe oder die Ausrichtung bzw. Orientierung sein.
Das erfindungsgemäße Verfahren kann auch verwendet werden zum Bearbeiten von (i) Bildern aus Videodaten (z. B. eines zu inspizierenden Werkstücks), die ein Videobild eines Sensors einschließen, wobei jedes Bild Daten einschließt, die einer Matrix von Pixeln entsprechen, und (ii) Daten, die vom Sensor ausgegeben werden, durch (a) Orten des Sensors in einem der Bilder aus Videodaten, um eine Ankerstelle zu definieren; (b) Annehmen der vom Sensor ausgegebenen Daten; (c) Umwandeln der vom Sensor aus gegebenen Daten in einen numerischen Wert oder eine graphische Darstellung; und (d) Modifizieren der Pixeldaten in der Nähe der Ankerstelle in dem einen Bild auf der Grundlage des numerischen Werts oder der graphischen Darstellung, um ein modifiziertes Bild zu erzeugen.
Die Bilder aus Videodaten können das Gesichtsfeld einer Bilderfassungseinrichtung wiedergeben. In solchen Fällen kann das erfindungsgemäße Verfahren Profile eines betrachteten Gegenstands erzeugen durch (a) Festlegen des Gesichtsfelds der Bilderfassungseinrichtung; (b) Bewegen des Sensors bezüglich der Bilderfassungseinrichtung; (c) Umwandeln der vom Sensor aus gegebenen Daten in einen numerischen Wert oder eine graphische Darstellung; (d) Modifizieren der Pixel in der Nähe der Ankerstelle in wenigstens einem der Bilder auf der Grundlage des numerischen Werts oder der graphischen Darstellung, um wenigstens ein modifiziertes Bild zu erzeugen; (e) Abtasten des numerischen Werts oder der graphischen Darstellung in Erwiderung auf eine Benutzerauswahl oder einen Takt und Ersetzen der Pixel in der Nähe der Ankerstelle derart, daß die nachfolgenden Bilder ebenso den numerischen Wert oder die graphische Darstellung in der Nähe der Ankerstelle einschließen; und (f) Erzeugen eines Inspektionsprofils durch Wiederholen der obigen Schritte.
Die Erfindung sieht ferner eine Vorrichtung zum Inspizieren eines Gegenstandes vor, die einschließt: (a) eine Videobilderzeugungseinrichtung mit einem Gesichtsfeld zum Erzeugen eines analogen Videosignals des Gegenstands; (b) einen im Gesichtsfeld der Videobilderzeugungseinrichtung angeordneten Sensor zum Erfassen eines physikalischen Phänomens, das auf ein Attribut des Gegenstandes bezogen ist; (c) eine Videobilderzeugungseinrichtung zum Erzeugen von Einzelbildern auf der Grundlage des analogen Videosignals des Gegenstands, wobei die Videobilderzeugungseinrichtung das analoge Videosignal des Gegenstands von der Videobilderzeugungseinrichtung empfängt, wobei jedes Bild Daten einschließt, die einer Matrix von Pixeln entspricht; (d) eine Signalerzeugungseinrichtung zum Erzeugen eines Signals auf der Grundlage des vom Sensor erfaßten physikalischen Phänomens; (e) einen Wandler, der das Signal von der Signalerzeugungseinrichtung empfängt und dieses in einen numerischen Wert oder eine graphische Darstellung umwandelt; (f) eine Ankererzeugungseinrichtung, die Bilder von der Videobilderzeugungseinrichtung empfängt und die Stelle des Bildes des Sensors innerhalb des Bildes bestimmt und einen Anker an der Stelle erzeugt; und (g) eine Videoverarbeitungseinrichtung, die den Anker von der Ankererzeugungseinrichtung, die Bilder von der Videobilderzeugungseinrichtung und den numerischen Wert oder die graphische Darstellung vom Wandler empfängt und Pixel in der Nähe des Ankers in einem Bild auf der Basis des numerischen Wert oder der graphischen Darstellung modifiziert. Die Videobilderzeugungseinrichtung kann eine Fernsicht-Inspektionseinrichtung, wie z. B. ein Boreskop, das mit einer Videokamera gekoppelt ist, ein Fiberskop, das mit einer Videokamera gekoppelt ist, oder ein Videobild- Endoskop sein, das mit einer Kamerasteuereinheit ausgestattet ist. Die Fernsicht-Inspektionseinrichtung weist ein Einführrohr mit einem proximalen und einem distalen Ende auf, das einen Arbeitskanal einschließt, der sich vom proximalen Ende bis zum distalen Ende des Einführrohres erstreckt. Bei einem bevorzugten Ausführungsbeispiel der Erfindung weist die Einrichtung ferner ein Vorspannsystem auf, das den Sensor vom distalen Ende des Einführrohres weg vorspannt. Der Sensor kann z. B. eine Wirbelstromsonde oder eine Ultraschallsonde sein.
Ausführungsbeispiele der Erfindung werden nachfolgend anhand der Zeichnungen näher erläutert. Es zeigen:
Fig. 1a entfernt angeordnete Werkstücke, die mit der Anzeigevorrichtung der Erfindung inspiziert werden können, und Fig. 1b eine Turbinenschaufel, die mit der Anzeigevorrichtung der Erfindung inspiziert werden kann;
Fig. 2a eine Seitenansicht eines starren Boreskops, das in Verbindung mit einer daran befestigten Videokamera als Videoquelle für die Anzeigevorrichtung der Erfindung verwendet werden kann; Fig. 2b eine Querschnittsseitenansicht des Einführrohres des starren Boreskops der Fig. 2a; Fig. 2c eine Stirnansicht des distalen Endes des Einführrohres des starren Boreskops der Fig. 2a;
Fig. 3a eine Seitenansicht eines flexiblen Fiberskops, das in Verbindung mit einer daran befestigten Videokamera als Videoquelle für die Anzeigevorrichtung der Erfindung verwendet werden kann; Fig. 3b eine Querschnittsansicht des Einführrohres des flexiblen Fiberskops der Fig. 3a; Fig. 3c eine Stirnansicht des distalen Endes des Einführrohres des flexiblen Fiberskops der Fig. 3a;
Fig. 4a eine Seitenansicht eines flexiblen Videobild- Endoskops, das als Videoquelle für die Anzeigevorrichtung der Erfindung verwendet werden kann; Fig. 4b eine teilweise geschnittene, perspektivische Ansicht des distalen Endes des Einführrohres des Videobild-Endoskops der Fig. 4a;
Fig. 5 einen bekannten Wirbelstromsensor und ein Werkstück;
Fig. 6 einen bekannten Ultraschallsensor;
Fig. 7 ein bevorzugtes Ausführungsbeispiel der Anzeigevorrichtung der Erfindung;
Fig. 8 ein Bearbeitungs- und Datenflußdiagramm der Anzeigevorrichtung der Fig. 7;
Fig. 9 ein Flußdiagramm eines Sondenortungsprozesses, der bei der erfindungsgemäßen Vorrichtung verwendet werden kann;
Fig. 10 ein erstes Segmentierungsschema, das bei dem Sondenortungsprozeß der erfindungsgemäßen Vorrichtung verwendet werden kann;
Fig. 11 ein zweites Segmentierungsschema, das bei dem Sondenortungsprozeß der erfindungsgemäßen Vorrichtung verwendet werden kann;
Fig. 12 eine Anzeige, die von einem ersten Ausführungsbeispiel der erfindungsgemäßen Vorrichtung erzeugt wird;
Fig. 13 eine Anzeige, die von einem zweiten Ausführungsbeispiel der erfindungsgemäßen Vorrichtung erzeugt wird;
Fig. 14 Beispiele von einem ersten Satz von unaufdringlichen graphischen Darstellungen, die bei der erfindungsgemäßen Anzeigevorrichtung verwendet werden können;
Fig. 15 Beispiele von einem zweiten Satz von unaufdringlichen graphischen Darstellungen, die bei der erfindungsgemäßen Vorrichtung verwendet werden können;
Fig. 16 ein dritter Satz von unaufdringlichen graphischen Darstellungen, die bei der Anzeigevorrichtung der Erfindung verwendet werden können;
Fig. 17 ein Beispiel einer Anzeige eines Werkstücks mit graphischen Darstellungen auf der Grundlage einer abgetasteten Datenfolge;
Fig. 18 ein Beispiel einer Anzeige eines Werkstücks mit graphischen Darstellungen auf der Grundlage einer Matrix von Daten, die während der Abtastung des Werkstücks abgetastet wurden;
Fig. 19 die Abbiegung eines konventionellen flexiblen Fiberskops oder Videobild-Endoskops in einer Oben/Unten- oder Links/Rechts-Ebene;
Fig. 20 eine Einrichtung zum Erleichtern des Sondenkontakts mit einem Werkstück über einen vorbestimmten Biegebereich;
Fig. 21 das distale Ende eines Boreskops, Fiberskops oder Videobild-Endoskops mit 90 Grad Seitensicht und modifiziertem Arbeitskanal;
Fig. 22 ein Videobild, das Pixel in x Zeilen und y Spalten einschließt;
Fig. 23 eine beispielhafte Pixeldatenstruktur;
Fig. 24 ein Sensorauswahlfenster;
Fig. 25 ein Anzeigeauswahlfenster;
Fig. 26 eine graphische Benutzerschnittstelle für die Benutzerauswahl von graphischen Darstellungsparametern; und
Fig. 27a und 27b Arten, wie Pixel eines Videobildes modifiziert werden können.
In der nachfolgenden ausführlichen Beschreibung wird die Erfindung anhand der Funktionen, die sie durchführt, anhand einer Architektur, die zu deren Realisierung verwendet werden kann, sowie anhand von Beispielen ihres Betriebs beschreiben. Schließlich werden spezielle Merkmale erörtert, die Vorteile bringen, wenn die Erfindung bei optischen Inspektionsinstrumenten und Wirbelstromsonden Verwendung findet.
Im wesentlichen weist die Erfindung folgende Funktionen auf: (i) Annehmen von Videobilddaten, (ii) Bestimmen des Orts einer Sensorsonde in den Videobilddaten, (iii) Annehmen der Sensordaten, (iv) vorzugsweises Umwandeln der Sensordaten in eine unauffällige graphische Darstellung und (v) Vorsehen einer Anzeige der Videobilddaten mit den Sensordaten (oder deren graphische Darstellung), die an dem bestimmten Ort der Sensorsonde verankert sind. Fig. 7 stellt ein Blockdiagramm dar, das ein bevorzugtes Ausführungsbeispiel der erfindungsgemäßen Anzeigevorrichtung verdeutlicht und das, falls geeignet konfiguriert (z. B. mit geeigneten Befehlen versehen), jede der vorstehend erwähnten Funktionen unterstützt und die Echtzeitausführung solcher Funktionen ermöglicht.
Die Vorrichtung der Fig. 7 nimmt Video- und Sensordaten auf, die z. B. von dem Videoausgang 708 einer Videoquelle 704d und dem Sensorausgang 710 einer Sensordatenquelle 706d vorgesehen werden. Die Videoquelle kann z. B. (a) ein Boreskop 200 mit einem Videoadapter 224 und einer Videokamera (zusammen 704a) sein, wobei ein Sensor 706a in einem Arbeitskanal des Boreskops 200 vorgesehen ist, (b) ein Fiberskop 300 mit einem Videoadapter 320 und einer Videokamera (zusammen 704b) sein, wobei ein Sensor 706b in einem Arbeitskanal 326/328 des Fiberskops 300 vorgesehen ist, oder (c) ein Videobild-Endoskop 400 (704c) sein, in dessen Arbeitskanal 440 ein Sensor 706c vorgesehen ist.
Falls die Videodaten 708 von der CCD 452 (und der zugehörigen Schaltung) eines Videobild-Endoskops 400 stammen, so werden diese typischerweise in Form einer seriellen Folge von analogen Wellenformen vorliegen. Derartige Daten werden einem Eingang einer Kamerasteuereinheit 710 zugeführt, die die Folge von analogen Wellenformen in einen bekannten Videostandard, wie z. B. NTSC, PAL oder S-Video umwandelt. Werden die Videodaten andererseits von einer Videokamera geliefert, die mit dem Okular eines Boreskops 200 oder Fiberskops 300 gekoppelt ist, so sollten diese die Kamerasteuereinheit 710 umgehen. Dies liegt darin begründet, daß die Videokamera ein Videosignal entsprechend einem bekannten Videostandard, wie z. B. NTSC, PAL oder S-Video liefert.
In jedem Fall wird das formatgebundene analoge Videosignal einem Videobildabtaster 712 zugeführt, der das analoge Videosignal in Videobilder umwandelt. Jedes dieser Videobilder weist eine Matrix von Pixeln auf, wobei jedes Pixel eine Adresse, die auf seinen Ort( z. B. Zeile, Spalte) innerhalb der Matrix beruht, ein oder mehrere Bits, die die Helligkeitsinformation wiedergeben, und ein oder mehrere Bits aufweist, die die Farbinformation wiedergeben. Wie im einzelnen aus Fig. 22 ersichtlich ist, weist ein Videobild Pixel 2002 in x Zeilen und y Spalten auf, so daß jedes Bild x.y Pixel einschließt. Fig. 23 verdeutlicht eine beispielhafte Pixeldatenstruktur 2300. Wie dargestellt, kann die Pixeldatenstruktur 2300 ein Pixelidentifikationsfeld 2302 und ein Pixelcharakteristikfeld 2310 einschließen. Das Pixelidentifikationsfeld 2302 kann ein Zeilenadressenfeld 2304 mit n1 Bit (z. B. 10-Bit) und ein Spaltenadressenfeld 2306 mit n2 Bit (z. B. 10-Bit) aufweisen. Das Pixelcharakteristikfeld 2310 kann ein Farbfeld 2312 mit n3 Bit (z. B. 8-Bit) und ein Helligkeitsfeld 2314 mit n4 Bit (z. B. 8-Bit) aufweisen. Die Videobilder 718 können über ein internes Bussystem 716 vom Prozessor 730 ausgelesen werden.
Gleichzeitig werden die Meßwerte eines physikalischen Phänomens (z. B. elektrische Ladung, Strom, Spannung, Magnetfeld, Druck, Temperatur, Strahlungsfeld, Helligkeit usw.) vom Sensorausgang 710 einem Datenprozessor 720 (z. B. einer Schaltung) zugeführt, der ein oder mehrere analoge Signale (z. B. analoge elektrische Signale) 724 abgibt.
Diese analogen Signale 724 werden dann mit Hilfe eines (oder mehrerer) Analog/Digital-Wandlers umgewandelt, um ein (oder mehrere) digitales Signal 726 auf der Grundlage der Sensordaten 710 zu liefern. Dieses bzw. diese digitalen Signale 726 werden über das interne Bussystem 716 dem Prozessor 730 (oder einem Coprozessor 740) zur Verfügung gestellt.
In Erwiderung auf Anfragen vom Prozessor 730, der unter Steuerung von gespeicherten Befehlen arbeitet, kann ein Benutzer Auswahl- und Parameterdaten über eine Eingabeeinrichtung 782 eingeben. Solche Benutzereingaben werden dem Prozessor 730 über eine Eingabe-Schnittstelle 780 und das interne Bussystem 716 zur Verfügung gestellt.
Der Prozessor 730 und/oder der Coprozessor 740, die unter Steuerung von gespeicherten Befehlen (z. B. einem Anwendungsprogramm) arbeiten, (i) bestimmen den Ort bzw. die Stelle der Sensorsonde, (ii) wandeln die digitalisierten Sensordaten z. B. in einen numerischen Wert oder in eine graphische Darstellung auf der Grundlage der vom Benutzer eingegebenen Auswahl- und Parametereingabedaten um, (iii) modifizieren die Videodaten an dem bestimmten Ort und um den bestimmten Ort herum (oder in der Nähe des bestimmten Orts) auf der Grundlage des numerischen Werts oder der graphischen Darstellung und (iv) liefern ein zusammengesetztes Videosignal für die Anzeige, die Videospeicherung und/oder Speicherung als Datei. Die Bearbeitungsfolge der erfindungsgemäßen Vorrichtung ist in Fig. 8 dargestellt und wird mit Bezug auf die Fig. 9 bis 11, 14 bis 16 und 22 bis 26 nachfolgend erläutert.
Fig. 8 stellt ein Bearbeitungs- und Datenflußdiagramm der Anzeigevorrichtung in Fig. 7 dar. Zuerst wird ein Prozeß 802 zum Erfassen eines Bildes durchgeführt. Dieser Prozeß kann z. B. mittels eines Videobild-Endoskops 400 ausgeführt werden. Als nächstes wird ein Prozeß 804 zum Umwandeln einer Folge analoger Wellenformen, die z. B. von einer ladungsgekoppelten Einrichtung (oder CCD) 452 ausgetaktet werden, in ein Videosignal durchgeführt. Dieser Prozeß kann z. B. von der Kamerasteuereinheit 710 ausgeführt werden. Falls ein Boreskop 200 oder Fiberskop 300 mit einer daran befestigten Videokamera verwendet wird, werden die Prozessoren 802 und 804 mit der Erfassung des Bildes und der Umwandlung in ein Videosignal ersetzt durch Videoverarbeitungsschritte.
In jedem Fall wird dann ein Prozeß 808 zum Umwandeln des Videosignals in eine Matrix von Pixeln durchgeführt. Dieser Prozeß kann z. B. mit Hilfe des Videobildabtasters 712 vorgenommen werden. Wie aus Fig. 22 ersichtlich, weist ein Videobild (Videoeinzelbild) 2200 Pixel 2202 in x Zeilen und y Spalten auf. Somit weist jedes Bild x.y Pixel auf. Fig. 23 verdeutlicht eine beispielhafte Pixeldatenstruktur 2300. Wie dargestellt, kann die Pixeldatenstruktur 2300 ein Pixelidentifikationsfeld 2302 und ein Pixelcharakteristikfeld 2310 einschließen. Das Pixelidentifikationsfeld 2302 kann ein Zeilenadressenfeld 2304 mit n1 Bit (z. B. 10-Bit) und ein Spaltenadressenfeld 2306 mit n2 Bit (z. B. 10-Bit) aufweisen. Das Pixelcharakteristikfeld 2310 kann ein Farbfeld 2312 mit n3 Bit (z. B. 8-Bit) und ein Helligkeitsfeld 2314 mit n4 Bit (z. B. 8-Bit) aufweisen.
Als nächstes werden bei einem Prozeß 812 die Videobilder gelesen. Dieser Prozeß wird vom Prozessor 730 (oder dem Coprozessor 740) unter Steuerung von gespeicherten Befehlen durchgeführt, wobei der Prozessor (Coprozessor) Videobilder 2200 von dem Videobildabtaster 712 über das interne Bussystem 716 liest.
Anschließend wird ein Prozeß 816 zum Bestimmen einer Stelle bzw. eines Orts einer Sonde oder eines Sensors 706 in dem Videobild durchgeführt. Dieser Prozeß kann z. B. von dem Prozessor 730 und/oder dem Coprozessor 740 unter Steuerung von gespeicherten Befehlen ausgeführt werden. Ein beispielhafter Prozeß 816 zum Bestimmen des Orts einer Sonde oder eines Sensors 706 ist in dem Flußdiagramm der Fig. 9 verdeutlicht.
Im allgemeinen ist die Sonde bemalt, mit einer Markierung versehen oder anderweitig mit einer bestimmten Farbe versehen. Diese Farbe bietet vorzugsweise einen maximalen Kontrast zu dem zu inspizierenden Werkstück. In einem vereinfachten Verfahren wird das Farbfeld 2312 jedes Pixels 2202 eines Videobilds 2200 mit der Farbe verglichen, die zum Codieren der Sonde verwendet wird. Wenn der Vergleich eine Übereinstimmung (oder einen Farbunterschied innerhalb einer bestimmten Schwelle) ergibt, so liefern das Zeilen- und Spaltenadressenfeld 2304 und 2306 den Sondenort. Obwohl dieses vereinfachte Verfahren arbeitet, verringert der beispielhafte Prozeß 816 zum Bestimmen des Orts einer Sonde oder eines Sensors 706, der in dem Flußdiagramm der Fig. 9 verdeutlicht ist und nachfolgend erläutert wird, die Bearbeitungszeit in den meisten Fällen. Bei einem alternativen Ausführungsbeispiel kann die Sonde 1012 mit einem aktiven Element, wie z. B. einer Leuchtdiode LED anstelle einer Markierung oder Farbe ausgestattet sein.
Bei dem beispielhaften Sondenortungsprozeß 816 der Fig. 9 wird das Bild (oder Einzelbild 2200) zuerst in N.M Teilbilder (oder Bereiche) unterteilt. (Siehe Schritt 902.) Wie beispielsweise in Fig. 10 dargestellt, wird das Bild 1002 in zwölf Bereiche unterteilt. Das Bild schließt das Gesichtsfeld 1004 des optischen Instruments ein. Innerhalb des Gesichtsfelds 1004 ist ein Werkstück 1006 mit einem großen Defekt 1008 und einem kleinen Defekt 1010 dargestellt, wie auch ein Sensor 1012 mit einer Sonde, die das Werkstück 1006 am Punkt 1014 berührt. Fig. 11 verdeutlicht einen verbesserten Bildunterteilungsprozeß, bei dem nur das Gesichtsfeld 1004 unterteilt ist. Dieser verbesserte Prozeß ist vorteilhaft, da die Sonde des Sensors 1012 sich fast immer innerhalb des Gesichtsfelds 1004 des optischen Instruments befinden wird, und in jedem Fall ist das bevorzugte Ausführungsbeispiel der erfindungsgemäßen Vorrichtung sehr von Nutzen, wenn sich die Sonde des Sensors 1012 innerhalb des Gesichtsfelds 1004 des optischen Instruments befindet.
In jedem Fall wird, wie beim Schritt 904 gezeigt, festgestellt, ob es bekannt ist, daß der Ort der Sonde sich höchstwahrscheinlich in einem bestimmten der Bereiche oder Teilbilder befindet. D. h., ist es bekannt (seitens der Bedienungsperson oder des Prozessors 730 oder des Coprozessors 740), daß die Sonde sich im oder nahe dem Zentrum des Bildes befindet, so kann eine Suche nach der Sonde innerhalb eines Teilbildes oder innerhalb von Teilbildern vorgenommen werden, in denen sich die Sonde höchstwahrscheinlich befindet. Diese Information kann vom Benutzer eingegeben werden. Diese Information kann vorbestimmt sein oder erlernt werden (z. B. mit Hilfe eines neuralen Netzwerks), und zwar insbesondere dann, wenn die Vorrichtung wiederholt für ähnliche Arten von Inspektionen von ähnlichen Werkstücken verwendet wird. Ist es, wie bei den Schritten 904 und 906 gezeigt, bekannt, daß die Sonde sich höchstwahrscheinlich innerhalb eines bestimmten Teilbildes als in anderen befindet, so wird in dem bestimmten Teilbild eine Pixel-um-Pixel-Suche nach der Sonde begonnen. Andernfalls wird, wie bei den Schritten 904 und 908 gezeigt, eine Pixel-um-Pixel-Suche innerhalb eines beliebigen (z. B. N=1, M=1) Teilbildes begonnen.
In jedem Fall wird der Ort der Sonde sichergestellt bzw. gespeichert, falls die Sonde in dem bestimmten Teilbild gefunden wurde. (Siehe Schritte 910 und 914.) Wird andererseits die Sonde nicht innerhalb des bestimmten Teilbildes gefunden, so wird die Suche im nächsten Teilbild, in dem vorher noch keine Suche durchgeführt wurde, vorgenommen. (Siehe Schritte 910 und 912.) Der Prozeß endet, falls in jedem der Teilbilder eine Suche durchgeführt und die Sonde noch nicht gefunden wurde.
Bei einem alternativen Ausführungsbeispiel kann jedes Teilbild weiter unterteilt werden. Ferner können andere dem Fachmann bekannte Suchmethoden bei der erfindungsgemäßen Vorrichtung verwendet werden, um die Suche nach dem Sondenort zu optimieren.
Bei einem vereinfachten Ausführungsbeispiel ist der Sensor bezüglich des Gesichtsfelds der Videoquelle festgelegt. In diesem Fall kann der Ort des Sensors vorherbestimmt werden.
Betrachtet man nun wieder die Fig. 8, so wird als nächstes ein Prozeß 820 zum Bestimmen einer "Anker"-Stelle durchgeführt. Dieser Prozeß kann z. B. vom Prozessor 730 ausgeführt werden. Wenn eine Übereinstimmung (oder ein Farbunterschied innerhalb einer vorbestimmten Schwelle) zwischen der Farbe der Sonde und einem oder mehrerer Pixel des gelesenen Bildes festgestellt wird, so wird die Pixelidentifikationsinformation zur späteren Verwendung als Anker zum Lokalisieren der Anzeige einer numerischen oder graphischen Darstellung der Sensordaten gespeichert. Falls mehr als ein Pixel (z. B. eine Gruppe von Pixeln) des gelesenen Bildes mit der Farbe der Sonde übereinstimmt, kann die "Anker"-Stelle durch die Pixelidentifikationsinformation eines beliebigen Pixels der übereinstimmenden Pixel definiert werden, jedoch vorzugsweise durch den Durchschnitt der Pixelidentifizierer. Z. B. können Zeilen- und Spaltenadressen 2304 und 2306 der Pixel der Gruppe gemittelt werden, um ein "Zentrum" der Gruppe zu bestimmen.
Unabhängig von den oben beschriebenen Prozessen werden auch die folgenden Prozesse durchgeführt. Zuerst wird ein Prozeß 824 zum Erfassen der Sensordaten durchgeführt. Dieser Prozeß (Datenprozessor 720) kann mittels eines Sensors wie z. B. einer Wirbelstromsonde oder einer Ultraschallsonde ausgeführt werden, der ein erfaßtes physikalisches Phänomen (z. B. Magnetfeld, Ladung, Strom, Spannung, Druck, Temperatur, Strahlung, Ton bzw. Helligkeit usw.) in ein Signal, wie z. B. ein analoges elektrisches Signal umwandelt. Danach digitalisiert der Prozeß 826 das Signal, wobei dieser Prozeß z. B. vom Analog/Digital-Wandler 722 durchgeführt werden kann.
Das digitalisierte Signal kann in einer (oder mehreren) der folgenden Arten verarbeitet werden. In jedem Fall wird das digitalisierte Signal über das interne Bussystem 716 dem Prozessor 730 (oder Coprozessor 740) zur Verfügung gestellt. In einem ersten Fall wird ein Prozeß 830a zum Umwandeln des digitalisierten Signals in einen numerischen Wert durchgeführt. Dieser Prozeß kann mit Hilfe des Prozessors 730 unter Verwendung eines Umwandlungsalgorithmus oder einer Verweistabelle ausgeführt werden. In einem zweiten Fall wird ein Prozeß 830b zum Umwandeln des digitalisierten Signals in eine (unauffällige) graphische Darstellung durchgeführt. Dieser Prozeß kann vom Prozessor 730 z. B. unter Verwendung einer Verweistabelle oder auf der Grundlage eines Algorithmus zum Erzeugen einer graphischen Darstellung unter Verwendung bestimmter oder benutzerdefinierter Parameter ausgeführt werden.
In dem zweiten Fall kann die graphische Darstellung vom Benutzer ausgewählt und modifiziert werden. Die Fig. 14 bis 16 verdeutlichen Beispiele von einigen graphischen Darstellungen. Insbesondere verdeutlicht Fig. 14 eine graphische Darstellung 1402 in Form eines Fleckens mit einer eingangsabhängigen Größe und Farbe (und Helligkeit und Schärfe). Im einzelnen kann die Größe des Fleckens von einem ersten Sensorausgang (z. B. Wirbelstromgröße bzw. -amplitude) und die Farbe (oder Helligkeit) des Fleckens kann von einem zweiten Sensorausgang (z. B. der Wirbelstromphase) abhängen. Alternativ können diese oder andere Charakteristika des Fleckens auf der Basis von Sensorausgängen entsprechend der Auswahl des Benutzers variieren, wie dies nachfolgend erörtert wird. Falls der zentrale Teil der graphischen Darstellung 1402 eines Fleckens weggelassen wird, ergibt sich eine graphische Darstellung eines Kreises. Die graphische Darstellung eines Kreises wird bevorzugt, da diese weniger auffällig ist und ein Benutzer das Videobild durch die zentrale Öffnung des Kreises betrachten kann. Fig. 15 verdeutlicht eine graphische Darstellung 1502 mit Pfeil, bei der die Größe des Pfeils von einem ersten Sensorausgang (z. B. der Wirbelstromgröße) und die Richtung des Pfeils von einem zweiten Sensorausgang (z. B. der Wirbelstromphase) abhängen kann. Fig. 16 verdeutlicht ein Beispiel einer graphischen Darstellung mit "Fehlerfrei/Fehlerhaft", wobei eine erste graphische Darstellung 1602 verwendet wird, um einen "Fehlerfrei- bzw. Abnahme"-Zustand anzuzeigen und eine zweite graphische Darstellung 1604 verwendet wird, um einen "Fehlerhaft"-Zustand anzuzeigen.
Falls das System mehr als einen Typ einer graphischen Darstellung vorsieht, wird der Prozeß 840 durchgeführt, um es dem Benutzer zu ermöglichen, von einer Anzahl von in Frage kommenden graphischen Darstellungen eine Auswahl zu treffen. Dieser Prozeß kann mit Hilfe des Prozessors 730, der ein Anwendungsprogramm ausführt, einer Ausgangseinrichtung (z. B. einer VGA-Anzeige 762), die einem Benutzer (z. B. über ein Menü oder graphische Benutzerschnittstelle) Optionen bietet, und einer Eingangseinrichtung 782 (z. B. einer Tastatur, einer Kleintastatur, einer Maus, einer Rollkugel usw.) und einer Schnittstelle 780 zum Akzeptieren der Benutzerauswahl durchgeführt werden. In jedem Fall ermöglicht der Prozeß 842, nachdem eine graphische Darstellung ausgewählt wurde, es dem Benutzer, die Parameter der graphischen Darstellung zu definieren. Falls z. B. ein Benutzer, nachdem ihm eine Anzahl von graphischen Darstellungen zur Auswahl angeboten wurde, die graphische Darstellung 1402 mit Flecken ausgewählt hat, wird der Prozessor 730 vom Benutzer über eine Ausgangseinrichtung Parameterinformationen anfordern, die zu der graphischen Darstellung mit Flecken gehören. Z. B. kann vom Benutzer die minimale und maximale Größe des Fleckens, ein erster Sensorausgang, der der Größe des Fleckens entspricht, ein erster Skalierungsfaktor für Ausgang-zu-Fleckengröße, ein Farbbereich, ein zweiter Sensorausgang, der der Fleckenfarbe entspricht, ein zweiter Umsetzungsfaktor für Ausgang-zu-Fleckenfarbe, eine minimale und maximale Helligkeit, ein dritter Sensorausgang, der der Fleckenhelligkeit entspricht, und ein dritter Umsetzungsfaktor für Ausgang-zu-Fleckenhelligkeit angefordert werden. Andernfalls können Vorgabeparameterwerte verwendet werden. Diese Auswahl und diese Parameter werden vom Prozeß 830b zum Umwandeln der digitalisierten Sensordaten in eine ausgewählte graphische Darstellung verwendet.
Als nächstes modifiziert der Prozeß 834 die Video- (oder Einzelbild-) Daten an der Ankerstelle und um die Ankerstelle herum (oder in der Nähe der Ankerstelle) auf der Basis (a) einer Anzeige des numerischen Werts oder (b) einer Anzeige der graphischen Darstellung. (Die Modifikation kann von der Ankerstelle so versetzt sein, daß bei einer resultierenden Anzeige die Versetzung von Benutzer leicht visuell wahrgenommen werden würde. Jedoch ist vorzugsweise die Modifikation an der Ankerstelle konzentriert oder alternativ von der Ankerstelle so versetzt, daß bei einer resultierenden Anzeige die Verschiebung vom Benutzer nicht leicht visuell wahrgenommen werden würde.) Dieser Prozeß wird vom Prozessor 730 und/oder dem Coprozessor 740 ausgeführt. Das Modifizieren des Videobildes kann (a) das Ersetzen der Videodatenpixel in der Nähe der Ankerstelle mit einem numerischen Wert oder einer graphischen Darstellung oder (b) das Überlagern von Videodatenpixeln in der Nähe der Ankerstelle mit einem numerischen Wert oder einer graphischen Darstellung einschließen.
Bei dem Überlagerungsprozeß werden Pixelcharakteristika (z. B. Farbe) der Videodaten und Pixelcharakteristika (z. B. Farbe) des numerischen Werts oder der graphischen Darstellung kombiniert. Die Pixelcharakteristika können vor der Kombination gewichtet werden. Falls z. B. die der Pixelcharakteristika der Videodaten zugeordnete Wichtung größer als die der Pixelcharakteristika der graphischen Darstellung zugeordnete Wichtung ist, wird die graphische Darstellung fast transparent sein, so daß ein "Geister"-Bild auf dem Videobild vorgesehen wird. Falls andererseits die Gewichtungen, die den Pixelcharakteristika der Videodaten und der graphischen Darstellung zugeordnet sind, vergleichbar sind, so erscheint die graphische Darstellung als durchscheinendes Bild auf dem Videobild. Wenn letztlich die Gewichtung, die den Pixelcharakteristika der Videodaten zugeordnet ist, viel geringer als die Gewichtung ist, die den Pixelcharakteristika der graphischen Darstellung zugeordnet ist, dann scheint die graphische Darstellung die Pixel der Videodaten in der Nähe der Ankerstelle fast zu ersetzen.
Die Fig. 27a und 27b verdeutlichen zwei Arten, mit denen Pixel 2704 eines Videobildes 2702 modifiziert werden können. Wie aus Fig. 27a ersichtlich, können für einen Bildmodifikationsprozeß 2730 ein Videobild 2702 und ein verankertes Überlagerungsbild 2712 vorgesehen werden. Das Videobild 2702 weist Zeilen und Spalten mit Pixeln 2704 auf. Die jedem Pixel entsprechenden Daten können eine Zeilenadresse 2706, eine Spaltenadresse 2708 und Pixelcharakteristika (z. B. Farbe, Helligkeit usw.) 2710 einschließen. In gleicher Weise weist das verankerte Überlagerungsbild 2712 Zeilen und Spalten mit Pixeln 2714 auf. Die jedem Pixel 2714 entsprechenden Daten können eine Zeilenadresse 2716, eine Spaltenadresse 2718 und Pixelcharakteristika (z. B. Farbe, Helligkeit usw.) 2720 einschließen.
Das verankerte Überlagerungsbild 2712 schließt einen numerischen Wert oder eine graphische Darstellung in der Nähe einer bestimmten Ankerstelle ein. Die Pixelcharakteristika 2720 der Pixel 2714 des graphischen Überlagerungsbildes haben anders als jene des numerischen Werts oder der graphischen Darstellung einen Wert von Null, so daß, wenn der Bildmodifikationsprozeß 2730 die Pixelcharakteristika 2710 eines Videobildpixels 2704 auf der Grundlage der Nullwert-Pixelcharakteristika 2720 eines Pixels 2714 modifiziert, die Pixelcharakteristika 2710 des Videobildpixels 2704 unverändert sind.
Betrachtet man noch einmal Fig. 7, so kann der Bildmodifikationsprozeß 2730 mit Hilfe des Prozessors 730 und/oder des Coprozessors 740 durchgeführt werden. Der Bildmodifikationsprozeß 2730 erzeugt ein modifiziertes Videobild 2732, das Zeilen und Spalten mit Pixeln 2734 einschließt. Die jedem Pixel 2734 entsprechenden Daten können eine Zeilenadresse 2736, eine Spaltenadresse 2738 und modifizierte Pixelcharakteristika 2740 einschließen. Die modifizierten Pixelcharakteristika 2740 beruhen auf den Pixelcharakteristika 2710 der Videobildpixel 2704 und den Pixelcharakteristika 2720 des verankerten Überlagerungsbildes 2712. Wie oben erläutert, resultiert das "Modifizieren" der Pixel des Videobildes in (a) einem Ersetzen der Pixel der Videodaten in der Nähe der Ankerstelle durch den numerischen Wert oder die graphische Darstellung oder (b) einem Überlagern der Pixel der Videodaten in der Nähe der Ankerstelle mit dem numerischen Wert oder der graphischen Darstellung.
Wie aus Fig. 27b ersichtlich, kann ein alternativer Bildmodifikationsprozeß mit einem Videobild 2702, Ankerstellendaten 2752 (z. B. vom Prozeß zum Bestimmen einer Ankerstelle 820) und Daten vorgesehen werden, die einem numerischen Wert oder einer graphischen Darstellung 2754 (z. B. von einem Prozeß 830a oder 830b) entsprechen. Wie dies oben der Fall war, schließt das Videobild 2702 Zeilen und Spalten mit Pixeln 2704 ein. Die jedem der Pixel 2704 entsprechenden Daten können eine Zeilenadresse 2706, eine Spaltenadresse 2708 und Videopixelcharakteristika 2710 einschließen. Auf der Grundlage des Videobildes 2702, der Ankerortsdaten 2752 und der dem numerischen Wert oder der graphischen Darstellung 2754 entsprechenden Daten erzeugt der Bildmodifikationsprozeß 2750 ein modifiziertes Videobild 2762. Das modifizierte Videobild 2762 schließt Zeilen und Spalten mit Pixeln 2762 ein. Die jedem der Pixel 2762 entsprechenden Daten können eine Zeilenadresse 2766, eine Spaltenadresse 2768, Videopixelcharakteristika 2770 und Pixelcharakteristika des numerischen Werts oder der graphischen Darstellung 2772 einschließen. Die Videopixelcharakteristika 2770 können die gleichen wie die Videopixelcharakteristika 2710 sein. Die Pixelcharakteristika 2772 des numerischen Werts oder der graphischen Darstellung beruhen auf den Ankerortsdaten 2752 und den Daten, die dem numerischen Wert oder der graphischen Darstellung 2754 entsprechen. Ein Anzeigeprozeß (nicht gezeigt) kombiniert die Videopixelcharakteristika 2770 und die Pixelcharakteristika des numerischen Werts oder der graphischen Darstellung 2772, um ein modifiziertes Anzeigebild zu erzeugen. Betrachtet man noch einmal die Fig. 7, so kann der Anzeigeprozeß durch eine geeignet konfigurierte Anzeigesteuerung 760 ausgeführt werden.
Schließlich wird das neue Bild (a) einem Videospeicherprozeß (der z. B. mittels eines Videobandgeräts 790 ausgeführt wird), (b) einem Dateispeicherprozeß (der z. B. von einem magnetischen oder optischen Plattenlaufwerk und die Steuerung 750 durchgeführt wird) und/oder einem Anzeigeprozeß (der z. B. mit Hilfe der Anzeigesteuerung 760 und der VGA-Anzeige 762 und/oder der Anzeigesteuerung 760, des VGA/NTSC-Wandlers 766 und der NTSC-Anzeige 768 durchgeführt wird), zugeführt. Die Bilder des gespeicherten Videos oder einer gespeicherten Datei können "markiert" werden, so daß auf sie bei einer späteren Betrachtung rasch zugegriffen werden kann. Eine derartige "Markierung" kann (a) manuell in Erwiderung auf eine Bedienereingabe, (b) automatisch in Erwiderung auf einen Sensorausgang über eine Schwelle hinaus oder (c) in Erwiderung auf eine Benutzerbestätigungseingabe auf eine Anforderung hin automatisch erzeugt werden, wenn der Sensorausgang die Schwelle überschreitet. In gleicher Weise können die Bilder des gespeicherten Videos oder einer gespeicherten Datei mit den Anmerkungen eines Benutzers versehen werden.
Bei einem vereinfachten, alternativen Ausführungsbeispiel wird der Prozeß 816 der Bestimmung eines Sondenorts nicht durchgeführt und die Ankerstelle ist vorherbestimmt. Ferner können anstelle der Modifizierung der Videodaten auf der Grundlage einer numerischen oder graphischen Darstellung beim Prozeß 834 die Videodaten mit der numerischen oder graphischen Darstellung in einer bekannten Art und Weise z. B. mittels eines Mischers oder Bild-in-Bild-Videoprozessors kombiniert werden. Eine Bild-in-Bild-Verarbeitung kann von einem Prozessor durchgeführt werden, ohne einen externen Mischer zu benötigen. Computersoftware erzeugt die numerische oder graphische Darstellung innerhalb eines Fensters, das irgendwo innerhalb des Hauptbildes auf der Grundlage von benutzerkonfigurierten Steuerungen positioniert werden kann. Fig. 12 verdeutlicht z. B. eine Anzeige 1202, bei der das Videobild des Gesichtsfelds 1204 eines optischen Instruments und eine graphische Darstellung 1252 von Sensordaten auf einem geteilten Bildschirm vorgesehen werden. Im einzelnen wird ein betrachtetes Werkstück 1206 mittels einer Wirbelstromsonde 1212 inspiziert, die das Werkstück am Punkt 1214 berührt. Die graphische Darstellung 1252 vermittelt Wirbelstromamplituden- und Wirbelstromphaseninformationen. Ebenso können andere Informationen bezüglich des Sensorausgangs und der Sensoreinstellungen 1254 vorgesehen werden. In Fig. 13 verdeutlicht eine Anzeige 1302, bei der das Video des Sichtfeldes 1304 eines optischen Instruments und eine graphische Darstellung 1352 von Daten des Sensors 1312 als Bild-in-Bild dargestellt ist. Im einzelnen wird ein betrachtetes Werkstück 1306 mittels einer Wirbelstromsonde 1312 inspiziert, die das Werkstück am Punkt 1314 berührt. Diese graphische Darstellung 1352 vermittelt Amplituden- und Phaseninformationen der gemessenen Wirbelströme. Andere Informationen 1354 können ebenso vorgesehen werden.
Ein vorteilhaftes Ausführungsbeispiel der Erfindung ermöglicht es, Profile einer Charakteristik bzw. eines Kennwerts (z. B. Wirbelstromphase und -amplitude) des inspizierten Werkstücks zu erhalten. Bei diesem Ausführungsbeispiel ist das Gesichtsfeld des optischen Instruments bezüglich des Werkstücks fixiert, während der Sensor bezüglich des Werkstücks (und somit bezüglich des Gesichtsfeldes) bewegt wird. Z. B. kann ein Sensor, der durch den Arbeitskanal eines starren Boreskops 200 mitgeführt wird, von der Ferne gelenkt werden. Die graphischen Darstellungen auf der Grundlage des digitalisierten Signals (Signale) vom Sensor werden periodisch auf der Basis eines Takts gespeichert oder auf der Grundlage einer Benutzerauswahl von Zeit zu Zeit abgespeichert.
Fig. 17 verdeutlicht ein Beispiel einer Anzeige 1702 eines Werkstücks 1706 (z. B. einer Turbinenschaufel mit einer Vorderkante und einer Rückkante), die aus Flecken bestehende graphische Darstellungen 1402 aufweist, die auf dem digitalisierten Signal(en) zu verschiedenen Zeitpunkten beruhen. Die Anzeige 1702 gibt ein Wirbelstromprofil wieder, d. h. eine graphische Abbildung, die den gesamten Wirbelstromverlauf des Werkstücks 1706 darstellt. Bei diesem Beispiel schließt das Profil eine Zusammenstellung einer Anzahl von "Flecken" ein, die dem Bild des Werkstücks 1706 überlagert sind. Die Wirbelstromsonde 1712 wird längs der Vorderkante des Werkstücks 1706 bewegt. Die aus Flecken bestehenden graphischen Darstellungen 1402 werden periodisch automatisch auf der Basis eines Takts gesichert oder auf der Basis von Benutzereingaben von Zeit zu Zeit gesichert. Bei diesem Beispiel beruht die Größe der aus einem Flecken bestehenden graphischen Darstellung auf der Amplitude des gemessenen Wirbelstroms und die Farbe der aus einem Flecken bestehenden graphischen Darstellung auf der Phase des gemessenen Wirbelstroms. Wie aus Fig. 17 ersichtlich, ist eine erste Gruppierung von überlappenden, Flecken darstellenden, graphischen Darstellungen 1716 in der Nähe eines großen Risses 1708 aufgebracht. Die Größe des Wirbelstroms und somit die Größe der Flecken darstellenden graphischen Darstellungen nimmt bei der Annäherung der Sonde 1712 an den Riß 1708 zu und nimmt bei dem Entfernen der Sonde vom Riß ab. Obwohl dies in Fig. 17 nicht dargestellt ist, ändert sich auch die Farbe der einen Flecken darstellenden graphischen Darstellung wie sich die Phase des Wirbelstromes ändert. In ähnlicher Weise ist eine zweite Gruppierung von überlappenden, Flecken darstellenden graphischen Darstellungen 1718 in der Nähe eines kleinen Risses 1710 aufgebracht. Bei dieser Vorrichtung sehen die Reihen von Flecken darstellenden graphischen Darstellungen, nachdem der Wirbelstromsensor 1712 sich längs der Vorderkante der Turbinenschaufel 1706 bewegt hat, ein Profil des Wirbelstroms vor, das von der die Inspektion durchführenden Person rasch aufgenommen und interpretiert werden kann.
Alternativ kann ein Inspektionsprofil in drei grundlegenden Schritten erzeugt werden; nämlich, (1) Einführen des Profils; (2) Aufbauen des Profils; und (3) Vervollständigen des Profils. Zuerst wird eine spezielle Ansicht des zu inspizierenden Werkstücks bestimmt. Die Ansicht wird für den gesamten Profilerzeugungsprozeß fixiert. D. h., das optische Instrument wird während des gesamten Profilerzeugungsprozesses fixiert. Jedoch kann ein Sensor bezüglich des Werkstücks bewegt werden. In Erwiderung auf einen Befehl zum Einführen des Profils wird ein Bezugsbild erfaßt. Im einzelnen wird ein Videobild des Werkstücks in dem fixierten Gesichtsfeld, ohne dabei den Sensor im Blick zu haben, erfaßt und als eine Bezugsbilddatei (z. B. auf einem Festplattenlaufwerk 750) gespeichert. Unter direktübertragenen Videooperationen wird der Sensor bezüglich des Werkstücks bewegt. In Erwiderung darauf werden die dem Sensorausgang entsprechenden numerischen oder graphischen Darstellungen angezeigt.
In Erwiderung auf einen Befehl zum Aufbauen des Profils wird die dann existierende numerische oder graphische Darstellung (z. B. auf einem Festplattenlaufwerk 750) in einer Überlagerungsdatei gespeichert. Nachfolgende numerische oder graphische Darstellungen können (z. B. an die Überlagerungsdatei angehängt oder in einer separaten Datei(en) gespeichert werden) in Erwiderung auf nachfolgende Befehle zum Aufbauen des Profils gespeichert werden.
Ein Befehl zum Vervollständigen des Profils verbindet oder kombiniert die Bezugsbilddatei mit der Überlagerungsdatei(en), um eine Profildateigruppe oder Profildatei zu erzeugen.
Fig. 18 verdeutlicht ein Beispiel einer Anzeige eines Werkstücks, das graphische Darstellungen von Abtastdaten von einer Abtastung des Werkstücks aufweist. Bei diesem Beispiel ist das Gesichtsfeld 1804 ganz mit der Ansicht des Werkstücks ausgefüllt. Ferner wird in diesem Fall der Sensor z. B. mittels Miniatur-Schrittmotoren (die ferngesteuert werden können) in einem Abtastmuster 1860 abgelenkt. In diesem Fall werden die Flecken darstellenden, graphischen Darstellungen periodisch, z. B. bei jedem Schritt des bzw. der Schrittmotoren gesichert (gespeichert). Hierbei wird der kleine Riß 1810, der eine Zunahme der Wirbelstromgröße hervorruft, durch relativ kleine Flecken 1872 und 1874 angezeigt. In gleicher Weise wird der größere Riß 1808 durch größere Flecken 1876, 1878, 1880 und 1882 angezeigt. Obwohl in Fig. 18 nicht gezeigt, ändert sich auch die Farbe der einen Flecken darstellenden, graphischen Darstellung, so wie sich die Phase des Wirbelstroms ändert. Die Matrix der Flecken darstellenden, graphischen Darstellungen sieht wieder ein Wirbelstromprofil vor, das von der die Inspektion vornehmenden Person leicht erfaßt und interpretiert werden kann.
Nachfolgend wird ein Beispiel für den Betrieb der erfindungsgemäßen Vorrichtung aufgezeigt. Bei diesem Beispiel wird eine weiße Turbinenschaufel mit Hilfe eines Videobild-Endoskops 400 und eines Wirbelstromsensors inspiziert. Der Wirbelstromsensor ist an der Sondenspitze mit einer roten Markierung ausgestattet.
Ein Benutzer ruft das Ferninspektionsprogramm auf, das von der erfindungsgemäßen Vorrichtung ausgeführt wird. In Erwiderung darauf wird dem Benutzer zuerst ein Menü mit den in Frage kommenden Sensoren dargeboten. Die erfindungsgemäße Vorrichtung kann z. B. Datenübertragungstabellen für gewisse vorbestimmte Sensoren, wie z. B. ausgewählte Modelle von Wirbelstromsonden und Ultraschalldetektoren einschließen. Fig. 24 verdeutlicht eine Anzeige 2400 eines Sensorauswahlfensters 2402. Das Fenster 2402 listet in Frage kommende Sensoren 2404 wie auch andere für Fälle auf, bei denen der zu verwendende Sensor nicht unter den aufgelisteten ist. Der Benutzer kann (a) auf einen angezeigten, in Frage kommenden Sensor 2402 doppelklicken oder (b) die in Frage kommenden Sensoren durchlaufen, indem die obere oder untere Bildlaufleiste 2406a bzw. 2406b aktiviert oder der Schieberegler 2408 mit dem Pfeil 2410 in die gewünschte Richtung gezogen wird. In diesem Fall wählt der Benutzer die Wirbelstromsonde aus, die mit dem Videobild-Endoskop verwendet werden soll. Falls der Sensor, der verwendet werden soll, nicht in der Liste der vorgegebenen Sensoren enthalten ist, so kann der Benutzer einen "anderen" Sensor auswählen und relevante Daten bezüglich des Ansprechverhaltens des Sensors eingeben.
Als nächstes wird dem Benutzer ein Menü oder eine graphische Benutzerschnittstelle, über das bzw. die er unter einer Gruppe von in Frage kommenden graphischen Darstellungen auswählen kann, dargeboten. Fig. 25 verdeutlicht eine Anzeige 2500 von in Frage kommenden, graphischen Darstellungen 2504, die z. B. eine einen Flecken wiedergebende, graphische Darstellung 2504a, eine einen Pfeil wiedergebende, graphische Darstellung 2504b, eine einen Kreis wiedergebende, graphische Darstellung 2504c, eine "O.K.-NICHT O.K." wiedergebende, graphische Darstellung 2504d, eine "Fehlerfrei/Fehlerhaft" wiedergebende, graphische Darstellung 2504e und eine numerische Anzeige 2504f einschließen. Bei diesem Beispiel wählt der Benutzer die graphische Kreis-Darstellung aus.
Der Benutzer wird dann zur Eingabe von Parametern für die graphische Kreis-Darstellung aufgefordert. Alternativ kann der Benutzer vorbestimmte Parameter akzeptieren, anstelle eine Gruppe von Parametern einzugeben. Bei diesem Beispiel wählt der Benutzer vorbestimmte Parameter aus, die z. B. die Größe des Kreises der Wirbelstromgröße zuordnen, wobei die maximale Größe des Kreises 50 Pixel im Durchmesser, die minimale Größe des Kreises 3 Pixel im Durchmesser, der Strom-zu-Pixel-Skalierungsfaktor 5 mA pro Pixel beträgt, und die Farbe des Kreises konstant ist, und die die Helligkeit des Kreises der Phase des Wirbelstroms zuordnen, wobei die minimale Helligkeit einem Phasenwinkel von 180 Grad und die maximale Helligkeit einem Phasenwinkel von Null Grad entspricht. Andererseits kann der Benutzer, wie in Fig. 26 gezeigt, passende Parameter 2604 definieren, die in einem Parameterfenster 2602 als "fest" oder "variabel" 2606 dargeboten sind. Falls der Parameter 2604 als "variabel" ausgewählt wird, wird ein Einstellfenster 2650 vorgesehen. Auf der Grundlage des vom Benutzer ausgewählten Typs wird der Sensorausgang 2652, auf dem der variable Parameter beruht, ausgewählt. Der Knopf 2654 sieht ein Drag-down (Herunterzieh-)-Menü mit Sensorausgängen vor, in diesem Fall die Wirbelstromgröße und die Wirbelstromphase. Andere Parameter 2656, 2664 können (a) in den Kasten 2658, 2666 eingegeben, (b) aus einem Drag-down-Menü 2660, 2686 ausgewählt und/oder (c) mit Hilfe von Knöpfen 2662, 2670 inkrementiert oder dekrementiert werden. Die Parameter/Sensorausgangs-Skalierung 2670 kann in den Kasten 2676 eingegeben oder vom Drag-down-Menü 2674 ausgewählt werden.
Der Benutzer kann dann die Wirbelstromsonde durch den Arbeitskanal 442 des Einführrohres 404 des Videobild- Endoskops 400 einführen. Das Einführrohr 404 wird dann über die Inspektionsöffnung 108 des Turbinengehäuses 102 eingeführt, bis die Vorderkante einer Turbinenschaufel 106 in das Gesichtsfeld 456 der Objektivlinse 450 tritt.
Das Bild der Vorderkante der Turbinenschaufel 106 wird mit Hilfe der Objektivlinse 450 auf eine ladungsgekoppelte Einrichtung 452 fokussiert. Eine der ladungsgekoppelten Einrichtung zugehörige Schaltung taktet die Ladungen der Elemente der ladungsgekoppelten Einrichtung aus und führt die sich ergebende Folge von analogen Wellenformen der Leitung 454 zu. Gleichzeitig betätigt der Benutzer die Wirbelstromsonde derart, daß ein interessierender Punkt, z. B. ein in der Turbinenschaufel 106 auftretender Riß inspiziert werden kann.
Wie oben erläutert, wird die Folge von analogen Wellenformen auf der Leitung 454 dem Eingang einer Kamerasteuereinheit 710 zugeführt. Diese Kamerasteuereinheit 710 wandelt die Folge von analogen Wellenformen in Videobilder um, die dem NTSC-Standard entsprechen. Die Bildfangschaltung bzw. der Bildabtaster 712 empfängt die NTSC-Videobilder und wandelt die Bilder in eine 1024 mal 1024 Pixelmatrix um, wobei jedes Pixel eine von 256 Farben und einen von 256 Helligkeitspegeln aufweist. Der Prozessor 730 (und/oder der Coprozessor 740) üben Zugriff auf das Videobild 2200 aus.
Bei diesem Beispiel ist es bekannt, daß das angezeigte Gesichtsfeld 1004 800 mal 800 Pixel aufweist. Wie in Fig. 11 verdeutlicht, unterteilt der Prozessor 730 (und/oder der Coprozessor 740) den interessierenden Bereich von 800 mal 800 Pixel in vier Zeilen und vier Spalten, wodurch sechzehn Teilbilder mit 200 mal 200 Pixeln bestimmt werden. Aus der Erfahrung ist es bekannt, daß die Wahrscheinlichkeit für das Auffinden der Sondenspitze des Wirbelstromsensors in der zweiten oder dritten Zeile (R2 oder R3) des unterteilten Bildes wahrscheinlicher als anderswo ist. Demzufolge wird eine Pixel-um-Pixel-Suche bei dem Teilbild mit 200 mal 200 Pixeln, das durch die erste Spalte C1 und die zweite Zeile R2 definiert ist, für ein dunkelblaues Pixel (oder dunkelblaue Pixel) durchgeführt. Da die Markierung sich nicht innerhalb des Teilbildes befindet, werden keine roten Pixel gefunden. Demzufolge wird die Suche in dem nächsten Teilbild, das durch die zweite Spalte C2 und die zweite Zeile R2 bestimmt ist, durchgeführt. In diesem Fall werden rote Pixel, die der Markierung der Sondenspitze des Wirbelstromsensors entsprechen, erfaßt.
Die Pixelidentifikationsinformation 2302, die dem erfaßten ersten roten Pixel entspricht, wird als Ankerpunkt gespeichert.
Gleichzeitig mit der obigen Bearbeitung erzeugt der Wirbelstromsensor ein Stromsignal, das in ein Stromgrößen- bzw. Stromamplitudensignal und ein Stromphasensignal umgewandelt wird. Die beiden Signale werden dem (den) A/D-Wand­ ler(n) 722 zugeführt. Die Ausgangssignale des A/D-Wand­ lers bzw. der A/D-Wandler 722 werden vom Prozessor 730 gelesen. Der Prozessor bestimmt unter Verwendung einer Umwandlungstabelle oder eines Algorithmus zum Erzeugen einer graphischen Darstellung die Größe und die Helligkeit der einen Kreis wiedergebenden graphischen Darstellung auf der Grundlage der Größe bzw. Amplitude und der Phase (wie auch Vorgabeparameterwerte oder benutzerdefinierte Parameterwerte) der digitalisierten Wirbelstromsignale. Die sich ergebende, einen Kreis wiedergebende, graphische Darstellung wird über die Pixelinformation in dem Videobild 2200 um den bestimmten Ankerpunkt geschrieben.
Die obige Bearbeitung wird für jedes Videobild 2200 wiederholt. Die resultierenden Videobilder 2000' werden (a) dem Benutzer über eine VGA-Videoanzeige 768 oder eine NTSC-An­ zeige 762 dargeboten, (b) als Datei auf einem magnetischen oder optischen Speichermedium 750 gespeichert und/oder auf einem Videoband 790 aufgezeichnet.
Nachfolgend werden Verbesserungen und spezielle Anpassungen der Erfindung dargelegt.
Obwohl die erfindungsgemäße Vorrichtung mit irgendeiner Videoquelle 704d und irgendeiner Sensordatenquelle 706d verwendet werden kann, ist diese besonders gut für die Verwendung mit flexiblen Fiberskopen 300 oder Videobild- Endoskopen geeignet, die mit einer Wirbelstromsonde ausgestattet sind. Die Fig. 19 bis 21 verdeutlichen Modifikationen, die bei bekannten flexiblen Fiberskopen 300 oder Videobild-Endoskopen 400 zur Verbesserung der Qualität der Ausgangssignale der Wirbelstromsonde durchgeführt wurden.
Fig. 19 verdeutlicht die Abbildung eines konventionellen flexiblen Fiberskops 300 oder Videobild-Endoskops 400 in einer Oben/Unten- oder Links/Rechts-Ebene. Im einzelnen verdeutlicht Fig. 19 das distale Ende 1904 eines Einführrohres, das einen Kopfadapter 1906 einschließt. Linsen 1908 und ein Arbeitskanal 1910 sind ebenso dargestellt (der Deutlichkeit halber ist die Beleuchtungseinrichtung nicht gezeigt). Das Element 1904' verdeutlicht das distale Ende des Einführrohres, wenn es ganz nach links abgebogen ist, während das Element 1904'' das distale Ende des Einführrohres verdeutlicht, wenn es ganz nach rechts abgebogen ist. Wie aus Fig. 19 ersichtlich, bewegt sich das distale Ende 1904 des Einführrohres längs eines Bogens 1920, wenn es nach links bzw. rechts abgebogen wird. Das gleiche gilt für eine Abbiegung nach oben bzw. unten. Falls ein flaches Werkstück inspiziert wird, würde die Wirbelstromsonde näher am Werkstück sein, wenn sie sich in ihrer nicht-abgebogenen Stellung befindet, und vom Werkstück weiter weg sein, wenn sie ganz abgebogen ist (entweder nach links, rechts, oben oder unten). In einem solchen Fall ändert sich leider die Größe bzw. Amplitude des Wirbelstromes auf der Basis des Abstands der Sonde vom Werkstück, anstelle allein auf Defekten im Werkstück zu beruhen.
Fig. 20 verdeutlicht eine Einrichtung zum Erleichtern des Sondenkontakts mit einem Werkstück über einen vorbestimmten Biegebereich, wodurch das oben beschriebene Problem gelöst wird. Im einzelnen umfaßt das distale Ende 2006 eines Einführrohres eine Linse 2008, ein Beleuchtungsfenster 2010 und einen Arbeitskanal 2030, durch den sich ein Wirbelstromsensor 2040 mit einer Sonde 2042 erstreckt.
Innerhalb des Adapterkopfes weist der Arbeitskanal 2030 vorzugsweise einen Vorsprung (Vorsprünge) 2032, wie z. B. einen ringförmigen Rand bzw. Anschlag auf. Zwischen dem Vorsprung (den Vorsprüngen) 2032 und einem Flansch 2044, der an dem Wirbelstromsensor 2040 vorgesehen ist, ist eine Spanneinrichtung 2050, wie z. B. eine Feder angeordnet, die die Wirbelstromsonde 2042 nach außen, d. h. vom distalen Ende des Einführrohres weg vorspannt. In diesem Fall wird der Wirbelstromsensor 2040 vom distalen Ende in den Arbeitskanal 2030 eingesetzt. Das nach außen Vorspannen der Wirbelstromsonde 2042 hilft dabei, sicherzustellen, daß die Wirbelstromsonde 2042 bei einem Abbiegen nach links, rechts, oben oder unten den Kontakt mit dem Werkstück hält. Andere Einrichtungen, um die Sonde 2042 nach außen vorzuspannen, d. h. vom distalen Ende des Einführrohres weg vorzuspannen, können ebenso verwendet werden und können irgendwo in der Fernsicht-Inspektionsvorrichtung angeordnet werden.
Fig. 21 verdeutlicht das distale Ende eines Boreskops, Fiberskops oder Videobild-Endoskops mit einem 90 Grad- Kopfadapter, der einen speziell modifizierten Arbeitskanal aufweist. Wie aus Fig. 1a ersichtlich war, werden Turbinenschaufeln 106 oft mit einem optischen Instrument inspiziert, das ein sich durch eine Inspektionsöffnung 108 erstreckendes Einführrohr aufweist. Um den interessierenden Bereich, d. h. die Oberfläche der Turbinenschaufel zu inspizieren, ist ein Kopfadapter mit gerader Sicht nicht brauchbar. In der Tat belegen Kopfadapter mit 90 Grad-Sicht momentan das größte Marktsegment für industrielle Fernsicht-Inspektionssysteme. Wie in Fig. 21 gezeigt, wird ein durch das Fenster 2102 tretendes Bild von einer Linse 2104 fokussiert, von einem Spiegel 2106 reflektiert und durch eine Linse (Linsen) 2108 z. B. auf eine ladungsgekoppelte Einrichtung 2110 (oder auf das Ende eines Faserbündels oder eines optischen Systems) fokussiert. Leider kann der Sensor 2114 mit der Sonde 2116 in vielen Fällen keinen engen Biegeradius erzielen. Demzufolge ist der Arbeitskanal 2112 mit einer ersten Öffnung 2118, durch die der Sensor 2114 aus dem Arbeitskanal 2112 austritt, und einer zweiten Öffnung 2120 versehen, durch die der Sensor 2144 wieder in den Arbeitskanal 2112 eintritt. Alternativ kann ein 90 Grad-Kopfadapter mit einer festgelegten Sonde ausgestattet sein.
Die erfindungsgemäße Vorrichtung sieht somit eine intuitive Anzeige, die eine leichte und meist sofortige Aufnahme und Interpretation der Daten von mehreren Quellen ermöglicht. Die Anzeige ist im einzelnen zur Inspektion eines Werkstücks und insbesondere zur Inspektion eines Werkstücks mit einer Fernsicht-Inspektionsvorrichtung geeignet. Die Vorrichtung ermöglicht eine Abtastfolge oder Matrix mit einer Vielzahl von Sensoranzeigewerten für ein bestimmtes Gesichtsfeld. Die Erfindung sieht ferner verschiedene Modifikationen an bekannten visuellen Inspektionssystemen vor, um Daten, wie z. B. Wirbelstromdaten insbesondere mit Kopfadapter mit Seitensicht besser erfassen zu können.

Claims (34)

1. Verfahren zum Bearbeiten von
Videodaten, die ein Videobild eines Sensors einschließen, und
Daten, die von dem Sensor ausgegeben werden, wobei das Verfahren die folgenden Schritte aufweist:
  • (a) Annehmen von analogen Videodaten;
  • (b) Umwandeln der analogen Videodaten in Bilder, wobei jedes Bild Daten einschließt, die einer Matrix von Pixeln entsprechen;
  • (c) Orten des Videobildes des Sensors in einem der Bilder, um eine Ankerstelle zu definieren;
  • (d) Annehmen der vom Sensor ausgegebenen Daten;
  • (e) Digitalisieren der vom Sensor ausgegebenen Daten, um digitalisierte Sensordaten zu erzeugen;
  • (f) Umwandeln der digitalisierten Sensordaten in einen numerischen Wert oder eine graphische Darstellung, und
  • (g) Modifizieren der Pixel in dem einen der Bilder in der Nähe der Ankerstelle auf der Grundlage des numerischen Werts oder der graphischen Darstellung, um ein modifiziertes Bild zu erzeugen.
2. Verfahren nach Anspruch 1, ferner gekennzeichnet durch den Schritt:
  • (h) Anzeigen des modifizierten Bildes.
3. Verfahren nach Anspruch 1, ferner gekennzeichnet durch den Schritt:
  • (h) Aufzeichnen des modifizierten Bildes.
4. Verfahren nach Anspruch 1, ferner gekennzeichnet durch den Schritt:
  • (h) Speichern einer Datei, die das modifizierte Bild einschließt.
5. Verfahren nach Anspruch 1, bei dem der Schritt des Ortens des Videobildes des Sensors in dem einen der Bilder zum Definieren einer Ankerstelle folgende Unterschritte einschließt:
  • (i) Überprüfen der Daten, die der Matrix von Pixeln entsprechen, um zu bestimmen, ob ein Pixel innerhalb der Matrix Daten aufweist, die einem Attribut des Sensors entsprechen; und
  • (ii) Bestimmen der Ankerstelle an einer Stelle eines Pixels, das die Daten besitzt, die dem Attribut des Sensors entsprechen.
6. Verfahren nach Anspruch 5, bei dem das Attribut eine bestimmte Farbe ist.
7. Verfahren nach Anspruch 1, bei dem der Schritt des Ortens des Videobildes des Sensors in einem der Bilder zum Definieren einer Ankerstelle folgende Unterschritte aufweist:
  • (i) Unterteilen des Bildes in eine Vielzahl von Teilbildern;
  • (ii) Überprüfen der jedem Pixel entsprechenden Daten in einem der Teilbilder, um zu bestimmen, ob ein Pixel innerhalb des Teilbildes Daten aufweist, die einem Attribut des Sensors entsprechen;
  • (iii) falls das Teilbild ein Pixel aufweist, das Daten einschließt, die dem Attribut des Sensors entsprechen, Festlegen der Ankerstelle als Stelle des Pixels, das Daten einschließt, die dem Attribut des Sensors entsprechen; und
  • (iv) falls das Teilbild kein Pixel aufweist, das Daten einschließt, die dem Attribut des Sensors entsprechen, Fortfahren mit der Bearbeitung des nächsten Teilbildes.
8. Verfahren nach Anspruch 7, bei dem das Attribut eine bestimmte Farbe ist.
9. Verfahren nach Anspruch 7, bei dem, falls es bekannt ist, daß das Videobild des Sensors höchstwahrscheinlich sich in einem bestimmten Teilbild anstatt in anderen Teilbildern befindet, das bestimmte Teilbild das eine der Teilbilder ist.
10. Verfahren nach Anspruch 1, ferner gekennzeichnet durch die Schritte:
Auswählen der graphischen Darstellung aus einer Gruppe von in Frage kommenden graphischen Darstellungen, um eine ausgewählte graphische Darstellung zu definieren; und
Auswählen der Parameter für die ausgewählte graphische Darstellung,
wobei der Schritt der Umwandlung der digitalisierten Sensordaten in einen numerischen Wert oder eine graphische Darstellung die ausgewählte graphische Darstellung und die Parameter verwendet.
11. Verfahren nach Anspruch 1, bei dem die graphische Darstellung ein Fleck, ein Ring oder ein Pfeil ist.
12. Verfahren nach Anspruch 1, bei dem die Sensordaten die Daten eines ersten Typs und die Daten eines zweiten Typs einschließen, und bei dem der Schritt des Umwandelns der digitalisierten Sensordaten in einen numerischen Wert oder eine graphische Darstellung die folgenden Unterschritte umfaßt:
Variieren eines ersten Attributs der graphischen Darstellung auf der Grundlage der Daten des ersten Typs; und
Variieren eines zweiten Attributs der graphischen Darstellung auf der Grundlage der Daten des zweiten Typs.
13. Verfahren nach Anspruch 12, bei dem jeweils das erste und das zweite Attribut der graphischen Darstellung aus einer Gruppe ausgewählt werden, die die Größe, die Länge, den Durchmesser, den Innendurchmesser, den Außendurchmesser, die Farbe, die Helligkeit, die Schärfe und die Ausrichtung einschließt.
14. Verfahren zum Bearbeiten von
Videodaten-Bildern, die ein Videobild eines Sensors einschließen, wobei jedes Bild Daten einschließt, die einer Matrix von Pixeln entsprechen, und
Daten, die vom Sensor ausgegeben werden, wobei das Verfahren die folgenden Schritte aufweist:
  • (a) Orten des Sensors in einem der Bilder aus Videodaten, um eine Ankerstelle zu definieren;
  • (b) Annehmen der vom Sensor ausgegebenen Daten;
  • (c) Umwandeln der vom Sensor ausgegebenen Daten in einen numerischen Wert oder ein graphische Darstellung; und
  • (d) Modifizieren der Pixeldaten in der Nähe der Ankerstelle in dem einen der Bilder auf der Grundlage des numerischen Werts oder der graphischen Darstellung, um ein modifiziertes Bild zu erzeugen.
15. Verfahren nach Anspruch 14, ferner gekennzeichnet durch den Schritt:
  • (e) Anzeigen des modifizierten Bildes.
16. Verfahren nach Anspruch 14, ferner gekennzeichnet durch den Schritt:
  • (e) Aufzeichnen des modifizierten Bildes.
17. Verfahren nach Anspruch 14, ferner gekennzeichnet durch den Schritt:
  • (e) Speichern einer Datei, die das modifizierte Bild einschließt.
18. Verfahren nach Anspruch 14, bei dem der Schritt des Ortens des Videobildes des Sensors in dem einen der Bilder zum Definieren einer Ankerstelle folgende Unterschritte einschließt:
  • (i) Überprüfen der Daten, die der Matrix von Pixeln entsprechen, um zu bestimmen, ob ein Pixel innerhalb der Pixel-Matrix Daten aufweist, die einem Attribut des Sensors entsprechen; und
  • (ii) Bestimmen der Ankerstelle an einer Stelle eines Pixels, das die Daten besitzt, die dem Attribut des Sensors entsprechen.
19. Verfahren nach Anspruch 18, bei dem das Attribut eine bestimmte Farbe ist.
20. Verfahren nach Anspruch 14, bei dem der Schritt des Ortens des Sensors in dem einen der Bilder zum Definieren einer Ankerstelle folgende Unterschritte aufweist:
  • (i) Unterteilen des Bildes in eine Vielzahl von Teilbildern;
  • (ii) Überprüfen der jedem Pixel entsprechenden Daten in einem der Teilbilder, um zu bestimmen, ob ein Pixel innerhalb des Teilbildes die Daten aufweist, die einem Attribut des Sensors entsprechen;
  • (iii) falls das Teilbild ein Pixel aufweist, das Daten einschließt, die dem Attribut des Sensors entsprechen, Festlegen der Ankerstelle an einer Stelle des Pixels, das Daten aufweist, die dem Attribut des Sensors entsprechen; und
  • (iv) falls das Teilbild kein Pixel aufweist, das Daten einschließt, die dem Attribut des Sensors entsprechen, Fortfahren mit der Bearbeitung des nächsten Teilbildes.
21. Verfahren nach Anspruch 20, bei dem das Attribut eine bestimmte Farbe ist.
22. Verfahren nach Anspruch 20, bei dem, falls es bekannt ist, daß das Videobild des Sensors höchstwahrscheinlich sich in einem bestimmten Teilbild anstatt in anderen Teilbildern befindet, das bestimmte Teilbild das eine der Teilbilder ist.
23. Verfahren nach Anspruch 14, ferner gekennzeichnet durch die Schritte:
Auswählen der graphischen Darstellung aus einer Gruppe von in Frage kommenden graphischen Darstellungen, um eine ausgewählte graphische Darstellung zu definieren; und
Auswählen der Parameter für die ausgewählte graphische Darstellung,
wobei der Schritt der Umwandlung der digitalisierten Sensordaten in einen numerischen Wert oder eine graphische Darstellung die ausgewählte graphische Darstellung und die Parameter verwendet.
24. Verfahren nach Anspruch 14, bei dem die graphische Darstellung ein Fleck, ein Ring oder ein Pfeil ist.
25. Verfahren nach Anspruch 14, bei dem die Sensordaten die Daten eines ersten Typs und die Daten eines zweiten Typs einschließen, und bei dem der Schritt des Umwandelns der digitalisierten Sensordaten in einen numerischen Wert oder eine graphische Darstellung die folgenden Unterschritte umfaßt:
Variieren eines ersten Attributs der graphischen Darstellung auf der Grundlage der Daten des ersten Typs; und
Variieren eines zweiten Attributs der graphischen Darstellung auf der Grundlage der Daten des zweiten Typs.
26. Verfahren nach Anspruch 25, bei dem jeweils das erste und das zweite Attribut der graphischen Darstellung aus einer Gruppe ausgewählt werden, die die Größe, die Länge, den Durchmesser, den Innendurchmesser, den Außendurchmesser, die Farbe, die Helligkeit, die Schärfe und die Ausrichtung einschließt.
27. Verfahren nach Anspruch 14, bei dem die Videodaten- Bilder das Gesichtsfeld einer Bilderfassungseinrichtung einschließen und das Verfahren ferner die folgenden Schritte aufweist:
  • (e) Festlegen des Gesichtsfelds der Bilderfassungseinrichtung;
  • (f) Bewegen des Sensors bezüglich der Bilderfassungseinrichtung;
  • (g) Umwandeln der vom Sensor ausgegebenen Daten in einen numerischen Wert oder eine graphische Darstellung;
  • (h) Modifizieren der Pixel in der Nähe der Ankerstelle in wenigstens einem der Bilder auf der Grundlage des numerischen Werts oder der graphischen Darstellung, um wenigstens ein modifiziertes Bild zu erzeugen;
  • (i) Abtasten des numerischen Werts oder der graphischen Darstellung in Erwiderung auf eine Benutzerauswahl oder einen Takt und Ersetzen der Pixel in der Nähe der Ankerstelle derart, daß die nachfolgenden Bilder ebenso den numerischen Wert oder die graphische Darstellung an der oder um die Ankerstelle einschließen; und
  • (j) Erzeugen eines Inspektionsprofils durch Wiederholen der Schritte (f) bis (i).
28. Vorrichtung zum Inspizieren eines Gegenstandes, die einschließt:
  • (a) eine Videobilderzeugungseinrichtung mit einem Gesichtsfeld zum Erzeugen von Videobildern des Gegenstands, wobei jedes Videobild die einer Pixelmatrix entsprechenden Daten einschließt;
  • (b) einen im Gesichtsfeld der Videobilderzeugungseinrichtung angeordneten Sensor zum Erfassen eines physikalischen Phänomens, das auf ein Attribut des Gegenstandes bezogen ist;
  • (c) eine Signalerzeugungseinrichtung zum Erzeugen eines Signals auf der Grundlage des vom Sensor erfaßten physikalischen Phänomens;
  • (d) einen Wandler, der das Signal von der Signalerzeugungseinrichtung empfängt und dieses in einen numerischen Wert oder eine graphische Darstellung umwandelt;
  • (e) eine Ankererzeugungseinrichtung, die Bilder von der Videobilderzeugungseinrichtung empfängt und die Stelle eines Bildes des Sensors innerhalb eines Bildes bestimmt und einen Anker an der Stelle erzeugt; und
  • (f) eine Videoverarbeitungseinrichtung, die den Anker von der Ankererzeugungseinrichtung, die Bilder von der Videobilderzeugungseinrichtung und den numerischen Wert oder die graphische Darstellung vom Wandler empfängt und Pixel in der Nähe des Ankers in zumindest einem der Bilder auf der Basis des numerischen Wert oder der graphischen Darstellung modifiziert.
29. Vorrichtung nach Anspruch 28, bei der die Videobilderzeugungseinrichtung eine Fernsicht- Inspektionseinrichtung ist.
30. Vorrichtung nach Anspruch 28, bei der die Videobilderzeugungseinrichtung (a) eine Videokamera, (b) ein Boreskop, das mit einer Videokamera gekoppelt ist, (c) ein Fiberskop, das mit einer Videokamera gekoppelt ist, oder (d) ein Videobild-Endoskop ist, das mit einer Kamerasteuereinheit ausgestattet ist.
31. Vorrichtung nach Anspruch 30, bei der der Sensor durch einen Arbeitskanal in der Videobilderzeugungseinrichtung geführt ist.
32. Vorrichtung nach Anspruch 28, bei der die Videobilderzeugungseinrichtung einen 90°-Kopfadapter und eine fixierte Sonde aufweist.
33. Vorrichtung nach Anspruch 29, bei der die Fernsicht- Inspektionseinrichtung ein Einführrohr mit einem proximalen und einem distalen Ende aufweist, das einen Arbeitskanal einschließt, der sich vom proximalen Ende bis zum distalen Ende des Einführrohres erstreckt, wobei der Sensor sich durch den Arbeitskanal erstreckt und die Vorrichtung ferner eine Vorspanneinrichtung aufweist, die den Sensor vom distalen Ende des Einführrohres weg vorspannt.
34. Vorrichtung nach Anspruch 28, bei der der Sensor eine Wirbelstromsonde oder eine Ultraschallsonde ist.
DE19757912A 1996-12-27 1997-12-24 Verfahren und Vorrichtung zum Bearbeiten von Videobildern Expired - Fee Related DE19757912B4 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US08/774,919 1996-12-27
US08/774,919 US6031566A (en) 1996-12-27 1996-12-27 Method and device for providing a multiple source display and a remote visual inspection system specially adapted for use with the device

Publications (2)

Publication Number Publication Date
DE19757912A1 true DE19757912A1 (de) 1998-07-02
DE19757912B4 DE19757912B4 (de) 2005-11-03

Family

ID=25102694

Family Applications (1)

Application Number Title Priority Date Filing Date
DE19757912A Expired - Fee Related DE19757912B4 (de) 1996-12-27 1997-12-24 Verfahren und Vorrichtung zum Bearbeiten von Videobildern

Country Status (3)

Country Link
US (1) US6031566A (de)
JP (1) JP4078409B2 (de)
DE (1) DE19757912B4 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10062503A1 (de) * 2000-10-04 2002-04-11 Margit Frank Media Art Gmbh Vorrichtung zur Bildwiedergabe

Families Citing this family (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6138081A (en) * 1998-04-09 2000-10-24 Cmr Technologies, Inc. Data acquisition system and method for monitoring gas turbine engine testing
JP3341024B2 (ja) * 1998-07-17 2002-11-05 オムロン株式会社 小型のセンサ装置
US20040153269A1 (en) * 2001-02-16 2004-08-05 Kalas Frank Joseph Automated data capture system
WO2002071174A2 (en) * 2001-03-06 2002-09-12 Two Dimensional Instr Llc Data display device
WO2003089837A1 (en) * 2002-04-17 2003-10-30 Surespek Iss Pty Ltd Inspection management system and graphical user interface therefor
US20050129108A1 (en) * 2003-01-29 2005-06-16 Everest Vit, Inc. Remote video inspection system
US20050041097A1 (en) * 2003-08-19 2005-02-24 Bernstein Robert M. Non-medical videoscope
US20060176242A1 (en) * 2005-02-08 2006-08-10 Blue Belt Technologies, Inc. Augmented reality device and method
WO2007041383A2 (en) * 2005-09-30 2007-04-12 Purdue Research Foundation Endoscopic imaging device
US8767060B2 (en) * 2007-10-26 2014-07-01 Ge Inspection Technologies, Lp Inspection apparatus having heat sink assembly
DE112007003747T5 (de) * 2007-12-28 2010-12-09 General Electric Co. Verfahren und Vorrichtung zur Prüfung einer Komponente unter Verwendung einer omnidirektionalen Wirbelstromsonde
CA2711168A1 (en) * 2007-12-31 2009-07-09 General Electric Company Method for compensation of responses from eddy current probes
US20100026783A1 (en) * 2008-08-01 2010-02-04 Real D Method and apparatus to encode and decode stereoscopic video data
US8760507B2 (en) * 2008-08-05 2014-06-24 Inspectron, Inc. Light pipe for imaging head of video inspection device
US8217646B2 (en) * 2008-10-17 2012-07-10 Ge Inspection Technologies, Lp Inspection apparatus for performing inspections
GB2484482B (en) * 2010-10-11 2014-07-02 Sensor Coating Systems Ltd Detection System
US20130197855A1 (en) * 2012-01-31 2013-08-01 Gareth W. Oskam Method and apparatus to determine temperature of a gas turbine engine
US8786300B2 (en) 2012-02-07 2014-07-22 General Electric Company Probe assembly and methods for use in inspecting a component
US20140063228A1 (en) * 2012-09-06 2014-03-06 General Electric Company Method and system for cleaning surfaces and non-destructive inspection thereof
US20140139658A1 (en) * 2012-11-20 2014-05-22 General Electric Company Remote visual inspection system and method
US11354007B2 (en) 2015-04-07 2022-06-07 Olympus America, Inc. Diagram based visual procedure note writing tool

Family Cites Families (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4221053A (en) * 1978-11-13 1980-09-09 Libbey-Owens-Ford Company Inspection apparatus
US4403251A (en) * 1980-06-26 1983-09-06 Domarenok Nikolai I Thermovision pyrometer for remote measurement of temperature of an object
US4470122A (en) * 1981-09-30 1984-09-04 The Boeing Company Integrated electro-optical position sensing, workpiece probing and display method and apparatus
GB2136242B (en) * 1983-02-10 1986-04-09 Atomic Energy Authority Uk Superimposition in a video display system
JPH0828839B2 (ja) * 1987-04-21 1996-03-21 オリンパス光学工業株式会社 テレビカメラ装置
US4855820A (en) * 1987-10-05 1989-08-08 Joel Barbour Down hole video tool apparatus and method for visual well bore recording
US5251127A (en) * 1988-02-01 1993-10-05 Faro Medical Technologies Inc. Computer-aided surgery apparatus
US5697885A (en) * 1989-01-30 1997-12-16 Olympus Optical Co., Ltd. Endoscope for recording and displaying time-serial images
US5140265A (en) * 1989-12-20 1992-08-18 Olympus Optical Co., Ltd Eddy current flaw detecting endoscope apparatus which produces signals which control other devices
DE4102196C2 (de) * 1990-01-26 2002-08-01 Olympus Optical Co Abbildungsvorrichtung zum Nachführen eines Objektes
JPH04138127A (ja) * 1990-09-28 1992-05-12 Olympus Optical Co Ltd 内視鏡網目画像軽減装置
JPH04176435A (ja) * 1990-11-09 1992-06-24 Olympus Optical Co Ltd 内視鏡装置
US5347987A (en) * 1991-04-08 1994-09-20 Feldstein David A Self-centering endoscope system
JPH0595900A (ja) * 1991-04-11 1993-04-20 Olympus Optical Co Ltd 内視鏡画像処理装置
US5150117A (en) * 1991-04-22 1992-09-22 United Technologies Corporation Power management symbology display system
EP0614104A3 (de) * 1993-03-05 1995-12-20 Hughes Aircraft Co System zur Steuerung von virtuellen Bildanzeigen mit "head-up" Anzeigesystem.
US5512940A (en) * 1993-03-19 1996-04-30 Olympus Optical Co., Ltd. Image processing apparatus, endoscope image sensing and processing apparatus, and image processing method for performing different displays depending upon subject quantity
US5408996A (en) * 1993-03-25 1995-04-25 Salb; Jesse System and method for localization of malignant tissue
US5475420A (en) * 1993-06-09 1995-12-12 Origin Medsystems, Inc. Video imaging system with image processing optimized for small-diameter endoscopes
US5589874A (en) * 1993-06-09 1996-12-31 Origin Medsystems, Inc. Video imaging system with external area processing optimized for small-diameter endoscopes
US5503320A (en) * 1993-08-19 1996-04-02 United States Surgical Corporation Surgical apparatus with indicator
GB9318520D0 (en) * 1993-09-07 1993-10-20 Jaguar Cars Head up displays for motor vehicles
JPH07194532A (ja) * 1993-11-29 1995-08-01 Toshiba Corp 電子内視鏡装置
US5642157A (en) * 1993-11-29 1997-06-24 Kabushiki Kaisha Toshiba Electronic endoscope apparatus usable in combination with medical diagnosis apparatus
JP2872030B2 (ja) * 1993-12-29 1999-03-17 オリンパス光学工業株式会社 超音波診断装置
JPH0884730A (ja) * 1994-09-20 1996-04-02 Olympus Optical Co Ltd 超音波内視鏡装置
US5649021A (en) * 1995-06-07 1997-07-15 David Sarnoff Research Center, Inc. Method and system for object detection for instrument control

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10062503A1 (de) * 2000-10-04 2002-04-11 Margit Frank Media Art Gmbh Vorrichtung zur Bildwiedergabe

Also Published As

Publication number Publication date
JPH10228533A (ja) 1998-08-25
DE19757912B4 (de) 2005-11-03
US6031566A (en) 2000-02-29
JP4078409B2 (ja) 2008-04-23

Similar Documents

Publication Publication Date Title
DE19757912B4 (de) Verfahren und Vorrichtung zum Bearbeiten von Videobildern
DE60219824T2 (de) Abbildungseinrichtung und damit zusammenhängende verfahren
DE102006001647B4 (de) Bilddatenprozessor und elektronisches Endoskopsystem
DE10164935B4 (de) Elektronisches Endoskop
DE602004008681T2 (de) Mikroskop-System und Verfahren
DE102014206309B4 (de) System und Verfahren zum Erhalten von Bildern mit Versatz zur Verwendung für verbesserte Kantenauflösung
DE102004006260B4 (de) Videoendoskopeinrichtung
DE102016214080A1 (de) Bildinspektionseinrichtung, Bildinspektionsverfahren und Bildinspektionsprogramm
DE112015002570T5 (de) Bilderfassungssystem und -verfahren zur visuellen Ferninspektion
DE4321786A1 (de) Bildaufnahmesystem mit einer Signalverarbeitungseinrichtung
DE102013224373A1 (de) Messungsmikroskop-Vorrichtung, Bilderzeugungsverfahren, Messungsmikroskop-Vorrichtungs-Betriebsprogramm und computerlesbares Aufzeichnungsmedium
DE102009056428A1 (de) Endoskopsystem mit Abtastfunktion
DE102014110131A1 (de) Bildaufnahmevorrichtung und Bildaufnahmeverfahren
DE202005021436U1 (de) Optisch verbessertes digitales Abbildungssystem
DE10140839A1 (de) Bildaufnahmeelement für ein elektronisches Endoskop
DE10101064A1 (de) Elektronisches Endoskopsystem und Selektor hierfür
DE102008030349A1 (de) Bilderfassungsvorrichtung
DE112012005481T5 (de) Bildverarbeitungsvorrichtung, Bildverarbeitungssystem, Bildverarbeitungsverfahren und Bildverarbeitungsprogramm
DE102007029884A1 (de) Verfahren und Einrichtung zum Erzeugen eines aus einer Mehrzahl von endoskopischen Einzelbildern zusammengesetztes Gesamtbildes von einer Innenoberfläche eines Körperhohlraums
EP2165186A1 (de) Vorrichtung zur abbildung der innenfläche eines vorzugsweise zylindrischen hohlraums in einem werkstück
DE102014226941A1 (de) Vergrößernde Beobachtungsvorrichtung, vergrößerndes Bildbeobachtungsverfahren und computer-lesbares Aufzeichnungsmedium
DE10008677A1 (de) Digitalkamerasystem und Verfahren zum Durchführen von Dokumentenabtastungen
DE102010036963A1 (de) Optisches Beobachtungssystem
DE19806261B4 (de) Verfahren zur gesteuerten Darstellung von Hohlraum-Oberflächen
DE102009059977A1 (de) Endoskopsystem mit Abtastfunktion

Legal Events

Date Code Title Description
8127 New person/name/address of the applicant

Owner name: OLYMPUS AMERICA INC., MELVILLE, N.Y., US OLYMPUS O

8110 Request for examination paragraph 44
8127 New person/name/address of the applicant

Owner name: OLYMPUS CO., TOKYO/TOKIO, JP

Owner name: OLYMPUS AMERICA INC., MELVILLE, N.Y., US

8364 No opposition during term of opposition
R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee

Effective date: 20120703