DE19757912A1 - Verfahren und Vorrichtung zum Vorsehen einer mehrere Quellen darstellenden Anzeige und ein speziell an die Verwendung mit der Vorrichtung angepaßtes Fernsicht-Inspektionssystem - Google Patents
Verfahren und Vorrichtung zum Vorsehen einer mehrere Quellen darstellenden Anzeige und ein speziell an die Verwendung mit der Vorrichtung angepaßtes Fernsicht-InspektionssystemInfo
- Publication number
- DE19757912A1 DE19757912A1 DE19757912A DE19757912A DE19757912A1 DE 19757912 A1 DE19757912 A1 DE 19757912A1 DE 19757912 A DE19757912 A DE 19757912A DE 19757912 A DE19757912 A DE 19757912A DE 19757912 A1 DE19757912 A1 DE 19757912A1
- Authority
- DE
- Germany
- Prior art keywords
- sensor
- data
- video
- image
- pixel
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B7/00—Mountings, adjusting means, or light-tight connections, for optical elements
- G02B7/28—Systems for automatic generation of focusing signals
Landscapes
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Optics & Photonics (AREA)
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Endoscopes (AREA)
- Instruments For Viewing The Inside Of Hollow Bodies (AREA)
- Image Processing (AREA)
Description
Die Erfindung betrifft die Anzeige von Informationen von
mehreren Quellen in einer Art und Weise, die eine rasche
Aufnahme und Interpretation der Informationen ermöglicht.
Im einzelnen betrifft die Erfindung die Anzeige von
Informationen, die von der Inspektion eines Werkstücks
herrühren, und insbesondere die Anzeige von Informationen
von einer Ferninspektion des Werkstücks.
Verschiedene Systeme oder Teile müssen periodisch oder,
wenn ein Problem vermutet wird, inspiziert bzw. überprüft
werden. Z. B. weist ein Flugtriebwerk eine Reihe von
Turbinen auf, von denen jede eine Anzahl an
Turbinenschaufeln besitzt, die von Zeit zu Zeit überprüft
werden müssen. Falls z. B. ein Flugtriebwerk einen Vogel
einsaugt, kann ein Riß 110 in einer Turbinenschaufel 106
entstehen, wie dies in Fig. 1b dargestellt ist. Dieser Riß
kann entweder a) unbeachtlich sein, so daß keine Wartung
erforderlich ist, b) relativ klein sein, so daß der Riß
unter Ausbildung eines "Übergangs" (d. h. einer
aerodynamisch akzeptablen Form) verschliffen werden kann,
oder c) relativ groß sein, so daß die Schaufel 106 ersetzt
werden muß.
Wie in Fig. 1a schematisch dargestellt, sind die
Turbinenschaufeln 106, die sich radial von einer Achse 104
wegerstrecken, in einem Gehäuse 102 eingeschlossen. Um die
Inspektion der Turbinenschaufeln 106 ohne Öffnen des
Gehäuses 102 zu erleichtern, sind eine oder mehrere
Inspektionsöffnungen 108 vorgesehen. Fernsicht-
Inspektionssysteme, die optische Instrumente wie z. B.
Boreskope (Bohrungsprüfgeräte), flexible Fiberskope und
Videobild-Endoskope einschließen, werden oft zur
Ferninspektion von Turbinenschaufeln 106 verwendet. Im
einzelnen weist jedes der vorstehend erwähnten optischen
Instrumente ein Einführrohr auf, das durch die
Inspektionsöffnung 108 eingeführt werden kann. In jedem
Fall überträgt das Einführrohr ein an seinem distalen, im
Inneren des Gehäuses 102 befindlichen Ende empfangenes Bild
zu seinem proximalen Ende, das außerhalb des Gehäuses 102
angeordnet ist. Ein elektronisches Drehwerkzeug (wie z. B.
das von Olympus America Inc. angebotene Modell OTT) kann
zum automatischen und genauen Drehen der Turbine verwendet
werden, so daß jede Turbinenschaufel 106 betrachtet werden
kann und die interessierenden Schaufeln 106 für eine
spätere genauere Inspektion markiert werden können. Obwohl
Boreskope, flexible Fiberskope und flexible Videobild-
Endoskope für den Fachmann bekannt sind, wird nachfolgend
zur besseren Verdeutlichung ein kurzer Überblick über diese
optischen Instrumente gegeben.
Fig. 2a verdeutlicht eine Seitenansicht eines starren
Boreskops 200, das in Verbindung mit einer daran
befestigten Videokamera (nicht gezeigt) als Videoquelle für
das Anzeigesystem der Erfindung verwendet werden kann. Wie
aus Fig. 2a ersichtlich, weist das Boreskop einen Körper 202,
der z. B. einen Handgriff 203 einschließen kann, sowie
ein Einführrohr 204 auf. Der Körper 202 ist mit dem
proximalen Ende des Einführrohres 204 verbunden. Am
distalen Ende des Einführrohres 204 weist ein Kopfadapter
211 ein Linsensystem 206 mit einem Gesichtsfeld 208 und
eine Lichtaussendeeinrichtung 210 auf. Obwohl der gezeigte
Kopfadapter 211 eine 90 Grad (oder rechtwinklige)
Betrachtung vorsieht, sind andere Kopfadapter (z. B. für
eine direkte Sicht, eine schräg um 45 Grad nach vorne
gerichtete Sicht und eine um 110 Grad nach rückwärts
gerichtete Sicht) verfügbar, wie dies dem Fachmann bekannt
ist.
Der Körper 202 des Boreskops schließt einen
Scharfeinstellungsring 214 und ein Okular 212 ein. Das
Boreskop kann auch eine Umlaufabtast-Skalenscheibe 216
aufweisen, die dem Benutzer das Drehen (Z. B. über 370
Grad) des Einführrohres 204 bezüglich des Körpers 202
ermöglicht. Die Umlaufabtast-Skalenscheibe 216 schließt
vorzugsweise einen Umlaufabtastrichtungsanzeiger 218 ein,
so daß der Benutzer die Ausrichtung des Kopfadapters 211
bestimmen kann, falls dieser z. B. durch das Gehäuse 102
von der Sicht des Benutzers abgeschirmt ist. Der Körper 202
weist auch vorzugsweise einen Lichtleiterverbinder 220 zur
Aufnahme von Beleuchtungslicht von einer externen Quelle
auf.
Falls das Boreskop 200 nicht in Gebrauch ist, ist zum
Schutz der Okularoptik eine Okularmuschel 222 vorgesehen.
Ein Videoadapter 224 kann dazu verwendet werden, eine
Videokamera (nicht gezeigt) mit dem Okular 212 so zu
verbinden, daß die Inspektion bzw. Überprüfung über einen
Videomonitor möglich ist. Die Videokamera gibt Videobilder
ab, die z. B. dem National Television Standards Committee
(oder "NTSC" ), dem Phase Alternating Line System (oder
"PAL") oder dem S-Video (oder Y-C) Standard entsprechen.
Fig. 2b zeigt eine Querschnittsansicht eines Teils des
Einführrohres 204 des starren Boreskops 200 der Fig. 2a.
Wie zu ersehen ist, bildet eine Wand 228 einen
Außenzylinder, der die Wand 230 umgibt, die einen
Innenzylinder bildet. Der innerhalb des Innenzylinders
begrenzte Raum nimmt eine Objektivlinse 206' und ein
Objektivlinsensystem 226 auf, das das Bild von der
Objektivlinse 206' zum Okular 212 überträgt. Ein zwischen
Innen- und Außenzylinder ausgebildeter Hohlraum kann zur
Aufnahme von Lichtleitern, wie z. B. faseroptischen Litzen
verwendet werden. Ebenso kann ein Arbeitskanal vorgesehen
sein, durch den Sensoren und/oder Werkzeuge (Instrumente)
hindurchgeführt werden können.
Fig. 2c zeigt eine Stirnansicht des distalen Endes des
optischen Kopfadapters 211' mit direkter Sicht. Wie in Fig. 2c
gezeigt, kann um die Objektivlinse 206' ein Fenster 210'
zum Durchlassen von Licht, das von den Lichtleitern stammt,
vorgesehen werden, um das zu inspizierende Werkstück zu
beleuchten.
Fig. 3a stellt ein flexibles Fiberskop 300 dar, das in
Verbindung mit einer daran befestigten Videokamera als
Videoquelle für das Anzeigesystem dieser Erfindung
Verwendung finden kann. Wie bei dem starren Boreskop 200,
das vorstehend erläutert wurde, weist das flexible
Fiberskop 300 einen Körper 302 und ein Einführrohr 304 auf.
Jedoch ist in diesem Fall das Einführrohr 304 flexibel
ausgestaltet, so daß dessen distales Ende mit Hilfe einer
Links/Rechts-Gelenksteuerung nach links bzw. rechts und mit
Hilfe einer Auf/Ab-Gelenksteuerung nach oben bzw. unten
gelenkt werden kann. Die Links/Rechts-Gelenksteuerung 310
kann mittels einer Bremse 312 und die Auf/Ab-
Gelenksteuerung 314 mittels einer Bremse 316 arretiert
werden. Der Körper 302 umfaßt ferner einen Dioptrien-
Einstellring 306 und ein Okular 308. Wie bei dem vorstehend
erläuterten starren Boreskop 200 kann das Okular 308 mit
einer Okularmuschel 350 abgedeckt werden, wenn dieses nicht
benutzt wird. Ferner kann ein Adapter 320 verwendet werden,
um eine Videokamera (nicht gezeigt) mit dem Okular 308 zu
verbinden. Schließlich ermöglicht ein Lichtleiterverbinder
318 eine Verbindung mit einer externen Lichtquelle.
Fig. 3b stellt eine Querschnitts-Seitenansicht und Fig. 3c
eine Stirnansicht des distalen Endes des Einführrohres 306
des flexiblen Fiberskops 300 der Fig. 3a dar. Eine Wand 322
bildet einen Außenzylinder und eine Wand 340 einen
Innenzylinder. In dem Raum, der vom Innenzylinder begrenzt
wird, überträgt ein Bündel von optischen Fasern 330 ein
Bild, das an seinem distalen Ende durch eine Objektivlinse
332 fokussiert wird. Ein Lichtleiterkanal 326 und ein
Arbeitskanal 328, die zwischen dem Innen- und Außenzylinder
angeordnet sind, können z. B. eine Beleuchtungseinrichtung
sowie Sensoren und/oder Werkzeuge (Instrumente) aufnehmen.
Fig. 4a stellt eine Seitenansicht eines flexiblen
Videobild-Endoskops 400 dar, das als Videoquelle für das
Anzeigesystem der Erfindung verwendet werden kann. Wie bei
dem vorstehend erläuterten flexiblen Fiberskop 300 umfaßt
das flexible Videobild-Endoskop 400 gleichfalls einen
Körper 402 und ein flexibles Einführrohr 404. Das distale
Ende des flexiblen Einführrohres 404 kann mit Hilfe einer
Links/Rechts-Gelenksteuerung 408 nach links bzw. rechts und
mit Hilfe einer Auf/Ab-Gelenksteuerung 412 nach oben bzw.
unten abgebogen werden. Die Links/Rechts-Gelenksteuerung
408 kann mittels einer Bremse 410 und die Auf/Ab-
Gelenksteuerung 412 mittels einer Bremse 414 arretiert
werden. Schließlich ermöglicht ein Lichtleiter- und
Videokabel 418 über einen Verbinder 420 eine Verbindung zu
einer externen Lichtquelle und über einen Verbinder 422
eine Verbindung mit einer Kamerasteuereinheit.
Im Gegensatz zu dem oben erwähnten starren Boreskop 200 und
flexiblen Fiberskop 300 weist das Videobild-Endoskop 400
weder Scharfstell- oder Dioptrieneinstellringe noch ein
Okular auf. Dies liegt, wie oben erwähnt, darin begründet,
daß das Videobild-Endoskop 400 ein Videoausgangssignal für
eine externe Kamerasteuereinheit vorsieht. Wie insbesondere
aus Fig. 4b ersichtlich ist, die eine teilweise
geschnittene perspektivische Ansicht des distalen Endes des
Videobild-Endoskops 400 der Fig. 4a wiedergibt, fokussiert
eine Objektivlinse 450 ein Bild 458' eines in ihrem
Gesichtsfeld 456 liegenden Gegenstands 458 auf eine
Abbildungseinrichtung, wie z. B. eine ladungsgekoppelte
Einrichtung (oder kurz "CCD") 452. Die CCD 452 (und die
zugehörige Schaltung) liefert eine Folge von analogen
Wellenformen auf der Grundlage der in jedem Element der
CCD-Matrix angesammelten Ladung. Die oben erwähnte
Kamerasteuereinheit wandelt die Folge von analogen
Wellenformen in Videobilder um, die z. B. dem NTSC-, PAL- oder
S-Video-Standard entsprechen.
Wie dies ferner aus der perspektivischen Ansicht der Fig. 4b
ersichtlich ist, weist das distale Ende des
Einführrohres des Videobild-Endoskops 400 ein
Beleuchtungsfenster 432, das Licht von einem Lichtleiter
430 durchläßt, und einen Arbeitskanal 440 auf, der an der
Öffnung 442 mündet.
Um dies noch einmal zu wiederholen, jedes der oben
erwähnten optischen Instrumente kann einen Arbeitskanal
aufweisen, durch den ein Zerkleinerungswerkzeug oder ein
Entnahmewerkzeug (z. B. ein Magnet, eine zuziehbare
Schlinge, ein Vierdraht-Korb oder Zangen) hindurchgeführt
werden können. Ferner kann durch den Arbeitskanal ein
Sensor bzw. Meßfühler, wie z. B. eine Wirbelstromsonde oder
ein Ultraschallsensor (siehe z. B. den Ultraschallsensor
600 der Fig. 6) hindurchgeführt werden. Solche Sonden oder
Sensoren dienen der Bestätigung der Interpretation von
Videodaten. Z. B. kann ein Kontrolleur, der eine
Turbinenschaufel inspiziert, einen dunklen Abschnitt
wahrnehmen, der ein Riß oder lediglich ein Schatten ist.
Wirbelstrom- oder Ultraschallsensorausgangssignale können
dann dazu verwendet werden, um festzustellen, ob der dunkle
Abschnitt wirklich ein Riß oder lediglich ein Schatten ist.
Es ist bekannt, Videodaten mit Sensordaten zu kombinieren.
Z. B. ist auf dem Gebiet der Medizin die Verwendung eines
endoskopischen Ultraschallzentrums (z. B. das von Olympus
Optical Co., Ltd. angebotene Model EU-M30) mit einem
Videoskop (z. B. ein von Olympus Optical Co., Ltd.
angebotenes Videoskop der EVIS-Serie) und einem
Videobearbeitungszentrum (z. B. dem von Olympus Optical
Co., Ltd. angebotenen EVIS-Videosystemzentrum) bekannt, um
eine Bild-in-Bild-Anzeige des Videoskopbildes in dem
Ultraschallbild vorzusehen. Gleichfalls wird in dem U.S.
Patent Nr. 4 855 820 ein Videoanzeigesystem erörtert, bei
dem das Ausgangssignal eines Temperatursensors über dem
Videoausgangssignal einer Videokamera angezeigt wird.
Leider werden bei diesen bekannten Systemen die Daten vom
Sensor an einer willkürlichen Stelle, d. h. ohne Bezug auf
den Ort des Sensors angezeigt. Demzufolge muß die
Bedienungsperson ihre Aufmerksamkeit sowohl der
Videoanzeige des tatsächlichen Sensors (z. B. um den Sensor
bezüglich des betrachteten Gegenstands zu bewegen) als auch
der Betrachtung der Ausgangsdaten des Sensors widmen. Der
Sensorausgang stellt eine digitale Anzeige, z. B. eine
Zahl, dar. Für sich rasch ändernde Daten ist eine derartige
Anzeige nicht zweckmäßig, da es schwierig ist, diese rasch
aufzunehmen und zu interpretieren.
Das U.S. Patent Nr. 4 642 687 erörtert ein System zum
Erfassen von nicht-visuellen Signalen, wie z. B. jenen, die
auf Ultraschall oder Strahlung beruhen. Dieses System
umfaßt (i) eine bewegliche Sonde, die den Ort eines
Detektorsystems anzeigt und ein Lichtquelle einschließt,
die im Zustand "EIN" ist, falls die Erfassung positiv ist,
(ii) eine Videokamera, die auf die Lichtquelle anspricht,
(iii) ein Speichersystem, das die Bildorte bzw. -stellen
speichert, an denen die Lichtquelle im "EIN"-Zustand war,
und (iv) einen Mischer zum Erzeugen eines
Überlagerungsbildes auf der Grundlage des Ausgangssignals
des Speichersystems und des Ausgangssignals der
Videokamera. Ob die Kamera die Sonde erkennt oder nicht,
ist leider vom EIN/AUS-Zustand des Detektors abhängig.
Ferner muß offensichtlich die Speicherung und das Auslesen
der Bildstellen aus dem Speicher mit dem
Videoausgangssignal der Videokamera synchronisiert werden,
was in der Tat keine einfache Aufgabe ist.
Es ist somit Aufgabe der Erfindung, eine Anzeigevorrichtung
vorzusehen, bei der die Sensordaten zusammen mit dem
zugehörigen Videobild leicht und rasch betrachtet,
aufgenommen und interpretiert werden können.
Ein solches Anzeigesystem soll mit einem Fernsicht-
Inspektionssystem betrieben werden können, das optische
Instrumente, wie z. B. Boreskope, Fiberskope und Videobild-
Endoskope einschließt.
Ferner soll die Anzeigevorrichtung die Erzeugung eines
graphischen Profils des Werkstücks ermöglichen, das
inspiziert wird.
Die vorstehende Aufgabe wird gelöst mit einem Verfahren zum
Bearbeiten von (i) Videodaten (z. B. eines zu
inspizierenden Werkstücks), die ein Videobild eines Sensors
einschließen, und (ii) Daten, die von dem Sensor ausgegeben
werden, wobei das Verfahren die folgenden Schritte
aufweist: (a) Annehmen von analogen Videodaten; (b)
Umwandeln der analogen Videodaten in Bilder, wobei jedes
Bild Daten einschließt, die einer Matrix von Pixeln
entsprechen; (c) Orten des Videobildes des Sensors in einem
der Bilder, um eine Ankerstelle zu definieren; (d) Annehmen
der vom Sensor ausgegebenen Daten; (e) Digitalisieren der
vom Sensor ausgegebenen Daten, um digitalisierte
Sensordaten zu erzeugen; (f) Umwandeln der digitalisierten
Sensordaten in einen numerischen Wert oder eine graphische
Darstellung, und (g) Modifizieren der Pixel in dem einen
der Bilder in der Nähe der Ankerstelle auf der Grundlage
des numerischen Werts oder der graphischen Darstellung, um
ein modifiziertes Bild zu erzeugen. Das modifizierte Bild
kann angezeigt, aufgezeichnet und/oder in einer Datei
gespeichert werden.
Der Schritt des Ortens des Videobildes des Sensors in dem
Bild zum Definieren einer Ankerstelle schließt folgende
Unterschritte ein: (i) Überprüfen der Daten, die der Matrix
von Pixeln entsprechen, um zu bestimmen, ob ein Pixel
innerhalb der Matrix Daten aufweist, die einem Attribut
(z. B. Farbe) des Sensors entsprechen; und (ii) Bestimmen
der Ankerstelle an einer Stelle eines Pixels, das die Daten
besitzt, die dem Attribut (z. B. Farbe) des Sensors
entsprechen. Bei einem weiterentwickelten
Ausführungsbeispiel weist der Schritt des Ortens des
Videobildes des Sensors zum Definieren einer Ankerstelle
folgende Unterschritte auf: (i) Unterteilen des Bildes in
Teilbilder; (ii) Überprüfen der jedem Pixel entsprechenden
Daten in einem der Teilbilder, um zu bestimmen, ob ein
Pixel die Daten aufweist, die einem Attribut (z. B. Farbe)
des Sensors entsprechen; (iii) falls das Teilbild ein Pixel
aufweist, das Daten einschließt, die dem Attribut (z. B.
Farbe) des Sensors entsprechen, Festlegen der Ankerstelle
als Stelle des Pixels; (iv) falls das Teilbild kein Pixel
aufweist, das Daten einschließt, die dem Attribut (z. B.
Farbe) des Sensors entsprechen, Fortfahren mit der
Bearbeitung des nächsten Teilbildes. Falls es bekannt ist,
daß das Videobild des Sensors höchstwahrscheinlich sich in
einem bestimmten Teilbild anstatt in anderen Teilbildern
befindet, so wird in diesem bestimmten Teilbild zuerst
gesucht.
Eine Ausführung des Verfahrens schließt ferner folgende
Schritte ein: (i) Auswählen der graphischen Darstellung aus
einer Gruppe von in Frage kommenden graphischen
Darstellungen; und (ii) Auswählen der Parameter für die
ausgewählte graphische Darstellung. Bei dieser Ausführung
verwendet der Schritt der Umwandlung der digitalisierten
Sensordaten in die graphische Darstellung die ausgewählte
graphische Darstellung und die Parameter. Die graphische
Darstellung kann ein Fleck, ein Halo (Ring), ein
Balkendiagrammzähler oder ein skalierter Vektor sein.
Die Sensordaten können die Daten eines ersten Typs und die
Daten eines zweiten Typs einschließen. In diesem Fall
umfaßt der Schritt des Umwandelns der digitalisierten
Sensordaten in eine graphische Darstellung die folgenden
Unterschritt: (i) Variieren eines ersten Attributs der
graphischen Darstellung auf der Grundlage der Daten des
ersten Typs; und (ii) Variieren eines zweiten Attributs der
graphischen Darstellung auf der Grundlage der Daten des
zweiten Typs. Das erste und zweite Attribut der graphischen
Darstellung kann jeweils die Größe, die Länge, der
Durchmesser, der Innendurchmesser, der Außendurchmesser,
die Farbe, die Helligkeit, die Schärfe oder die Ausrichtung
bzw. Orientierung sein.
Das erfindungsgemäße Verfahren kann auch verwendet werden
zum Bearbeiten von (i) Bildern aus Videodaten (z. B. eines
zu inspizierenden Werkstücks), die ein Videobild eines
Sensors einschließen, wobei jedes Bild Daten einschließt,
die einer Matrix von Pixeln entsprechen, und (ii) Daten,
die vom Sensor ausgegeben werden, durch (a) Orten des
Sensors in einem der Bilder aus Videodaten, um eine
Ankerstelle zu definieren; (b) Annehmen der vom Sensor
ausgegebenen Daten; (c) Umwandeln der vom Sensor
aus gegebenen Daten in einen numerischen Wert oder eine
graphische Darstellung; und (d) Modifizieren der Pixeldaten
in der Nähe der Ankerstelle in dem einen Bild auf der
Grundlage des numerischen Werts oder der graphischen
Darstellung, um ein modifiziertes Bild zu erzeugen.
Die Bilder aus Videodaten können das Gesichtsfeld einer
Bilderfassungseinrichtung wiedergeben. In solchen Fällen
kann das erfindungsgemäße Verfahren Profile eines
betrachteten Gegenstands erzeugen durch (a) Festlegen des
Gesichtsfelds der Bilderfassungseinrichtung; (b) Bewegen
des Sensors bezüglich der Bilderfassungseinrichtung; (c)
Umwandeln der vom Sensor aus gegebenen Daten in einen
numerischen Wert oder eine graphische Darstellung; (d)
Modifizieren der Pixel in der Nähe der Ankerstelle in
wenigstens einem der Bilder auf der Grundlage des
numerischen Werts oder der graphischen Darstellung, um
wenigstens ein modifiziertes Bild zu erzeugen; (e) Abtasten
des numerischen Werts oder der graphischen Darstellung in
Erwiderung auf eine Benutzerauswahl oder einen Takt und
Ersetzen der Pixel in der Nähe der Ankerstelle derart, daß
die nachfolgenden Bilder ebenso den numerischen Wert oder
die graphische Darstellung in der Nähe der Ankerstelle
einschließen; und (f) Erzeugen eines Inspektionsprofils
durch Wiederholen der obigen Schritte.
Die Erfindung sieht ferner eine Vorrichtung zum Inspizieren
eines Gegenstandes vor, die einschließt: (a) eine
Videobilderzeugungseinrichtung mit einem Gesichtsfeld zum
Erzeugen eines analogen Videosignals des Gegenstands; (b)
einen im Gesichtsfeld der Videobilderzeugungseinrichtung
angeordneten Sensor zum Erfassen eines physikalischen
Phänomens, das auf ein Attribut des Gegenstandes bezogen
ist; (c) eine Videobilderzeugungseinrichtung zum Erzeugen
von Einzelbildern auf der Grundlage des analogen
Videosignals des Gegenstands, wobei die
Videobilderzeugungseinrichtung das analoge Videosignal des
Gegenstands von der Videobilderzeugungseinrichtung
empfängt, wobei jedes Bild Daten einschließt, die einer
Matrix von Pixeln entspricht; (d) eine
Signalerzeugungseinrichtung zum Erzeugen eines Signals auf
der Grundlage des vom Sensor erfaßten physikalischen
Phänomens; (e) einen Wandler, der das Signal von der
Signalerzeugungseinrichtung empfängt und dieses in einen
numerischen Wert oder eine graphische Darstellung
umwandelt; (f) eine Ankererzeugungseinrichtung, die Bilder
von der Videobilderzeugungseinrichtung empfängt und die
Stelle des Bildes des Sensors innerhalb des Bildes bestimmt
und einen Anker an der Stelle erzeugt; und (g) eine
Videoverarbeitungseinrichtung, die den Anker von der
Ankererzeugungseinrichtung, die Bilder von der
Videobilderzeugungseinrichtung und den numerischen Wert
oder die graphische Darstellung vom Wandler empfängt und
Pixel in der Nähe des Ankers in einem Bild auf der Basis
des numerischen Wert oder der graphischen Darstellung
modifiziert. Die Videobilderzeugungseinrichtung kann eine
Fernsicht-Inspektionseinrichtung, wie z. B. ein Boreskop,
das mit einer Videokamera gekoppelt ist, ein Fiberskop, das
mit einer Videokamera gekoppelt ist, oder ein Videobild-
Endoskop sein, das mit einer Kamerasteuereinheit
ausgestattet ist. Die Fernsicht-Inspektionseinrichtung
weist ein Einführrohr mit einem proximalen und einem
distalen Ende auf, das einen Arbeitskanal einschließt, der
sich vom proximalen Ende bis zum distalen Ende des
Einführrohres erstreckt. Bei einem bevorzugten
Ausführungsbeispiel der Erfindung weist die Einrichtung
ferner ein Vorspannsystem auf, das den Sensor vom distalen
Ende des Einführrohres weg vorspannt. Der Sensor kann z. B.
eine Wirbelstromsonde oder eine Ultraschallsonde sein.
Ausführungsbeispiele der Erfindung werden nachfolgend
anhand der Zeichnungen näher erläutert. Es zeigen:
Fig. 1a entfernt angeordnete Werkstücke, die mit der
Anzeigevorrichtung der Erfindung inspiziert werden können,
und Fig. 1b eine Turbinenschaufel, die mit der
Anzeigevorrichtung der Erfindung inspiziert werden kann;
Fig. 2a eine Seitenansicht eines starren Boreskops, das in
Verbindung mit einer daran befestigten Videokamera als
Videoquelle für die Anzeigevorrichtung der Erfindung
verwendet werden kann; Fig. 2b eine
Querschnittsseitenansicht des Einführrohres des starren
Boreskops der Fig. 2a; Fig. 2c eine Stirnansicht des
distalen Endes des Einführrohres des starren Boreskops der
Fig. 2a;
Fig. 3a eine Seitenansicht eines flexiblen Fiberskops, das
in Verbindung mit einer daran befestigten Videokamera als
Videoquelle für die Anzeigevorrichtung der Erfindung
verwendet werden kann; Fig. 3b eine Querschnittsansicht des
Einführrohres des flexiblen Fiberskops der Fig. 3a; Fig. 3c
eine Stirnansicht des distalen Endes des Einführrohres des
flexiblen Fiberskops der Fig. 3a;
Fig. 4a eine Seitenansicht eines flexiblen Videobild-
Endoskops, das als Videoquelle für die Anzeigevorrichtung
der Erfindung verwendet werden kann; Fig. 4b eine teilweise
geschnittene, perspektivische Ansicht des distalen Endes
des Einführrohres des Videobild-Endoskops der Fig. 4a;
Fig. 5 einen bekannten Wirbelstromsensor und ein Werkstück;
Fig. 6 einen bekannten Ultraschallsensor;
Fig. 7 ein bevorzugtes Ausführungsbeispiel der
Anzeigevorrichtung der Erfindung;
Fig. 8 ein Bearbeitungs- und Datenflußdiagramm der
Anzeigevorrichtung der Fig. 7;
Fig. 9 ein Flußdiagramm eines Sondenortungsprozesses, der
bei der erfindungsgemäßen Vorrichtung verwendet werden
kann;
Fig. 10 ein erstes Segmentierungsschema, das bei dem
Sondenortungsprozeß der erfindungsgemäßen Vorrichtung
verwendet werden kann;
Fig. 11 ein zweites Segmentierungsschema, das bei dem
Sondenortungsprozeß der erfindungsgemäßen Vorrichtung
verwendet werden kann;
Fig. 12 eine Anzeige, die von einem ersten
Ausführungsbeispiel der erfindungsgemäßen Vorrichtung
erzeugt wird;
Fig. 13 eine Anzeige, die von einem zweiten
Ausführungsbeispiel der erfindungsgemäßen Vorrichtung
erzeugt wird;
Fig. 14 Beispiele von einem ersten Satz von
unaufdringlichen graphischen Darstellungen, die bei der
erfindungsgemäßen Anzeigevorrichtung verwendet werden
können;
Fig. 15 Beispiele von einem zweiten Satz von
unaufdringlichen graphischen Darstellungen, die bei der
erfindungsgemäßen Vorrichtung verwendet werden können;
Fig. 16 ein dritter Satz von unaufdringlichen graphischen
Darstellungen, die bei der Anzeigevorrichtung der Erfindung
verwendet werden können;
Fig. 17 ein Beispiel einer Anzeige eines Werkstücks mit
graphischen Darstellungen auf der Grundlage einer
abgetasteten Datenfolge;
Fig. 18 ein Beispiel einer Anzeige eines Werkstücks mit
graphischen Darstellungen auf der Grundlage einer Matrix
von Daten, die während der Abtastung des Werkstücks
abgetastet wurden;
Fig. 19 die Abbiegung eines konventionellen flexiblen
Fiberskops oder Videobild-Endoskops in einer Oben/Unten- oder
Links/Rechts-Ebene;
Fig. 20 eine Einrichtung zum Erleichtern des Sondenkontakts
mit einem Werkstück über einen vorbestimmten Biegebereich;
Fig. 21 das distale Ende eines Boreskops, Fiberskops oder
Videobild-Endoskops mit 90 Grad Seitensicht und
modifiziertem Arbeitskanal;
Fig. 22 ein Videobild, das Pixel in x Zeilen und y Spalten
einschließt;
Fig. 23 eine beispielhafte Pixeldatenstruktur;
Fig. 24 ein Sensorauswahlfenster;
Fig. 25 ein Anzeigeauswahlfenster;
Fig. 26 eine graphische Benutzerschnittstelle für die
Benutzerauswahl von graphischen Darstellungsparametern; und
Fig. 27a und 27b Arten, wie Pixel eines Videobildes
modifiziert werden können.
In der nachfolgenden ausführlichen Beschreibung wird die
Erfindung anhand der Funktionen, die sie durchführt, anhand
einer Architektur, die zu deren Realisierung verwendet
werden kann, sowie anhand von Beispielen ihres Betriebs
beschreiben. Schließlich werden spezielle Merkmale
erörtert, die Vorteile bringen, wenn die Erfindung bei
optischen Inspektionsinstrumenten und Wirbelstromsonden
Verwendung findet.
Im wesentlichen weist die Erfindung folgende Funktionen
auf: (i) Annehmen von Videobilddaten, (ii) Bestimmen des
Orts einer Sensorsonde in den Videobilddaten, (iii)
Annehmen der Sensordaten, (iv) vorzugsweises Umwandeln der
Sensordaten in eine unauffällige graphische Darstellung und
(v) Vorsehen einer Anzeige der Videobilddaten mit den
Sensordaten (oder deren graphische Darstellung), die an dem
bestimmten Ort der Sensorsonde verankert sind. Fig. 7
stellt ein Blockdiagramm dar, das ein bevorzugtes
Ausführungsbeispiel der erfindungsgemäßen
Anzeigevorrichtung verdeutlicht und das, falls geeignet
konfiguriert (z. B. mit geeigneten Befehlen versehen), jede
der vorstehend erwähnten Funktionen unterstützt und die
Echtzeitausführung solcher Funktionen ermöglicht.
Die Vorrichtung der Fig. 7 nimmt Video- und Sensordaten
auf, die z. B. von dem Videoausgang 708 einer Videoquelle
704d und dem Sensorausgang 710 einer Sensordatenquelle 706d
vorgesehen werden. Die Videoquelle kann z. B. (a) ein
Boreskop 200 mit einem Videoadapter 224 und einer
Videokamera (zusammen 704a) sein, wobei ein Sensor 706a in
einem Arbeitskanal des Boreskops 200 vorgesehen ist, (b)
ein Fiberskop 300 mit einem Videoadapter 320 und einer
Videokamera (zusammen 704b) sein, wobei ein Sensor 706b in
einem Arbeitskanal 326/328 des Fiberskops 300 vorgesehen
ist, oder (c) ein Videobild-Endoskop 400 (704c) sein, in
dessen Arbeitskanal 440 ein Sensor 706c vorgesehen ist.
Falls die Videodaten 708 von der CCD 452 (und der
zugehörigen Schaltung) eines Videobild-Endoskops 400
stammen, so werden diese typischerweise in Form einer
seriellen Folge von analogen Wellenformen vorliegen.
Derartige Daten werden einem Eingang einer
Kamerasteuereinheit 710 zugeführt, die die Folge von
analogen Wellenformen in einen bekannten Videostandard, wie
z. B. NTSC, PAL oder S-Video umwandelt. Werden die
Videodaten andererseits von einer Videokamera geliefert,
die mit dem Okular eines Boreskops 200 oder Fiberskops 300
gekoppelt ist, so sollten diese die Kamerasteuereinheit 710
umgehen. Dies liegt darin begründet, daß die Videokamera
ein Videosignal entsprechend einem bekannten Videostandard,
wie z. B. NTSC, PAL oder S-Video liefert.
In jedem Fall wird das formatgebundene analoge Videosignal
einem Videobildabtaster 712 zugeführt, der das analoge
Videosignal in Videobilder umwandelt. Jedes dieser
Videobilder weist eine Matrix von Pixeln auf, wobei jedes
Pixel eine Adresse, die auf seinen Ort( z. B. Zeile,
Spalte) innerhalb der Matrix beruht, ein oder mehrere Bits,
die die Helligkeitsinformation wiedergeben, und ein oder
mehrere Bits aufweist, die die Farbinformation wiedergeben.
Wie im einzelnen aus Fig. 22 ersichtlich ist, weist ein
Videobild Pixel 2002 in x Zeilen und y Spalten auf, so daß
jedes Bild x.y Pixel einschließt. Fig. 23 verdeutlicht
eine beispielhafte Pixeldatenstruktur 2300. Wie
dargestellt, kann die Pixeldatenstruktur 2300 ein
Pixelidentifikationsfeld 2302 und ein
Pixelcharakteristikfeld 2310 einschließen. Das
Pixelidentifikationsfeld 2302 kann ein Zeilenadressenfeld
2304 mit n1 Bit (z. B. 10-Bit) und ein Spaltenadressenfeld
2306 mit n2 Bit (z. B. 10-Bit) aufweisen. Das
Pixelcharakteristikfeld 2310 kann ein Farbfeld 2312 mit n3
Bit (z. B. 8-Bit) und ein Helligkeitsfeld 2314 mit n4 Bit
(z. B. 8-Bit) aufweisen. Die Videobilder 718 können über
ein internes Bussystem 716 vom Prozessor 730 ausgelesen
werden.
Gleichzeitig werden die Meßwerte eines physikalischen
Phänomens (z. B. elektrische Ladung, Strom, Spannung,
Magnetfeld, Druck, Temperatur, Strahlungsfeld, Helligkeit
usw.) vom Sensorausgang 710 einem Datenprozessor 720 (z. B.
einer Schaltung) zugeführt, der ein oder mehrere analoge
Signale (z. B. analoge elektrische Signale) 724 abgibt.
Diese analogen Signale 724 werden dann mit Hilfe eines
(oder mehrerer) Analog/Digital-Wandlers umgewandelt, um ein
(oder mehrere) digitales Signal 726 auf der Grundlage der
Sensordaten 710 zu liefern. Dieses bzw. diese digitalen
Signale 726 werden über das interne Bussystem 716 dem
Prozessor 730 (oder einem Coprozessor 740) zur Verfügung
gestellt.
In Erwiderung auf Anfragen vom Prozessor 730, der unter
Steuerung von gespeicherten Befehlen arbeitet, kann ein
Benutzer Auswahl- und Parameterdaten über eine
Eingabeeinrichtung 782 eingeben. Solche Benutzereingaben
werden dem Prozessor 730 über eine Eingabe-Schnittstelle
780 und das interne Bussystem 716 zur Verfügung gestellt.
Der Prozessor 730 und/oder der Coprozessor 740, die unter
Steuerung von gespeicherten Befehlen (z. B. einem
Anwendungsprogramm) arbeiten, (i) bestimmen den Ort bzw.
die Stelle der Sensorsonde, (ii) wandeln die
digitalisierten Sensordaten z. B. in einen numerischen Wert
oder in eine graphische Darstellung auf der Grundlage der
vom Benutzer eingegebenen Auswahl- und
Parametereingabedaten um, (iii) modifizieren die Videodaten
an dem bestimmten Ort und um den bestimmten Ort herum (oder
in der Nähe des bestimmten Orts) auf der Grundlage des
numerischen Werts oder der graphischen Darstellung und (iv)
liefern ein zusammengesetztes Videosignal für die Anzeige,
die Videospeicherung und/oder Speicherung als Datei. Die
Bearbeitungsfolge der erfindungsgemäßen Vorrichtung ist in
Fig. 8 dargestellt und wird mit Bezug auf die Fig. 9 bis
11, 14 bis 16 und 22 bis 26 nachfolgend erläutert.
Fig. 8 stellt ein Bearbeitungs- und Datenflußdiagramm der
Anzeigevorrichtung in Fig. 7 dar. Zuerst wird ein Prozeß
802 zum Erfassen eines Bildes durchgeführt. Dieser Prozeß
kann z. B. mittels eines Videobild-Endoskops 400 ausgeführt
werden. Als nächstes wird ein Prozeß 804 zum Umwandeln
einer Folge analoger Wellenformen, die z. B. von einer
ladungsgekoppelten Einrichtung (oder CCD) 452 ausgetaktet
werden, in ein Videosignal durchgeführt. Dieser Prozeß kann
z. B. von der Kamerasteuereinheit 710 ausgeführt werden.
Falls ein Boreskop 200 oder Fiberskop 300 mit einer daran
befestigten Videokamera verwendet wird, werden die
Prozessoren 802 und 804 mit der Erfassung des Bildes und
der Umwandlung in ein Videosignal ersetzt durch
Videoverarbeitungsschritte.
In jedem Fall wird dann ein Prozeß 808 zum Umwandeln des
Videosignals in eine Matrix von Pixeln durchgeführt. Dieser
Prozeß kann z. B. mit Hilfe des Videobildabtasters 712
vorgenommen werden. Wie aus Fig. 22 ersichtlich, weist ein
Videobild (Videoeinzelbild) 2200 Pixel 2202 in x Zeilen und
y Spalten auf. Somit weist jedes Bild x.y Pixel auf. Fig. 23
verdeutlicht eine beispielhafte Pixeldatenstruktur 2300.
Wie dargestellt, kann die Pixeldatenstruktur 2300 ein
Pixelidentifikationsfeld 2302 und ein
Pixelcharakteristikfeld 2310 einschließen. Das
Pixelidentifikationsfeld 2302 kann ein Zeilenadressenfeld
2304 mit n1 Bit (z. B. 10-Bit) und ein Spaltenadressenfeld
2306 mit n2 Bit (z. B. 10-Bit) aufweisen. Das
Pixelcharakteristikfeld 2310 kann ein Farbfeld 2312 mit n3
Bit (z. B. 8-Bit) und ein Helligkeitsfeld 2314 mit n4 Bit
(z. B. 8-Bit) aufweisen.
Als nächstes werden bei einem Prozeß 812 die Videobilder
gelesen. Dieser Prozeß wird vom Prozessor 730 (oder dem
Coprozessor 740) unter Steuerung von gespeicherten Befehlen
durchgeführt, wobei der Prozessor (Coprozessor) Videobilder
2200 von dem Videobildabtaster 712 über das interne
Bussystem 716 liest.
Anschließend wird ein Prozeß 816 zum Bestimmen einer Stelle
bzw. eines Orts einer Sonde oder eines Sensors 706 in dem
Videobild durchgeführt. Dieser Prozeß kann z. B. von dem
Prozessor 730 und/oder dem Coprozessor 740 unter Steuerung
von gespeicherten Befehlen ausgeführt werden. Ein
beispielhafter Prozeß 816 zum Bestimmen des Orts einer
Sonde oder eines Sensors 706 ist in dem Flußdiagramm der
Fig. 9 verdeutlicht.
Im allgemeinen ist die Sonde bemalt, mit einer Markierung
versehen oder anderweitig mit einer bestimmten Farbe
versehen. Diese Farbe bietet vorzugsweise einen maximalen
Kontrast zu dem zu inspizierenden Werkstück. In einem
vereinfachten Verfahren wird das Farbfeld 2312 jedes Pixels
2202 eines Videobilds 2200 mit der Farbe verglichen, die
zum Codieren der Sonde verwendet wird. Wenn der Vergleich
eine Übereinstimmung (oder einen Farbunterschied innerhalb
einer bestimmten Schwelle) ergibt, so liefern das Zeilen- und
Spaltenadressenfeld 2304 und 2306 den Sondenort. Obwohl
dieses vereinfachte Verfahren arbeitet, verringert der
beispielhafte Prozeß 816 zum Bestimmen des Orts einer Sonde
oder eines Sensors 706, der in dem Flußdiagramm der Fig. 9
verdeutlicht ist und nachfolgend erläutert wird, die
Bearbeitungszeit in den meisten Fällen. Bei einem
alternativen Ausführungsbeispiel kann die Sonde 1012 mit
einem aktiven Element, wie z. B. einer Leuchtdiode LED
anstelle einer Markierung oder Farbe ausgestattet sein.
Bei dem beispielhaften Sondenortungsprozeß 816 der Fig. 9
wird das Bild (oder Einzelbild 2200) zuerst in N.M
Teilbilder (oder Bereiche) unterteilt. (Siehe Schritt 902.)
Wie beispielsweise in Fig. 10 dargestellt, wird das Bild
1002 in zwölf Bereiche unterteilt. Das Bild schließt das
Gesichtsfeld 1004 des optischen Instruments ein. Innerhalb
des Gesichtsfelds 1004 ist ein Werkstück 1006 mit einem
großen Defekt 1008 und einem kleinen Defekt 1010
dargestellt, wie auch ein Sensor 1012 mit einer Sonde, die
das Werkstück 1006 am Punkt 1014 berührt. Fig. 11
verdeutlicht einen verbesserten Bildunterteilungsprozeß,
bei dem nur das Gesichtsfeld 1004 unterteilt ist. Dieser
verbesserte Prozeß ist vorteilhaft, da die Sonde des
Sensors 1012 sich fast immer innerhalb des Gesichtsfelds
1004 des optischen Instruments befinden wird, und in jedem
Fall ist das bevorzugte Ausführungsbeispiel der
erfindungsgemäßen Vorrichtung sehr von Nutzen, wenn sich
die Sonde des Sensors 1012 innerhalb des Gesichtsfelds 1004
des optischen Instruments befindet.
In jedem Fall wird, wie beim Schritt 904 gezeigt,
festgestellt, ob es bekannt ist, daß der Ort der Sonde sich
höchstwahrscheinlich in einem bestimmten der Bereiche oder
Teilbilder befindet. D. h., ist es bekannt (seitens der
Bedienungsperson oder des Prozessors 730 oder des
Coprozessors 740), daß die Sonde sich im oder nahe dem
Zentrum des Bildes befindet, so kann eine Suche nach der
Sonde innerhalb eines Teilbildes oder innerhalb von
Teilbildern vorgenommen werden, in denen sich die Sonde
höchstwahrscheinlich befindet. Diese Information kann vom
Benutzer eingegeben werden. Diese Information kann
vorbestimmt sein oder erlernt werden (z. B. mit Hilfe eines
neuralen Netzwerks), und zwar insbesondere dann, wenn die
Vorrichtung wiederholt für ähnliche Arten von Inspektionen
von ähnlichen Werkstücken verwendet wird. Ist es, wie bei
den Schritten 904 und 906 gezeigt, bekannt, daß die Sonde
sich höchstwahrscheinlich innerhalb eines bestimmten
Teilbildes als in anderen befindet, so wird in dem
bestimmten Teilbild eine Pixel-um-Pixel-Suche nach der
Sonde begonnen. Andernfalls wird, wie bei den Schritten 904
und 908 gezeigt, eine Pixel-um-Pixel-Suche innerhalb eines
beliebigen (z. B. N=1, M=1) Teilbildes begonnen.
In jedem Fall wird der Ort der Sonde sichergestellt bzw.
gespeichert, falls die Sonde in dem bestimmten Teilbild
gefunden wurde. (Siehe Schritte 910 und 914.) Wird
andererseits die Sonde nicht innerhalb des bestimmten
Teilbildes gefunden, so wird die Suche im nächsten
Teilbild, in dem vorher noch keine Suche durchgeführt
wurde, vorgenommen. (Siehe Schritte 910 und 912.) Der
Prozeß endet, falls in jedem der Teilbilder eine Suche
durchgeführt und die Sonde noch nicht gefunden wurde.
Bei einem alternativen Ausführungsbeispiel kann jedes
Teilbild weiter unterteilt werden. Ferner können andere dem
Fachmann bekannte Suchmethoden bei der erfindungsgemäßen
Vorrichtung verwendet werden, um die Suche nach dem
Sondenort zu optimieren.
Bei einem vereinfachten Ausführungsbeispiel ist der Sensor
bezüglich des Gesichtsfelds der Videoquelle festgelegt. In
diesem Fall kann der Ort des Sensors vorherbestimmt werden.
Betrachtet man nun wieder die Fig. 8, so wird als nächstes
ein Prozeß 820 zum Bestimmen einer "Anker"-Stelle
durchgeführt. Dieser Prozeß kann z. B. vom Prozessor 730
ausgeführt werden. Wenn eine Übereinstimmung (oder ein
Farbunterschied innerhalb einer vorbestimmten Schwelle)
zwischen der Farbe der Sonde und einem oder mehrerer Pixel
des gelesenen Bildes festgestellt wird, so wird die
Pixelidentifikationsinformation zur späteren Verwendung als
Anker zum Lokalisieren der Anzeige einer numerischen oder
graphischen Darstellung der Sensordaten gespeichert. Falls
mehr als ein Pixel (z. B. eine Gruppe von Pixeln) des
gelesenen Bildes mit der Farbe der Sonde übereinstimmt,
kann die "Anker"-Stelle durch die
Pixelidentifikationsinformation eines beliebigen Pixels der
übereinstimmenden Pixel definiert werden, jedoch
vorzugsweise durch den Durchschnitt der
Pixelidentifizierer. Z. B. können Zeilen- und
Spaltenadressen 2304 und 2306 der Pixel der Gruppe
gemittelt werden, um ein "Zentrum" der Gruppe zu bestimmen.
Unabhängig von den oben beschriebenen Prozessen werden auch
die folgenden Prozesse durchgeführt. Zuerst wird ein Prozeß
824 zum Erfassen der Sensordaten durchgeführt. Dieser
Prozeß (Datenprozessor 720) kann mittels eines Sensors wie
z. B. einer Wirbelstromsonde oder einer Ultraschallsonde
ausgeführt werden, der ein erfaßtes physikalisches Phänomen
(z. B. Magnetfeld, Ladung, Strom, Spannung, Druck,
Temperatur, Strahlung, Ton bzw. Helligkeit usw.) in ein
Signal, wie z. B. ein analoges elektrisches Signal
umwandelt. Danach digitalisiert der Prozeß 826 das Signal,
wobei dieser Prozeß z. B. vom Analog/Digital-Wandler 722
durchgeführt werden kann.
Das digitalisierte Signal kann in einer (oder mehreren) der
folgenden Arten verarbeitet werden. In jedem Fall wird das
digitalisierte Signal über das interne Bussystem 716 dem
Prozessor 730 (oder Coprozessor 740) zur Verfügung
gestellt. In einem ersten Fall wird ein Prozeß 830a zum
Umwandeln des digitalisierten Signals in einen numerischen
Wert durchgeführt. Dieser Prozeß kann mit Hilfe des
Prozessors 730 unter Verwendung eines
Umwandlungsalgorithmus oder einer Verweistabelle ausgeführt
werden. In einem zweiten Fall wird ein Prozeß 830b zum
Umwandeln des digitalisierten Signals in eine
(unauffällige) graphische Darstellung durchgeführt. Dieser
Prozeß kann vom Prozessor 730 z. B. unter Verwendung einer
Verweistabelle oder auf der Grundlage eines Algorithmus zum
Erzeugen einer graphischen Darstellung unter Verwendung
bestimmter oder benutzerdefinierter Parameter ausgeführt
werden.
In dem zweiten Fall kann die graphische Darstellung vom
Benutzer ausgewählt und modifiziert werden. Die Fig. 14
bis 16 verdeutlichen Beispiele von einigen graphischen
Darstellungen. Insbesondere verdeutlicht Fig. 14 eine
graphische Darstellung 1402 in Form eines Fleckens mit
einer eingangsabhängigen Größe und Farbe (und Helligkeit
und Schärfe). Im einzelnen kann die Größe des Fleckens von
einem ersten Sensorausgang (z. B. Wirbelstromgröße bzw.
-amplitude) und die Farbe (oder Helligkeit) des Fleckens
kann von einem zweiten Sensorausgang (z. B. der
Wirbelstromphase) abhängen. Alternativ können diese oder
andere Charakteristika des Fleckens auf der Basis von
Sensorausgängen entsprechend der Auswahl des Benutzers
variieren, wie dies nachfolgend erörtert wird. Falls der
zentrale Teil der graphischen Darstellung 1402 eines
Fleckens weggelassen wird, ergibt sich eine graphische
Darstellung eines Kreises. Die graphische Darstellung eines
Kreises wird bevorzugt, da diese weniger auffällig ist und
ein Benutzer das Videobild durch die zentrale Öffnung des
Kreises betrachten kann. Fig. 15 verdeutlicht eine
graphische Darstellung 1502 mit Pfeil, bei der die Größe
des Pfeils von einem ersten Sensorausgang (z. B. der
Wirbelstromgröße) und die Richtung des Pfeils von einem
zweiten Sensorausgang (z. B. der Wirbelstromphase) abhängen
kann. Fig. 16 verdeutlicht ein Beispiel einer graphischen
Darstellung mit "Fehlerfrei/Fehlerhaft", wobei eine erste
graphische Darstellung 1602 verwendet wird, um einen
"Fehlerfrei- bzw. Abnahme"-Zustand anzuzeigen und eine
zweite graphische Darstellung 1604 verwendet wird, um einen
"Fehlerhaft"-Zustand anzuzeigen.
Falls das System mehr als einen Typ einer graphischen
Darstellung vorsieht, wird der Prozeß 840 durchgeführt, um
es dem Benutzer zu ermöglichen, von einer Anzahl von in
Frage kommenden graphischen Darstellungen eine Auswahl zu
treffen. Dieser Prozeß kann mit Hilfe des Prozessors 730,
der ein Anwendungsprogramm ausführt, einer
Ausgangseinrichtung (z. B. einer VGA-Anzeige 762), die
einem Benutzer (z. B. über ein Menü oder graphische
Benutzerschnittstelle) Optionen bietet, und einer
Eingangseinrichtung 782 (z. B. einer Tastatur, einer
Kleintastatur, einer Maus, einer Rollkugel usw.) und einer
Schnittstelle 780 zum Akzeptieren der Benutzerauswahl
durchgeführt werden. In jedem Fall ermöglicht der Prozeß
842, nachdem eine graphische Darstellung ausgewählt wurde,
es dem Benutzer, die Parameter der graphischen Darstellung
zu definieren. Falls z. B. ein Benutzer, nachdem ihm eine
Anzahl von graphischen Darstellungen zur Auswahl angeboten
wurde, die graphische Darstellung 1402 mit Flecken
ausgewählt hat, wird der Prozessor 730 vom Benutzer über
eine Ausgangseinrichtung Parameterinformationen anfordern,
die zu der graphischen Darstellung mit Flecken gehören. Z.
B. kann vom Benutzer die minimale und maximale Größe des
Fleckens, ein erster Sensorausgang, der der Größe des
Fleckens entspricht, ein erster Skalierungsfaktor für
Ausgang-zu-Fleckengröße, ein Farbbereich, ein zweiter
Sensorausgang, der der Fleckenfarbe entspricht, ein zweiter
Umsetzungsfaktor für Ausgang-zu-Fleckenfarbe, eine minimale
und maximale Helligkeit, ein dritter Sensorausgang, der der
Fleckenhelligkeit entspricht, und ein dritter
Umsetzungsfaktor für Ausgang-zu-Fleckenhelligkeit
angefordert werden. Andernfalls können
Vorgabeparameterwerte verwendet werden. Diese Auswahl und
diese Parameter werden vom Prozeß 830b zum Umwandeln der
digitalisierten Sensordaten in eine ausgewählte graphische
Darstellung verwendet.
Als nächstes modifiziert der Prozeß 834 die Video- (oder
Einzelbild-) Daten an der Ankerstelle und um die
Ankerstelle herum (oder in der Nähe der Ankerstelle) auf
der Basis (a) einer Anzeige des numerischen Werts oder (b)
einer Anzeige der graphischen Darstellung. (Die
Modifikation kann von der Ankerstelle so versetzt sein, daß
bei einer resultierenden Anzeige die Versetzung von
Benutzer leicht visuell wahrgenommen werden würde. Jedoch
ist vorzugsweise die Modifikation an der Ankerstelle
konzentriert oder alternativ von der Ankerstelle so
versetzt, daß bei einer resultierenden Anzeige die
Verschiebung vom Benutzer nicht leicht visuell wahrgenommen
werden würde.) Dieser Prozeß wird vom Prozessor 730
und/oder dem Coprozessor 740 ausgeführt. Das Modifizieren
des Videobildes kann (a) das Ersetzen der Videodatenpixel
in der Nähe der Ankerstelle mit einem numerischen Wert oder
einer graphischen Darstellung oder (b) das Überlagern von
Videodatenpixeln in der Nähe der Ankerstelle mit einem
numerischen Wert oder einer graphischen Darstellung
einschließen.
Bei dem Überlagerungsprozeß werden Pixelcharakteristika (z. B.
Farbe) der Videodaten und Pixelcharakteristika (z. B.
Farbe) des numerischen Werts oder der graphischen
Darstellung kombiniert. Die Pixelcharakteristika können vor
der Kombination gewichtet werden. Falls z. B. die der
Pixelcharakteristika der Videodaten zugeordnete Wichtung
größer als die der Pixelcharakteristika der graphischen
Darstellung zugeordnete Wichtung ist, wird die graphische
Darstellung fast transparent sein, so daß ein "Geister"-Bild
auf dem Videobild vorgesehen wird. Falls andererseits
die Gewichtungen, die den Pixelcharakteristika der
Videodaten und der graphischen Darstellung zugeordnet sind,
vergleichbar sind, so erscheint die graphische Darstellung
als durchscheinendes Bild auf dem Videobild. Wenn letztlich
die Gewichtung, die den Pixelcharakteristika der Videodaten
zugeordnet ist, viel geringer als die Gewichtung ist, die
den Pixelcharakteristika der graphischen Darstellung
zugeordnet ist, dann scheint die graphische Darstellung die
Pixel der Videodaten in der Nähe der Ankerstelle fast zu
ersetzen.
Die Fig. 27a und 27b verdeutlichen zwei Arten, mit denen
Pixel 2704 eines Videobildes 2702 modifiziert werden
können. Wie aus Fig. 27a ersichtlich, können für einen
Bildmodifikationsprozeß 2730 ein Videobild 2702 und ein
verankertes Überlagerungsbild 2712 vorgesehen werden. Das
Videobild 2702 weist Zeilen und Spalten mit Pixeln 2704
auf. Die jedem Pixel entsprechenden Daten können eine
Zeilenadresse 2706, eine Spaltenadresse 2708 und
Pixelcharakteristika (z. B. Farbe, Helligkeit usw.) 2710
einschließen. In gleicher Weise weist das verankerte
Überlagerungsbild 2712 Zeilen und Spalten mit Pixeln 2714
auf. Die jedem Pixel 2714 entsprechenden Daten können eine
Zeilenadresse 2716, eine Spaltenadresse 2718 und
Pixelcharakteristika (z. B. Farbe, Helligkeit usw.) 2720
einschließen.
Das verankerte Überlagerungsbild 2712 schließt einen
numerischen Wert oder eine graphische Darstellung in der
Nähe einer bestimmten Ankerstelle ein. Die
Pixelcharakteristika 2720 der Pixel 2714 des graphischen
Überlagerungsbildes haben anders als jene des numerischen
Werts oder der graphischen Darstellung einen Wert von Null,
so daß, wenn der Bildmodifikationsprozeß 2730 die
Pixelcharakteristika 2710 eines Videobildpixels 2704 auf
der Grundlage der Nullwert-Pixelcharakteristika 2720 eines
Pixels 2714 modifiziert, die Pixelcharakteristika 2710 des
Videobildpixels 2704 unverändert sind.
Betrachtet man noch einmal Fig. 7, so kann der
Bildmodifikationsprozeß 2730 mit Hilfe des Prozessors 730
und/oder des Coprozessors 740 durchgeführt werden. Der
Bildmodifikationsprozeß 2730 erzeugt ein modifiziertes
Videobild 2732, das Zeilen und Spalten mit Pixeln 2734
einschließt. Die jedem Pixel 2734 entsprechenden Daten
können eine Zeilenadresse 2736, eine Spaltenadresse 2738
und modifizierte Pixelcharakteristika 2740 einschließen.
Die modifizierten Pixelcharakteristika 2740 beruhen auf den
Pixelcharakteristika 2710 der Videobildpixel 2704 und den
Pixelcharakteristika 2720 des verankerten
Überlagerungsbildes 2712. Wie oben erläutert, resultiert
das "Modifizieren" der Pixel des Videobildes in (a) einem
Ersetzen der Pixel der Videodaten in der Nähe der
Ankerstelle durch den numerischen Wert oder die graphische
Darstellung oder (b) einem Überlagern der Pixel der
Videodaten in der Nähe der Ankerstelle mit dem numerischen
Wert oder der graphischen Darstellung.
Wie aus Fig. 27b ersichtlich, kann ein alternativer
Bildmodifikationsprozeß mit einem Videobild 2702,
Ankerstellendaten 2752 (z. B. vom Prozeß zum Bestimmen
einer Ankerstelle 820) und Daten vorgesehen werden, die
einem numerischen Wert oder einer graphischen Darstellung
2754 (z. B. von einem Prozeß 830a oder 830b) entsprechen.
Wie dies oben der Fall war, schließt das Videobild 2702
Zeilen und Spalten mit Pixeln 2704 ein. Die jedem der Pixel
2704 entsprechenden Daten können eine Zeilenadresse 2706,
eine Spaltenadresse 2708 und Videopixelcharakteristika 2710
einschließen. Auf der Grundlage des Videobildes 2702, der
Ankerortsdaten 2752 und der dem numerischen Wert oder der
graphischen Darstellung 2754 entsprechenden Daten erzeugt
der Bildmodifikationsprozeß 2750 ein modifiziertes
Videobild 2762. Das modifizierte Videobild 2762 schließt
Zeilen und Spalten mit Pixeln 2762 ein. Die jedem der Pixel
2762 entsprechenden Daten können eine Zeilenadresse 2766,
eine Spaltenadresse 2768, Videopixelcharakteristika 2770
und Pixelcharakteristika des numerischen Werts oder der
graphischen Darstellung 2772 einschließen. Die
Videopixelcharakteristika 2770 können die gleichen wie die
Videopixelcharakteristika 2710 sein. Die
Pixelcharakteristika 2772 des numerischen Werts oder der
graphischen Darstellung beruhen auf den Ankerortsdaten 2752
und den Daten, die dem numerischen Wert oder der
graphischen Darstellung 2754 entsprechen. Ein Anzeigeprozeß
(nicht gezeigt) kombiniert die Videopixelcharakteristika
2770 und die Pixelcharakteristika des numerischen Werts
oder der graphischen Darstellung 2772, um ein modifiziertes
Anzeigebild zu erzeugen. Betrachtet man noch einmal die
Fig. 7, so kann der Anzeigeprozeß durch eine geeignet
konfigurierte Anzeigesteuerung 760 ausgeführt werden.
Schließlich wird das neue Bild (a) einem
Videospeicherprozeß (der z. B. mittels eines
Videobandgeräts 790 ausgeführt wird), (b) einem
Dateispeicherprozeß (der z. B. von einem magnetischen oder
optischen Plattenlaufwerk und die Steuerung 750
durchgeführt wird) und/oder einem Anzeigeprozeß (der z. B.
mit Hilfe der Anzeigesteuerung 760 und der VGA-Anzeige 762
und/oder der Anzeigesteuerung 760, des VGA/NTSC-Wandlers
766 und der NTSC-Anzeige 768 durchgeführt wird), zugeführt.
Die Bilder des gespeicherten Videos oder einer
gespeicherten Datei können "markiert" werden, so daß auf
sie bei einer späteren Betrachtung rasch zugegriffen werden
kann. Eine derartige "Markierung" kann (a) manuell in
Erwiderung auf eine Bedienereingabe, (b) automatisch in
Erwiderung auf einen Sensorausgang über eine Schwelle
hinaus oder (c) in Erwiderung auf eine
Benutzerbestätigungseingabe auf eine Anforderung hin
automatisch erzeugt werden, wenn der Sensorausgang die
Schwelle überschreitet. In gleicher Weise können die Bilder
des gespeicherten Videos oder einer gespeicherten Datei mit
den Anmerkungen eines Benutzers versehen werden.
Bei einem vereinfachten, alternativen Ausführungsbeispiel
wird der Prozeß 816 der Bestimmung eines Sondenorts nicht
durchgeführt und die Ankerstelle ist vorherbestimmt. Ferner
können anstelle der Modifizierung der Videodaten auf der
Grundlage einer numerischen oder graphischen Darstellung
beim Prozeß 834 die Videodaten mit der numerischen oder
graphischen Darstellung in einer bekannten Art und Weise z. B.
mittels eines Mischers oder Bild-in-Bild-Videoprozessors
kombiniert werden. Eine Bild-in-Bild-Verarbeitung kann von
einem Prozessor durchgeführt werden, ohne einen externen
Mischer zu benötigen. Computersoftware erzeugt die
numerische oder graphische Darstellung innerhalb eines
Fensters, das irgendwo innerhalb des Hauptbildes auf der
Grundlage von benutzerkonfigurierten Steuerungen
positioniert werden kann. Fig. 12 verdeutlicht z. B. eine
Anzeige 1202, bei der das Videobild des Gesichtsfelds 1204
eines optischen Instruments und eine graphische Darstellung
1252 von Sensordaten auf einem geteilten Bildschirm
vorgesehen werden. Im einzelnen wird ein betrachtetes
Werkstück 1206 mittels einer Wirbelstromsonde 1212
inspiziert, die das Werkstück am Punkt 1214 berührt. Die
graphische Darstellung 1252 vermittelt
Wirbelstromamplituden- und Wirbelstromphaseninformationen.
Ebenso können andere Informationen bezüglich des
Sensorausgangs und der Sensoreinstellungen 1254 vorgesehen
werden. In Fig. 13 verdeutlicht eine Anzeige 1302, bei der
das Video des Sichtfeldes 1304 eines optischen Instruments
und eine graphische Darstellung 1352 von Daten des Sensors
1312 als Bild-in-Bild dargestellt ist. Im einzelnen wird
ein betrachtetes Werkstück 1306 mittels einer
Wirbelstromsonde 1312 inspiziert, die das Werkstück am
Punkt 1314 berührt. Diese graphische Darstellung 1352
vermittelt Amplituden- und Phaseninformationen der
gemessenen Wirbelströme. Andere Informationen 1354 können
ebenso vorgesehen werden.
Ein vorteilhaftes Ausführungsbeispiel der Erfindung
ermöglicht es, Profile einer Charakteristik bzw. eines
Kennwerts (z. B. Wirbelstromphase und -amplitude) des
inspizierten Werkstücks zu erhalten. Bei diesem
Ausführungsbeispiel ist das Gesichtsfeld des optischen
Instruments bezüglich des Werkstücks fixiert, während der
Sensor bezüglich des Werkstücks (und somit bezüglich des
Gesichtsfeldes) bewegt wird. Z. B. kann ein Sensor, der
durch den Arbeitskanal eines starren Boreskops 200
mitgeführt wird, von der Ferne gelenkt werden. Die
graphischen Darstellungen auf der Grundlage des
digitalisierten Signals (Signale) vom Sensor werden
periodisch auf der Basis eines Takts gespeichert oder auf
der Grundlage einer Benutzerauswahl von Zeit zu Zeit
abgespeichert.
Fig. 17 verdeutlicht ein Beispiel einer Anzeige 1702 eines
Werkstücks 1706 (z. B. einer Turbinenschaufel mit einer
Vorderkante und einer Rückkante), die aus Flecken
bestehende graphische Darstellungen 1402 aufweist, die auf
dem digitalisierten Signal(en) zu verschiedenen Zeitpunkten
beruhen. Die Anzeige 1702 gibt ein Wirbelstromprofil
wieder, d. h. eine graphische Abbildung, die den gesamten
Wirbelstromverlauf des Werkstücks 1706 darstellt. Bei
diesem Beispiel schließt das Profil eine Zusammenstellung
einer Anzahl von "Flecken" ein, die dem Bild des Werkstücks
1706 überlagert sind. Die Wirbelstromsonde 1712 wird längs
der Vorderkante des Werkstücks 1706 bewegt. Die aus Flecken
bestehenden graphischen Darstellungen 1402 werden
periodisch automatisch auf der Basis eines Takts gesichert
oder auf der Basis von Benutzereingaben von Zeit zu Zeit
gesichert. Bei diesem Beispiel beruht die Größe der aus
einem Flecken bestehenden graphischen Darstellung auf der
Amplitude des gemessenen Wirbelstroms und die Farbe der aus
einem Flecken bestehenden graphischen Darstellung auf der
Phase des gemessenen Wirbelstroms. Wie aus Fig. 17
ersichtlich, ist eine erste Gruppierung von überlappenden,
Flecken darstellenden, graphischen Darstellungen 1716 in
der Nähe eines großen Risses 1708 aufgebracht. Die Größe
des Wirbelstroms und somit die Größe der Flecken
darstellenden graphischen Darstellungen nimmt bei der
Annäherung der Sonde 1712 an den Riß 1708 zu und nimmt bei
dem Entfernen der Sonde vom Riß ab. Obwohl dies in Fig. 17
nicht dargestellt ist, ändert sich auch die Farbe der einen
Flecken darstellenden graphischen Darstellung wie sich die
Phase des Wirbelstromes ändert. In ähnlicher Weise ist eine
zweite Gruppierung von überlappenden, Flecken darstellenden
graphischen Darstellungen 1718 in der Nähe eines kleinen
Risses 1710 aufgebracht. Bei dieser Vorrichtung sehen die
Reihen von Flecken darstellenden graphischen Darstellungen,
nachdem der Wirbelstromsensor 1712 sich längs der
Vorderkante der Turbinenschaufel 1706 bewegt hat, ein
Profil des Wirbelstroms vor, das von der die Inspektion
durchführenden Person rasch aufgenommen und interpretiert
werden kann.
Alternativ kann ein Inspektionsprofil in drei grundlegenden
Schritten erzeugt werden; nämlich, (1) Einführen des
Profils; (2) Aufbauen des Profils; und (3) Vervollständigen
des Profils. Zuerst wird eine spezielle Ansicht des zu
inspizierenden Werkstücks bestimmt. Die Ansicht wird für
den gesamten Profilerzeugungsprozeß fixiert. D. h., das
optische Instrument wird während des gesamten
Profilerzeugungsprozesses fixiert. Jedoch kann ein Sensor
bezüglich des Werkstücks bewegt werden. In Erwiderung auf
einen Befehl zum Einführen des Profils wird ein Bezugsbild
erfaßt. Im einzelnen wird ein Videobild des Werkstücks in
dem fixierten Gesichtsfeld, ohne dabei den Sensor im Blick
zu haben, erfaßt und als eine Bezugsbilddatei (z. B. auf
einem Festplattenlaufwerk 750) gespeichert. Unter
direktübertragenen Videooperationen wird der Sensor
bezüglich des Werkstücks bewegt. In Erwiderung darauf
werden die dem Sensorausgang entsprechenden numerischen
oder graphischen Darstellungen angezeigt.
In Erwiderung auf einen Befehl zum Aufbauen des Profils
wird die dann existierende numerische oder graphische
Darstellung (z. B. auf einem Festplattenlaufwerk 750) in
einer Überlagerungsdatei gespeichert. Nachfolgende
numerische oder graphische Darstellungen können (z. B. an
die Überlagerungsdatei angehängt oder in einer separaten
Datei(en) gespeichert werden) in Erwiderung auf
nachfolgende Befehle zum Aufbauen des Profils gespeichert
werden.
Ein Befehl zum Vervollständigen des Profils verbindet oder
kombiniert die Bezugsbilddatei mit der
Überlagerungsdatei(en), um eine Profildateigruppe oder
Profildatei zu erzeugen.
Fig. 18 verdeutlicht ein Beispiel einer Anzeige eines
Werkstücks, das graphische Darstellungen von Abtastdaten
von einer Abtastung des Werkstücks aufweist. Bei diesem
Beispiel ist das Gesichtsfeld 1804 ganz mit der Ansicht des
Werkstücks ausgefüllt. Ferner wird in diesem Fall der
Sensor z. B. mittels Miniatur-Schrittmotoren (die
ferngesteuert werden können) in einem Abtastmuster 1860
abgelenkt. In diesem Fall werden die Flecken darstellenden,
graphischen Darstellungen periodisch, z. B. bei jedem
Schritt des bzw. der Schrittmotoren gesichert
(gespeichert). Hierbei wird der kleine Riß 1810, der eine
Zunahme der Wirbelstromgröße hervorruft, durch relativ
kleine Flecken 1872 und 1874 angezeigt. In gleicher Weise
wird der größere Riß 1808 durch größere Flecken 1876, 1878,
1880 und 1882 angezeigt. Obwohl in Fig. 18 nicht gezeigt,
ändert sich auch die Farbe der einen Flecken darstellenden,
graphischen Darstellung, so wie sich die Phase des
Wirbelstroms ändert. Die Matrix der Flecken darstellenden,
graphischen Darstellungen sieht wieder ein
Wirbelstromprofil vor, das von der die Inspektion
vornehmenden Person leicht erfaßt und interpretiert werden
kann.
Nachfolgend wird ein Beispiel für den Betrieb der
erfindungsgemäßen Vorrichtung aufgezeigt. Bei diesem
Beispiel wird eine weiße Turbinenschaufel mit Hilfe eines
Videobild-Endoskops 400 und eines Wirbelstromsensors
inspiziert. Der Wirbelstromsensor ist an der Sondenspitze
mit einer roten Markierung ausgestattet.
Ein Benutzer ruft das Ferninspektionsprogramm auf, das von
der erfindungsgemäßen Vorrichtung ausgeführt wird. In
Erwiderung darauf wird dem Benutzer zuerst ein Menü mit den
in Frage kommenden Sensoren dargeboten. Die
erfindungsgemäße Vorrichtung kann z. B.
Datenübertragungstabellen für gewisse vorbestimmte
Sensoren, wie z. B. ausgewählte Modelle von
Wirbelstromsonden und Ultraschalldetektoren einschließen.
Fig. 24 verdeutlicht eine Anzeige 2400 eines
Sensorauswahlfensters 2402. Das Fenster 2402 listet in
Frage kommende Sensoren 2404 wie auch andere für Fälle auf,
bei denen der zu verwendende Sensor nicht unter den
aufgelisteten ist. Der Benutzer kann (a) auf einen
angezeigten, in Frage kommenden Sensor 2402 doppelklicken
oder (b) die in Frage kommenden Sensoren durchlaufen, indem
die obere oder untere Bildlaufleiste 2406a bzw. 2406b
aktiviert oder der Schieberegler 2408 mit dem Pfeil 2410 in
die gewünschte Richtung gezogen wird. In diesem Fall wählt
der Benutzer die Wirbelstromsonde aus, die mit dem
Videobild-Endoskop verwendet werden soll. Falls der Sensor,
der verwendet werden soll, nicht in der Liste der
vorgegebenen Sensoren enthalten ist, so kann der Benutzer
einen "anderen" Sensor auswählen und relevante Daten
bezüglich des Ansprechverhaltens des Sensors eingeben.
Als nächstes wird dem Benutzer ein Menü oder eine
graphische Benutzerschnittstelle, über das bzw. die er
unter einer Gruppe von in Frage kommenden graphischen
Darstellungen auswählen kann, dargeboten. Fig. 25
verdeutlicht eine Anzeige 2500 von in Frage kommenden,
graphischen Darstellungen 2504, die z. B. eine einen
Flecken wiedergebende, graphische Darstellung 2504a, eine
einen Pfeil wiedergebende, graphische Darstellung 2504b,
eine einen Kreis wiedergebende, graphische Darstellung
2504c, eine "O.K.-NICHT O.K." wiedergebende, graphische
Darstellung 2504d, eine "Fehlerfrei/Fehlerhaft"
wiedergebende, graphische Darstellung 2504e und eine
numerische Anzeige 2504f einschließen. Bei diesem Beispiel
wählt der Benutzer die graphische Kreis-Darstellung aus.
Der Benutzer wird dann zur Eingabe von Parametern für die
graphische Kreis-Darstellung aufgefordert. Alternativ kann
der Benutzer vorbestimmte Parameter akzeptieren, anstelle
eine Gruppe von Parametern einzugeben. Bei diesem Beispiel
wählt der Benutzer vorbestimmte Parameter aus, die z. B.
die Größe des Kreises der Wirbelstromgröße zuordnen, wobei
die maximale Größe des Kreises 50 Pixel im Durchmesser, die
minimale Größe des Kreises 3 Pixel im Durchmesser, der
Strom-zu-Pixel-Skalierungsfaktor 5 mA pro Pixel beträgt,
und die Farbe des Kreises konstant ist, und die die
Helligkeit des Kreises der Phase des Wirbelstroms zuordnen,
wobei die minimale Helligkeit einem Phasenwinkel von 180
Grad und die maximale Helligkeit einem Phasenwinkel von
Null Grad entspricht. Andererseits kann der Benutzer, wie
in Fig. 26 gezeigt, passende Parameter 2604 definieren, die
in einem Parameterfenster 2602 als "fest" oder "variabel"
2606 dargeboten sind. Falls der Parameter 2604 als
"variabel" ausgewählt wird, wird ein Einstellfenster 2650
vorgesehen. Auf der Grundlage des vom Benutzer ausgewählten
Typs wird der Sensorausgang 2652, auf dem der variable
Parameter beruht, ausgewählt. Der Knopf 2654 sieht ein
Drag-down (Herunterzieh-)-Menü mit Sensorausgängen vor, in
diesem Fall die Wirbelstromgröße und die Wirbelstromphase.
Andere Parameter 2656, 2664 können (a) in den Kasten 2658,
2666 eingegeben, (b) aus einem Drag-down-Menü 2660, 2686
ausgewählt und/oder (c) mit Hilfe von Knöpfen 2662, 2670
inkrementiert oder dekrementiert werden. Die
Parameter/Sensorausgangs-Skalierung 2670 kann in den Kasten
2676 eingegeben oder vom Drag-down-Menü 2674 ausgewählt
werden.
Der Benutzer kann dann die Wirbelstromsonde durch den
Arbeitskanal 442 des Einführrohres 404 des Videobild-
Endoskops 400 einführen. Das Einführrohr 404 wird dann über
die Inspektionsöffnung 108 des Turbinengehäuses 102
eingeführt, bis die Vorderkante einer Turbinenschaufel 106
in das Gesichtsfeld 456 der Objektivlinse 450 tritt.
Das Bild der Vorderkante der Turbinenschaufel 106 wird mit
Hilfe der Objektivlinse 450 auf eine ladungsgekoppelte
Einrichtung 452 fokussiert. Eine der ladungsgekoppelten
Einrichtung zugehörige Schaltung taktet die Ladungen der
Elemente der ladungsgekoppelten Einrichtung aus und führt
die sich ergebende Folge von analogen Wellenformen der
Leitung 454 zu. Gleichzeitig betätigt der Benutzer die
Wirbelstromsonde derart, daß ein interessierender Punkt, z. B.
ein in der Turbinenschaufel 106 auftretender Riß
inspiziert werden kann.
Wie oben erläutert, wird die Folge von analogen
Wellenformen auf der Leitung 454 dem Eingang einer
Kamerasteuereinheit 710 zugeführt. Diese
Kamerasteuereinheit 710 wandelt die Folge von analogen
Wellenformen in Videobilder um, die dem NTSC-Standard
entsprechen. Die Bildfangschaltung bzw. der Bildabtaster
712 empfängt die NTSC-Videobilder und wandelt die Bilder in
eine 1024 mal 1024 Pixelmatrix um, wobei jedes Pixel eine
von 256 Farben und einen von 256 Helligkeitspegeln
aufweist. Der Prozessor 730 (und/oder der Coprozessor 740)
üben Zugriff auf das Videobild 2200 aus.
Bei diesem Beispiel ist es bekannt, daß das angezeigte
Gesichtsfeld 1004 800 mal 800 Pixel aufweist. Wie in Fig. 11
verdeutlicht, unterteilt der Prozessor 730 (und/oder der
Coprozessor 740) den interessierenden Bereich von 800 mal
800 Pixel in vier Zeilen und vier Spalten, wodurch sechzehn
Teilbilder mit 200 mal 200 Pixeln bestimmt werden. Aus der
Erfahrung ist es bekannt, daß die Wahrscheinlichkeit für
das Auffinden der Sondenspitze des Wirbelstromsensors in
der zweiten oder dritten Zeile (R2 oder R3) des
unterteilten Bildes wahrscheinlicher als anderswo ist.
Demzufolge wird eine Pixel-um-Pixel-Suche bei dem Teilbild
mit 200 mal 200 Pixeln, das durch die erste Spalte C1 und
die zweite Zeile R2 definiert ist, für ein dunkelblaues
Pixel (oder dunkelblaue Pixel) durchgeführt. Da die
Markierung sich nicht innerhalb des Teilbildes befindet,
werden keine roten Pixel gefunden. Demzufolge wird die
Suche in dem nächsten Teilbild, das durch die zweite Spalte
C2 und die zweite Zeile R2 bestimmt ist, durchgeführt. In
diesem Fall werden rote Pixel, die der Markierung der
Sondenspitze des Wirbelstromsensors entsprechen, erfaßt.
Die Pixelidentifikationsinformation 2302, die dem erfaßten
ersten roten Pixel entspricht, wird als Ankerpunkt
gespeichert.
Gleichzeitig mit der obigen Bearbeitung erzeugt der
Wirbelstromsensor ein Stromsignal, das in ein Stromgrößen- bzw.
Stromamplitudensignal und ein Stromphasensignal
umgewandelt wird. Die beiden Signale werden dem (den) A/D-Wand
ler(n) 722 zugeführt. Die Ausgangssignale des A/D-Wand
lers bzw. der A/D-Wandler 722 werden vom Prozessor 730
gelesen. Der Prozessor bestimmt unter Verwendung einer
Umwandlungstabelle oder eines Algorithmus zum Erzeugen
einer graphischen Darstellung die Größe und die Helligkeit
der einen Kreis wiedergebenden graphischen Darstellung auf
der Grundlage der Größe bzw. Amplitude und der Phase (wie
auch Vorgabeparameterwerte oder benutzerdefinierte
Parameterwerte) der digitalisierten Wirbelstromsignale. Die
sich ergebende, einen Kreis wiedergebende, graphische
Darstellung wird über die Pixelinformation in dem Videobild
2200 um den bestimmten Ankerpunkt geschrieben.
Die obige Bearbeitung wird für jedes Videobild 2200
wiederholt. Die resultierenden Videobilder 2000' werden (a)
dem Benutzer über eine VGA-Videoanzeige 768 oder eine NTSC-An
zeige 762 dargeboten, (b) als Datei auf einem
magnetischen oder optischen Speichermedium 750 gespeichert
und/oder auf einem Videoband 790 aufgezeichnet.
Nachfolgend werden Verbesserungen und spezielle Anpassungen
der Erfindung dargelegt.
Obwohl die erfindungsgemäße Vorrichtung mit irgendeiner
Videoquelle 704d und irgendeiner Sensordatenquelle 706d
verwendet werden kann, ist diese besonders gut für die
Verwendung mit flexiblen Fiberskopen 300 oder Videobild-
Endoskopen geeignet, die mit einer Wirbelstromsonde
ausgestattet sind. Die Fig. 19 bis 21 verdeutlichen
Modifikationen, die bei bekannten flexiblen Fiberskopen 300
oder Videobild-Endoskopen 400 zur Verbesserung der Qualität
der Ausgangssignale der Wirbelstromsonde durchgeführt
wurden.
Fig. 19 verdeutlicht die Abbildung eines konventionellen
flexiblen Fiberskops 300 oder Videobild-Endoskops 400 in
einer Oben/Unten- oder Links/Rechts-Ebene. Im einzelnen
verdeutlicht Fig. 19 das distale Ende 1904 eines
Einführrohres, das einen Kopfadapter 1906 einschließt.
Linsen 1908 und ein Arbeitskanal 1910 sind ebenso
dargestellt (der Deutlichkeit halber ist die
Beleuchtungseinrichtung nicht gezeigt). Das Element 1904'
verdeutlicht das distale Ende des Einführrohres, wenn es
ganz nach links abgebogen ist, während das Element 1904''
das distale Ende des Einführrohres verdeutlicht, wenn es
ganz nach rechts abgebogen ist. Wie aus Fig. 19
ersichtlich, bewegt sich das distale Ende 1904 des
Einführrohres längs eines Bogens 1920, wenn es nach links
bzw. rechts abgebogen wird. Das gleiche gilt für eine
Abbiegung nach oben bzw. unten. Falls ein flaches Werkstück
inspiziert wird, würde die Wirbelstromsonde näher am
Werkstück sein, wenn sie sich in ihrer nicht-abgebogenen
Stellung befindet, und vom Werkstück weiter weg sein, wenn
sie ganz abgebogen ist (entweder nach links, rechts, oben
oder unten). In einem solchen Fall ändert sich leider die
Größe bzw. Amplitude des Wirbelstromes auf der Basis des
Abstands der Sonde vom Werkstück, anstelle allein auf
Defekten im Werkstück zu beruhen.
Fig. 20 verdeutlicht eine Einrichtung zum Erleichtern des
Sondenkontakts mit einem Werkstück über einen vorbestimmten
Biegebereich, wodurch das oben beschriebene Problem gelöst
wird. Im einzelnen umfaßt das distale Ende 2006 eines
Einführrohres eine Linse 2008, ein Beleuchtungsfenster 2010
und einen Arbeitskanal 2030, durch den sich ein
Wirbelstromsensor 2040 mit einer Sonde 2042 erstreckt.
Innerhalb des Adapterkopfes weist der Arbeitskanal 2030
vorzugsweise einen Vorsprung (Vorsprünge) 2032, wie z. B.
einen ringförmigen Rand bzw. Anschlag auf. Zwischen dem
Vorsprung (den Vorsprüngen) 2032 und einem Flansch 2044,
der an dem Wirbelstromsensor 2040 vorgesehen ist, ist eine
Spanneinrichtung 2050, wie z. B. eine Feder angeordnet, die
die Wirbelstromsonde 2042 nach außen, d. h. vom distalen
Ende des Einführrohres weg vorspannt. In diesem Fall wird
der Wirbelstromsensor 2040 vom distalen Ende in den
Arbeitskanal 2030 eingesetzt. Das nach außen Vorspannen der
Wirbelstromsonde 2042 hilft dabei, sicherzustellen, daß die
Wirbelstromsonde 2042 bei einem Abbiegen nach links,
rechts, oben oder unten den Kontakt mit dem Werkstück hält.
Andere Einrichtungen, um die Sonde 2042 nach außen
vorzuspannen, d. h. vom distalen Ende des Einführrohres weg
vorzuspannen, können ebenso verwendet werden und können
irgendwo in der Fernsicht-Inspektionsvorrichtung angeordnet
werden.
Fig. 21 verdeutlicht das distale Ende eines Boreskops,
Fiberskops oder Videobild-Endoskops mit einem 90 Grad-
Kopfadapter, der einen speziell modifizierten Arbeitskanal
aufweist. Wie aus Fig. 1a ersichtlich war, werden
Turbinenschaufeln 106 oft mit einem optischen Instrument
inspiziert, das ein sich durch eine Inspektionsöffnung 108
erstreckendes Einführrohr aufweist. Um den interessierenden
Bereich, d. h. die Oberfläche der Turbinenschaufel zu
inspizieren, ist ein Kopfadapter mit gerader Sicht nicht
brauchbar. In der Tat belegen Kopfadapter mit 90 Grad-Sicht
momentan das größte Marktsegment für industrielle
Fernsicht-Inspektionssysteme. Wie in Fig. 21 gezeigt, wird
ein durch das Fenster 2102 tretendes Bild von einer Linse
2104 fokussiert, von einem Spiegel 2106 reflektiert und
durch eine Linse (Linsen) 2108 z. B. auf eine
ladungsgekoppelte Einrichtung 2110 (oder auf das Ende eines
Faserbündels oder eines optischen Systems) fokussiert.
Leider kann der Sensor 2114 mit der Sonde 2116 in vielen
Fällen keinen engen Biegeradius erzielen. Demzufolge ist
der Arbeitskanal 2112 mit einer ersten Öffnung 2118, durch
die der Sensor 2114 aus dem Arbeitskanal 2112 austritt, und
einer zweiten Öffnung 2120 versehen, durch die der Sensor
2144 wieder in den Arbeitskanal 2112 eintritt. Alternativ
kann ein 90 Grad-Kopfadapter mit einer festgelegten Sonde
ausgestattet sein.
Die erfindungsgemäße Vorrichtung sieht somit eine intuitive
Anzeige, die eine leichte und meist sofortige Aufnahme und
Interpretation der Daten von mehreren Quellen ermöglicht.
Die Anzeige ist im einzelnen zur Inspektion eines
Werkstücks und insbesondere zur Inspektion eines Werkstücks
mit einer Fernsicht-Inspektionsvorrichtung geeignet. Die
Vorrichtung ermöglicht eine Abtastfolge oder Matrix mit
einer Vielzahl von Sensoranzeigewerten für ein bestimmtes
Gesichtsfeld. Die Erfindung sieht ferner verschiedene
Modifikationen an bekannten visuellen Inspektionssystemen
vor, um Daten, wie z. B. Wirbelstromdaten insbesondere mit
Kopfadapter mit Seitensicht besser erfassen zu können.
Claims (34)
1. Verfahren zum Bearbeiten von
Videodaten, die ein Videobild eines Sensors einschließen, und
Daten, die von dem Sensor ausgegeben werden, wobei das Verfahren die folgenden Schritte aufweist:
Videodaten, die ein Videobild eines Sensors einschließen, und
Daten, die von dem Sensor ausgegeben werden, wobei das Verfahren die folgenden Schritte aufweist:
- (a) Annehmen von analogen Videodaten;
- (b) Umwandeln der analogen Videodaten in Bilder, wobei jedes Bild Daten einschließt, die einer Matrix von Pixeln entsprechen;
- (c) Orten des Videobildes des Sensors in einem der Bilder, um eine Ankerstelle zu definieren;
- (d) Annehmen der vom Sensor ausgegebenen Daten;
- (e) Digitalisieren der vom Sensor ausgegebenen Daten, um digitalisierte Sensordaten zu erzeugen;
- (f) Umwandeln der digitalisierten Sensordaten in einen numerischen Wert oder eine graphische Darstellung, und
- (g) Modifizieren der Pixel in dem einen der Bilder in der Nähe der Ankerstelle auf der Grundlage des numerischen Werts oder der graphischen Darstellung, um ein modifiziertes Bild zu erzeugen.
2. Verfahren nach Anspruch 1, ferner gekennzeichnet durch
den Schritt:
- (h) Anzeigen des modifizierten Bildes.
3. Verfahren nach Anspruch 1, ferner gekennzeichnet durch
den Schritt:
- (h) Aufzeichnen des modifizierten Bildes.
4. Verfahren nach Anspruch 1, ferner gekennzeichnet durch
den Schritt:
- (h) Speichern einer Datei, die das modifizierte Bild einschließt.
5. Verfahren nach Anspruch 1, bei dem der Schritt des
Ortens des Videobildes des Sensors in dem einen der Bilder
zum Definieren einer Ankerstelle folgende Unterschritte
einschließt:
- (i) Überprüfen der Daten, die der Matrix von Pixeln entsprechen, um zu bestimmen, ob ein Pixel innerhalb der Matrix Daten aufweist, die einem Attribut des Sensors entsprechen; und
- (ii) Bestimmen der Ankerstelle an einer Stelle eines Pixels, das die Daten besitzt, die dem Attribut des Sensors entsprechen.
6. Verfahren nach Anspruch 5, bei dem das Attribut eine
bestimmte Farbe ist.
7. Verfahren nach Anspruch 1, bei dem der Schritt
des Ortens des Videobildes des Sensors in einem der Bilder
zum Definieren einer Ankerstelle folgende Unterschritte
aufweist:
- (i) Unterteilen des Bildes in eine Vielzahl von Teilbildern;
- (ii) Überprüfen der jedem Pixel entsprechenden Daten in einem der Teilbilder, um zu bestimmen, ob ein Pixel innerhalb des Teilbildes Daten aufweist, die einem Attribut des Sensors entsprechen;
- (iii) falls das Teilbild ein Pixel aufweist, das Daten einschließt, die dem Attribut des Sensors entsprechen, Festlegen der Ankerstelle als Stelle des Pixels, das Daten einschließt, die dem Attribut des Sensors entsprechen; und
- (iv) falls das Teilbild kein Pixel aufweist, das Daten einschließt, die dem Attribut des Sensors entsprechen, Fortfahren mit der Bearbeitung des nächsten Teilbildes.
8. Verfahren nach Anspruch 7, bei dem das Attribut eine
bestimmte Farbe ist.
9. Verfahren nach Anspruch 7, bei dem, falls es bekannt
ist, daß das Videobild des Sensors höchstwahrscheinlich
sich in einem bestimmten Teilbild anstatt in anderen
Teilbildern befindet, das bestimmte Teilbild das eine der
Teilbilder ist.
10. Verfahren nach Anspruch 1, ferner gekennzeichnet durch
die Schritte:
Auswählen der graphischen Darstellung aus einer Gruppe von in Frage kommenden graphischen Darstellungen, um eine ausgewählte graphische Darstellung zu definieren; und
Auswählen der Parameter für die ausgewählte graphische Darstellung,
wobei der Schritt der Umwandlung der digitalisierten Sensordaten in einen numerischen Wert oder eine graphische Darstellung die ausgewählte graphische Darstellung und die Parameter verwendet.
Auswählen der graphischen Darstellung aus einer Gruppe von in Frage kommenden graphischen Darstellungen, um eine ausgewählte graphische Darstellung zu definieren; und
Auswählen der Parameter für die ausgewählte graphische Darstellung,
wobei der Schritt der Umwandlung der digitalisierten Sensordaten in einen numerischen Wert oder eine graphische Darstellung die ausgewählte graphische Darstellung und die Parameter verwendet.
11. Verfahren nach Anspruch 1, bei dem die graphische
Darstellung ein Fleck, ein Ring oder ein Pfeil ist.
12. Verfahren nach Anspruch 1, bei dem die Sensordaten die
Daten eines ersten Typs und die Daten eines zweiten Typs
einschließen, und bei dem der Schritt des Umwandelns der
digitalisierten Sensordaten in einen numerischen Wert oder
eine graphische Darstellung die folgenden Unterschritte
umfaßt:
Variieren eines ersten Attributs der graphischen Darstellung auf der Grundlage der Daten des ersten Typs; und
Variieren eines zweiten Attributs der graphischen Darstellung auf der Grundlage der Daten des zweiten Typs.
Variieren eines ersten Attributs der graphischen Darstellung auf der Grundlage der Daten des ersten Typs; und
Variieren eines zweiten Attributs der graphischen Darstellung auf der Grundlage der Daten des zweiten Typs.
13. Verfahren nach Anspruch 12, bei dem jeweils das erste
und das zweite Attribut der graphischen Darstellung aus
einer Gruppe ausgewählt werden, die die Größe, die Länge,
den Durchmesser, den Innendurchmesser, den
Außendurchmesser, die Farbe, die Helligkeit, die Schärfe
und die Ausrichtung einschließt.
14. Verfahren zum Bearbeiten von
Videodaten-Bildern, die ein Videobild eines Sensors einschließen, wobei jedes Bild Daten einschließt, die einer Matrix von Pixeln entsprechen, und
Daten, die vom Sensor ausgegeben werden, wobei das Verfahren die folgenden Schritte aufweist:
Videodaten-Bildern, die ein Videobild eines Sensors einschließen, wobei jedes Bild Daten einschließt, die einer Matrix von Pixeln entsprechen, und
Daten, die vom Sensor ausgegeben werden, wobei das Verfahren die folgenden Schritte aufweist:
- (a) Orten des Sensors in einem der Bilder aus Videodaten, um eine Ankerstelle zu definieren;
- (b) Annehmen der vom Sensor ausgegebenen Daten;
- (c) Umwandeln der vom Sensor ausgegebenen Daten in einen numerischen Wert oder ein graphische Darstellung; und
- (d) Modifizieren der Pixeldaten in der Nähe der Ankerstelle in dem einen der Bilder auf der Grundlage des numerischen Werts oder der graphischen Darstellung, um ein modifiziertes Bild zu erzeugen.
15. Verfahren nach Anspruch 14, ferner gekennzeichnet
durch den Schritt:
- (e) Anzeigen des modifizierten Bildes.
16. Verfahren nach Anspruch 14, ferner gekennzeichnet
durch den Schritt:
- (e) Aufzeichnen des modifizierten Bildes.
17. Verfahren nach Anspruch 14, ferner gekennzeichnet
durch den Schritt:
- (e) Speichern einer Datei, die das modifizierte Bild einschließt.
18. Verfahren nach Anspruch 14, bei dem der Schritt des
Ortens des Videobildes des Sensors in dem einen der Bilder
zum Definieren einer Ankerstelle folgende Unterschritte
einschließt:
- (i) Überprüfen der Daten, die der Matrix von Pixeln entsprechen, um zu bestimmen, ob ein Pixel innerhalb der Pixel-Matrix Daten aufweist, die einem Attribut des Sensors entsprechen; und
- (ii) Bestimmen der Ankerstelle an einer Stelle eines Pixels, das die Daten besitzt, die dem Attribut des Sensors entsprechen.
19. Verfahren nach Anspruch 18, bei dem das Attribut eine
bestimmte Farbe ist.
20. Verfahren nach Anspruch 14, bei dem der Schritt des
Ortens des Sensors in dem einen der Bilder zum Definieren
einer Ankerstelle folgende Unterschritte aufweist:
- (i) Unterteilen des Bildes in eine Vielzahl von Teilbildern;
- (ii) Überprüfen der jedem Pixel entsprechenden Daten in einem der Teilbilder, um zu bestimmen, ob ein Pixel innerhalb des Teilbildes die Daten aufweist, die einem Attribut des Sensors entsprechen;
- (iii) falls das Teilbild ein Pixel aufweist, das Daten einschließt, die dem Attribut des Sensors entsprechen, Festlegen der Ankerstelle an einer Stelle des Pixels, das Daten aufweist, die dem Attribut des Sensors entsprechen; und
- (iv) falls das Teilbild kein Pixel aufweist, das Daten einschließt, die dem Attribut des Sensors entsprechen, Fortfahren mit der Bearbeitung des nächsten Teilbildes.
21. Verfahren nach Anspruch 20, bei dem das Attribut eine
bestimmte Farbe ist.
22. Verfahren nach Anspruch 20, bei dem, falls es bekannt
ist, daß das Videobild des Sensors höchstwahrscheinlich
sich in einem bestimmten Teilbild anstatt in anderen
Teilbildern befindet, das bestimmte Teilbild das eine der
Teilbilder ist.
23. Verfahren nach Anspruch 14, ferner gekennzeichnet
durch die Schritte:
Auswählen der graphischen Darstellung aus einer Gruppe von in Frage kommenden graphischen Darstellungen, um eine ausgewählte graphische Darstellung zu definieren; und
Auswählen der Parameter für die ausgewählte graphische Darstellung,
wobei der Schritt der Umwandlung der digitalisierten Sensordaten in einen numerischen Wert oder eine graphische Darstellung die ausgewählte graphische Darstellung und die Parameter verwendet.
Auswählen der graphischen Darstellung aus einer Gruppe von in Frage kommenden graphischen Darstellungen, um eine ausgewählte graphische Darstellung zu definieren; und
Auswählen der Parameter für die ausgewählte graphische Darstellung,
wobei der Schritt der Umwandlung der digitalisierten Sensordaten in einen numerischen Wert oder eine graphische Darstellung die ausgewählte graphische Darstellung und die Parameter verwendet.
24. Verfahren nach Anspruch 14, bei dem die graphische
Darstellung ein Fleck, ein Ring oder ein Pfeil ist.
25. Verfahren nach Anspruch 14, bei dem die Sensordaten
die Daten eines ersten Typs und die Daten eines zweiten
Typs einschließen, und bei dem der Schritt des Umwandelns
der digitalisierten Sensordaten in einen numerischen Wert
oder eine graphische Darstellung die folgenden
Unterschritte umfaßt:
Variieren eines ersten Attributs der graphischen Darstellung auf der Grundlage der Daten des ersten Typs; und
Variieren eines zweiten Attributs der graphischen Darstellung auf der Grundlage der Daten des zweiten Typs.
Variieren eines ersten Attributs der graphischen Darstellung auf der Grundlage der Daten des ersten Typs; und
Variieren eines zweiten Attributs der graphischen Darstellung auf der Grundlage der Daten des zweiten Typs.
26. Verfahren nach Anspruch 25, bei dem jeweils das erste
und das zweite Attribut der graphischen Darstellung aus
einer Gruppe ausgewählt werden, die die Größe, die Länge,
den Durchmesser, den Innendurchmesser, den
Außendurchmesser, die Farbe, die Helligkeit, die Schärfe
und die Ausrichtung einschließt.
27. Verfahren nach Anspruch 14, bei dem die Videodaten-
Bilder das Gesichtsfeld einer Bilderfassungseinrichtung
einschließen und das Verfahren ferner die folgenden
Schritte aufweist:
- (e) Festlegen des Gesichtsfelds der Bilderfassungseinrichtung;
- (f) Bewegen des Sensors bezüglich der Bilderfassungseinrichtung;
- (g) Umwandeln der vom Sensor ausgegebenen Daten in einen numerischen Wert oder eine graphische Darstellung;
- (h) Modifizieren der Pixel in der Nähe der Ankerstelle in wenigstens einem der Bilder auf der Grundlage des numerischen Werts oder der graphischen Darstellung, um wenigstens ein modifiziertes Bild zu erzeugen;
- (i) Abtasten des numerischen Werts oder der graphischen Darstellung in Erwiderung auf eine Benutzerauswahl oder einen Takt und Ersetzen der Pixel in der Nähe der Ankerstelle derart, daß die nachfolgenden Bilder ebenso den numerischen Wert oder die graphische Darstellung an der oder um die Ankerstelle einschließen; und
- (j) Erzeugen eines Inspektionsprofils durch Wiederholen der Schritte (f) bis (i).
28. Vorrichtung zum Inspizieren eines Gegenstandes, die
einschließt:
- (a) eine Videobilderzeugungseinrichtung mit einem Gesichtsfeld zum Erzeugen von Videobildern des Gegenstands, wobei jedes Videobild die einer Pixelmatrix entsprechenden Daten einschließt;
- (b) einen im Gesichtsfeld der Videobilderzeugungseinrichtung angeordneten Sensor zum Erfassen eines physikalischen Phänomens, das auf ein Attribut des Gegenstandes bezogen ist;
- (c) eine Signalerzeugungseinrichtung zum Erzeugen eines Signals auf der Grundlage des vom Sensor erfaßten physikalischen Phänomens;
- (d) einen Wandler, der das Signal von der Signalerzeugungseinrichtung empfängt und dieses in einen numerischen Wert oder eine graphische Darstellung umwandelt;
- (e) eine Ankererzeugungseinrichtung, die Bilder von der Videobilderzeugungseinrichtung empfängt und die Stelle eines Bildes des Sensors innerhalb eines Bildes bestimmt und einen Anker an der Stelle erzeugt; und
- (f) eine Videoverarbeitungseinrichtung, die den Anker von der Ankererzeugungseinrichtung, die Bilder von der Videobilderzeugungseinrichtung und den numerischen Wert oder die graphische Darstellung vom Wandler empfängt und Pixel in der Nähe des Ankers in zumindest einem der Bilder auf der Basis des numerischen Wert oder der graphischen Darstellung modifiziert.
29. Vorrichtung nach Anspruch 28, bei der die
Videobilderzeugungseinrichtung eine Fernsicht-
Inspektionseinrichtung ist.
30. Vorrichtung nach Anspruch 28, bei der die
Videobilderzeugungseinrichtung (a) eine Videokamera, (b)
ein Boreskop, das mit einer Videokamera gekoppelt ist, (c)
ein Fiberskop, das mit einer Videokamera gekoppelt ist,
oder (d) ein Videobild-Endoskop ist, das mit einer
Kamerasteuereinheit ausgestattet ist.
31. Vorrichtung nach Anspruch 30, bei der der Sensor durch
einen Arbeitskanal in der Videobilderzeugungseinrichtung
geführt ist.
32. Vorrichtung nach Anspruch 28, bei der die
Videobilderzeugungseinrichtung einen 90°-Kopfadapter und
eine fixierte Sonde aufweist.
33. Vorrichtung nach Anspruch 29, bei der die Fernsicht-
Inspektionseinrichtung ein Einführrohr mit einem proximalen
und einem distalen Ende aufweist, das einen Arbeitskanal
einschließt, der sich vom proximalen Ende bis zum distalen
Ende des Einführrohres erstreckt, wobei der Sensor sich
durch den Arbeitskanal erstreckt und die Vorrichtung ferner
eine Vorspanneinrichtung aufweist, die den Sensor vom
distalen Ende des Einführrohres weg vorspannt.
34. Vorrichtung nach Anspruch 28, bei der der Sensor eine
Wirbelstromsonde oder eine Ultraschallsonde ist.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US08/774,919 | 1996-12-27 | ||
US08/774,919 US6031566A (en) | 1996-12-27 | 1996-12-27 | Method and device for providing a multiple source display and a remote visual inspection system specially adapted for use with the device |
Publications (2)
Publication Number | Publication Date |
---|---|
DE19757912A1 true DE19757912A1 (de) | 1998-07-02 |
DE19757912B4 DE19757912B4 (de) | 2005-11-03 |
Family
ID=25102694
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE19757912A Expired - Fee Related DE19757912B4 (de) | 1996-12-27 | 1997-12-24 | Verfahren und Vorrichtung zum Bearbeiten von Videobildern |
Country Status (3)
Country | Link |
---|---|
US (1) | US6031566A (de) |
JP (1) | JP4078409B2 (de) |
DE (1) | DE19757912B4 (de) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE10062503A1 (de) * | 2000-10-04 | 2002-04-11 | Margit Frank Media Art Gmbh | Vorrichtung zur Bildwiedergabe |
Families Citing this family (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6138081A (en) * | 1998-04-09 | 2000-10-24 | Cmr Technologies, Inc. | Data acquisition system and method for monitoring gas turbine engine testing |
JP3341024B2 (ja) * | 1998-07-17 | 2002-11-05 | オムロン株式会社 | 小型のセンサ装置 |
US20040153269A1 (en) * | 2001-02-16 | 2004-08-05 | Kalas Frank Joseph | Automated data capture system |
WO2002071174A2 (en) * | 2001-03-06 | 2002-09-12 | Two Dimensional Instr Llc | Data display device |
WO2003089837A1 (en) * | 2002-04-17 | 2003-10-30 | Surespek Iss Pty Ltd | Inspection management system and graphical user interface therefor |
US20050129108A1 (en) * | 2003-01-29 | 2005-06-16 | Everest Vit, Inc. | Remote video inspection system |
US20050041097A1 (en) * | 2003-08-19 | 2005-02-24 | Bernstein Robert M. | Non-medical videoscope |
US20060176242A1 (en) * | 2005-02-08 | 2006-08-10 | Blue Belt Technologies, Inc. | Augmented reality device and method |
WO2007041383A2 (en) * | 2005-09-30 | 2007-04-12 | Purdue Research Foundation | Endoscopic imaging device |
US8767060B2 (en) * | 2007-10-26 | 2014-07-01 | Ge Inspection Technologies, Lp | Inspection apparatus having heat sink assembly |
DE112007003747T5 (de) * | 2007-12-28 | 2010-12-09 | General Electric Co. | Verfahren und Vorrichtung zur Prüfung einer Komponente unter Verwendung einer omnidirektionalen Wirbelstromsonde |
CA2711168A1 (en) * | 2007-12-31 | 2009-07-09 | General Electric Company | Method for compensation of responses from eddy current probes |
US20100026783A1 (en) * | 2008-08-01 | 2010-02-04 | Real D | Method and apparatus to encode and decode stereoscopic video data |
US8760507B2 (en) * | 2008-08-05 | 2014-06-24 | Inspectron, Inc. | Light pipe for imaging head of video inspection device |
US8217646B2 (en) * | 2008-10-17 | 2012-07-10 | Ge Inspection Technologies, Lp | Inspection apparatus for performing inspections |
GB2484482B (en) * | 2010-10-11 | 2014-07-02 | Sensor Coating Systems Ltd | Detection System |
US20130197855A1 (en) * | 2012-01-31 | 2013-08-01 | Gareth W. Oskam | Method and apparatus to determine temperature of a gas turbine engine |
US8786300B2 (en) | 2012-02-07 | 2014-07-22 | General Electric Company | Probe assembly and methods for use in inspecting a component |
US20140063228A1 (en) * | 2012-09-06 | 2014-03-06 | General Electric Company | Method and system for cleaning surfaces and non-destructive inspection thereof |
US20140139658A1 (en) * | 2012-11-20 | 2014-05-22 | General Electric Company | Remote visual inspection system and method |
US11354007B2 (en) | 2015-04-07 | 2022-06-07 | Olympus America, Inc. | Diagram based visual procedure note writing tool |
Family Cites Families (27)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4221053A (en) * | 1978-11-13 | 1980-09-09 | Libbey-Owens-Ford Company | Inspection apparatus |
US4403251A (en) * | 1980-06-26 | 1983-09-06 | Domarenok Nikolai I | Thermovision pyrometer for remote measurement of temperature of an object |
US4470122A (en) * | 1981-09-30 | 1984-09-04 | The Boeing Company | Integrated electro-optical position sensing, workpiece probing and display method and apparatus |
GB2136242B (en) * | 1983-02-10 | 1986-04-09 | Atomic Energy Authority Uk | Superimposition in a video display system |
JPH0828839B2 (ja) * | 1987-04-21 | 1996-03-21 | オリンパス光学工業株式会社 | テレビカメラ装置 |
US4855820A (en) * | 1987-10-05 | 1989-08-08 | Joel Barbour | Down hole video tool apparatus and method for visual well bore recording |
US5251127A (en) * | 1988-02-01 | 1993-10-05 | Faro Medical Technologies Inc. | Computer-aided surgery apparatus |
US5697885A (en) * | 1989-01-30 | 1997-12-16 | Olympus Optical Co., Ltd. | Endoscope for recording and displaying time-serial images |
US5140265A (en) * | 1989-12-20 | 1992-08-18 | Olympus Optical Co., Ltd | Eddy current flaw detecting endoscope apparatus which produces signals which control other devices |
DE4102196C2 (de) * | 1990-01-26 | 2002-08-01 | Olympus Optical Co | Abbildungsvorrichtung zum Nachführen eines Objektes |
JPH04138127A (ja) * | 1990-09-28 | 1992-05-12 | Olympus Optical Co Ltd | 内視鏡網目画像軽減装置 |
JPH04176435A (ja) * | 1990-11-09 | 1992-06-24 | Olympus Optical Co Ltd | 内視鏡装置 |
US5347987A (en) * | 1991-04-08 | 1994-09-20 | Feldstein David A | Self-centering endoscope system |
JPH0595900A (ja) * | 1991-04-11 | 1993-04-20 | Olympus Optical Co Ltd | 内視鏡画像処理装置 |
US5150117A (en) * | 1991-04-22 | 1992-09-22 | United Technologies Corporation | Power management symbology display system |
EP0614104A3 (de) * | 1993-03-05 | 1995-12-20 | Hughes Aircraft Co | System zur Steuerung von virtuellen Bildanzeigen mit "head-up" Anzeigesystem. |
US5512940A (en) * | 1993-03-19 | 1996-04-30 | Olympus Optical Co., Ltd. | Image processing apparatus, endoscope image sensing and processing apparatus, and image processing method for performing different displays depending upon subject quantity |
US5408996A (en) * | 1993-03-25 | 1995-04-25 | Salb; Jesse | System and method for localization of malignant tissue |
US5475420A (en) * | 1993-06-09 | 1995-12-12 | Origin Medsystems, Inc. | Video imaging system with image processing optimized for small-diameter endoscopes |
US5589874A (en) * | 1993-06-09 | 1996-12-31 | Origin Medsystems, Inc. | Video imaging system with external area processing optimized for small-diameter endoscopes |
US5503320A (en) * | 1993-08-19 | 1996-04-02 | United States Surgical Corporation | Surgical apparatus with indicator |
GB9318520D0 (en) * | 1993-09-07 | 1993-10-20 | Jaguar Cars | Head up displays for motor vehicles |
JPH07194532A (ja) * | 1993-11-29 | 1995-08-01 | Toshiba Corp | 電子内視鏡装置 |
US5642157A (en) * | 1993-11-29 | 1997-06-24 | Kabushiki Kaisha Toshiba | Electronic endoscope apparatus usable in combination with medical diagnosis apparatus |
JP2872030B2 (ja) * | 1993-12-29 | 1999-03-17 | オリンパス光学工業株式会社 | 超音波診断装置 |
JPH0884730A (ja) * | 1994-09-20 | 1996-04-02 | Olympus Optical Co Ltd | 超音波内視鏡装置 |
US5649021A (en) * | 1995-06-07 | 1997-07-15 | David Sarnoff Research Center, Inc. | Method and system for object detection for instrument control |
-
1996
- 1996-12-27 US US08/774,919 patent/US6031566A/en not_active Expired - Lifetime
-
1997
- 1997-12-24 DE DE19757912A patent/DE19757912B4/de not_active Expired - Fee Related
- 1997-12-26 JP JP36077797A patent/JP4078409B2/ja not_active Expired - Fee Related
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE10062503A1 (de) * | 2000-10-04 | 2002-04-11 | Margit Frank Media Art Gmbh | Vorrichtung zur Bildwiedergabe |
Also Published As
Publication number | Publication date |
---|---|
JPH10228533A (ja) | 1998-08-25 |
DE19757912B4 (de) | 2005-11-03 |
US6031566A (en) | 2000-02-29 |
JP4078409B2 (ja) | 2008-04-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE19757912B4 (de) | Verfahren und Vorrichtung zum Bearbeiten von Videobildern | |
DE60219824T2 (de) | Abbildungseinrichtung und damit zusammenhängende verfahren | |
DE102006001647B4 (de) | Bilddatenprozessor und elektronisches Endoskopsystem | |
DE10164935B4 (de) | Elektronisches Endoskop | |
DE602004008681T2 (de) | Mikroskop-System und Verfahren | |
DE102014206309B4 (de) | System und Verfahren zum Erhalten von Bildern mit Versatz zur Verwendung für verbesserte Kantenauflösung | |
DE102004006260B4 (de) | Videoendoskopeinrichtung | |
DE102016214080A1 (de) | Bildinspektionseinrichtung, Bildinspektionsverfahren und Bildinspektionsprogramm | |
DE112015002570T5 (de) | Bilderfassungssystem und -verfahren zur visuellen Ferninspektion | |
DE4321786A1 (de) | Bildaufnahmesystem mit einer Signalverarbeitungseinrichtung | |
DE102013224373A1 (de) | Messungsmikroskop-Vorrichtung, Bilderzeugungsverfahren, Messungsmikroskop-Vorrichtungs-Betriebsprogramm und computerlesbares Aufzeichnungsmedium | |
DE102009056428A1 (de) | Endoskopsystem mit Abtastfunktion | |
DE102014110131A1 (de) | Bildaufnahmevorrichtung und Bildaufnahmeverfahren | |
DE202005021436U1 (de) | Optisch verbessertes digitales Abbildungssystem | |
DE10140839A1 (de) | Bildaufnahmeelement für ein elektronisches Endoskop | |
DE10101064A1 (de) | Elektronisches Endoskopsystem und Selektor hierfür | |
DE102008030349A1 (de) | Bilderfassungsvorrichtung | |
DE112012005481T5 (de) | Bildverarbeitungsvorrichtung, Bildverarbeitungssystem, Bildverarbeitungsverfahren und Bildverarbeitungsprogramm | |
DE102007029884A1 (de) | Verfahren und Einrichtung zum Erzeugen eines aus einer Mehrzahl von endoskopischen Einzelbildern zusammengesetztes Gesamtbildes von einer Innenoberfläche eines Körperhohlraums | |
EP2165186A1 (de) | Vorrichtung zur abbildung der innenfläche eines vorzugsweise zylindrischen hohlraums in einem werkstück | |
DE102014226941A1 (de) | Vergrößernde Beobachtungsvorrichtung, vergrößerndes Bildbeobachtungsverfahren und computer-lesbares Aufzeichnungsmedium | |
DE10008677A1 (de) | Digitalkamerasystem und Verfahren zum Durchführen von Dokumentenabtastungen | |
DE102010036963A1 (de) | Optisches Beobachtungssystem | |
DE19806261B4 (de) | Verfahren zur gesteuerten Darstellung von Hohlraum-Oberflächen | |
DE102009059977A1 (de) | Endoskopsystem mit Abtastfunktion |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
8127 | New person/name/address of the applicant |
Owner name: OLYMPUS AMERICA INC., MELVILLE, N.Y., US OLYMPUS O |
|
8110 | Request for examination paragraph 44 | ||
8127 | New person/name/address of the applicant |
Owner name: OLYMPUS CO., TOKYO/TOKIO, JP Owner name: OLYMPUS AMERICA INC., MELVILLE, N.Y., US |
|
8364 | No opposition during term of opposition | ||
R119 | Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee |
Effective date: 20120703 |