WO1990000109A1 - Nominal data automatic setting method of visual sensor system - Google Patents

Nominal data automatic setting method of visual sensor system Download PDF

Info

Publication number
WO1990000109A1
WO1990000109A1 PCT/JP1989/000661 JP8900661W WO9000109A1 WO 1990000109 A1 WO1990000109 A1 WO 1990000109A1 JP 8900661 W JP8900661 W JP 8900661W WO 9000109 A1 WO9000109 A1 WO 9000109A1
Authority
WO
WIPO (PCT)
Prior art keywords
data
nominal data
nominal
sensor system
visual sensor
Prior art date
Application number
PCT/JP1989/000661
Other languages
English (en)
French (fr)
Inventor
Atsushi Watanabe
Original Assignee
Fanuc Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fanuc Ltd filed Critical Fanuc Ltd
Priority to DE68926614T priority Critical patent/DE68926614T2/de
Priority to EP89907821A priority patent/EP0378703B1/en
Publication of WO1990000109A1 publication Critical patent/WO1990000109A1/ja

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/021Optical sensing devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/18Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form
    • G05B19/401Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form characterised by control arrangements for measuring, e.g. calibration and initialisation, measuring workpiece for machining purposes
    • G05B19/4015Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form characterised by control arrangements for measuring, e.g. calibration and initialisation, measuring workpiece for machining purposes going to a reference at the beginning of machine cycle, e.g. for calibration
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/42Recording and playback systems, i.e. in which the programme is recorded from a cycle of operations, e.g. the cycle of operations being manually controlled, after which this record is played back on the same machine
    • G05B19/4202Recording and playback systems, i.e. in which the programme is recorded from a cycle of operations, e.g. the cycle of operations being manually controlled, after which this record is played back on the same machine preparation of the programme medium using a drawing, a model
    • G05B19/4207Recording and playback systems, i.e. in which the programme is recorded from a cycle of operations, e.g. the cycle of operations being manually controlled, after which this record is played back on the same machine preparation of the programme medium using a drawing, a model in which a model is traced or scanned and corresponding data recorded
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/36Nc in input of data, input key till input tape
    • G05B2219/36417Programmed coarse position, fine position by alignment, follow line, path adaptive

Definitions

  • the present invention relates to a method for automatically setting nominal data and a method for outputting correction data in a visual sensor system.
  • An object of the present invention is to provide a method for automatically setting nominal data in a visual sensor system that can set nominal data accurately and quickly, or easily.
  • Another object of the present invention is to provide a supplement in a visual sensor system that is executed based on an automatically set nominal data.
  • a method for automatically setting nominal data in a visual sensor system includes the steps of: using a visual sensor system to execute a program provided in a predetermined portion with a predetermined routine for executing nominal data setting. (A), a step of detecting a value of a predetermined image parameter related to the nominal data (b), automatically detecting the value of the predetermined image parameter detected at the time of execution of the predetermined routine as nominal data Setting step (c).
  • a method of calculating correction data in a visual sensor system includes a first and a second predetermined routine for executing a nominal data setting and a correction data calculation, respectively, in a predetermined portion.
  • A executing the program provided in step (a) by a visual sensor system, detecting (b) a value of a predetermined image parameter associated with nominal data, and A nominal mode for executing a routine and executing the second predetermined routine without interruption, and executing the program without including the first predetermined routine and including the second predetermined routine.
  • C selecting any one of the actual modes to be executed, and detecting the actual mode during the execution of the first predetermined routine in the nominal mode.
  • the present invention automatically sets, as nominal data, detected values of image parameters related to nominal data detected at the time of execution of a predetermined routine provided in a predetermined portion of a program. Therefore, the setting of the nominal data in the visual sensor system can be performed accurately and quickly, or easily. In addition, since data for correcting the operation of various machines is output based on the automatically set nominal data, the operation can be properly corrected.
  • FIG. 1 is a block diagram showing a main part of a visual sensor system for implementing a method for automatically setting and correcting correction of nominal data according to an embodiment of the present invention
  • FIG. 2 is a visual diagram of FIG.
  • FIG. 3 is a diagram illustrating a program executed by the sensor system
  • FIG. 3 is a diagram illustrating a nominal data setting routine.
  • a visual sensor system for performing the method according to an embodiment of the present invention is provided in, for example, an industrial robot, and supplies mouth robot motion correction data to the robot. For this reason, the visual sensor system uses the nominal data (for example, robot Nominal mode for automatically detecting and recording the position and orientation of a specific part of the work during teaching, and actual mode for calculating correction data and sending it to the robot.
  • the visual sensor system includes an image processing device 10 having a main central processing device (hereinafter, referred to as a main CPU) 11.
  • the main CPU 11 has a camera interface 12, an image processor 13, a console interface 14, a communication interface 15, a frame memory 16, and a control software memory 1. 7.
  • Program memory 18 and data memory 19 are connected via bus 20.
  • Camera interface For example, a camera 21 and a second camera (not shown) attached to the operating part (not shown) of the robot 30 so as to be movable integrally with the operating part of the robot 30 are connected to the chair 12 and the console interface.
  • a console 22 is connected to the interface 14, and a control unit of a machine equipped with a visual sensor system, for example, a control unit (not shown) of the robot 30 is connected to the communication interface 15.
  • the console 22 includes various keys 22a including numeric keys for selecting an operation mode of the visual sensor system, inputting various commands and inputting, editing, registering, and executing programs, and various operation menus. And a liquid crystal display section 22 for displaying a list of programs and the like.
  • Control software memory 17 is different from R0M
  • a program for controlling the visual sensor system is stored, and a program memory 18 is made up of RAM and stores a user program for setting nominal data and outputting correction data.
  • This user program is created by the operator operating the keys 22a of the console 22 in accordance with the menu displayed on the display 22b of the console 22.
  • a pair of routines are provided for executing the nominal data setting and the correction data calculation, respectively. For example, as shown in FIG.
  • the first predetermined portion 101 of the user program interposed between the first instruction group 100 and the second instruction group 102 of the user program includes: A first correction data output routine 101a and a first nominal data setting routine 101b are provided as a pair.
  • the second predetermined part 103 interposed between the second instruction group 102 and the third instruction group 104 includes a second correction data output routine; Nominal data setting routine 103b is provided as a pair.
  • the following is an example of a user program.
  • the image processing device 10 of the visual sensor system is operated in response to the command.
  • the main CPU 11 stores flag information indicating the selected visual sensor system operation mode in a flag memory (not shown) built in the CPU.
  • the main CPU 11 is connected to the main CPU 11 during the teaching operation of the robot 30 by the operator and during the actual operation of the robot according to the teaching program stored in the storage unit (not shown) of the robot 30. Operates according to the sensor system control program stored in memory 17 for troll software.
  • the main CPU 11 executes a user program (FIG. 2) for setting nominal data and calculating correction data read from the program memory 18.
  • various conventionally known processes including A / D conversion processes are performed on the video signal transmitted from the camera 2 1.
  • Gray-scale image data consisting of a predetermined number of pixels represented by the number of bits is generated and stored in the frame memory 16.
  • the image processor 13 The image data is processed as previously known. As a result, a work (not shown) that is the work object of the robot 30 and the shooting object of the camera 21 is recognized, and the position and posture (image parameters) of the work in the sensor coordinate system are roughly identified. Is generated.
  • the main CPU 11 determines whether the nominal mode or the actual mode has been selected based on the flag information (step S200 in FIG. 3).
  • the main CPU 11 executes the first nominal data setting routine 1 Olb.
  • a question message “whether or not to set nominal data” is displayed on the liquid crystal display section 22b of the console 22 (step S201), and in response to this message, the operator It is determined whether or not a key has been operated to input a nominal data setting instruction (step S202)
  • this instruction is input, the main CPU 11 sends the sensor from the image processor 13 to the sensor.
  • the workpiece position in the coordinate system and the posture data are subjected to coordinate conversion processing to obtain the peak position and posture data in the robot coordinate system, and these are stored as nominal data in the data memory 19 (step S). 2 0 3)
  • the above message display step S 201 and setting command input determination step S 202 and nominal data setting step S 203 are provided.
  • the operator determines that setting of one of the two nominal data is unnecessary, the operator can prevent the setting of the one nominal data.
  • the operating position and posture of the robot 30 when the nominal data setting command is input are taught to the robot.
  • the main CPU 11 executes a second instruction group 102 corresponding to the first instruction group 100. That is, an image is captured from the second camera, image processing is performed, and the object is recognized.
  • step S202 the operation in the nominal mode ends.
  • the main CPU 11 of the visual sensor system executes the user program shown in FIG. 2 in the same manner as described above.
  • the main CPU 11 selects the actual mode based on the flag information.
  • the correction data output routine 101a is executed.
  • the main CPU 11 obtains the information by the same procedure as described above.
  • the deviation between the data representing the position and posture of the workpiece in the robot coordinate system and the nominal data obtained in the previous nominal mode is calculated as incremental correction data.
  • this incremental correction data is sent to the robot control unit via the communication interface 15.
  • the robot control unit performs the required work by controlling the position and posture of the robot operating unit in a conventionally known manner while correcting the conventionally known operation position and posture based on the incremental correction data.

Description

明 細 害
視覚センサシステムのノミナルデータ自動設定方法 技 術 分 野
本発明は、 視覚センサシステムにおける ノミナルデー タ自動設定方法および補正データ箅出方法に関する。
背 景 技 術
各種機械例えば産業用ロボッ ト に装備した視覚センサ システムから送出される補正デー タに応じて機械作動部 の動作位箧, 姿勢を補正することは従来公知である。 例 えば、 ロボッ ト運転時、 視覚センサシステムは、 ロボッ ト の動作位匿, 姿勢を検出して検出データをロボッ ト制 御部に送出し、 ロボッ ト 制御部は、 この検出データと基 準デー タ (以下、 ノ ミナルデータ という) 例えばロボッ 卜 への教示時に予め設定されたロボッ ト の動作位匿, 姿 勢を表すデータ とに基づいて補正データを得てロボッ ト の動作位置, 姿勢を補正している。 従来、 この動作補正 に用いる ノ ミナルデータをオペレ ータによ り予め手動設 定している。 このため、 ノ ミナルデータの設定が面倒で かつ熟練者によ らねばならなかつた。
発 明 の 開 示
本発明の目的は、 ノ ミナルデー タを正確かつ迅速にし かも容易に設定できる、 視覚センサシステムにおけるノ ミナルデータ自動設定方法を提供するこ とにある。
本発明の別の目的は、 自動設定されたノ ミナルデ一夕 に基づいて実行される、 視覚センサシステムにおける補 正データ算出方法を提供することにある
上述の目的を達成するため、 本発明の視覚センサシス テムにおけるノミナルデータ自動設定方法は、 ノミナル データ設定を実行するための所定のルーチンを所定部分 に設けたブログラムを視覚センサシステムにより実行す る工程 ( a〉 と、 ノミナルデータに関連する所定の画像 パラメータの値を検出する工程 ( b〉 と、 前記所定のル 一チンの実行時に検出した前記所定の画像バラメータの 値をノミナルデータとして自動的に設定する工程 ( c ) とを備える。
本発明の別の態様によれば、 視覚センサシステムにお ける辅正データ算出方法は、 ノミナルデータ設定および 補正データ算出をそれぞれ実行するための第 1および第 2の所定のルーチンを所定部分に一対に設けたプログラ ムを視覚センサシステムにより実行する工程 ( a ) と、 ノミナルデータに閬連する所定の画像パラメータの値を 検出する工程 ( b ) と、 前記ブログラムを前記第 1の所 定のルーチンを舍めかつ前記第 2の所定のルーチンを舍 めずに実行するためのノミナルモー ドおよび前記ブログ ラムを前記第 1 の所定のルーチンを含めずにかつ前記第 2の所定のルーチンを含めて実行するためのァクチユア ルモー ドのいずれかを選択する工程 ( c ) と、 前記ノミ ナルモー ドにおける前記第 1の所定のルーチンの実行時 に検出した前記所定の画像バラメータの値をノミナルデ ータと して自動的に設定する工程 ( d ) と、 前記ノミナ ルデー タ と前記アクチュアルモー ドにおける前記第 2の 所定のルーチンの実行時に検出した前記所定の画像バラ メータの値とに基づいて補正デー タを算出する工程 ( e〉 とを備える。
上述のように、 本発明は、 プログラムの所定部分に設 けた所定のルーチンの実行時に検出したノ ミナルデータ に関連する画像パラメータの検出値をノ ミナルデータと して自動的に設定するよ うにしたので、 視覚センサシス テムにおけるノ ミナルデータの設定を正確かつ迅速にし かも容易に行える。 また、 自動設定したノ ミナルデータ に基づいて各種機械の動作補正用のデータを箅出するよ うにしたので、 動作補正を適正に行える。
図 面 の 簡 単 な 説 明
第 1 図は本発明の一実施例によ るノ ミナルデータ自動 設定および補正データ箅出方法を実施するための視覚セ ンサシステムの要部を示すプロック図、 第 2図は第 1 図 の視覚センサシステムが実行するプログラムを例示する 図、 および、 第 3図はノ ミナルデータ設定ルーチンを例 示する図である。
発明を実施するための最良の形態
本発明の一実施例によ る方法を実施する.ための視覚セ ンサシステムは、 例えば産業用ロボッ ト に装備され、 口 ボッ ト 動作補正用データをロボッ ト に供給するよ うにな つている。 このため、 視覚センサシステムは、 補正デー タ算出に用いる ノ ミナルデータ (たとえばロボッ ト への 教示時におけるワークの特定部位の位匮, 姿勢を表す基 準データ) を自動的に検出記恡するためのノ ミナルモー ドおよび.補正データを算出しロボッ ト に送出するための アクチュアルモー ドの夫々で作動するようにされている。 第 1図を参照すると、 視覚センサシステムは、 メイン 中央処理装箧 (以下、 メイン C P Uと云う) 1 1を有す る画像処理装箧 1 0を備えている。 メイン C P U 1 1 に は、 カメラインターフェ イス 1 2, 画像処理プロセッサ 1 3, コンソールインタ ーフ ェイ ス 1 4, 通信インタ 一 フェイス 1 5, フ レームメモリ 1 6, コン ト ロールソフ ト用メモリ 1 7, ブログラムメモリ 1 8及びデータメモ リ 1 9がバス 2 0を介して接続されている。 カメライン ターフ : cイス 1 2には例えばロボッ ト 30の作動部 (図 示省略〉 に当該作動部と一体移動自在に装着したカメラ 2 1 および図示しない第 2のカメラが接続され、 コンソ ールイ ンターフ ェ イス 1 4にはコンソール 22が、 また、 通信インターフ ェイス 1 5には視覚センサシステムが装 備ざれる機械の制御部例えばロボッ ト 30の制御部 (図 示略) がそれぞれ接続されている。
詳し く は、 コンソール 22は、 視覚センサシステムの 作動モー ドの選択, 各種指令の入力ならびにプログラム の入力, 編集, 登録, 実行等のための、 数字キーを含む 各種キー 22 aと、 各種作業メニュー, プログラムのリ ス トなどを表示するための液晶表示部 22 とを備えて いる。 コン ト ロールソフ ト用メモリ 1 7は R 0 Mよ りな り視覚センサシスチム制御用のプログラムを格納し、 ブ ログラムメモリ 1 8は R AMよ りなり ノ ミナルデータ設 定および補正デー タ箅出用のユーザプログラムを格納す るようになっている。 このユーザプログラムはコンソ一 ル 2 2の表示部 2 2 bに表示されるメニュ ーに従ってォ ベレー タがコンソール 2 2のキー 2 2 aを操作して作成 するもので、 当該プログラムの所定部分にはノ ミナルデ ータ設定および補正デー タ算出をそれぞれ実行するため のルーチンが一対に設けられている。 例えば、 第 2図に 示すよ う に、 ユーザプログラムの第 1 の命令群 1 0 0 と 第 2の命令群 1 0 2間に介在するユーザブ口グラムの第 1 の所定部分 1 0 1 には、 第 1 の補正デー タ箅出ルーチ ン 1 0 1 a と第 1 のノ ミナルデー タ設定ルーチン 1 0 1 b とが一対に設けられている。 また、 第 2の命令群 1 0 2と第 3の命令郡 1 0 4間に介在する第 2の所定部分 1 0 3には、 第 2の補正データ箅出ルーチン ; I 0 3 a と第 2のノ ミナルデー タ設定ルーチン 1 0 3 b とが一対に設 けられている。 下記にユーザブログラムを例示する。
SNAP CIRCLE FIND
RECOG OBJECT CONV DATA SNAP
CIRCLE FIND RECOG OBJECT CON V DATA
SEN D DATA
以下、 .第 3図を参照して、 上述の構成の視覚センサシ ステムの作動を説明する。
オペレータが、 コンソール 2 2の所定のキーを操作し てノ ミナルモー ド選択指令またはアクチュアルモー ド選 択指令を視覚センサシステムに入力すると、 この指令に 応じて、 視覚センサシステムの画像処理装箧 1 0のメイ ン C P U 1 1 は、 該 C P Uに内蔵のフラグメモリ (図示 省略) に選択した視覚センサシステム作動モー ドを表す フラグ情報を格納する。
オペレータによ るロボッ ト 3 0への教示操作時および ロボッ ト 3 0の記憶部 (図示略) に格納された教示ブロ グラムに従うロボッ トの実際運転時の夫々において、 メ イン C P U 1 1 はコン ト ロールソフ ト用メモリ 1 7に格 納したセンサシステム制御用のプログラムに従って作動 する。 本発明との閬達において、 メイン C P U 1 1 はブ ログラムメモリ 1 8から読出したノミナルデータ設定お よび補正データ算出用のユーザプログラム (第 2図) を 実行する。 当該ブログラムの第 1 の命令群 1 ひ 0からス ナツブ指令が読み取られると、 カメラ 2 1.から送出され る映像信号に A / D変換処理を含む従来公知の各種処理 が施されて各々所定ビッ ト数で表された所定数の画素よ りなる濃淡画像データが生成され、 フ レームメモリ 1 6 に格納ざれる。 次いで、 画像処理プロセッサ 1 3におい て漉淡画像データが従来公知のよ うに画像処理される。 この結果、 ロボッ ト 30の作業対象物でかつカメラ 2 1 の撮影対象物であるワーク (図示省略) が認識され、 ざ らに、 ワークのセンサ座標系での位箧, 姿勢 (画像バラ メータ) を表すデータが生成される。
次に、 ユーザブ口グラムの第 1 の所定部分 1 0 1が実 行される。 このと き、 メ イン C P U 1 1 は、 上記フラグ 情報に基づいてノ ミナルモー ドおよびアクチュアルモー ドのいずれが選択されているかを判別する (第 3図のス テツブ S 200 ) 。 ノ ミナルモー ドが選択されている場 合 (換言すれば、 ロボッ ト 3 0への教示操作時) 、 メイ ン C P U 1 1 は、 第 1 のノ ミナルデータ設定ルーチン 1 O l bを実行する。 先ず、 コンソール 22の液晶表示部 22 bに質問メ ッセージ 「ノ ミナルデータ設定をするか 否か」 を表示させ (ステップ S 2 0 1 〉 、 このメッセ一 ジに応じてオペレータがコンソール 22の所定のキーを 操作してノ ミナルデータ設定指令を入力したか否かを判 別する (ステップ S 20 2 ) 。 この指令が入力されると、 メイン C P U 1 1 は、 画像処理プロセッサ 1 3からのセ ンサ座標系におけるワーク位匿, 姿勢データに座標変換 処理を施してロボッ ト座標系におけるヮー.ク位蚩, 姿勢 データを得、 これをデー タメモリ 1 9にノ ミナルデータ と して格納する (ステップ S 2 0 3 ) 。 上記メ ッセージ 表示ステップ S 2 0 1, 設定指令入力判別ステップ S 2 02およびノ ミ ナルデー タ設定ステップ S 2 03を設け た結果、 例えば、 オペレータは 2つのノミナルデータの いずれか一方の設定が不要であると判別したときに当該 一方のノ ミナルデータの設定を阻止できる。 なお、 ノミ ナルデ一タ設定指令入力時のロボッ ト 3 0の作動位置, 姿勢がロボッ ト に教示される。 次に、 メイン C P U 1 1 は、 第 1 の命令群 1 0 0に対応する第 2の命令群 1 0 2 を実行する。 即ち、 第 2のカメラから画像を取り込み、 画像処理を行い、 対象物を認識する。 そして、 第 2の命 令群に続く第 2の所定部分 1 0 3について上述同様の処 理を実行し、 さらに、 例えば第 1, 第 2の補正データを ロボッ ト 3 0に送信するために第 3の命令群 1 0 4を実 行する。 これによ りノミナルモー ドでの視覚センサシス テムの作動を終了する。 なお、 上記ステップ S 2 0 2に おいてノ ミナルデータ設定指令入力なしと判別したとき はノミナルモー ドでの作動を終了する。
—方、 ロボッ ト 3 0の実際運転時すなわち視覚センサ システムのアクチュアルモー ドによる作動時、 視覚セン サシステムのメイン C P U 1 1 は上述の場合と同様に第 2図のユーザプログラムを実行する。 但し、 ユーザブロ グラムの第 1 の命令群 1 0 0に続く第 1 の所定部分 1 0 1の実行開始時、 ステップ S 2 0 0において、 メイン C P U 1 1 はフラグ情報に基づいてアクチュアルモー ドが 選択ざれていると判別し、 補正データ箅出ルーチン 1 0 1 aを実行する。 この算出ルーチン 1 0 1 aにおいて、 メイン C P U 1 1 は、 上述の手順と同様の手順により得 たロボッ ト座標系でのワークの位匿, 姿勢を表すデータ と先のノ ミナルモー ドで得たノ ミナルデー タとの偏差を インク リ メンタル補正データと して算出する。 次いで、 このインク リメンタル補正データを通信イ ンターフェイ ス 1 5を介してロボッ ト 制御部に送出する。 ロボッ ト制 御部はイ ンク リ メンタル補正データに基づく従来公知の 動作位箧, 姿勢補正を行いつつロボッ ト作動部の位 ®, 姿勢を従来公知のように制御して所要の作業を行う。

Claims

請 求 の 範 囲
1 . ノミナルデータ設定を実行するための所定のルーチ ンを所定部分に設けたプログラムを視覚センサシスチ ムによ り実行する工程 (a ) と、 ノミナルデータに閧 連する所定の画像パラメータの値を検出する工程 ( b ) と、 前記所定のルーチンの実行時に検出した前1記所定 の画像パラメータの値をノミナルデータとして自動的 に設定する工程 ( c ) とを備える視覚センサシステム におけるノミナルデータ自動設定方法。
2. 前記工程 ( c ) において、 ノミナルデータ設定を実 行すべきか否かを質問するメッセージを表示し、 前記 メッセ一ジ表示に応じてオペレータによ りノミナルデ 一夕設定指令が入力されたと判別したときにのみノミ ナルデータ設定を行う請求の範囲第 1項記載の視覚セ ンサシステムにおけるノミナルデータ自動設定方法。
3 . ノ ミナルデータ設定および補正データ算出を夫々実 行するための第 1 および第 2の所定のルーチンを所定 部分に一対に設けたプログラムを視覚センサシステム によ り実行する工程 ( a ) と、 ノミナルデータに閬連 する所定の画像パラメータの値を検出する工程 ( b ) と、 前記ブ口グラムを前 Ϊ3第 1の所定のルーチンを含 めかつ前記第 2の所定のルーチンを含めずに実行する ためのノミナルモー ドおよび前記プログラムを前記第 1の所定のルーチンを舍めずにかつ前記第 2の所定の ルーチンを含めて実行するためのアクチュアルモード のいずれかを選択する工程 ( c 〉 と、 前記ノ ミナルモ 一ドにおける前記第 1 の所定のルーチンの実行時に検 出した.前記所定の画像パラメ一タの値をノミナルデ一 タと して自動的に設定する工程 ( d ) と、 前記ノミナ ルデー 夕と前記アクチュアルモー ドにおける前記第 2 の所定のルーチンの実行時に検出した前記所定の画像 パラメータの値とに基づいて補正データを算出するェ 程 ( e ) とを備える視覚センサシステムにおける補正 デー タ箅出方法。
4. 前記工程 ( d ) において、 ノ ミナルデータ設定を実 行すべきか否かを.質問するメッセージを表示し、 前記 メッセージ表示に応じてオペレータによ り ノ ミナルデ ータ設定指令が入力されたと判別したときにのみノ ミ ナルデータ設定を行う請求の請求の範囲第 3項記載の 視覚センサシステムにおける補正データ算出方法。
PCT/JP1989/000661 1988-07-01 1989-06-30 Nominal data automatic setting method of visual sensor system WO1990000109A1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
DE68926614T DE68926614T2 (de) 1988-07-01 1989-06-30 Automatisches sollwert-bereitstellungsverfahren für ein sichtsensorsystem
EP89907821A EP0378703B1 (en) 1988-07-01 1989-06-30 Nominal data automatic setting method of visual sensor system

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP63162657A JPH0213804A (ja) 1988-07-01 1988-07-01 視覚センサにおけるノミナル設定方式
JP63/162657 1988-07-01

Publications (1)

Publication Number Publication Date
WO1990000109A1 true WO1990000109A1 (en) 1990-01-11

Family

ID=15758796

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP1989/000661 WO1990000109A1 (en) 1988-07-01 1989-06-30 Nominal data automatic setting method of visual sensor system

Country Status (5)

Country Link
US (1) US5066902A (ja)
EP (1) EP0378703B1 (ja)
JP (1) JPH0213804A (ja)
DE (1) DE68926614T2 (ja)
WO (1) WO1990000109A1 (ja)

Families Citing this family (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2806604B2 (ja) * 1990-06-29 1998-09-30 ファナック株式会社 カメラの位置ずれ検出方法
US6356671B1 (en) * 1991-07-05 2002-03-12 Fanuc Ltd. Image processing method for an industrial visual sensor
JP2764485B2 (ja) * 1991-08-27 1998-06-11 ファナック株式会社 リアルタイムセンサの診断方法
US5255096B1 (en) * 1992-04-10 1997-12-23 William M Boyle Video time code synchronized robot control apparatus
JP2769947B2 (ja) * 1992-05-15 1998-06-25 株式会社椿本チエイン マニピュレータの位置・姿勢制御方法
US5606494A (en) * 1993-11-25 1997-02-25 Casio Computer Co., Ltd. Switching apparatus
JP3394322B2 (ja) * 1994-05-19 2003-04-07 ファナック株式会社 視覚センサを用いた座標系設定方法
US5853330A (en) * 1994-06-02 1998-12-29 Engstrand; Brad Sensory simulator and editor
US5496220A (en) * 1994-06-02 1996-03-05 Brad Engstrand Sensory simulator
JP3418456B2 (ja) * 1994-06-23 2003-06-23 ファナック株式会社 ロボット位置教示具及びロボット位置教示方法
JPH0970780A (ja) * 1995-09-06 1997-03-18 Fanuc Ltd ロボットのツール形状補正方式
KR970062838A (ko) * 1996-02-27 1997-09-12 이종수 씨씨디(ccd) 카메라와 레이져를 이용한 3차원 로보트 캘리브레이션 장치 및 방법
US6136653A (en) 1998-05-11 2000-10-24 Mosel Vitelic, Inc. Method and device for producing undercut gate for flash memory
US6039653A (en) * 1998-11-16 2000-03-21 Engstrand; Brad Apparatus, system and method for experiencing motion
DE10120948C1 (de) * 2001-04-23 2002-11-28 Schunk Gmbh & Co Kg Sensorsystem für ein Greifersystem sowie Greifersystem
US7870504B1 (en) 2003-10-01 2011-01-11 TestPlant Inc. Method for monitoring a graphical user interface on a second computer display from a first computer
JP5939267B2 (ja) * 2014-03-05 2016-06-22 株式会社安川電機 ロボット監視システム、ロボット監視装置、ロボット監視方法、ロボット監視モジュール、およびロボット監視プログラム
GB2547220A (en) 2016-02-10 2017-08-16 Testplant Europe Ltd Method of, and apparatus for, testing computer hardware and software
GB2547222A (en) 2016-02-10 2017-08-16 Testplant Europe Ltd Method of, and apparatus for, testing computer hardware and software
CN113597362A (zh) * 2019-03-25 2021-11-02 Abb瑞士股份有限公司 用于确定机器人坐标系与可移动装置坐标系之间的关系的方法和控制装置

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS50112969A (ja) * 1974-02-18 1975-09-04
JPS52115064A (en) * 1976-03-24 1977-09-27 Hitachi Ltd Method of controlling operation of industrial robot
JPS61173878A (ja) * 1985-01-30 1986-08-05 株式会社日立製作所 ロボツトの個体差対応テイ−チデ−タ修正方式
JPS61279480A (ja) * 1985-06-04 1986-12-10 株式会社不二越 ロボツトの作業点教示方法
JPH06198410A (ja) * 1993-01-11 1994-07-19 Nippon Steel Corp 連続鋳造における軽圧下法
JPH06292079A (ja) * 1993-04-05 1994-10-18 Nec Corp 映像スイッチャの自己診断装置

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5856003A (ja) * 1981-09-30 1983-04-02 Hitachi Ltd 工業用ロボツトの制御方法
JPS59189415A (ja) * 1983-04-13 1984-10-27 Hitachi Ltd 工業用ロボツトの動作教示方法および装置
JPS6035209A (ja) * 1983-08-08 1985-02-23 Amada Co Ltd メジヤリングロボツトを用いた自動測定方法
JPS60196604A (ja) * 1984-03-19 1985-10-05 Tokico Ltd 工業用ロボツト
JPS60263681A (ja) * 1984-06-08 1985-12-27 株式会社日立製作所 ロボツトの教示方法
JPS61130809A (ja) * 1984-11-30 1986-06-18 Mitsubishi Electric Corp 視覚センサ
JPH0619335B2 (ja) * 1985-01-25 1994-03-16 シグマツクス株式会社 物体認識装置
US4704694A (en) * 1985-12-16 1987-11-03 Automation Intelligence, Inc. Learned part system
JPS62145104A (ja) * 1985-12-19 1987-06-29 Fanuc Ltd ビジヨンシステムの制御方法
US4707647A (en) * 1986-05-19 1987-11-17 Gmf Robotics Corporation Gray scale vision method and system utilizing same
US4757459A (en) * 1986-05-29 1988-07-12 Cincinnati Milacron Inc. Apparatus and method for programming a computer operated robot arm using macro instructions

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS50112969A (ja) * 1974-02-18 1975-09-04
JPS52115064A (en) * 1976-03-24 1977-09-27 Hitachi Ltd Method of controlling operation of industrial robot
JPS61173878A (ja) * 1985-01-30 1986-08-05 株式会社日立製作所 ロボツトの個体差対応テイ−チデ−タ修正方式
JPS61279480A (ja) * 1985-06-04 1986-12-10 株式会社不二越 ロボツトの作業点教示方法
JPH06198410A (ja) * 1993-01-11 1994-07-19 Nippon Steel Corp 連続鋳造における軽圧下法
JPH06292079A (ja) * 1993-04-05 1994-10-18 Nec Corp 映像スイッチャの自己診断装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP0378703A4 *

Also Published As

Publication number Publication date
EP0378703A4 (en) 1992-07-22
JPH0213804A (ja) 1990-01-18
DE68926614D1 (de) 1996-07-11
DE68926614T2 (de) 1996-10-02
US5066902A (en) 1991-11-19
EP0378703B1 (en) 1996-06-05
EP0378703A1 (en) 1990-07-25

Similar Documents

Publication Publication Date Title
WO1990000109A1 (en) Nominal data automatic setting method of visual sensor system
US7151848B1 (en) Image processing apparatus for robot
JP2812582B2 (ja) 産業用ロボットの制御装置
JP2005293098A (ja) ロボット教示装置
JPH07311610A (ja) 視覚センサを用いた座標系設定方法
JPH0699375A (ja) ロボット操作訓練装置
JP2004265041A (ja) ロボット教示装置
JP2008183690A (ja) ロボット制御装置及びロボット制御システム
JPH07104831A (ja) レーザセンサを用いたロボットの自動位置教示方法
JP4809524B2 (ja) トラッキング方法、トラッキングシステム、及びトラッキング装置
JPH09225872A (ja) ロボット教示装置
JP3086103B2 (ja) 力制御作業機械の力制御装置
JPH08286701A (ja) 複数ロボット制御方法およびシステム
JP3300477B2 (ja) ロボット間補正データ通信方式
JPH03201105A (ja) 視覚補正位置決め装置
JPH06315882A (ja) 力制御作業機械の重量・重心位置補正装置
JPH02276901A (ja) 視覚センサの位置ズレ修正方法
JP2001009773A (ja) ロボット遠隔操作装置
JPH05301195A (ja) 視覚センサにおけるカメラ位置ずれ検出方法
WO2023053368A1 (ja) 教示装置及びロボットシステム
JP7295344B1 (ja) ロボットシステム及びロボット制御装置
US20240091945A1 (en) Industrial machine system
JP2950544B2 (ja) 視覚センサシステムにおける画像処理方法
JPH02269586A (ja) マニピュレータ駆動制御装置
JPH07205068A (ja) ロボットの座標系設定方法

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): US

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): AT BE CH DE FR GB IT LU NL SE

WWE Wipo information: entry into national phase

Ref document number: 1989907821

Country of ref document: EP

WWP Wipo information: published in national office

Ref document number: 1989907821

Country of ref document: EP

WWG Wipo information: grant in national office

Ref document number: 1989907821

Country of ref document: EP