...

物の手渡し行動のためのビューベースト・ステレオトラッキング

by user

on
Category: Documents
1

views

Report

Comments

Transcript

物の手渡し行動のためのビューベースト・ステレオトラッキング
論 文
物の手渡し行動のためのビューベースト・ステレオトラッキング
和章∗
非会員
関
正
坂根 茂幸∗∗∗
員
非会員
伊藤
健∗∗
View-based Stereo Tracking for Hand-over Action
Seki Kazuaki∗ , Non-member, Ito Ken∗∗ , Non-member, Sakane Shigeyuki∗∗∗ , Member
We have developed a view-based visual tracking system to cope with change of the appearance of the
template in 3D environment using affine transformed templates. We have extended the system to stereo
vision for hand over action between human and robot. The system estimates 3D pose of a target object while
performing 2D tracking of different parts of the object in the stereo images.
キーワード:ビューベースト・トラッキング, アフィン変換テンプレート, 手渡し行動, ヒューマン・ロボットインタフェース
Keywords: view-based visual tracking , affine transformed templates, hand over, human-robot interface
アルトラッキングシステム (1) ∼ (3) をステレオ構成に拡張
1. は じ め に
し、対象物体の 3 次元位置・姿勢を推定しつつ追跡するシ
ステムを構成した。人からロボットへ物の手渡し実験を行
近年、少子・高齢化社会の進展に伴い、ロボットの利用が
い、本システムの基本的な動作における有効性を確認した。
産業分野だけでなく、介護・福祉など日常生活の中でも期
待されている。人間の生活環境でロボットを利用する場合
2. 人間とロボット間の物の受渡し
には、誰にでも予備知識なく簡単に扱えるヒューマン・ロ
人間とロボットの物の手渡し作業を行なう場合には、以
ボットインタフェースが必要となる。このヒューマン・ロ
下の問題を解決しなければならない:
ボットインタフェースにおいては、安全性、柔軟性が特に
( 1 ) 対象物体等の 3 次元位置の推定
重要なものとなる。
( 2 ) 対象物体、ロボット、人の位置関係の理解
本研究では、ヒューマン・ロボットインタフェースの研
( 3 ) ロボットから人への手渡しの際、人が対象物体を
究の一環として人の手からロボットの手へ(またはその逆)
受けとったかという判定
物を受け渡す際の問題を扱う。この問題におけるロボット
物の受渡しに関する従来研究では、(a) アーキテクチャに焦
のセンシング技術課題としては、(1) 対象物体の 3 次元位
置推定、および、(2) 対象物体を受け取るときの状態推定
点を当てたものと、(b) マルチメディアの利用に焦点を当て
が挙げられる。本研究では、主として (1) を扱う。ロボッ
たものがある。(a) では、末広 (4) らが、エージェント・ネッ
トが対象物体や人の位置を正しく認識することにより、人
トワークを用いて物の受渡しを行なった。ここでは、ノー
とロボット間の衝突の事態を回避でき、安全性を向上させ
ドと呼ばれる他のエージェント通信のためのデータスロッ
る。また、対象物体の初期位置に依存しないで物体の位置
トを用いて、動作、視覚、管理などの複数のエージェント
推定・追跡ができれば、柔軟な受け渡しが可能となる。
同士でデータ交換を行う。27 個のエージェント用いること
により、柔軟な物の受渡し作業を可能にした。
本研究では、これまでに開発したビューベースト・ビジュ
∗
∗∗
また吉池 (5) らは、視覚処理システムとロボット制御シス
ドコモ・テクノロジ株式会社
〒 107-0052 東京都港区赤坂 2–4–5 国際赤坂ビル 8F
テムを BNRB(Behavior Network for Robot Brain) に基
DoCoMo Technology,Inc. Kokusai Akasaka Building 8F,
2-4-5 Akasaka, Minato-ku, Tokyo 107-0052
ている。これは、ロボットアームと人の手とボールをカメ
づいて統合し、物の受渡し作業を行なうシステムを構成し
ラによって追跡し、各々の位置関係よりロボットの行動パ
中央大学大学院
〒 112–8551 東京都文京区春日 1–13–27
ターンを決定する。
Graduate School, Chuo University, 1–13–27 Kasuga,
Bunkyo-ku, Tokyo 112–8551
∗∗∗
(b) のマルチメディアの利用に関して、脇田 (6) らは、場
中央大学理工学部
所とイベントに関して人とロボットとの間で情報を共有す
Faculty of Science and Technology, Chuo University
ることにより、安全性を重視したシステムを構築した。ロ
電学論 C,123 巻 4 号,平成 15 年
1
ボットから人への物の受渡しにおいて、ロボットの次の動
きをプロジェクタを用いて投影し、人に知らせる。また、ロ
3D geometical model
of the target object
Z
ボットから人へのイベントの情報共有として、ボイスメッ
Y
セージシンセサイザによる音声命令を用いた。
また、Rainer
(7)
X
らは、ヒューマノイドロボット HER-
MES で人とロボット間での物の受渡し行動や、対象物体を
目的の場所に置くという動作を行なった。ロボットは、触
覚センサを用い、わずかな振動を感知することで人が物を
Template for
left camera
受けとったという判定を行なっている。
これらに対して本研究では、前述の物の手渡し作業にお
Template for
right camera
ける(1)の課題、すなわち、対象物体の3次元位置の推
定を扱う。この視覚処理は、対象物を画像中から探す「探
図 1 対象の画像と 3 次元幾何モデルとの関係
Fig. 1. Relation between the object’s image and
the 3D geometical model
索」する処理と、それを時々刻々追跡する「追跡」処理の
フェーズに分けることができる。ここでは、後者の視覚追跡
処理の技術を取り上げる。具体的には、物の受渡しのため
に、ビューベースト・ビジュアルトラッキングシステムを用
いて、対象の面を各カメラで追跡しつつ 3 次元位置推定を
Generation of affine transformed templates
行う。特に、人が対象物体を手渡しのために把持する場合
に、対象となる面の見え方の変化や指により対象物体の一
Search in the whole image
部が隠蔽されてしまう問題がある。本研究で用いるトラッ
キングシステムはアフィン変換テンプレートの利用 (1) (2) 、
Visual tracking with detection of occulusion
および、分割テンプレート法の適用 (3) により、これらの状
況に対応する機能をもつ。しかし、このシステムは単眼視
Calculation of 2D coordinates of the template
であり、3次元位置・姿勢を推定する機能は未開発であっ
た。そこで、本研究では、既開発のビューベースト・ビジュ
Estimation of 3D position and orientation of the target object
アルトラッキングシステムをベースにそのステレオ視覚へ
の拡張を行い、対象物体の3次元位置・姿勢をリアルタイ
ムで推定しつつ追跡する機能を構成して、人とロボット間
図2
の物の受け渡し作業に適用した。
ステレオトラッキングのアルゴリズム
Fig. 2.
The stereo tracking algorithm
3. 物の手渡し行動のためのステレオ視
人とロボット間での物の手渡し行動において、対象物体
囲は広がることになる。なお、仮に face1 と face2 が同一
3 次元位置推定・追跡を行なうために、ステレオ視を利用
面の場合であっても、同じ計算で3次元位置・姿勢が推定
できる。しかし、通常のビューベーストのトラッキングで
できるので、本方式の特別な場合として含まれる。具体的
は、ステレオ構成にした場合に、左右カメラの視差が大き
には、以下の手順でトラッキングおよび位置・姿勢の推定
いと同一対称面を追跡してもその見え方の差異が生じる。
を行う (Fig.2)。
このため、例えば、左側の画像でテンプレートを切り出し
なお、手渡し動作のための視覚処理では、対象物の画像
右側の画像で探索を行うと、その相関誤差が増大する。ま
内での探索、および、その追跡という2つのフェースが考
た、ステレオでは一般に左右カメラの共通の視野範囲が狭
えられる。本研究では後者の追跡処理を課題とし、前者の
くなる問題がある。
探索問題は扱っていない。
( 1 ) アフィン変換テンプレート群の作成
本システムでは、対象物体の3次元幾何モデルのどの面が
テンプレートに対応するかは既知であると仮定する (Fig.1)。
本システムは、見え方の変化に対応したビューベー
これにより、本システムは、左右のカメラを各々cam1, cam2
スト・ビジュアルトラッキングシステム (1) (2) をステ
としたときに、cam1 が対象物の一つの面 face1 を、また、
レオ視に拡張する。すなわち、左右カメラで見るこ
cam2 が別の面 face2 を追跡する状況において、対象物の3
とになる別々の対象面の画像を取り込み、対応する
次元位置・姿勢の推定が原理的に可能である。この場合に
アフィン変換テンプレート群を生成する。具体的な
は、cam1 の視野に face1 が見え、cam2 の視野に face2 が
幾何変換は4章の (1) 式に基づいている。まず、面
見えていればよいので、両カメラで同一面を見る場合(こ
の法線軸回りの回転角度θ=− θa , θ= 0 °, θ=+
の場合には、cam1 と cam2 の両視野の共通領域にその同
θa で回転した3種類の正面テンプレート画像を作成
し、それを、勾配空間パラメータ (p, q) で指定され
一面が含まれなければならない)に比べて対象物の計測範
2
T.IEE Japan, Vol. 123-C, No.4, 2003
物の手渡し行動のためのビューベースト・ステレオトラッキング
る3次元空間面に写像されるものとして、アフィン
変換を行う(なお、後述の物の手渡し実験の中では
θa の値として 30 °を用いた)。
( 2 ) 全画面探索
対象物体を追跡するための物体の位置の初期探索
を行なう。物体を初期位置に置き、その状態で左右カ
メラそれぞれで追跡の初期座標を全画面探索によっ
て推定する。すなわち、生成したアフィン変換テン
プレート群を用いて使用すべき初期テンプレートを
図 3 測地ドームを用いた一様な分布を持った表
面方向の生成(左)とそれに対応したアフィン変
換テンプレート群( 右)
Fig. 3. Generation of surface orientations with a
uniform distribution using a geodesic dome (left)
and the corresponding affine transformed templates
(right)
相関演算により探索する。以降は、対象物体の 3 次
元位置・姿勢を推定しながら追跡処理を繰り返す。
( 3 ) オクルージョンに対応したビジュアルトラッキング
左右のカメラでそれぞれ生成したアフィン変換テ
ンプレート群を用いた 2 次元のトラッキングを行な
う。トラッキングは、全画面探索により求めた座標
とテンプレートとその位置から開始し、左右で独立
アフィン変換テンプレート群を次の式に基づき生成する。
してトラッキングを行なう。また、人が対象物体を
把持する場合、対象物体は指によって一部が隠蔽さ
れることが考えられる。そこで本研究では、分割テ
ンプレート法 (3) を用いて、物体の隠蔽が起きた場合
u
v
の追跡も可能としている。
×
( 4 ) テンプレートの頂点位置の計算

1
1

= 0
c 1 + p2
cosθ
sinθ
−sinθ
cosθ
U
V
−pq
1+p2 +q 2
2
√ 1+p2 2
1+p +q
√


· · · · · · · · · · · · · · · · (1)
トラッキングの結果に基づき、左右画像上でのテン
ここで、(U, V ) と (u, v) は、それぞれ、アフィン変換前
プレートの頂点の 2 次元位置座標を計算して求める。
と後のテンプレート画像の座標を示している。変数 (p, q)
( 5 ) 対象の3次元位置・姿勢の推定
この頂点の 2 次元座標と、その点に対応する対象
は 3 次元空間 (Fig.3(left)) の測地ドーム上の勾配空間の座
物の 3D 幾何モデル上での 3 次元座標からニュート
標である。また、c はカメラからの距離における拡大・縮
ン法により対象物体の 3 次元位置・姿勢を推定する。
小のパラメータである。θ はテンプレートが置かれた表面
での正射影方向での回転角度である。Fig.3(right) に測地
実験では直方体の箱を用いた物の受渡し行動を行なって
ドームを用いて生成したテンプレート群の一例を示す。
いるが、物体の 3 次元幾何モデルが既知であり、トラッキ
〈 4・2〉 オクルージョンに対応したビジュアルトッラッキ
ングしている対象面のテンプレートとの関係が既知ならば、
ング
一般の多面体を扱うことが可能である。
オクルージョンに対応したビジュアルトラッキン
グの処理の流れは次のようになる (3) 。
4. ビューベーストなビジュアルトラッキングシス
テム
( 1 ) 現位置のテンプレート領域内のオクルージョン領
ビジュアルトラッキングのシステムは特徴ベースと領域
( 2 ) 検出したオクルージョン領域に基づきマスクを生
域を検出する.
成する。
ベースに大別される (10) 。領域ベースにおけるビューベース
( 3 ) マスクを参照テンプレートにかけ、隠された画素
トな手法では、いわゆる相関法を用いるために計算が単純
値を相関演算に入れないようにする。
でリアルタイム性に優れ、ロボットビジョンとして適して
( 4 ) 以下の式に基づき、ビジュアルトラッキングを行う。
いるが、以下の点についての対応が必要になる:
( 1 ) カメラと対象物体との相対位置による画像内で対
N
N D(u, v) = M in(u,v) {
| S(x + u, y + v)
象の見え方が変化
( 2 ) 人間を含む様々な物体によるオクルージョン
x
y
見え方の変化問題に関
−R(x, y) |}
(ただし,h ≤ u ≤ k, h ≤ v ≤ k)· · · · · · · · (2)
ただし,画素の各点 (x,y) において,R(x,y) は一辺
の大きさが N の参照テンプレート画像,(u,v) が動
きベクトル,S(x,y) は探索領域,D(u,v) が最も相関
しては、アフィン変換テンプレート群を生成し探索に用い
の高い対象の動きベクトルである。なお、後述の実
ることで対応するシステムを構築した。このシステムでは、
験では、h = −8, k = 7 である。
( 3 ) 物体と光源との相対位置等による明度変化
上記 (1),(2) の問題に関して我々は以下の方法を提案した
(1)
∼ (3) 。なお、(3) の明度変化への対応については今後の
課題とし、本研究では扱っていない。
〈 4・1〉 見え方の変化への対応
電学論 C,123 巻 4 号,平成 15 年
3
...
0
....
i
として、TRV-CU ボード( 富士通製)(8) 2 枚を用いた。2
n
0
.
.
台のカメラ (SONY,FCB-EX470L) より手渡しの対象物体
Occluding object
の画像を得る。カメラパラメータは前もってキャリブレー
Mask area
ションをして求めておく。カメラの設置位置は、ロボット
j
R(x,y)
.
.
.
座標系において、概値で (x,y,z)=(1000, -300, 1000)(mm),
S(x,y)
および、(x,y,z)=(1000,300,1000)(mm) である。使用した
Effective template area
Target object
ロボットの座標系では、X軸はロボットの前方、Z軸はロ
m
Tessellated templates
図4
Fig. 4.
ボットの上方にとっている。座標原点は、ロボットのベー
Real Image
ス部の第一回転軸( Z 軸)上で第二回転軸と同じ高さの位
オクルージョンの検出方法
置にある。従って、カメラはそこから 1000(mm) 前方、か
The methods for detecting occlusions
つ 1000(mm) 上方にとりつけられている。2台のカメラの
基線間隔は約 600(mm) である。また、2台のカメラの視
〈 4・3〉 分割テンプレート法によるオクルージョン領域の
検出
線方向は並行ではなく、作業域を見込むように交差させて
本システムでは、対象が隠蔽された領域を検出す
設置した( Fig.6 を参照)。
る方法として、分割テンプレート法( Fig.4 )を用いる。こ
物の手渡しのロボット側の動作には、6 自由度マニピュ
れは、基本となる参照テンプレートを分割した小テンプレー
レータ(川崎重工,Js-2 )を用いた。この腕は 16(msec) 毎
トの相関値を監視するものである。そこで,8n × 8m[pixel]
に位置情報をワークステーション側と送受信可能で、セン
の大きさの基本テンプレートを、大きさ 8 × 8[pixel] の小
サ情報に基づく軌道修正をリアルタイムで実行できる。こ
テンプレート (計 n × m 個) に分割する。以下では、これ
のモードにより、物の手渡しの時に、対象物体の位置変化
を分割テンプレートと呼ぶ。オクルージョン領域の検出に
に追従して腕を連続的に移動できる。また、上位プログラ
は、毎サイクルで次の処理を行なう。
ムは EusLisp (9) で記述した。
( 1 ) i=1 . . . n, j=1 . . . m の合計 m × n 個の各分割テ
ンプレートにおいて。次の演算を実行する。
Workstation
(Sun SPARC station 5)
Extension Unit
(BUS EXTENSION UNIT)
(1.1) 分割テンプレートに対応する対象位置につ
いて相関演算を行う。このとき、その分割テ
ンプレートに対応する領域にオクルージョン
S_bus
が発生しているかの判定のために,式 (2) に
おいて (u,v)=(0,0) の位置についてのみ相関
CCD Camera2
CCD Camera1
(SONY FCB-EX470L)
(SONY FCB-EX470L)
演算を行った相関誤差値を評価する。すなわ
VME_bus
ち、分割テンプレートの周囲に対しては探索
を行わない。
Error =
Human
OBJECT
N N
x
Force Sensor
(JR3)
Robot Arm
(Js-2)
VME_bus
| S(x, y)−R(x, y) |(3)
y
(1.2) この相関誤差値があるしきい値よりも大き
図 5 手渡し行動のためのシステム構成図
Fig. 5. The prototype system for hand over action
ければ、その分割テンプレート内にはオクルー
ジョンが発生していると判定し、マスクを生
成する。
( 2 ) 通常のテンプレートを用いて相関演算を行うが、
このとき、生成されたマスクによってオクルージョ
ン領域として検出された画素について相関演算から
除外する。
分割テンプレートでオクルージョンが起きたと推定する
際に使用するしきい値については,分割テンプレートごと
に画素値が異なるので各分割テンプレートごとに平均画素
値などに基づいて決定する方法が考えられるが、実験では
一定しきい値を用いた。
5. 実
験
〈 5・1〉 システム構成
図6
本システムのシステム構成を
Fig. 6.
Fig.5 に示す。トラッキングビジョンの処理ハードウェア
4
実験環境
The experimental environment
T.IEE Japan, Vol. 123-C, No.4, 2003
物の手渡し行動のためのビューベースト・ステレオトラッキング
〈 5・2〉 物体の位置推定の実験例
本実験で用いた対
象物体は、120 × 106 × 108(mm) の立方体の箱である。
Fig.2 のアルゴリズムに基づいてトラッキングを行なった。
Fig.7 に、アフィン変換テンプレート群によるトラッキン
グの例を示す。左列および右列は、それぞれ左カメラおよ
び右カメラから得られた画像である。物体の移動に伴い、
生成したテンプレートを変更しながら対象をトラッキング
していることがわかる。また、オクルージョンに対応する
図 8 3 次元幾何モデルを重ねた対象物体のト
ラッキング
Fig. 8. Tracking an object superimposed with the
3D geomatric model
ために分割テンプレート法を用いているので、手が物体を
隠蔽していても追跡が可能となっている。Fig.8 は、左図
から右図に物体が移動する際の追跡の様子を示したもので
ある。照合したテンプレートから得られる頂点座標に基づ
いて対象物体の 3 次元の位置・姿勢の推定を行ない、その
3 次元幾何モデルを実画像( 左カメラの画像)に重畳して
いる。対象物体の 3 次元位置・姿勢の推定には最低 3 点の
進める。
( 1 ) アフィン変換テンプレート群を生成する。ただし
生成の際にθの角度は 5 °∼45 °まで 5 °刻みで生成
した場合の計 9 回、位置推定を行なう。
データが必要だが、実験では左右画像のテンプレートの頂
点 8 個のデータを用いて求めた。
( 2 ) ロボットアームにとりつけた対象物体を x,y,z 軸
追跡における処理時間は、単眼で 2(TV frames/cycle)
にそれぞれ 50mm ずつ 3 段階変化させ、計 27 点に
である。対象物体の 3 次元位置・姿勢の推定も含む処理時
動かす。
間は、初期探索で 7 (TV frames/cycle) 、それ以降の探索
( 3 ) それぞれ動いた先の真値と推定値との各軸ごとに
にでは 5 (TV frames/cycle) である。この初期探索とそれ
誤差をとり、角度毎に誤差の平均、標準偏差を求め、
以降で処理時間が異るのは、初期探索では物体の位置情報
位置推定に適したθの角度を求める。
がないためニュートン法の反復処理を 3 回行い対象物体の
〈 5・3・2〉 実験結果・考察
把持対象を X,Y,Z 各軸に
3 次元位置・姿勢を求めているのに対して、それ以降では、
沿って 50mm ずつ動かし、各点で求めた推定値と真値の誤
直前の位置を初期値にすることにより繰り返しが 1 回で済
差平均と標準偏差を求めた。Fig.9,10 および Table.1∼3 に
むためである。
ト群を生成する際、(1) 式のパラメータθの角度を変えて
X,Y,Z 各軸での誤差平均と標準偏差を示す。グラフの横軸
は、(1) 式でのパラメータθの角度(単位:degree )、縦軸
はそのときの平均値と標準偏差( 単位:mm )である。表
テンプレート生成し、位置推定の精度を評価した。
は、求めた角度毎の誤差の平均と標準偏差を示している。
〈 5・3〉 位置推定の精度評価
〈 5・3・1〉 実験手順
アフィン変換テンプレー
また、図の○印は全座標( X,Y,Z )の平均値を示している。
以下の手順で精度評価の実験を
Fig.9 より、θが 25 °∼40 °では X,Y 座標に関して誤差
の平均値に変化がほとんどなくなり、5(mm) 以内となって
いる。Z 座標は作業空間の鉛直軸方向になっており、カメ
ラは上から斜め下方を見る設定である。カメラ座標からは
奥行き方向に相当する。2台のカメラの位置関係、および、
計測対象の相対的な位置に依存するが、本実験の設定では
奥行き方向は X,Y 座標に比べて誤差が大きいことが分か
る。Table.1,Table.2 よりθが 5 °∼20 °のときには誤差が
大きい。θが 10 °では X,Y 座標の誤差の平均値は小さい
が、Z 座標の誤差は大きい。Fig.10 より、θが 25 °∼45 °の
場合の標準偏差は X,Y 座標では小さい値であるが、Z 座標
は X,Y 座標に比べて相対的に変動が大きいことが分かる。
本実験結果を総合すると、θの角度は 25 °∼40 °の値を
用いればよいと考えられるが、このθの値の設定は、本来、
(1) 対象テンプレートの画像パターン、ならびに、(2) 実験
を行なった環境、すなわち、テンプレートの平面とカメラ
位置・姿勢との間の幾何学関係に依存するので、常に、こ
図 7 ビューベースト・ステレオトラッキングの
実験例
Fig. 7. Experiments of the view-based stereo
tracking
電学論 C,123 巻 4 号,平成 15 年
の範囲の値が対象の3次元位置・姿勢の推定において誤差
を少なくするとは限らない。従って、システムを利用する
条件に応じたθの値を用いる必要がある。
5
図 9 誤差の平均値
Fig. 9.
A graph of difference of the average
Fig. 10.
Difference of the standard deviation
図 10 誤差の標準偏差
θ角度
5°
10 °
15 °
20 ° 25 ° 30 ° 35 ° 40 ° 45 °
誤差平均
20.03
22.07
16.41
12.51
3.41
3.46
3.61
3.34
3.37
標準偏差
5.74
2.53
4.47
7.21
2.48
2.43
2.58
2.68
2.56
表 1 X 座標の誤差の平均と標準偏差
Table 1. Average and standard deviation of X
coordinate
θ角度
5°
10 °
15 °
20 ° 25 ° 30 ° 35 ° 40 ° 45 °
誤差平均
15.93
16.04
15.68
12.46
2.6
2.42
2.51
2.51
2.77
標準偏差
6.27
2.78
3.97
6.42
2.83
2.76
2.84
3.24
3.3
表 2 Y 座標の誤差の平均と標準偏差
Table 2. Average and standard deviation of Y
coordinate
θ角度
5°
10 ° 15 ° 20 °
25 °
30 °
35 ° 40 °
誤差平均
36.11
26.52
18.6
17.75
23.56
23.17
22.63
20.3
22.96
45 °
標準偏差
5.34
6.39
7.75
7.44
4.66
4.41
4.52
4.76
5.2
表 3 Z 座標の誤差の平均と標準偏差
Table 3. Average and standard deviation of Z
coordinate
〈 5・4〉 物の受け渡し行動の実験例
図 11 人からロボットへの物の受渡し行動の実験
Fig. 11. Experiments of the hand-over action from
human to robot
人からロボット
を移動させた。マニピュレータの初期位置は, ロボット座
への物の手渡しの実験の結果を Fig.11 に示す。軌道修正
表系で (x,y,z)=(337,40,237)(単位:mm) の位置から開始す
モードにより、対象物体の動きに追従してマニュピレータ
る。ハンドの初期姿勢は Fig.11 の最初の写真の姿勢になっ
6
T.IEE Japan, Vol. 123-C, No.4, 2003
物の手渡し行動のためのビューベースト・ステレオトラッキング
ており、この姿勢角度は( O,A,T)=(-110, 138, 53)(単位:
degree) である。手渡しの最終位置は、対象物を人が手に
もっている所にロボットハンドが移動するので実験毎に異
(3)
なるが、ロボットの初期位置から約 300(mm) 前方で受け
渡しを行った。ロボットは位置推定の結果に基づき人が持
(4)
つ対象物体に近づき、対象物体を把持できる位置に達した
(5)
ときにグリップを閉じる。ロボットの移動速度は安全のた
め遅く設定しているが、対象物を手で把持し意図的に上下
に約 200(mm) の幅で2回づつ動かしながら受け渡し実験
を行ったときの作業時間(前記のハンド初期姿勢から対象
物をグリッパで把持するまでの時間)は約 16 秒であった。
(6)
なお、この時間は今回の実験では最長ともいえる値であり、
対象物の上下移動をしなけば軌道修正の距離は少なくなる
ので、これより短時間で受け渡すことができている。カメ
(7)
ラから見た対象物は、Fig.7 、Fig.8 に示すような状態になっ
ている。
(8)
また、手渡し実験の成功率という点では、10 回の試行に
対して 7∼8 回程度の割合で手渡しを完了することが可能
であった。これらの結果により、人とロボット間の手渡し
(9)
行動を実環境下で行うシステムとしての基本的な動作にお
ける有効性を確認した。
6. む す び
( 10 )
本研究では、物の手渡しのためのビューベースト・ビジュ
アルトラッキングシステムの構築を行い、以下の成果を得た:
( 11 )
( 1 ) アフィン変換テンプレート群を用いたトラッキン
グシステムのステレオ化を実現した。
( 2 ) それを用いて同一対象物体の異なる対象面をトラッ
キングすることによる物体の 3 次元位置推定・追跡
が可能となった。
( 12 )
また、文献 (3) で提案した「分割テンプレート法」は、本
システムの実験においても、人の指により対象物体が隠蔽
された場合への対応として有効であった。
今後の課題としては、本実験とは逆となるロボットから
(2001) (in Japanese)
伊藤, 坂根:アフィン変換テンプレート群の動的遷移に基づくビジュア
ルトラッキング, 日本ロボット学会誌, 19, 1, pp.100-108, (2001)
K.Ito and S.Sakane: “Robust view-based visual tracking with
detection of occulusions,” Proc. of IEEE Int. Conf. Robotics
and Automation, pp.1207-1213, (2001)
T.Suehiro, H.Takahashi, H.Yamakawa: “Development of a
hand-to-hand robot based on agent network,” Proc. of IEEE
Int. Conf. on Robotics and Automation, pp.3516-3521, (1998)
T.Yoshiike, A.Konnno, K.Nagashima, T.Oka, M.Inaba,
H.Inoue: “Hand over behavior using visual information,”
Proc. JSME Annual Conf. on Robitics and Mechatronics,
pp.654-655, (1996) (in Japanese)
吉池, 近野, 長嶋, 岡, 稲葉, 井上:視覚情報に基づく物の受渡し行動,
日本機会学会ロボティクス・メカトロニクス講演会’96 講演会論文
集, pp.654-655, (1996)
Y.Wakita, S.Hirai, T.Hori, R.Takada, M.Kakikura, “Realization of Safety in a Coexistent Robotic System by Information
Sharing,” Proc. of IEEE Int. Conf. on Robotics and Automation, pp.3474-3479, (1998)
R. Bischoft, T. Jain, “Natural Communication and Interaction with Humanoid Robots”, Proc. of 2nd Int. Symposium
on Humanoid Robots, pp.121-128, (1999)
T.Morita, N.Sawasaki, T.Uchiyama, M.Sato, “Color tracking
vision system,” Proc. of 14th Annual Conf. of the Robotics
Sociey of Japan, pp.279-280, 1996. (in Japanese)
森田, 沢崎, 内山, 佐藤:カラートラッキングビジョン, 第 14 回日本
ロボット学会学術講演会, pp.279-280, (1996)
T.Matsui,“Multithread concurrent object-oriented language
EusLisp with geomatric modeling facilities,” Journal of the
Robotics Society of Japan, Vol.14, No.5, pp.650-654, (1996)
(in Japanese)
松井:幾何モデリング機能を備えたマルチスレッド並列オブジェクト指
向言語 EusLisp, 日本ロボット学会誌, 14, 5, pp.650-654, (1996)
G.D.Hager and P.N.Belhumeur, “Efficient region tracking
with parametric models of geometry and illumination,” IEEE
Trans. on Pattern Analysis and Machine Intelligence, Vol.20,
No.10, pp.1025-1039, (1998)
M.Inaba, H.Yamaguchi, T.Mori, H.Inoue,“Three-dimensional
motion tracking based on high speed block matching function,” Proc. JSME Annual Conf. on Robitics and Mechatronics, pp.238-243, (1993) (in Japanese)
稲葉, 山口, 森, 井上:高速相関演算に基づいた三次元の並進・回転運
動の追跡, 日本機械学会ロボティクス・メカトロニクス講演会’93 講
演論文集, pp.238-243, (1993)
T.Mori, M.Inaba, H.Inoue,“Image memorization and image compression in correlation-based visual tracking,” Proc.
JSME Annual Conf. on Robitics and Mechatronics, pp.10801083, (1995) (in Japanese)
森, 稲葉, 井上:相関法による視覚追跡における画像の記憶と合成、
日本機械学会ロボティクス・メカトロニクス講演会’95 講演論文集,
pp.1080-1083, (1995)
人への物の手渡し行動の実現がある。この場合には、ロボッ
トは人の手の位置・姿勢を認識し、追跡をしなければならな
いが、人間の手や腕は、変形する曲面形状をもつため、本
関
アフィン変換テンプレートの方式の適用は困難であり、別
和
章 (非会員) 1977 年生.2000 年 3 月,中央大学理
工学部管理工学科卒業.2002 年 3 月, 同大学大学
の方法が必要になる。また、この手渡し行動においては、
院博士課程前期課程修了. 現在、ドコモ・テクノ
力覚センサで人が対象物体を確実に受けとったという判定
ロジ株式会社勤務.
機能の実現も必要になる。
( 平成 13 年 12 月 25 日受付,同 14 年 8 月 26 日再受付)
文
献
( 1 ) K.Ito and S.Sakane: “Visual tracking using dynamic transition in groups of affine transformed templates,” Proc. of
IEEE Int. Conf. on Robotics and Automation, pp.2082-2088,
(2000)
( 2 ) K.Ito and S.Sakane: “Visual tracking based on dynamic transition in group of affine transformed templates,” Journal of
the Robotics Society of Japan, Vol.19, No.1, pp.100-108,
電学論 C,123 巻 4 号,平成 15 年
7
伊 藤
健 (非会員) 1974 年生.1998 年 3 月,中央大学理
工学部管理工学科卒業.2000 年 3 月,同大学大
学院修士課程修了.現在同大学大学院博士課程後
期課程に在学.
坂 根
茂
幸 (正員) 1949 年生.1972 年 3 月,東京工業大学
工学部制御工学科卒業.1974 年 3 月,同大学大
学院修士課程修了.同年 4 月,通産省工業技術院
電子技術総合研究所入所.1995 年 4 月,中央大
学理工学部教授.知能ロボットシステムの研究に
従事. 工学博士.日本ロボット学会,計測自動制
御学会,人工知能学会, IEEE の各会員.
8
T.IEE Japan, Vol. 123-C, No.4, 2003
Fly UP