Comments
Description
Transcript
レーザーレンジファインダを用いた移動ロボットによる人の追跡
日本ロボット学会誌 Vol. xx No. xx, pp.1∼9, 200x 1 学術・技術論文 レーザーレンジファインダを用いた移動ロボットによる人の追跡 奥 迫 伸 一∗1 坂 根 茂 幸∗2 Human Tracking with a Mobile Robot using a Laser Range-Finder Shinichi Okusako∗1 and Shigeyuki Sakane∗2 Human tracking is a fundamental research issue for mobile robot, since coexistence of human and robots is expected in the near future. In this paper, we present a new method for real-time tracking of human walking around a robot using a laser range-finder. The method converts range data with r-θ coordinates to a 2D image with x-y coordinates. Then human tracking is performed using block matching between templates, i.e. appearances of human legs, and the input range data. The view-based human tracking method has the advantage of simplicity over conventional methods which extract local minima in the range data. In addition, the proposed tracking system employs a particle filter to robustly track human in case of occlusions. Experimental results using a real robot demonstrate usefulness of the proposed method. Key Words: human tracking, laser range finder, view-based tracking, block matching, particle filter 移動ロボットが人間の位置を追跡したり,自己位置推定など 1. は じ め に を行うためには,何らかのセンサを用いて外界情報を取得する 近年のロボット技術の発展により,これからのロボットには 必要がある.コンピュータビジョンの分野では,視覚センサを 人と共存し協調する新たな役割が求められている.そのために 用いて人の動きを追跡する研究が行われている [7]. 一方,移動 はロボットに様々な機能の構成が必要になるが,中でも,環境 ロボットの分野では,自己位置推定や環境地図の生成において を自らが判断理解し,人間の直接的操作を受けることなく自律 より直接的な距離情報を用いることが多い.また,ステレオカ 移動する機能は重要である. メラを使えば色情報と共に距離情報も得られるが,測定精度・分 家庭やオフィスなど,人間が生活する非整備環境において, ロボットが自律移動を行なうためには,(1) 自己位置推定問題, 解能・実時間性等の点で距離センサに劣る場合もある.そこで, 本研究では,距離センサのデータに基づいて人の追跡を行う. 距離センサを用いてロボットに人を追跡させる手法として, (2) 環境地図生成問題,(3) ナビゲーション問題,を解決する必 これまでに様々な提案がなされている.Schulz らは,距離セン 要があり,近年,多様な手法が提案されてきた ( [1]∼[6]). これらの多くは,Table 1 に示すように,ロボットの行動す サを用いて人を追跡する手法を提案している [8].センサから得 る環境が初期状態から変化しない静的環境を想定したものであ た距離データ(r − θ 表現)の極小値 (local minima) の位置か る.しかし一般には,人間のようにその位置が時々刻々変化する ら人の位置を推定し,それをサンプルを用いた JPDAF(Joint 動的要素や,椅子や机,開閉されるドアのように短期的には動 Probabilistic Data Association Filter) への観測値として用い, かないが,長期的に見るとその位置が変化する可能性のある準 人の追跡を行った.しかし,人の2足に対応する距離データの 動的要素が含まれる.それらはロボットにセンサノイズとして local minima の検出後,その近傍の測定点を含めて人の位置候 大きな影響を及ぼし,自己位置推定,環境地図生成,ナビゲー 補としてグループ化する必要があり,処理の複雑化が予想され ションを正しく行うことを困難にする問題がある.本論文では, るが,論文ではアルゴリズムが明確に記述されていない.また, ロボットの自律移動技術の一環として,実環境における動的要 素の1つである人間の位置を追跡する課題を扱う. Table 1 Research issues and environmental conditions of mobile robot 原稿受付 株式会社 日立製作所 *2 中央大学理工学部 *1 Hitachi, Ltd. *2 Faculty of Science and Engineering, Chuo University *1 日本ロボット学会誌 xx 巻 xx 号 Localization Mapping Navigation —1— Static Semi-dynamic Dynamic ○ △ × ○ △ × ○ △ △ 200x 年 xx 月 奥 2 迫 伸 一 坂 根 茂 幸 (a) (b) (c) Fig. 1 An example of range data obtained by a laser range-finder: (a)Human legs in front of a laser range-finder: (b)Raw range profile (r − θ plane), (c) Range data converted to x − y plane which is parallel to the floor Montemerlo らは,距離センサを用いてロボットの自己位置と 人間の位置を同時に推定している [9].そこでは,人間の位置の モデルを円柱で近似し,その水平断面である円と実際に計測し たセンサデータの間の距離誤差を尤度として(人間の位置の仮 説に対応する)パーティクルの重みに反映し,人間位置の推定 を行った. 宜保ら [10] は,全方位視覚センサにより得たエッジ のヒストグラムとレーザセンサで得た距離データの不連続位置 に基づいて人間の追跡を試みたが, 多様な状況に適用するまでに は至っていない. 塩見ら [11] は,距離センサを含む複数の異種 センサを Particle Filter [12] † により統合することで,ロボッ トの周囲(角度方向)における人間を認識・追跡している.し かし,異種センサの統合を行なっているため,推定対象が角度 方向のみであり,2次元的位置の推定まで至っていない. Fig. 2 A mobile robot system with a laser range-finder 本論文では,距離センサ(レーザレンジファインダ)を用い て View-based な情報に基づく追跡手法を提案する.本提案手 ある.近年,移動ロボットの分野では,このようなレーザーレ 法では,センサ空間における足の見え方をテンプレートとして ンジファインダの利用が広く普及している.その代表的な測定 格納し,そのテンプレート群とセンサデータとのブロックマッ 原理は,レーザーを照射し,物体に反射して戻ってくるまでの チングにより人の追跡を行なう.これにより,従来手法のよう 時間(time-of-flight)から物体までの距離を測定するものであ な距離データ(r − θ) の local minima 検出と近傍の測定点の る.トランスミッタから照射したレーザーを回転ミラーで反射 グループ化処理などを必要とせず,よりシンプルに人の2次元 させ,前方を扇状にスキャンする.これにより床面から一定の 的な追跡が可能である.また,移動対象の追跡に近年広く用い 高さの平面上に存在する障害物までの距離を測定できる.本シ られているパーティクルフィルタ (Particle Filter) に本提案方 ステムでは,Fig.2 のように移動ロボットにレンジファインダ 法を組み込むことにより,オクルージョンがある場合において を搭載しているので,床面からの高さが約 30cm で床面に平行 状態推定のロバスト性が向上することを確認した. な平面上をスキャンすることになる. 以下,本論文では,第 2 章で,View-based な情報を用いた 人の追跡手法について述べ,第 3 章で,Particle Filter により 拡張した追跡システムを説明する.第 4 章では,提案手法によ り行なった人の追跡実験の結果を示し,View-based な追跡手 法の有効性を検証する. Fig.1 の図 (a) は,センシングした実環境の様子を示してい る.同図 (b) はレーザーレンジファインダで得られた距離デー タをそのまま表示したもので,横軸が角度 θ, 縦軸が距離値 r である.同図 (c) は (b) で示される r − θ 平面の距離データを x − y 平面に変換したものである.図の (b) と (c) は,いずれ も人の足の断面形状がセンサ情報に表れる様子を示している. 2. View-based な情報に基づく人の追跡 2. 1 距離データの表現方法 Fig.1 は,移動ロボット(Fig.2)に搭載したレーザレンジファ インダ(laser range-finder)により取得した距離データの例で † 文献 [11] ではマルコフ連鎖・モンテカルロ法(MCMC)と記述されて いるが,本論文では Particle Filter と表記する JRSJ Vol. xx No. xx —2— Table 2 Specification of the laser range-finder (LMS200) Range 8.19m / 81.9m Measurement resolution 1mm / 1cm Scanning angle 100◦ / 180◦ Angular resolution 0.25◦ / 0.5◦ / 1◦ Transfer rate 9600 / 19200 / 38400 baud xx, 200x レーザーレンジファインダを用いた移動ロボットによる人の追跡 (A) 3 L Human legs (B) R theta (C) PSfrag replacements Fig. 3 Examples of the templates θ Fig. 5 An Occupied angle θ of a human at range R (A) (B) (C) Out of tracking area Fig. 4 x − y plane is divided into regions which correspond to groups of templates Fig. 6 Occupied angles θ of a target at range R (L=0.3[m]) 使用したレーザーレンジファインダ(SICK 社,LMS200)の 基本仕様を Table 2 に示す.複数の測定範囲・分解能や伝送速度 があり,必要に応じて適切な測定モードを選択することが可能 である.同じ距離センサであるソナーセンサと比較すると,より 高精度・高分解能で計測が可能になっている.本研究では,距離 測定範囲 81.9 [m],距離分解能 1 [cm],角度測定範囲 180 [◦ ], 角度分解能 1 [◦ ],通信速度 38400 [baud] という設定を用いた. この場合には,1 秒間に約 9 回程度のスキャン速度で距離デー タを取得できる. 2. 2 テンプレート群の構成 本論文の view-based な人追跡システムは,レーザーレンジ ファインダから得た距離データを x − y 平面に変換し,その平面 画像上でテンプレートとブロックマッチングを行なう.ブロック マッチングに使用するテンプレート群の例を Fig.3 に示す.こ れらは,センサデータを x − y 平面に変換した画像上で,人の 足が投影された代表的なパターンを矩形画像として格納したも のである. テンプレート群は,Fig.4 で示すような x − y 平面を分割した レート群で,この領域は(x-y 平面でセンサの位置する)原点か ら上方に向かって伸びているので,足の影も上方に伸びた形状 となる.Fig.3(B) のテンプレート群は,同図 (A) と同じ方向に 位置するが,(A) よりもセンサに近いので影の広がり方が (A) よりも大きくなっている.同図 (C) のテンプレート群は (A) と 同じ距離にあるが,角度が違うため影の方向が斜めになってい る.なお,テンプレート画像の大きさは 40 × 40[pixel] とした. 1[pixel]=2[cm] の縮尺で画像を生成しているので,1 個のテン プレートは実空間で 80 × 80[cm] の矩形領域に相当する. テンプレート群の割り当ての基準となる Fig.4 の小領域は, 距離方向と角度方向をそれぞれ分割して構成する.距離方向に 関しては,人の足幅がセンサ空間の中で占める角度をもとに分 割している.今,Fig.5 のように人が両足の幅 L の長さでレー ザーレンジファインダから距離 R の位置に立っているものとし, その足幅 L がセンサ空間の中で占める角度を θ とする.このと き,θ と R の関係は (1) 式で表される. 各小領域ごとで,実際に人が立って代表的なパターンを 7 枚撮 tan 影し,その画像群を該当領域のテンプレートとして割り当てる θ L = 2 2R (1) ことで構成されている.すなわち,今回は経験的にこの程度の この関係をグラフに表すと Fig.6 のようになり,対象の占有角 枚数でも追跡に有効であるという(中間)結果を踏まえ,この 度はセンサに近付くほど大きくなる.占有角度が異なれば,同 テンプレート群を用いた. これについては,例えば,多数の歩行 じ足幅でも Fig.3 の (A) と (B) のように投影される形状が変化 実験に基づく計測データから統計的な分析に基づいて適切なテ してくるため,占有角度の違いによりテンプレート群を変更す ンプレートを決めるような改良が考えられ,今後の課題である. る.本システムでは 0.5∼5[m] を追跡範囲としており,Fig.6 の Fig.3(A) は Fig.4 中の領域 A に割り当てられているテンプ グラフ内の破線で示すように,この範囲内の占有角度(33.4∼ 日本ロボット学会誌 xx 巻 xx 号 —3— 200x 年 xx 月 奥 4 Image(Xt-1) 迫 伸 一 坂 根 茂 幸 TG(Xt-1) Corr Xt-1 T(Xt-1) S(Xt-1) PSfrag replacements Xt Xt−1 ImageXt−1 T GXt−1 TXt−1 SXt−1 Corr Next step (1) (2) (3) (4) Xt Corr Fig. 7 Algorithm of the view-based human tracking 3.4[◦ ])を 3 等分する R の値(R1 = 0.72, R2 = 1.27[m])で 距離方向を分割した.この分割数は,粗すぎると精度が低下し, 細かすぎるとテンプレート数が増大して計算コストが大きくな るトレードオフを考慮して経験的に定めた. 角度方向に関しては,距離 R を固定して θ を変化させた場合, テンプレートの形状は回転の変化が起こるだけで,距離方向の ときのような形状自体の変化は起こらないため,単純に 360◦ を 16 等分に分割した.この分割数も,距離方向と同様のトレード オフを考慮して定めたものである. x − y 平面を距離方向に 3 分割,角度方向に 16 分割するた め,全体としては 48 の小領域に分けられる.また,各小領域に 対して 7 パターンのテンプレートを割り当てているため,テン プレート群は合計 336 枚の画像で構成される. 2. 3 人の追跡アルゴリズム Fig. 8 An example of view-based human tracking により,テンプレート群 T GXt−1 の中から ImageXt−1 と 最もよく似たテンプレートが選ばれる.ただし,T GiXt−1 はテンプレート群 T GXt−1 における i 番目(i = 0 . . . 6) のテンプレートを表す. (2)追跡対象の位置の推定 選ばれたテンプレート TXt−1 を用い,Xt−1 より定まる近 傍探索領域 SXt−1 で (4) 式に示す相関演算を行い,時刻 t 本方法では,前節で述べたテンプレート群を用いてブロック における人の位置 Xt を推定する. マッチングを行なうことにより人を追跡する.ブロックマッチ ングでは相関演算を用いる.そこで,同じ大きさの画像 A と画 Xt = argmin Corr(TXt−1 , SXt−1 (x, y)) 像 B に対して(2)式で表される相関演算を Corr(A, B) のよ うに記述する. Corr(A, B) = w−1 X h−1 X u=0 v=0 ˛ ˛ ˛A(u, v) − B(u, v)˛ (4) x,y∈S ただし,SXt−1 (x, y) は,探索領域 SXt−1 における座標 (x, y) を中心としたテンプレートと同サイズの画像を表す. このように,本システムでは距離データ(r − θ 表現) から極 (2) 小値の特徴抽出を行なうことなく,テンプレート群を用いたブ ただし,A(u, v),B(u, v) はそれぞれの画像における座標 (u, v) ロックマッチングに基づいて人を追跡する.また,ロボットが の輝度値を表す.また,w, h は画像の幅と高さを表す. 移動する場合でも,x − y 平面上における相対的な人の位置が 本システムでは,以下の (1) および (2) の処理をスキャン毎 に繰り返し,人の追跡を行う. 変化するだけなので,その変化が探索領域内に収まっていれば, (4)式の処理で人を追跡できる. (1)テンプレートの選択 なお,本システムの前提条件として人の初期位置は既知であ いま,時刻 t − 1 における追跡対象の位置を Xt−1 とする. るとし,追跡を開始する際に手動で初期位置を指定する.また, また,センサデータから生成した x−y 平面において,Xt−1 人の初期位置の検出に関する拡張については 3. 3 節で述べる. を中心とするテンプレートと同サイズの画像を ImageXt−1 2. 4 実験システムと人の追跡結果 とし,さらに,Xt−1 が位置する Fig.4 の小領域に割り当 てられているテンプレート群を T GXt−1 とすると, TXt−1 = argmin Corr(ImageXt−1 , i JRSJ Vol. xx No. xx T GiXt−1 ) (3) 本研究で使用したロボットシステムの外観を Fig.2 に示す.本 システムのハードウェアは,駆動系を担う車輪型の移動ロボッ ト(ActivMedia Robotics 社 Pioneer2),距離センサのレー ザーレンジファインダ(SICK 社,LMS200),赤外線カメラ —4— xx, 200x レーザーレンジファインダを用いた移動ロボットによる人の追跡 5 (1) 環境をスキャンして得た距離データを1次元配列に格納す る.以下では距離データ (r − θ 表現) を r(i) で表す. ここ で i は 0[◦ ] から 180[◦ ] までの角度 θ を表し,r はその角度 (4) (3) 方向で計測した距離値である. (2) r が極小 (local minimum) となるθ位置を決める.具体的 には θ に対応するインデックス i を増加させていくときに 距離値 r が顕著に減少した θ 位置を ibegin とする. if r(i − 1) − r(i) > thv1(しきい値) then, ibegin = i; (3) その後, 距離値が顕著に増大した θ 位置を iend とする. if r(i + 1) − r(i) > thv2(しきい値)then, iend = i; (4) そ し て r(ibegin) と r(iend) の XY 平 面 上 で の 位 置 Pxy (ibegin) および Pxy (iend) の間の距離 (XY 平面上で (2) (1) Tracked human Robot Fig. 9 Trajectory of the human walking in Fig.8 の距離)が一定の範囲内にある条件: thv3 < |Pxy (ibegin) − Pxy (iend)| < thv4 を満たせば,人の (片方の) 足の候補が local minimum と して検出されたとする.thv3 と thv4 はしきい値である. (5) このようにして得られた local minima の位置をリストに 入れておく.次にこのリストに基づいて,連続する local minima の xy 位置が一定の距離 thv5 以内に存在する場 合に人の足のペアとしてグループ化する.グループ化した Fig. 10 A mobile robot and a person being tracked. (三菱電機,IR-U300M1),パンチルト装置(Directed Percep- tion 社,PTU-D46-17.5),画像処理装置(日立情報制御シス テム,IP7500),ノート PC(PentiumIII 866MHz, Memory 384MB, Linux)から構成されている. 移動ロボットの速度は最大速度 0.6[m/sec] で制限しており, local minimum の中点を中心とする楕円で画面上に表示す る.また,同時に表示する XY 平面上でも円で表示する. 以上 (1)∼(5) の処理を繰り返す.このアルゴリズムでは2足が 重なる場合の処理を入れていない.ここでは (後述のように) 処 理の複雑化を指摘するにとどめ,2足の重なりがどの程度の頻 度で生じるかを回数を測定した. ロボットが人の追従行動をとる場合には,ロボットと人との距 local minima 法により人の足の検出を行っている例を Fig.11 に示す.実験では前記のしきい値として, thv1=thv2=20[cm], thv3=5[cm],thv4=30[cm],thv5=50[cm] を用いた. 距離セン 離に応じて最大速度内で比例制御している. サを廊下の進行方向に向け,2足の見え方を変化させるために 赤外線カメラは人の初期位置を検出するのに使用し,パンチ 人は LRF の前方で円軌道で歩行する. Fig.11(b)(c) は近接す ルト装置で姿勢制御することで視野を広げている(3. 3 節参照). る local minima が人間の2足に対応する候補が検出された状 カメラ画像の入力,及び,画像処理には専用の画像処理装置を 態の例を示す. 図では2個の local minima の周りに楕円 (r-θ 平 用いており,Ethernet を介してノートパソコンと通信し,画像 面) および円(x-y 平面)でこの検出ができたことを表示してい 処理結果やカメラの制御情報を伝達する. る. 一方,Fig.11(a)(d) は2足が重なり一つの local minimum View-based なテンプレート群を用いた追跡システムを構築 のようになるケースを示している. この場合には(一定距離範 し,実ロボットによる実験を行なった.本システムによる実験 囲で)近接した 2 つの local minima が得られないので (5) の 結果を Fig.8 に示す.また,追跡中の人の歩行の軌跡を Fig.9 グループ化の条件が満たされず,人の足としての認識に至って に,追跡中の様子を Fig.10 に示す.Fig.8 に描かれている内側 いない. の矩形は,追跡している人が存在するターゲット領域を表し, 円軌道の歩行において,2足分離での足の認識が可能となる 外側の矩形はテンプレートマッチングで扱う探索領域を表す. 回数を測定した. レンジファインダの距離データ入力から2足 Fig.8(1)∼(4) は歩行している人を適切に追跡している状況を示 している.テンプレートのサイズが 40 × 40[pixel],探索領域 のサイズが 80 × 80[pixel] の条件下で,1サイクルの処理時間 は約 100[msec] であった. の認識までの処理を1スキャンとして,総数 200 回のスキャン 中,102 回が2足を分離した状態で認識可能であった. 円軌道 で歩行したので足が分離して見える場合と重なる場合が同程度 の頻度で現れていると理解できる.これは,local minima 法に 2. 5 local minima 法との比較実験 おいて2足が重なる場合の処理アルゴリズムの実装が大きな問 第1章で述べた文献 [8] のような r − θ 表現の local nimima 題であることを意味する.今回の比較実験用のプログラムにお 検出に基づく方法をここでは local minima 法と呼ぶことにす いて2足が重なる場合に対応する処理の実装を想定すると, 前 る. この方法とテンプレートに基づく本提案手法との比較実験 述の処理ステップ (2)∼(5) を大幅に書き換える必要が生じる. を行った. このアルゴリズムは文献中に明確な記述がないため, そこでは if-then-else 型の場合分けを多重化するなど処理が複 比較実験に実装したアルゴリズムは以下の処理手順である: 雑化が予想され, 設定すべきしきい値パラメータ数も増大する. 日本ロボット学会誌 xx 巻 xx 号 —5— 200x 年 xx 月 奥 6 迫 伸 一 坂 根 茂 幸 続が困難になる場合がある.そこで,そのような状況にあって もロバストな追跡を可能とするために,確率的な状態推定の手 法である Particle Filter を導入した. 3. 1 Particle Filter 本研究で扱う人の位置推定のように,直接的に観測できない システムの状態の事後確率分布をセンサの観測値から推定する 方法として Bayes Filter が知られている.Particle Filter は, (a) A failure case この Bayes Filter を近似表現したもので,近年移動ロボットの 分野では,ロボットの自己位置推定問題 [1],本研究と同様に歩 行者の位置推定問題等に適用されている [8]. 今,時刻 t における追跡対象の位置を xt ,センサからの観測 値を zt とすると,観測値を得たときの追跡対象の位置に関する 事後確率 p(xt |zt ) を推定する.この事後確率は,次式で表され る Bayes Filter により再帰的に推定される. (b) A success case p(xt |zt ) = α p(zt |xt ) Z p(xt |xt−1 )p(xt−1 |zt−1 )dxt−1 (5) ここで,p(zt |xt ) は観測モデルと呼ばれ,センサによる観測を モデル化したものである.p(xt |xt−1 ) はモーションモデルと呼 ばれ,人の動きをモデル化したものに相当する.これらの具体 化は 3. 2 節で述べる.α は正規化のための定数である. (c) A success case Particle Filter は (5) 式における事後確率 p(xt |zt ) の分布を パーティクルの集合で近似表現する.これによって任意の分布 を表現できる特長をもつ.本システムにおける Particle Filter の処理の手順を以下に示す. (1)初期 Particle 集合 {x0 } を発生させる. (2)モーションモデル p(xt |xt−1 ) で各 Particle を遷移させる. (3)センサデータ zt と観測モデル p(zt |xt ) に基づき各 Particle (d) A failure case に重み wt を与える. Fig. 11 Examples of success/failure cases using the local minima method, where range data (r-θ) are on the left and the corresponding x-y images are on the right (4)Particle の重み wt に従って新たな Particle 集合 {xt+1 } を 発生させる. 2足が重なっていても「見え」に対応するテンプレートを用意 Particle の初期化を行なった後で(2)∼(4)の処理を繰り 返し,(5) 式の再帰的な推定を行うことができる.初期 Paritcle の発生については 3. 3 節で述べる. 3. 2 モーションモデル・観測モデル Particle Filter で推定を行なうためには,各パーティクルを 次の状態に遷移させるためのモーションモデル p(xt |xt−1 ) と, 各パーティクルの重みを決定するための観測モデル p(zt |xt ) が しておくことで対応が可能であり,local minima 法に比べてシ 必要となる.本システムでは,人の動きをモデル化するモーショ ンプルな実装になる.これに伴い,時系列フィルタなどの上位 ンモデルとしてランダムウォークを用いた.これは,人は常に アルゴリズムへの依存度は軽減する. どの方向へも動き得るという想定でモデル化したもので,(6) 式 そのため,local minima 法においては2足が重なる際の信頼 性低下をカバーするために,処理の比較的早い段階から時系列 フィルタ(例えば,Kalman フィルタ,Particle フィルタ,文献 [8] の JPDAF)などの上位のアルゴリズムの導入が必要になり, その依存度も大きくなると考えられる.一方,本提案手法では, の円軌道歩行について,テンプレートに基づく本提案手法を用 に示すように,1時刻前のパーティクルの位置に平均 0, 分散 σ 2 の正規乱数 r を付加することで実装した.σ の値は人の歩行 いて人の追跡を行わせた結果, 対象を見失うことなく追跡する 速度に対応することになる. 比較実験では,local minima 法の実験と同一環境で単一人物 ことができている. xt = xt−1 + u + r, r ∼ N (0, σ 2 ) 3. Particle Filter を用いた状態推定 ただし,u はロボットのオドメトリ情報で,ロボットがどれだ View-based なテンプレートを用いて人を追跡する際に,2 章 で述べたようなテンプレートマッチングのみで追跡する方法で け移動したかを表している.これにより,ロボットが移動した 場合の移動量をパーティクルの遷移に反映している. は,オクルージョンやセンサノイズが生じる場合に,追跡の継 JRSJ Vol. xx No. xx (6) —6— 観測モデルにはセンサから得られる view-based な情報を用 xx, 200x レーザーレンジファインダを用いた移動ロボットによる人の追跡 7 に,パンチルト装置に取り付けた赤外線カメラを前方(水平方 向)にスキャンして画像入力を行う.次に,その画像の明暗値 を水平座標軸に軸投影した (1次元) グラフに対するしきい値 処理で,高温度の領域 [θ1 , θ2 ] を求め,その領域内に初期パー ティクルを一様に発生させる.赤外線カメラは単眼で距離情報 が得られないため,人の位置推定は角度方向のみになる.そこ で,初期パーティクルは同図 (2) のように扇型に近い領域内で 発生させている.初期パーティクルの発生後は,レンジファイ ンダによる観測とリサンプリングの反復に伴って,各パーティ Fig. 12 An example of the infrared image クルの人位置の推定は真値に収束していく. 4. 実 験 結 果 4. 1 Particle Filter による追跡 (1) scan by infrared camera 初めに,ロボットと人との間に何の障害物もない状況で追跡 theta2 実験を行なった.Fig.14 にその様子を示す.また,Fig.14 の図 Robot Human theta1 PSfrag replacements 番号に対応した人の移動の軌跡を Fig.15 に示す. Fig.14(1) は,ロボットの正面に人が立っており,まだ追跡を (2) generate particle set 行なっていない段階の様子を示している.同図 (2) は赤外線カ θ1 θ2 メラにより人の存在範囲を検出し,その領域に初期パーティク Fig. 13 Human detection using the infrared camera ルを一様に発生させた直後のパーティクル集合である.(2)∼(4) はレーザーレンジファインダの観測によりパーティクル集合が いた.2. 2 節で述べたように,システムはあらかじめ,人の足 がセンサデータの x − y 平面上(Fig.1(c) 参照)で,どのよう な形状として表れるかというパターンを,Fig.3 のようなテンプ 徐々に人の足に収束していく様子を示している.その後,同図 (4)∼(6) では,歩行を始めた人をパーティクル集合が追跡して いる状況を示す. レート画像群として持っておく.このテンプレート群と各パー 本実験では,発生させるパーティクルの個数を 100 個,モー ティクルの位置における画像とで相関演算を行ない,その相関 ションモデルのパラメータを σ = 0.63[m] とした.この条件下 値に基づいてパーティクルの重み付けを行なう.具体的な手順 で1回の追跡に要する平均処理時間は約 8.2[msec] であった(レ を以下に示す. ンジデータの取得を除く).この処理時間であれば,レンジデー (1)時刻 t − 1 におけるパーティクル集合 {xt−1 } から,人の位 置に関する重み付き平均を以下の式により求める: Xt−1 = n X i · xit−1 wt−1 タ値の取得サイクルと同じ1秒間に約9回の追跡処理を行うこ とが可能である. 4. 2 オクルージョン発生時の追跡 (7) 次に,ロボットと追跡対象との間を別の人が通り過ぎるとい i ただし,xit−1 は時刻 t − 1 における i 番目のパーティクル i は,そのパーティクルの重みを表す.また, を表し,wt−1 n はパーティクルの個数を表す. (2)平均位置における画像 ImageXt−1 を用い,(3) 式と同様に テンプレート群の中から最も相関値の大きいテンプレート う状況で追跡実験を行なった.このような場合には,通過する 人がレーザーを遮るため,オクルージョンが発生する.Particle Filter を用いた追跡は人の位置を多重仮説で推定しているため, 短時間のオクルージョンであれば見失うことなく追跡の継続が 可能である.Fig.16 に追跡実験の様子を示す.また,Fig.16 の 番号に対応した人の移動の軌跡を Fig.17 に示す. を選択する. Fig.16 上段は,Particle Filter を用いない,テンプレート (3)選択したテンプレート TXt−1 と,各パーティクルの位置に マッチングのみによる追跡システムの場合を示している.(a1) おける画像 Imagexi との相関値を基に重みを決定する. の段階ではロボットの正面に位置する人を捉えているが,(a1)∼ wti = α · Corr(TXt−1 , Imagexit ) ルージョンが発生し,(a3) では追跡対象を見失った状況を示し t (a3) で別の人が追跡対象とロボットの間を通過していくとオク (8) ている.一方,同図の下段は Particle Filter を適用した場合を なお,α は正規化のための定数である. 3. 3 赤外線カメラによる初期 Particle の発生 2 章で構築した追跡システムでは,追跡を行なう際に人の初 期位置を手動で指定する必要があった.これに対して,Particle Filter で拡張するシステムでは,赤外線カメラを用いて人の検 示している.上段と同様に (b1)∼(b3) にかけて人が通過してい るが,オクルージョンが発生した場合でも,(b2) のように一旦 パーティクル集合は発散するものの,すぐ後に追跡対象の観測 値が得られるため,(b3) で再び追跡対象に収束している. 20 回の実験を行なった結果,テンプレートマッチングのみの 出を行ない,人の初期位置推定の自動化を試みた. 赤外線カメラにより,Fig.12 のような温度の高低を濃淡値と 追跡では 1 回も成功することはなかったが,Particle Filter を してもつ熱画像を取得できる.本システムでは,Fig.13 のよう 適用した場合の追跡成功率は 45%(9 回)であった.このよう 日本ロボット学会誌 xx 巻 xx 号 —7— 200x 年 xx 月 奥 8 迫 伸 一 (1) (4) 坂 根 茂 幸 (2) (3) (5) (6) Fig. 14 An example of human tracking using a particle filter (1)-(4) (5) r − θ 表現した距離データの local minima 検出と近傍点のグ (6) ループ化処理などを行う必要がなく,よりシンプルなアルゴリ ズムで人の追跡システムの構成が可能になった. Robot Human また,ロバスト性の向上のため,人の位置に関する状態推定 Fig. 15 Trajectory of the human walking in Fig.14 に Partcile Filter を適用した.Particle Filter は対象を多重仮 説で推定しているので,追跡システムのロバスト性が向上し,オ に,追跡システムが1つの推定値しか保持していない場合には, クルージョンにも対応が可能となる.本システムでは,Particle その推定値が誤認識の場合にシステム全体が追跡対象を見失っ Filter の観測モデルにテンプレートによるブロックマッチング てしまうが,Particle Filter により多重仮説で推定することで の処理を組み込み,相関値を尤度としてパーティクルの重みに オクルージョンに対するロバスト性が向上する.なお,Particle 反映した. Filter 適用時においても追跡ができなかったケースの原因には, 提案手法を用いた人の追跡システムを構築し,実ロボットに 人の歩行をランダムウォークでモデル化していること,および, よる人の追跡実験を行なった.実験結果では,オクルージョン 実験におけるオクルージョンの継続時間とパーティクル数との が発生する状況下でも適切に人の追跡が可能であり,本手法の 関係等が挙げられる. この対策として,モーションモデル・観 有効性を確認した. しかし,現在のシステムでは,ある時間以上に及ぶオクルー 測モデルの改善や,赤外線カメラ・視覚センサ等の異種センサ ジョンや,他の物体により発生する影に対して人が自ら入って 情報の統合を図ることが考えられ,今後の課題である. いく場合には,追跡を継続することができない問題も残されて 5. 結 論 いる.今後の課題としては,人の検出に用いた赤外線画像の情 本論文では,レーザーレンジファインダを用いた移動ロボッ トによる人の追跡手法を提案した. 本手法では,レンジファインダにより得られる距離データ 報を Particle Filter の観測モデルにも反映させることにより, 様々なオクルージョンに対応し,追跡をよりロバストにしてい くことが挙げられる. (r − θ 表現)を床面に平行な x − y 平面に変換した画像上で, 足の見えのテンプレート群に基づいたブロックマッチングを行 ない,人の実時間追跡を行う.これにより,従来手法のように JRSJ Vol. xx No. xx —8— 参 考 文 献 [ 1 ] D. Fox, S. Thrun, W. Burgard and F. Dellaert: “Particle filters for mobile robot localization,” In A. Doucet, N. de Freitas, xx, 200x レーザーレンジファインダを用いた移動ロボットによる人の追跡 9 (a1) (a2) (a3) (b1) (b2) (b3) Fig. 16 Experiments of human tracking in case of occlusion: (a1)-(a3) show results without a particle filter and (b1)-(b3) show results with a particle filter Tracked human [9] (3) (2) (1) [10] Human Robot [11] Fig. 17 Trajectory of the human walking in Fig.16 [12] [2] [3] [4] [5] [6] [7] [8] and Gordon. N., editors, Sequential Monte Carlo Methods in Practice. New York: Springer-Verlag, 2000. S. Thrun: “Learning Occupancy Grids With Forward Sensor Models,” Autonomous Robots, vol.15, pp.111–127, 2003. F. Lu and E. Milios: “Robot Pose Estimation in Unknown Environments by Matching 2D Range Scans,” Proc. of IEEE Comp. Soc. Conf. on Computer Vision and Pattern Recognition, pp.935–938, 1994. H. P. Moravec: “Sensor fusion in certainty grids for mobile robots,” AI Magazine, vol.9, no.2, pp.61–74, 1988. S. Thrun, D. Fox, and W. Burgard: “A probabilistic approach to concurrent mapping and localization for mobile robots, ” Machine Learning and Autonomous Robots (joint issue), vol.31, pp.253–271, 1998. S. Thrun: “Robotic Mapping: A Survey,” In G. Lakemeyer and B. Nebel, editors, Exploring Artificial Intelligence in the New Millenium. Morgan Kaufmann, 2002. D. Gavrila: “The Visual Analysis of Human Movement: A Survey,” Computer Vision and Image Understanding, vol.73, no.1, pp.82–98, 1999. D. Schulz, W. Burgard, D. Fox, and A.B. Cremers: “People Tracking with a Mobile Robot Using Sample-based Joint Prob- 日本ロボット学会誌 xx 巻 xx 号 abilistic Data Association Filters,” Int. Journal of Robotics Research, vol.22, No.2, pp.99-116, 2003. M. Montemerlo, S. Thrun, and W. Whittaker: “Conditional particle filters for simultaneous mobile robot localization and people-tracking,” Proc. of IEEE Int. Conf. on Robotics and Automation (ICRA), 2002. 宜保洋平, 大矢晃久: “全方位視覚センサとレーザ距離センサによる人 間の位置トラッキング,” 電気学会C部門大会講演論文集, MC3-22P2I07, pp.578-579, 2002. 塩見昌裕, 宮下敬宏, 石黒浩: “ロボットの能動的コミュニケーション のための MCMC に基づいた異種センサ統合による人の追跡,” 日本 ロボット学会誌, vol.23, no.2, pp.220–228, 2005. M. Isard, A. Blake: “A smoothing filter for Condensation,” Proc. of 5th European Conf. on Computer Vision, vol.1, pp.767–781, 1998. 奥迫 伸一(Shinichi Okusako) 1977 年 10 月 24 日生. 2003 年中央大学理工学部 経営システム工学科卒業. 2005 年同大学大学院理 工学研究科経営システム工学専攻修了. 同年 株式 会社日立製作所に入社. ミドルウェアの設計・開発 に従事. (日本ロボット学会正会員) 坂根 茂幸(Shigeyuki Sakane) 各会員. —9— 1949 年 8 月 20 日生. 1972 年東京工業大学工学部 制御工学科卒業. 1974 年同大学大学院理工学研究 科修士課程修了. 同年通産省工業技術院電子技術総 合研究所入所. 1995 年中央大学理工学部教授. 知 能ロボットシステムの研究に従事. 工学博士. 計測 自動制御学会,人工知能学会,電気学会,IEEE の (日本ロボット学会正会員) 200x 年 xx 月