Comments
Description
Transcript
対象環境の線分情報を用いた実時間SLAM
「画像の認識・理解シンポジウム (MIRU2011)」 2011 年 7 月 対象環境の線分情報を用いた実時間 SLAM 廣瀬 圭佑† 斎藤 英雄† † 慶應義塾大学大学院理工学研究科 〒 223—8522 神奈川県横浜市港北区日吉 3—14—1 E-mail: †{hikeisuke,saito}@hvrl.ics.keio.ac.jp あらまし 移動カメラにより取得された映像から,対象環境の 3 次元構造とカメラの位置・姿勢を同時に推定する手 法は Simultaneous Localization And Mapping (SLAM) と呼ばれている.従来の SLAM では,ランドマークとして 特徴点を用いるものが多かったが,人工的な環境において,特徴点よりも線分が安定で正確に検出でき,さらに線分 は部分的なオクルージョンにロバストで視点変化に強いといえる.そこで本稿では,入力映像からランドマークとし て線分を検出することにより SLAM を実現するための手法を提案する.本手法は,線分検出のために Gioi らが提案 した LSD 法を利用し,検出された線分の 3 次元復元を行い,復元された 3 次元線分と画像から検出される 2 次元線 分の対応付けを行うことにより,カメラの位置・姿勢を同時に推定する.ランドマークとして線分を利用する SLAM が,人工物が多く存在する環境において有効に動作することを示す実験を行い,提案手法の有効性を検証する. キーワード SLAM, Trifocal tensor, 線分検出, 3 次元復元, カメラの位置・姿勢推定,線分マッチング ある.また,線分マッチングは特徴点マッチングに比べ 1. は じ め に て部分的なオクルージョンにロバストである.特に特徴 Simultaneous Localization And Mapping (SLAM) は 対象環境の形状把握と自己位置推定を同時に行うもので あり,ロボットの分野においては SLAM は広く研究され ている.コンピュータビジョンにおける SLAM は,Mapping において対象環境の形状把握を行い,Localization においてカメラの位置・姿勢を推定する.対象環境の形状 把握については Structure From Motion (SFM) としても 広く研究されており,武富らは Harris オペレータによっ て検出した特徴点の画像テンプレートを保存し,テンプ レートマッチングによって 2 次元点と 3 次元点の対応を とり,カメラの位置・姿勢を推定している [1].Irschara らは特徴点に SIFT を用いて,Mean-shift クラスタリン グによるデータベースの削減と,階層的 k-means クラス タリングによる Vocabulary Tree の作成と人工視点生成 による 3 次元点群のグループ化により,高速にマッチン グを行うことで,都市環境の広範囲における点群に対し てカメラの位置・姿勢を実時間で推定している [2]. 画像処理の SLAM に関する研究は,その大多数が 対象環境の特徴点を用いたものである.Davison らは Mapping した 3 次元点群に対して確率を考え,Extended Kalman Filter (EKF) を用いて実時間での SLAM を行っ ている [3].Drummond らは,時系列フィルターに FastSLAM という Particle Filter を用いて,多くのランド マークに対しても実時間での実行を可能としている [4]. 本研究では,ランドマークとして特徴点の代わりに対 象環境の線分情報を用いて SLAM を行う.線分の有利 な点として,まず人工物を多く含んだ対象環境において は,入力画像中に多くの線分が含まれる.また,線分検 出は特徴点検出に比べて正確であり,信用性,安定性が 点などはアフィン変換に不変でないので,視点変化に弱 いという点がある.しかしながら線分検出は大きな視点 変化に対しても適切に検出できるので,位置・姿勢が推 定できる.しかしながら,線分においては窓問題や端点 の不確定性などが言われている.本手法では,入力の線 分の端点を基にして点対応でマッチングを行い,位置・ 姿勢推定などは線分の位置・傾きの情報のみを使用する ことでこれらの問題を解決する. 線分を用いた SLAM として,Gee らは,Gates らの手 法 [6] に Canny のエッジ検出器で検出した 2 値のエッジ 画像を合わせることで高速に線分を検出し,その線分に よる 3 次元モデルをトラッキングするために,Comport らの Virtual Visual Servoing (VVS) [7] を適用し,時系 列フィルタとして Unscented Kalman Filter (UKF) を 適用することで,実時間で SLAM を行っている [5].ま た Drummond ら [8] は,Canny のエッジ検出器で検出し たエッジに対して,エッジの 1 部分である edgelet とい うものを定義し線分としている.edgelet とは検出した エッジの局所的な部分を直線と近似したものである.カ メラの位置・姿勢推定については,Cipola らのリー代数 を基にした手法 [9] を用いて,時系列フィルタについて は Montemerlo らの FastSLAM-type Rao-Blackwellised particle filter [10] を適用している. 本手法では,線分検出に LSD [11] という,高速かつ誤 検出,検出漏れの少ない安定した線分検出器を適用し, 毎フレームの 2 次元線分と 3 次元線分の対応付けを安定 化させ,実時間での位置・姿勢推定を行う.従来手法で は,Canny のエッジ検出に Gates らの手法 [6] を組み合わ せて線分を検出しているが,LSD は,線分が混在するよ IS2-47 : 818 うな環境においても毎フレーム安定的に検出を行うこと ができる.また位置・姿勢推定手法には,2 次元点と 3 次 元点対応に対する非線形の最適化手法である Orthogonal Iteration アルゴリズム [13] を線分対応に拡張した Line Based Orthogonal Iteration(LBOI) [12] を適用し,誤差 を含んだ 3 次元線分データに対してもロバストに位置・ 姿勢推定を行う.また,Mapping された 3 次元線分はし ばしば誤差を含むため,誤差を少なくするために 3 次元 線分の再計算を行う. 2. 提 案 手 法 2. 1 本手法の概要 図2 基準マーカ 本研究では,対象環境の線分情報を用いて実時間で SLAM を行う.本手法における Mapping は 3 次元線分 の復元であり,Localization はカメラの位置・姿勢推定 である. 本手法の流れを図 1 に示す. 2. 2 Mapping 本手法における Mapping 処理は,実時間で検出した 線分の 3 次元復元を行う.入力は動画像と Localization によって求めるそれぞれ画像の射影行列とする. 2. 2. 1 初期画像の線分検出 Mapping 処理では初期画像についてのみ線分検出を行 う.本手法では,線分検出の手法として Gioi らの Line Segments Detector (LSD) [11] を適用する.LSD は画素 ごとに周波数方向を算出し,近傍画素でほぼ同じ方向の ものがあればグループに加えていき,矩形領域に近似し て線分を検出する.また LSD は高速かつ誤検出,検出 漏れの少ない線分検出器である.図 3 に LSD と確率的 ハフ変換による線分検出の例を示す. 図 1 提案手法の流れ 図 1 において,Mapping では初期画像において検出し た線分を動画像間でマッチングし,3 次元復元する.こ 入力画像 のとき,入力の射影行列は Localization によって求める カメラの位置・姿勢を指す.Localization においては,カ メラからの入力画像に対して線分を検出し,3 次元線分 と 2 次元線分の対応付けを行い,カメラの位置・姿勢を 推定する.このとき 3 次元線分は Mapping によって求 めた 3 次元データである.このように,SLAM において は Mapping と Localization が互いに精度的に依存する 確率的ハフ変換による検出画像 関係にある. また提案手法は,システム開始時の先頭フレームにお いて撮影された複数線分の 3 次元復元を行い,復元され た 3 次元線分をそれ以降のフレームでの SLAM 処理に 利用する.その際に,先頭フレームの複数線分の 3 次元 復元の方法として,本手法では基準マーカとして四角い マーカを利用した.図 2 に実際に用いた基準マーカを LSD による検出画像 示す. 図 3 LSD と確率的ハフ変換の比較 図 3 に示すように,確率的ハフ変換の場合は全体的に IS2-47 : 819 そうであるが,特にキーボードなど細かい部分におい ては間違った方向に投票数が多くなってしまい,全く間 違った場所に間違った方向で線分を検出してしまってい るのが分かる.しかしながら LSD は全体的にはもちろ ん,細かい部分においても正確に安定した線分検出がで きているのが分かる. 2. 2. 2 線分のマッチング 線分の 3 次元復元をするために初期画像で検出した線 分を動画像間でマッチングする.本手法では,線分の動画 像間でのマッチングに Trifocal Tensor を用いる [14], [15]. Trifocal Tensor とは,3 視点(3 枚の画像)の 3 次元的 幾何関係を表すテンソルである.Trifocal Tensor を用い ることで,より強い拘束条件により,通常のテンプレー トマッチングに比べて高精度にマッチングする. 本手法におけるマッチングの概要を図 4 に示す. 2. 2. 3 線分の 3 次元復元 Mapping 処理の入力であるそれぞれ画像の射影行列 と,動画像間での検出した線分のマッチング結果を用い て線分の 3 次元復元を行う.本手法では,線分の端点 2 点を 3 次元復元することで線分を 3 次元復元する.線分 の端点 2 点の 3 次元復元には式 1 を用いる. ⎛ ⎜ ⎜ ⎜ ⎝ p31 u − p11 p31 v − p21 p031 u0 − p011 p031 v 0 − p021 p32 u − p12 p32 v − p22 p032 u0 − p012 p032 v 0 − p022 ⎞ ⎛ p33 u − p13 X ⎟ p33 v − p23 ⎟ ⎜ ⎟⎝ Y p033 u0 − p013 ⎠ Z p033 v 0 − p023 ⎛ p14 − p34 u ⎜ p −p v ⎜ 24 34 =⎜ 0 ⎝ p14 − p034 u0 p024 − p034 v 0 ⎞ ⎟ ⎠ ⎞ ⎟ ⎟ ⎟ ⎠ (1) 式 1 において,(X, Y, Z) は復元する 3 次元線分のそれ ぞれ端点の座標,(u, v), (u0 , v 0 ) はそれぞれ画像上の点で ある.P, P0 も同様にそれぞれ画像の射影行列である. 図4 (X, Y, Z) をそれぞれ 3 次元線分の端点について計算す ることで,線分の端点 2 点を 3 次元復元でき,線分が 3 次元復元できたので,これで Mapping 処理を終える. Trifocal Tensor による同時検索 画像 1 における入力線分の端点である入力点について 考える.まず入力点に対して画像 2 にエピポーラ線を引 くことができる.また,本手法では動画像間のマッチン グとしているので,画像間の対応点の移動は微小である として探索領域(画像 2)を設定している.つまりこの 探索領域内のエピポーラ線上のみで探索を行う.そして Trifocal Tensor を使用することにより,各探索点におい て画像 1 の入力点,画像 2 の探索点から画像 3 の投影点 を計算することができる.そして入力点と探索点間のテ ンプレートマッチング,入力点と投影点間のテンプレー トマッチングを評価 SSD で行い,SSD の和が最小とな るような探索点を対応点として選択する.このように, 画像 2 と画像 3 の同時検索によってマッチングを行う. 図 5 は実際にマッチングを行った結果である. 画像 1 画像 2 図5 画像 3 線分のマッチング画像 図 5 に示す番号は対応する線分を示しており,適切に 線分のマッチングが行えている. 2. 3 Localization Localization 処理では,カメラからの入力画像に対し て線分を検出し,マップ空間中の 3 次元線分と検出した 2 次元線分との対応をとり,対応関係からカメラの位置・ 姿勢を推定する.つまり,Mapping 処理の入力データで ある射影行列の推定を行う. 2. 3. 1 入力画像の線分検出 本手法では,カメラからキャプチャされる毎フレーム に対して Localization を行うため線分を検出する.実際 には,カメラからキャプチャされた入力画像に対して線 分を検出し,Localization を行って,Localization に使 用されなかった線分(新しく登場した線分)を Mapping する.つまり,Mapping 処理において再び線分検出を行 うものではなく,Localization で使用されなかった線分 を新しい線分と考えて Mapping 処理に渡す.よってこ こでの線分検出は同様に LSD を適用している. 2. 3. 2 2 次元線分と 3 次元線分の対応付け カメラの位置・姿勢を推定するためには,マップ空間 中の 3 次元線分と検出した 2 次元線分の間で対応関係を 作る必要がある.ここでは 2 次元線分と 3 次元線分の対 応付けについて述べる.線分はローカルな明度値情報を 保持しないので,3 次元線分と 2 次元線分のマッチング は困難である.よって本手法では,前フレームのカメラ の位置・姿勢を使用して近傍探索を行い,投票を行うこ とで対応付けを行う. IS2-47 : 820 図 6 に対応付けの概要を示す.緑の線分は LSD によっ て検出した 2 次元線分であり,赤の線分はマップ空間の 3 次元線分を前フレームのカメラの位置・姿勢によって 投影したものである.まず,投影された線分(赤)につ いて均一なサンプル点を考え,それぞれサンプル点から 直交方向に適当な長さで探索を行う.このときに検出し た線分(緑)と交われば,その線分に投票を行う.これ によって,それぞれ投影された 3 次元線分に近い位置に ある 2 次元線分が最大の投票数となり,対応付けを行う ことができる. 2. 3. 3 3 次元線分の再計算 本手法では,2 次元線分と 3 次元線分の対応付けの際 に,角度差が閾値以上である場合は対応付けから除外し 再計算の対象とする.角度差の閾値は,フレーム間のカ メラの移動によって生じるズレ程度としているので,3 次元線分が誤差を含まず正しい位置に存在していれば角 度差の閾値を越えてしまうことはない.しかし,3 次元 線分が誤差を含んでいる場合はほとんどが閾値を超える 角度差になる.よって最大投票数となり対応付いたが, 角度差の閾値によってはじかれるのが一定フレーム以上 続いた場合には再計算を行う. 再計算の手法の概要を図 8 に示す.Mapping の最小二 乗法による 3 次元線分の復元により,誤差を含んだ 3 次 元線分も復元した視点では,検出した線分とズレなく重 なるように復元される.しかし,復元した視点から大き く傾けると,次第に検出する線分との角度差を生じるよ うになる.よって,マップ空間中の 3 次元線分それぞれ に復元した際の視点を保存しておき,そのベクトル方向 上で,現在検出する線分と重なるように再計算を行う. 図 6 2 次元線分と 3 次元線分の対応付け しかしながら,マップ空間における 3 次元線分は誤差 を含んでおり,大きな誤差を持つ 3 次元線分を対応付け としてカメラの位置・姿勢推定を行うと,精度が落ちて しまう.よって本手法では,マップ空間における 3 次元 線分の誤差を少なくするために,3 次元線分の再計算を 行う.誤差の判定には,2 次元線分と投影された 3 次元 図8 線分の角度差を使用する.よって,たとえ投票数が最大 で対応付いたとしても,角度差が大きい場合には 2 次元 3 次元線分の再計算 図 9 は,実際に 3 次元線分の再計算を行った画像であ 線分と 3 次元線分の対応付けから除外し,再計算の対象 る.緑の線分は再計算前で,水色の線分が再計算後であ とする.角度差には閾値を設定している. る.緑の線分の再計算前では,立方体を中心に,3 次元 図 7 は実際に 2 次元線分と 3 次元線分の対応付けを 線分のズレが大きく目立つ.復元時の視点の画像ではズ 行った画像である.赤が投影した 3 次元線分であり,緑 レなく重なっているが,復元時の視点から大きく傾けた が検出した 2 次元線分である.実際に,適切に対応付け 画像では大きい角度差が生じている.しかし再計算を行 が行われているのが分かる. うことによって,水色の線分の再計算後では立方体に見 られた大きなズレがなくなり,適切に重なっているのが 分かる.これは,提案手法の 3 次元線分の再計算によっ て,3 次元線分の誤差を解消できていることを示す. 図 7 実画像での対応付け(赤:3 次元線分 緑:2 次元線分) IS2-47 : 821 反復回数 43 では投影誤差が 1 ピクセル未満となり同じ 点に投影している.このように LBOI は初期値が大きく 異なった値であっても,高精度に大域解に収束する. 3. 線分を使用した SLAM の実験とその結果 の検討 再計算前:復元時の視点 再計算前:傾けた視点 本手法の有効性を確認するために実験を行った. 3. 1 実験の目的と実験環境 ここでは,行う実験の目的と実験環境,概要について 述べる.まず実験として以下の 2 つを行った. 再計算後:復元時付近の視点 再計算後:傾けた視点 図 9 実画像での 3 次元線分の再計算 ( 1 ) 線分環境における SLAM の実験 ( 2 ) 平面対象における 3 次元線分の精度確認の実験 まず線分環境における SLAM の実験について述べる. 2. 3. 4 カメラの位置・姿勢推定 マップ空間の 3 次元線分と検出した 2 次元線分の対応 関係から,カメラの位置・姿勢を推定する.本手法では, カメラの位置・姿勢推定に Zhang らの Line Based Orthogonal Iteration Algorithm (LBOI) を適用する [12]. LBOI は点対応で Orthogonal Iteration アルゴリズムを 行った手法 [13] を線対応に拡張したものである.初期値 は,前フレームのカメラの位置・姿勢を与える. Orthogonal Iteration アルゴリズムは,反復的に初期 値からの投影誤差を少なくする非線形の最適化手法であ る.非線形の最適化手法としてよく知られている最急降 下法や,レーベンバーグ・マルカート法は 3 次元点を投 影して,検出点と投影点の誤差を元に位置・姿勢を改善 している.Orthogonal Iteration アルゴリズムは,3 次元 点から投影視線に対して直角な点を考え,3 次元空間に おいて共線性の誤差を特異値分解を用いて最適化を行う. LBOI は,これら最急降下法やレーベンバーグ・マル カート法よりも,誤差を含んだデータに対して頑健であ る.また,最急降下法やレーベンバーグ・マルカート法 は微分値の勾配を用いているので,局所的に極小値のと ころがあった場合に解の手前で局所解に収束してしまう ことがある.しかしながら LBOI は大域解に収束する. ここで線分環境とは,特徴点の出にくい,線分が多く含 まれる環境のことである.人工的な環境においては,色 が一色で特徴点が出にくく,しかし線分が多く含まれる 環境というのが存在しえる.図 11 にその例を示す. 図 11 線 分 環 境 線分環境における SLAM の実験では,図 11 のような, 特徴点が出にくく,線分が多く含まれる環境において SLAM を行うことを目的とする.図 12 に実験の概要を 示す.また図 13,14 に実験結果を示す. 本実験の実験環境は以下の通りである. • 画像サイズ:640 × 480(ピクセル) • カメラ:Logicool Webcam Pro 9000 • CPU:Intel(R) Core(TM) i3 CPU 3.07GHz • メモリ:2.92GB 図 10 LBOI の収束 図 12 線分環境における SLAM の実験概要 図 10 は LBOI の実験を行った結果である.実験では, 理想的な 2 次元線分と 3 次元線分の対応を 20 組入力し た.横軸が反復回数で,縦軸が投影誤差(ピクセル)で ある.反復回数 1 では投影誤差が約 660 ピクセルと非常 に大きいが,反復するごとに投影誤差を減らしていき, IS2-47 : 822 3. 2 実 験 結 果 初期状態において,緑の線分と基準マーカを合わせ ることにより,本システムを開始する.オレンジの線分 はマップ空間の 3 次元線分である.またそれぞれ 3 次 元線分における白線は,2 次元線分との対応付けの際の 探索領域である.画像の右はマップ空間を示す.点線は Mapping されたばかりの線分であり,一定フレーム以上 適切に対応付いたら信頼ある線分としてカメラの位置・ 姿勢推定に用いる. フレームレートは 1500 フレームの平均で 15.4fps で あった.これは本手法が実時間で実行できていることを 示す. 図 14 線分環境における SLAM の実験結果 2 次に,平面対象における 3 次元線分の精度確認の実験 について述べる.本手法で用いている基準マーカーは平 面マーカーであり,その Z 軸は平面に垂直な方向に定義 されている.よって基準マーカを置いてある平面を対象 図 13 線分環境における SLAM の実験結果 として,平面に含まれる線分のみを 3 次元復元すれば, 理論的には,復元された 3 次元線分は全て Z = 0 に近く なるはずである.よって,基準マーカを置いた平面を対 象として SLAM を行い,復元された 3 次元線分の重心 を計算し,その Z 軸の値を確認する.実験の概要を図 15 に示す. IS2-47 : 823 しかしながら,課題としては実験結果の検討で述べた ように誤差の蓄積が大きく,カメラが基準マーカから離 れるほどにシステムが不安定になってしまう問題がある. 今後の展望としては,システムの安定化のために時系列 フィルタを導入し,線分情報とともに特徴点情報を使用 する SLAM システムを目指している. 図 15 平面対象における精度確認実験の概要 文 図 16 は,3 次元線分の精度算出に使用した 3 次元線分 である. 図 16 平面対象における実験結果 図 16 における 3 次元線分それぞれに対して,線分の 重心を計算し,その重心の Z 値の絶対値を計算し平均を とった.結果は 1.5mm となった. 3. 3 実験結果の検討 実験は図 11 に示すような,特徴の出にくく線分が多 く含まれる環境において行った.このような環境におい て,図 13,14 に示す結果のように,基準マーカ以外の線 分について実行中に随時 Mapping を行い,それら 3 次元 線分を使用してカメラ位置・姿勢を推定することにより, 本手法で用いた基準マーカが見えなくなっても位置・姿 勢推定を行うことができた.また処理速度については, 1500 フレームの平均で 15.4fps となり,対象環境の線分 情報を用いて実時間で SLAM が行えたといえる. 次に平面対象の実験について述べる.平面を対象とし て SLAM を行った結果,Mapping された 3 次元線分の 重心の Z 値の絶対値の平均を測定したところ 1.5mm と なった.これは,画像上においては 1 画素程度の誤差で あり,本手法が拡張現実感を行うにあたっては十分な範 囲の誤差である.しかしながら誤差の蓄積の問題から, より遠くへカメラが移動した際に Localization が失敗し てしまうことがある. 4. 結 論 本論文では,高速かつ正確に線分を検出する線分検出 器 LSD の適用,2 次元線分と 3 次元線分の対応関係から 誤差に対して頑健にカメラの位置・姿勢推定を行う LBOI の適用,また誤差を含んだ 3 次元線分の再計算を提案し 献 [1] 武富貴史, 佐藤智和, 横矢直和, “拡張現実感のための優 先度情報を付加した自然特徴点ランドマークデータベー スを用いた実時間カメラ位置・姿勢推定, ” 電子情報通 信学会論文誌 D, vol.J92-D, no.8, pp.1440-1451, Aug. 2009 [2] A.Irschara, C.Zach, J-M.Frahm, and H.Bischof, “From Structure-from-Motion Points Clouds to Fast Location Recognition,” IEEE Conf. on CVPR, pp.2599-2606, Jun. 2009 [3] Andrew J.Davison, Ian D.Reid, Nicholas D.Molton, and O.Stasse, “MonoSLAM: Real-Time Single Camera SLAM,”IEEE Trans. on PAMI, vol.29, no.6, pp.1052-1067, Jun. 2007 [4] E.Eade, T.Drummond, “Scalable Monocular SLAM, ”IEEE Conf. on CVPR, pp.469-476, Jun. 2006 [5] A.P.Gee, W.Mayol-Cuevas, “Real-Time Model-Based SLAM Using Line Segments, ”In 2nd International Symposium on Visual Computing, Nov. 2006 [6] J.Gates, M.Haseyama, and H.Kitajima, “A new conic section extractin approach and its applications, ”IEICE Trans. on Info. and Sys. vol.E88-D, pp.239-251, Feb. 2005 [7] A.I.Comport, E.Marchand, and F.Chaumette,“Robust modelbased tracking for robot vision,”In IEEE/RSJ Int. Conf. on IROS’04, vol.1, pp.692-697, Sept. 2004 [8] E.Eade, T.Drummond, “Edge Landmarks in Monocular SLAM, ”In Proc. British Machine Vision Conference, Sept. 2006 [9] T.Drummond, R.Cipolla, “ Real-time visual tracking of complex structures,”IEEE Trans. on PAMI, vol.24, no.7, pp.932-946, July 2002 [10] M.Montemerlo, S.Thrun, D.Koller, and B.Wegbreit, “Fastslam 2.0: An improved particle filtering algorithm for simultaneous localization and mapping that provably converges, ”In IJCAI, pp.1151-1156, 2003 [11] R.G.von Gioi, J.Jakubowicz, J-M.Morel, and G.Randall, “LSD:A Fast Line Segment Detector with a false Detection Control, ”IEEE Trans. on PAMI, vol.32, Issue.4, pp.722-732, Apr. 2010 [12] X.Zhang, K.Wang, Z.Zhang, and Q.Yu, “A New LineBased Orthogonal Iteration Pose Estimation Algorithm, ”ICIECS, pp.1-4, Dec. 2009 [13] C-P.Lu, G.D.Hager, and E.Mjolsness, “Fast and globally convergent pose estimation from video images, ”IEEE Trans. on PAMI, vol.22, issue.6, pp.610-622, Jun. 2000 [14] B.Matei, B.Georgescu, P.Meer, “A Versatile Method for Trifocal Tensor Estimation, ”In 8th International Conference on Computer Vision, vol.2, pp578-585, July 2001 [15] B.Matei, P.Meer, “A General Method for Errors in Variables Problems in Computer Vision, ”IEEE Conf. on CVPR, vol.2, pp18-25, Jun. 2000 た.提案手法によって,実験結果に示されるように,対 象環境の線分情報を用いて実時間でカメラの位置・姿勢 推定を行い,適切に Mapping を行うことができた. IS2-47 : 824