...

修士論文 自己位置姿勢推定による ウェアラブル三次元形状計測

by user

on
Category: Documents
13

views

Report

Comments

Transcript

修士論文 自己位置姿勢推定による ウェアラブル三次元形状計測
NAIST-IS-MT0251072
修士論文
自己位置姿勢推定による
ウェアラブル三次元形状計測システム
土屋 雅信
2004 年 2 月 6 日
奈良先端科学技術大学院大学
情報科学研究科 情報処理学専攻
本論文は奈良先端科学技術大学院大学情報科学研究科に
修士 (工学) 授与の要件として提出した修士論文である。
土屋 雅信
審査委員:
千原 國宏 教授
木戸出 正繼 教授
眞鍋 佳嗣 助教授
自己位置姿勢推定による
ウェアラブル三次元形状計測システム∗
土屋 雅信
内容梗概
現在, 手元にある物体の形状を別の場所にいる人間に伝えたい場合, 小型カメ
ラを搭載したモバイル情報機器を用い, ネットワークを介して瞬時に画像として
伝えることが可能となっている. しかし, ここで得られる画像は二次元映像であ
り, 三次元情報を厳密に表現することは難しい. 三次元情報は, 自由な位置・角度
から見通せるように提示することが可能であり, 物体の形状を他の人間に伝えた
際に生じる誤解を減らすことができるという利点を持っている. しかし, 現在行
われている三次元情報の取得方法は, 図面や写真を基に形状を手動でモデリング
する手法が一般的であり, モデリングに多大な労力が必要なため, 手軽に利用する
ことができない. また, モバイル機器のカメラのように, 撮りたい場所ですぐに撮
影し, 得られたものを瞬時に他人に送信できる計測機器はほとんど存在しない.
本論文では, 手に持てる程度の大きさの物体を対象に, 三次元形状を煩雑な
前準備なしに計測し, 結果を即座に他の場所に送信できる「ウェアラブル三次元
形状計測システム」を提案する. 提案システムの実現により, 物体を様々な角度
から眺めるという自然な動作で, リアルタイムに計測状況を照会しながら物体の
三次元形状を計測し, 計測結果を遠隔地に瞬時に送信することが可能となる.
キーワード
三次元情報, 三次元形状計測, ウェアラブルコンピュータ, マーカ, スリット光抽出
∗
奈良先端科学技術大学院大学 情報科学研究科 情報処理学専攻 修士論文, NAIST-ISMT0251072, 2004 年 2 月 6 日.
i
Wearable 3D Shape Measurement System
with Estimating Self Pose and Position∗
Masanobu Tsuchiya
Abstract
At present, when the user let someone know a shape of some object, the user
can take the shape as a photograph and send someone it instantly by using
mobile phone attached small camera. However, 2 dimensional image such as this
photograph cannot represents 3 dimensional shape of someobject strictly. By
using 3 dimensional information, the user can see the object from free position
and direction and know the shape more closely. The present method taking the 3
dimensional shape spents various time in order to take the shapes from pictures
and photographs manually. There are few 3D measurement system which can
take 3 dimensional information easily, such as the mobile phone attached a camera
which can take a picture easily and send it immediately.
This paper proposes the newly 3D shape measurement system. This system
can take 3D shape of hand-held size object without pre-preparation and send it
straightaway. The user can measure the shape of the object by natural operations
that the user looks at it from free direction.
Keywords:
Three-Dimensional Information, 3D Measurement, Wearable Computer, Marker,
Slit-Light Detection
∗
Master’s Thesis, Department of Information Processing, Graduate School of Information
Science, Nara Institute of Science and Technology, NAIST-IS-MT0251072, February 6, 2004.
ii
目次
第 1 章 序論
1
第 2 章 要素技術と関連研究
3
2.1
三次元形状計測 . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3
2.1.1
非接触型三次元形状計測の種類 . . . . . . . . . . . . . . .
3
位置・姿勢計測 . . . . . . . . . . . . . . . . . . . . . . . . . . . .
8
2.2.1
位置・姿勢計測方法 . . . . . . . . . . . . . . . . . . . . .
9
2.3
計測器が可動な三次元形状計測の先行研究 . . . . . . . . . . . . .
13
2.4
先行研究の内容と問題点 . . . . . . . . . . . . . . . . . . . . . . .
15
2.2
第 3 章 ウェアラブル三次元形状計測システム
19
3.1
システムの概要 . . . . . . . . . . . . . . . . . . . . . . . . . . . .
19
3.2
実現手法 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
20
3.2.1
位置・姿勢計測 . . . . . . . . . . . . . . . . . . . . . . . .
21
3.2.2
部分形状計測 . . . . . . . . . . . . . . . . . . . . . . . . .
22
3.2.3
計測結果の統合 . . . . . . . . . . . . . . . . . . . . . . . .
28
第 4 章 評価実験
4.1
29
試作計測器の構築 . . . . . . . . . . . . . . . . . . . . . . . . . . .
29
4.1.1
カメラと計測器の調整 . . . . . . . . . . . . . . . . . . . .
30
4.2
計測器の誤差評価 . . . . . . . . . . . . . . . . . . . . . . . . . . .
31
4.3
形状計測の実験 . . . . . . . . . . . . . . . . . . . . . . . . . . . .
34
4.3.1
前フレーム画像との差分によるスリット光抽出の実験 . . .
34
4.3.2
計測器を一方向に動かしたときの形状計測 . . . . . . . . .
37
4.3.3
計測器を自由に動かした場合の形状計測 . . . . . . . . . .
37
iii
第 5 章 考察
41
5.1
計測器の誤差評価に関して考察 . . . . . . . . . . . . . . . . . . .
41
5.2
形状計測の実験に関しての考察 . . . . . . . . . . . . . . . . . . .
41
第 6 章 結論
43
謝辞
44
参考文献
45
iv
図目次
2.1
三次元形状計測系統図 . . . . . . . . . . . . . . . . . . . . . . . .
4
2.2
三角測量と受動型ステレオ法の原理 . . . . . . . . . . . . . . . . .
5
2.3
トータルステーション GPT-8000A . . . . . . . . . . . . . . . . .
7
2.4
能動型ステレオ法 . . . . . . . . . . . . . . . . . . . . . . . . . . .
8
2.5
KONICA MINOLTA VIVID910 . . . . . . . . . . . . . . . . . . .
8
2.6
FARO Technologies Inc. “FaroArm Gold” . . . . . . . . . . . . .
10
2.7
Kreon Technologies “KLS51 Model” . . . . . . . . . . . . . . . . .
10
2.8
Faro Arm と Kreon 3D laser sensor を組み合わせた例 . . . . . . .
10
2.9
Polhemus “3SPACE FASTRAK” . . . . . . . . . . . . . . . . . .
11
2.10 Ascension “Flock of Birds” . . . . . . . . . . . . . . . . . . . . . .
11
2.11 Northern Digital “hybrid POLARIS” . . . . . . . . . . . . . . . .
12
2.12 ARToolKit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
12
2.13 「装着型視覚センサを用いた対象の 3 次元形状復元」 . . . . . . .
14
2.14 “A Self-Referenced Hand-Held Range Sensor’ . . . . . . . . . . . .
16
2.15 “Interactive Shape Acquisition using Marker Attached Laser Projector” . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
17
3.1
提案システム模式図
. . . . . . . . . . . . . . . . . . . . . . . . .
20
3.2
座標系の関係 . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
21
3.3
マーカ座標系の考え方 . . . . . . . . . . . . . . . . . . . . . . . .
22
3.4
部分形状計測 . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
24
3.5
スリット光とカメラに撮像される点との関係 . . . . . . . . . . . .
27
4.1
試作計測器
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
30
v
4.2
スリット光断面の取得イメージ図 . . . . . . . . . . . . . . . . . .
32
4.3
キャリブレーション時の機材配置 . . . . . . . . . . . . . . . . . .
33
4.4
方眼撮影画像の例 . . . . . . . . . . . . . . . . . . . . . . . . . . .
33
4.5
スリット光断面の計測結果 . . . . . . . . . . . . . . . . . . . . . .
35
4.6
スリット光抽出実験の様子 . . . . . . . . . . . . . . . . . . . . . .
35
4.7
スリット光抽出評価実験結果
. . . . . . . . . . . . . . . . . . . .
36
4.8
立体形状取得実験環境 . . . . . . . . . . . . . . . . . . . . . . . .
38
4.9
取得された立体形状
. . . . . . . . . . . . . . . . . . . . . . . . .
39
4.10 計測器を自由に動かした場合に取得された立体形状 . . . . . . . .
40
vi
表目次
4.1
既知の点を使った計測器の誤差評価(平均値) . . . . . . . . . . .
vii
34
第1章
序論
人間同士のコミュニケーションにおいて, 自分が興味を持ったものを人に紹介
するという行為はよく行われる. 手元にある物体の形状を別の場所にいる人間に
伝えたい場合, 我々は古来から絵として描き写すという方法を取ってきた. それ
が, 瞬時に絵を保存できるカメラが発明され, 現代では, モバイル機器に搭載され
たカメラを用い, ネットワークを介して瞬時に他の人間に伝えることまで可能と
なった. しかし, 絵や写真は二次元の記録手法であり, 三次元情報を厳密に記録す
ることは難しい. 三次元情報は, 自由な位置・角度から見通せるように提示する
ことが可能であり, 物体の形状を他の人間に伝えた際に生じる誤解を低減できる
という利点を持っている. 現在では, 3D カタログ [1] やバーチャル美術館 [2], ア
ミューズメント分野 [3] など様々な方面で利用されている. このように, 三次元情
報を記録することは, 物体の形状をよりリアルかつ自由に見せることを可能とす
る. しかし, 三次元形状を取得するシステムは, 一般にあまり普及していない.
現在, 三次元形状情報の取得には, 図面や写真を元にして, 形状を手動でモデリ
ングする手法が一般的であるが, モデリングに多大な労力が必要であり, 手軽に
は利用できない. また, 三次元計測器を使って自動で形状を取得する場合にも, 計
測器が大規模であったり, 装置の前準備や計測結果の統合処理が煩雑であるため,
民生で用いるには適していない. 更に, モバイル機器のカメラのように撮りたい
場所ですぐに撮影し, 得られたものを他の人に送信できるような計測機器はほと
んど存在しない.
そこで本論文では, 手に持てる程度の大きさの物体を対象に, 三次元形状を煩
雑な前準備なしに計測し, 結果を即座に他の場所に送出できる, ウェアラブル三次
元形状計測システムを提案する. 提案システムでは, 計測システムのウェアラブ
ル化により, 物体を様々な角度から眺めるという自然な動作で, 物体の形状計測を
1
実現する. また, ウェアラブル化は, モバイル機器のカメラのように, 日常生活で
目に付いたものをその場で計測することが可能となる他, 採取が禁止されている
ものや触ると壊れてしまうものを計測できるという利点を持っている.
提案システムにおける三次元形状計測手法はスリット光投影法に基づいており,
カメラから得られる動画のフレーム毎に, 物体に照射されるスリット光を抽出し,
物体の部分形状を計測する. スリット光の走査は計測器を自由に動かすことによ
り行う。ゆえに計測器自体が自由に動くため, 部分形状が物体全体のどの部分の
形状に対応するかを把握することが困難である. 提案システムでは, 物体の傍に
固定基準点となるマーカを配置し, 計測器の位置姿勢情報を推定することで, 物
体全体の形状統合を実現する. また, リアルタイムで形状計測を行いながら Head
Mounted Display に計測状況を提示できるため, 未計測部分を照会しながら適切
な計測を行うことが可能である.
本論文では, 第 2 章で三次元形状計測と位置・姿勢計測の関連研究を整理し, 第 3
章で, 本論文の主題であるウェアラブル三次元計測システムについて提案する. 第
4 章で提案システムの実装と評価について述べ, 第 6 章で本論文の結論を述べる.
2
第2章
要素技術と関連研究
本論文で提案するウェアラブル三次元形状計測器は, 1. 三次元形状計測技術と
2. 位置・姿勢推定技術を要素技術として構築される. そこで, 本章では, システム
の提案に先立ち, それら 2 つの要素技術について解説し, 提案システムに関連す
る先行研究について述べる.
2.1
三次元形状計測
提案システムで一番重要な要素技術は三次元形状計測技術である. 三次元形状
計測には, 形状計測用のセンサを計測対象に直接接触させて計測を行う「接触型」
と接触させずに計測を行う「非接触型」の二種類の方法がある.
接触型の三次元形状計測は, 物体にセンサを接触させるので物体を傷つける恐
れがあり, また, 軟性の物体では接触によって形状が変化してしまうという問題が
ある. この問題を避けるため, 汎用性の高い三次元形状計測器は非接触型である
ことが多い.
以下では, 非接触型について詳述する.
2.1.1
非接触型三次元形状計測の種類
非接触型三次元形状計測手法を系統立てて分類すると図 2.1 のようになる. 非
接触型三次元形状計測手法を大別すると「受動型」と「能動型」の二つに分類さ
れる. 受動型は計測対象を含む外界から得られる情報をセンサで受信し, 外界か
ら得られる情報のみで三次元形状を計測する. 能動型は, 物体の形状を容易に推
定できるような信号(光や超音波)を能動的に計測対象物体へ照射し, 対象物体
3
図 2.1: 三次元形状計測系統図 [4]
から反射して得られた信号をもとに物体の形状を推定する方式である.
以下では, 本論文で提案するウェアラブル三次元形状計測器と関わりのある三
次元形状計測手法について先行研究も交えて詳述する.
受動型ステレオ法
受動型ステレオ法とは, 2 台以上のカメラを用いた三角測量を原理とした計測
手法である. 図 2.2 に示すように, 非接触型センサとしてカメラを 2 台使用し, 計
測対象 p を 2 台のカメラから同時に撮影可能なように配置する. カメラの撮影
位置・向きが変化しないものとすると, 2 台のカメラのレンズ中心と計測対象か
らなる三角形 p, c1 , c2 に関して, 辺 c1 , c2 の長さと角 ϑ1 , ϑ2 が確定し, 他の 2 辺
pc1 , pc2 が求まる. これにより, 計測器と計測物体との距離を求めることができる.
従って, 計測対象上の注目点 p に対する, 2 台のカメラから得られた画像上の対
応点が求まれば, 計測対象の三次元形状を得ることが可能となる.
4
図 2.2: 三角測量と受動型ステレオ法の原理
受動型ステレオ法は, カメラを 2 台用意するだけで計測が行えるため, 簡便で
あり, 形状計測と同時に物体の色や模様などを記録することも可能である. しか
し, 計測対象に対する 2 台のカメラの対応点を求めることが一般に困難である.
特に, 同一色の物体のように, 注目点が画像処理で探索しにくい物体の計測には適
していない.
受動型単眼法
受動型単眼法は, 非接触センサとして 1 台のカメラのみを用いる方法である.
人間は, 遠近法で描かれた絵画を見るときのように, 見えるもの同士の相対的な大
きさや, 無限遠点の消失点などから, 両眼で見なくても奥行きを知覚することがで
きる. 受動型単眼法では, 奥行き知覚の原理をコンピュータで実現することで三
次元形状を得ようとするものである.
単眼法を実用化した方法として Mercury3D[5] がある. これはモバイル機器搭
載用として開発されたもので, モバイル機器に搭載されたカメラで撮影した画像
を手軽に三次元情報にすることが可能である.
単眼法の利点は, 二次元画像が 1 枚あれば, 三次元情報を得られることである.
これは, 昔の風景や建物など, 写真しか残っておらず, 容易に計測しなおすことが
できない物体や, 絵画や漫画のように, 実世界に存在しないものを立体表示できる
利点がある.
5
しかし, 単眼法で得られる三次元情報は経験によりそれらしく見えるように生
成したものであり, 実際に単眼だけで形状計測を行うには, 計測対象物体の大きさ
や位置を固定するような拘束条件が必要になる.
能動型レーダ法
能動型レーダ法は, 計測器から計測対象物体に向けてレーザを打ち, 反射光を
光センサで観測することで形状を計測する手法である. レーザを打ってからレー
ザが計測物体面で反射して, 光センサに返ってくるまでの時間がわかれば, 物体と
計測器との距離を求めることができる.
しかし, 光速は約 3 × 108 [m/s] と大変高速であるため, 計測対象物体と計測器
との距離が十分に離れていないとセンサの時間分解能の限界から反射光に追従す
ることができず計測が難しい. そこで, レーザ光を振幅変調し, 送波した光線と受
波した光線との位相差を利用して計測する位相差計測法が用いられている.
図 2.3 はトータルステーションと呼ばれ, 能動型レーダ法を用いた計測器であ
る. 地形や遺跡のような大規模なものを測量し, 図面化する際に用いられる. ま
た, 位相差計測法の結果と受動型単眼法を組み合わせ, 特徴のある部位をレーダ法
で測量し, 測量点を三次元位置のわかる特徴点として, 計測対象の三次元形状を復
元するシステムが提案されている [6].
しかし, 計測対象物体を本当に精度良く計測を行うには, レーザを打つ位置を
細かく変化させる必要があり, 計測対象物体全体の形状を能動型レーダ法だけで
求めるには多大な時間を要する.
能動型ステレオ法
先に述べた受動型ステレオ法は, 2 台以上のカメラから得られる画像中の注目
点の対応を見つけることが難しい. そこで, 対応点を生成するためのプロジェク
タを用意し, プロジェクタからスポットもしくは特殊形状のパターンを投影し, こ
れをカメラで撮影することで対応点探索を容易にしたものが能動型ステレオ法で
ある.
6
図 2.3: トータルステーション GPT-8000A[7]
光が投影された部位は光の当たっていない部位とは明らかに性質が違うので,
簡単に抜き出すことが可能である. また, プロジェクタから投影された光の方向
も既知であるため, 1 台のカメラと 1 台のプロジェクタがあれば, 三角測量の原
理で三次元形状計測を行うことができる(図 2.4).
能動型は受動型に比べ安定して形状を計測できるため, 小型で精度の高い三次
元形状計測器は能動型ステレオ法を用いていることが多い. しかし, 例えば黒色
の物体のようにプロジェクタの光がほとんど反射しない物体や, 磨かれた金属の
ように光が鏡面反射する物体, 髪の毛や毛皮のような光が散乱する物体では, プロ
ジェクタの光が正しく抽出できないため, 能動型ステレオ法による計測は困難で
ある.
能動型ステレオ法は光の投影法の違いから, スポット光投影法・スリット光投
影法・パターン光投影法などに分類することができる.
I スポット光投影法 プロジェクタから対応点の目印に相当するスポットを照射
する方法で, 点を計測対象全体にわたって走査して物体の形状を得る.
I スリット光投影法 点を帯状に配列したスリット光を投影して形状を計測する
方法である. 帯の長辺方向に光を走査する必要がないため, スポット光投影法よ
りも高速に物体全体の形状を計測することができる. スリット光投影法を用いた
7
図 2.4: 能動型ステレオ法
図 2.5: KONICA MINOLTA VIVID910 [8]
形状計測器としては KONIKA MINOLTA の VIVID [8] がある. VIVID は計測
器の縦軸に垂直なスリット光を物体に投影して, 計測を行う三次元形状計測器で
あり, 最小約 0.2[mm] の確度で物体の計測が可能である.
2.2
位置・姿勢計測
第 2.1 節からわかるとおり, 三次元形状計測は計測器・計測物体間の距離計測
に帰着し, 前提条件として計測器・計測物体それぞれの座標系間の関係が変化し
ないことが求められる. しかし, 計測器が移動する場合には, 計測器の座標系が変
化するため, 変化に合わせて計測器の座標系と物体の座標系間の関係を求める必
8
要がある. 以下の節では, 計測器と物体の座標系間の関係を求めるのに必要な位
置姿勢計測手法について詳述する.
2.2.1
位置・姿勢計測方法
機械式
機械式は, 基準点となるある地点に固定されたロボットアームを利用した計測
手法である. 関節軸の回転角とアームの長さからアーム先端の位置・姿勢を求め
ることができ, 関節軸の回転角を正確に計測・制御できれば, 先端に取り付けた計
測器の位置・姿勢を誤りなしに求めることが可能である.
機械式の位置・姿勢計測を三次元計測に利用する例として, Faro の FaroArm[9]
と Kreon の 3D laser sensors[10] を組み合わせて三次元計測を行うシステムが挙げ
られる(図 2.6, 2.7, ??). このシステムの三次元形状計測の計測解像度は 10[µm]
で, ロボットアームの位置制御精度が 25[µm] である.
機械式の位置・姿勢計測は高精度・高確度である反面, ロボットアームを計測
対象のそばに固定する手間がかかり, 装置が大型であるという欠点がある.
磁気式
磁気式は, ソースコイルと呼ばれる磁気発生源から発生する磁場をセンサコイ
ルで計測し, 位置・姿勢を推定する方式である. 磁気式には, ソースコイルを座標
の基準としてセンサコイルの座標・姿勢を求める方式と, センサコイルを座標の
基準とし可動なソースコイルから出る磁場の変化を用いて位置・姿勢を求める方
式の二つに大別できる. 可動側のセンサの自由度を高めるためにセンサ内には向
きの違う複数のコイルを内挿している.
センサコイルが可動なシステムとして, Polhemus の 3SPACE FASTRAK[11]
が挙げられる [11] (図 2.9). Fastrak はソースコイルから半径 1.5[m] の範囲で
において, 1[mm], 0.15◦ の精度で位置・姿勢の計測が可能である. ソースコイル
が可動なシステムとして, Ascension の Flock of Birds[12] が挙げられる [12] (図
9
図 2.6: FARO Technologies Inc.
図 2.7:
“FaroArm Gold”[9]
Kreon Technologies
“KLS51 Model”[10]
図 2.8: Faro Arm と Kreon 3D laser sensor を組み合わせた例
10
2.10). Flock of Birds はセンサコイルから 1.2[m] の範囲において, 0.5[mm], 0.15◦
の精度で位置・姿勢の計測が可能である.
磁気センサは, 基準点としてコイルを設置する必要があるが, 非常に小型のた
め, 機械式に比べるとはるかに可搬性に優れている. しかし, 計測に磁界を利用す
るため, 磁界を狂わす要素を持つ磁性材料や, 電子機器のそばでは正確な計測がで
きない.
図
2.9:
Polhemus
“3SPACE
図
FASTRAK”[11]
2.10:
Ascension “Flock of
Birds”[12]
光学式
光学式は, 形状が既知のマーカをビデオカメラで撮影し, カメラに撮像される
マーカの形状から位置・姿勢を推定する方式である. 推定される位置・姿勢は,
1. カメラを固定し, カメラを基準座標としたマーカの位置・姿勢を求めるもの
2. マーカを固定し, マーカを基準座標としたカメラの位置・姿勢を求めるもの
に大別される. 1 の方式では大型のカメラを据付け, カメラの画角内でマーカ検出
を行うモーショントラッキングのような使い方に適している. マーカに可視光も
しくは赤外光の LED を用い, LED の光をカメラで受光することにより位置・姿勢
検出を確実にしているものがある. 例えば, Northern Digital の hybrid POLARIS
の一部である Active ツール [13] が挙げられる. このシステムでは, マーカとして
11
四つの赤外線 LED を正方に配置したユニットを用いており, これら LED が構成
する正方形を専用のセンサで観測し, 正方形の形状変化を見ることで, カメラ座標
を基準とするマーカの位置を求めることができる.
2 の方式ではカメラを自由に動かすことが可能なので, カメラの画角に関係な
く, カメラの位置・姿勢を求めることが可能である. 例えば, ARToolKit[14] が挙
げられる. ARToolKit は紙などに描かれた正方形のマーカをカメラで撮影するこ
とで, カメラの位置・姿勢を求めることができる. また, マーカに識別コードを記
して, マーカを識別することが可能である. マーカごとにマーカ座標系を定義す
ることが可能であるため, Mixed Realty の分野で, 各マーカに仮想物体を配置し,
カメラの位置・姿勢情報を元に仮想物体の向きやサイズを割り出すような使い方
が可能である.
光学式の位置・姿勢計測はオクルージョンに弱く, マーカーが撮影できない場
所では用いることができないが, 磁気式よりも外乱に強く, 機械式に比べて計測器
を自由な配置にすることができる. しかし, 位置・姿勢計測の速度がカメラのフ
レームレートに制限されてしまう欠点がある.
図 2.11: Northern Digital “hybrid
図 2.12: ARToolKit[15]
POLARIS”[13]
12
2.3
計測器が可動な三次元形状計測の先行研究
装着型センサを用いた三次元形状復元
ウェアラブル三次元形状計測の先行研究として, 装着型視覚センサを用いて三
次元形状を復元する研究がある [16]. この研究は, 装着型二眼視覚センサを頭部に
装着して, 至近距離の物体及び作業環境を受動型ステレオ法で計測し, 形状と物体
表面のテクスチャを同時に取得するものである. この方法は計測器が可動である
ため, 受動型ステレオ法で各フレームごとに求めた距離画像を基準座標系に統合
する必要がある. この研究では統合方法として, 画像間に共通な点と明度情報を
用いて基準座標系に変換するための回転・並進行列を求めている. 手順は以下の
通りである.
1. テンプレートマッチングによって画像の特徴点と前フレーム画像との対応
点を見つけ, その中からランダムに 3 点を選ぶ.
2. 撮影間隔が十分短いとし, 3 点がある場所のテクスチャと現フレームのテク
スチャとを比較し, 明度差の絶対値が最小になる点をテンプレートマッチン
グで探索する.
3. 探索結果を用いて回転行列を探索する.
一部精度に問題があるものの, 基準座標系で統合された距離画像を求めること
ができている. しかし, 10 枚の距離画像統合に処理時間を 20 時間ほど要し, リア
ルタイムで処理を行うことはできない. また, 受動型ステレオ法で重要な 2 枚の
画像間での対応付けは手動で行っており, すぐにウェアラブルで実用的に使える
システムにはなっていない.
計測器が可動な三次元形状計測システム
計測器が可動でリアルタイムに近い速度で三次元形状計測が可能なシステムとし
ては, Hebèrt らの “A Self-Referenced Hand-Held Range Sensor” [17] と Fukukawa
[18] らの “Interactive Shape Acquisition using Marker Attached Laser Projector”
がある.
13
(a) 装着型視覚センサ
(b) 計測対象
(c) 距離画像生成結果
図 2.13: 「装着型視覚センサを用いた対象の 3 次元形状復元」[16]
14
“A Self-Referenced Hand-Held Range Sensor” は 2 台のカメラと計測用十字線
照準を投影するプロジェクタを搭載した計測器と, マーカを作り出すためのプロ
ジェクタとを用いた三次元形状計測システムである. 文化財の記録用に, 石像の
ような比較的大きな物体を一気に計測することを想定している.
マーカ投影用プロジェクタより投影されたマーカを撮影しながら形状を計測す
ることにより, 計測器を可動にすることができる. また, 2 台のカメラと十字線照
準の特性からゼロクロッシング法だけでスリット光を抽出することができる. 精
度は 250[µm] であり高精度であると言える.
“Interactive Shape Acquisition using Marker Attached Laser Projector” はス
リット光レーザの照射部に 5 個の LED マーカーを取り付け, スリット光照射部と
マーカを一体に動かして形状を得る. スリット光照射部とマーカを一体にするこ
とにより, 物体をスリット光でなぞるように走査するだけで計測結果が逐次表示
されるので, リアルタイムで計測しやすい三次元形状計測を実現している. LED
を 5 つ用いることで, マーカの検出精度を高め, 位置・姿勢推定時のエラーの低
減に成功している. 計測対象としては身の回りにある物体を至近距離から計測す
ることを想定している.
“A Self-Referenced Hand-Held Range Sensor” はマーカを投影するためのプロ
ジェクタをどこかに設置する必要がある. マーカを投影するプロジェクタにより,
計測範囲を広げ大きな物体を計測することが可能になるが, 至近距離の物体を計測
するには装置が大規模過ぎる. また, “Interactive Shape Acquisition using Marker
Attached Laser Projector” は, インタラクティブ性が高いが, マーカを可動にす
るため, カメラを動かないように固定しなければ正しい形状を計測することがで
きない.
2.4
先行研究の内容と問題点
前章までに挙げた先行研究は,
1. 大型の計測対象物体を高精度で記録するための三次元形状計測器.
2. 小型の計測対象物体を手軽に記録するための三次元形状計測器.
15
(a) 実験装置
(c) 計測用十字線照準の例
(b) マネキン頭部を計測した結果
図 2.14: “A Self-Referenced Hand-Held Range Sensor”[17]
16
(a) システム構成と計測用ワンド [18]
(b) 計測の様子 [19]
図 2.15: “Interactive Shape Acquisition using Marker Attached Laser Projector”
17
である。これまで民生用として三次元形状計測器を利用することがほとんどなかっ
たため, 三次元形状計測器は、1 がよく研究されており、商品として売り出されて
いるが、高精度で計測できることに重きを置いているため、装置が大型になる傾
向があり、家庭で手軽に使う用途には適していない. 最近は, 2 のような計測器が
研究されているが, 計測に用いるビデオカメラなどの画像センサを他の場所にす
えつける必要があり、どこでも計測できるというわけにはいかない.
18
第3章
ウェアラブル三次元形状計測
システム
ウェアラブル三次元形状計測システムを実現するためには,
• カメラなどの画像センサを固定する三脚などを機材を必要としないこと.
• 画像センサは計測器内に内蔵し、簡単に持ち運べること.
を満たす必要がある. 三次元形状計測には様々な方法があり, 応用例も多岐にわ
たるが, 実用的なウェアラブルな三次元形状計測システムは存在しない. そこで,
本章では, 上記を満たすウェアラブル三次元形状計測システムを提案する.
3.1
システムの概要
提案システムは, ビデオカメラ, スリット光レーザ, マーカ, 処理用 PC, 計測結
果表示機器から成る(図 3.1).
計測を高速に安定して行うため, 三次元形状計測の手法として, 第 2.1.1 節で述
べた能動型ステレオ法のうち, スリット光投影法を用いる. また, 計測器を可動に
するため, 第 3.2.1 節で説明するようなマーカを用いる. これらスリット光投影法
とマーカによる位置・姿勢計測を組み合わせることにより, 計測器が可動な状態
での三次元形状計測が可能になる.
計測部はビデオカメラ, スリット光レーザ, 位置姿勢計測用マーカから成り, 三
次元形状計測と位置・姿勢計測を同時に行う機能を持つ. 表示部は計測部が計測
した結果を元に計測物体の形状を逐次統合し, Head Mounted Display などに表示
し, ユーザに提示する. 計測部・表示部とも, 各種処理は PC 上で行われる.
19
図 3.1: 提案システム模式図
3.2
実現手法
提案システムの処理の流れを以下に示す.
• 計測対象物体にスリット光レーザを照射し, 照射されたスリット光をビデオ
カメラで撮影する.
• スリット光を撮影する際, 同時にマーカもビデオカメラで撮影し, 計測器の
位置・姿勢を求める.
• 前フレームでビデオカメラから得られる画像を, 現フレームにおける計測
器の位置・姿勢情報を用いて変換し, 前フレームを現フレームの近似画像と
する.
• 現フレームの画像と近似画像を用いて, スリット光を抽出し, 計測対象物体
の部分形状を得る.
• 得られた部分形状を計測器の位置・姿勢情報を用いて統合し, 計測対象物体
全体の形状を得る.
得られた部分形状を表示部に逐次表示することで, 計測状況を確認しながら計
測を行うことが可能になる. 以下, 実際の処理の方法について詳述する.
20
3.2.1
位置・姿勢計測
提案システムでは, 計測器が可動であるため, 計測器の座標系を推定する必要が
ある. 本システムでは, 座標系間の関係付けにマーカを用い, マーカを基準とする
座標系である「マーカ座標系」を定義する. 計測器から得られる部分形状はマー
カ座標系に統合され, 計測対象物体全体の形状を得ることが可能になる. マーカ
座標系とその他座標系の関係を図 3.2 に示す.
図 3.2: 座標系の関係
本システムでは, 形状を得るビデオカメラを位置・姿勢情報取得に用いるため,
光学式の位置・位置姿勢計測を用いる.
図??で、マーカ Pn が写ったカメラ上の画素点を Pcn (Xcn , Ycn ) とすると、ビデ
オカメラから Pn を通る直線には
Xn − X0n
Yn − Y0n
Zn − Z0n
=
=
an
bn
cn
(3.1)
なる関係がある。an , bn, cn, X0n, Y 0n, Z0n はカメラパラメータと Pcn から求
められる。(カメラパラメータについては後述する。)3.1 を k と置くと、Pn と
21
Pn+1 との間の距離(Pn+3 = Pn )は
~ k
ln = kP~n − Pn+1
v
u
u{(an k + X0n ) − (an+1 k + X0n+1 )}2 +
u
u
= u {(bn k + Y0n ) − (bn+1 k + Y0n+1 )}2 +
t
{(bn k + Z0n ) − (bn+1 k + Z0n+1 )}2
(3.2)
となり、ln がマーカで構成される三角形の辺の長さになるように k を求めてや
ると、マーカ平面の各点とカメラとの距離が求められ、カメラとマーカとの関係
を規定することができる。
図 3.3: マーカ座標系の考え方
なお、本論文では位置姿勢計測には第 2.2.1 節で述べた, ARToolKit を利用する.
3.2.2
部分形状計測
本システムは, 計測器から出るスリット光の平面は固定であり, スリット光の走
査は計測器を動かすことで行う。スリット光平面が固定の場合, ひとつの画像フ
レームでは 1 本のスリットによる計測対象物体の部分形状が取得される. 1 本の
スリットに対する形状計測のことを「部分形状計測」と定義する. すなわち, 部
分形状計測はビデオで撮影した画像 1 フレームにおいて, スリット光を抜き出し,
22
計測対象物体の部分形状を求めることである(図 3.4). 本節では, 部分形状計測
に関する提案手法を述べる.
スリット光の抽出
部分形状計測を行うには, まず, スリット光の抽出を行う必要がある.
あるフレーム t (t は整数)にビデオカメラで撮影した画像 FRGB (t) からスリッ
ト光を抜き出すことを考える. スリット光があたる部分は画像フレーム中で最も
明るい部分のひとつであると考えられるので, ビデオカメラから取得された RGB
画像を輝度画像に変換し, しきい値処理を行えば理論的にはスリット光を抜き出
すことが可能である. RGB 画像を輝度画像に変換するには, Y CR CB 色表現の Y
成分を用いる. RGB 画像の各成分を r, g, b とすると変換式は,
Y(r, g, b) ∼
= (0.2990 × r) + (0.5870 × g) + (0.1140 × b)
(3.3)
で表される [20]. ただし, rgb の各色成分は, 8[bit] とするので, 0 ≤ r, g, b ≤ 255
である.
しかし, 実際の環境下では, 計測対象物体にスリット光が照射されている場所だ
けに輝度の最大値が分布するとは限らず, 照明などに代表されるその他の光源が
スリット光抽出処理の妨げになる. よって, 上記手法だけでは, 計測結果にノイズ
が多く出現し, 状態のよい計測結果が得られない. 一般的な解決法として, 部屋を
暗くしてスリット光だけを撮影する方法や, スリット光に可視光以外の電磁波を
用いる方法があるが, マーカを用いた位置・姿勢検出にビデオカメラを用いるこ
とや, 計測場所を特別な環境下に限定しないことを鑑み, 前フレームとの差分によ
りスリット光を抜き出すことを考える.
ビデオカメラのフレームが十分高速であると仮定し、計測も高速で行えると仮
定すると、フレーム間の移動は微小であり、ビデオカメラの現フレームと一つ前
のフレームは近似画像になる考えることができる. FRGB (t) から得られる輝度画
像を FY (t) とし, 一つ前のフレームの画像を FY (t − 1) とすると, 差分画像は,
FDif f (t) = FY (t) − A · FY (t − 1)
23
(3.4)
(a) 座標系の関係
(b) 座標変換により統合
図 3.4: 部分形状計測
24
で表すことができる. ここで A は, 現在のフレームと一つ前のフレームとの間
での計測器の位置姿勢変化を表したアフィン行列である. 現在のフレームでの計
測器の位置・姿勢行列を Anow , 一つ前のフレームの位置・姿勢行列を Aprev とす
ると, A は
A = A−1
now · Aprev
(3.5)
と書ける. このときのアフィン変換は前フレームの座標値 x0 , y 0 が変換によって
x, y に動くとすると,
h
i h
x y z 1 = x0 y 0 z 0
h
= x0 y 0 z 0

a
 xx
i a
 yx
1 
azx

alx
i
1 A

axy axz 0

ayy ayz 0


azy azz 0

aly alz 1
z = z 0 = 0 と置くと
h
i h
i
0
0
=
x y 0 1
x y 0 1 A
(3.6)
と書くことができる.
アフィン変換を施すことで, 前フレームの画像を現フレームの近似画像とみな
し, 現フレームと近似画像の差分を取ることで, 図??に示すようにスリット光の
抽出をより確実にする.
三次元計測
抽出されたスリット光を基にして部分形状を推定する. カメラは理想化された
透視変換モデルで表現できるとすると, 図??に示すカメラ座標系, 物体座標系の
25
双方を関連付ける行列を定義することができる. これをカメラパラメータと呼び,
 


x
 
hc xc
y 



 hc yc  = C · 
 


z 
 
hc
1
 

 
 x

hc xc
c11 c12 c13 c14 


 

y

 hc yc  = c21 c22 c23 c24   
(3.7)

 
 

z
hc
c31 c32 c33 c34  
1
と表すことができる. 行列 C がカメラパラメータで, xc , yc はカメラ座標系上の
座標であり, x, y, z は物体座標形状座標である.
同様にスリット光の座標系と物体座標系との関連付けを行うプロジェクタパラ
メータを定義することができる. 本システムの計測器は, スリット光形状計測を
用いており, かつ, 照射するスリットの走査は行わない. つまり, 3.7 式を本シス
テムのプロジェクタに当てはめた場合, xc , yc は任意の実数になり, スリット光平
面を規定する hc だけが有効になる. 3.7 式に対して, xc = 0, yc = 0 と置き, プロ
ジェクタパラメータの係数を用いて書き換えると,
 
h i h
i x

hp = p1 p2 p3 
y 
z
(3.8)
となる. ただし, hp 6= 0 である.
図 3.5 で, カメラ座標系で q 0 にスリット光が撮像されているとすると, カメラ
の焦点から q 0 を通る直線と, スリット光平面が交わる点 q が計測対象物体の表面
の一つと定義できる. ここで, 交点の物体座標系上の座標値は, カメラパラメータ
とプロジェクタパラメータを連立して解くことにより求めることができる. 3.7 式
26
と 3.8 式を展開し, まとめると,
 

 
c34 xc − c14
c11 − c31 xc c12 − c32 xc c13 − c33 xc
x

 
 
 c34 yc − c24  =  c21 − c31 yc c22 − c32 yc c23 − c33 yc  y 

 
 
hp
p1
p2
p3
z
F =Q·V
(3.9)
となる. つまり, 物体座標系上座標値の行列 V は
V = Q−1 · F
(3.10)
と書ける. スリット光画像のうち, スリット光に対応するピクセルの座標値を 3.10
式にそれぞれ代入すれば, 物体座標系上の座標値, すなわち, 物体の部分形状を求
めることができる.
図 3.5: スリット光とカメラに撮像される点との関係
27
3.2.3
計測結果の統合
第 3.2.2 節で求めた部分形状を統合し, 計測物体全体の形状を得る.
部分形状を計測器の位置・姿勢行列を用いて座標変換を行う. 計測器の初期位
置での位置・姿勢行列を Mo とし, 現在のフレームがビデオカメラから得られた
ときの計測器の位置・姿勢行列を Mnow とすると, 座標変換は,
h
xo yo zo
h
iT
iT
−1
1 = Mo · Mnow · x y z 1
(3.11)
と書ける. 部分形状として求められた三次元点に, 上式の座標変換をそれそれ施
すことにより, 計測器の初期位置を基準とした座標系上の座標値に部分形状を座
標変換し, 結果の統合を行うことができる. よって, 物体全体の形状を取得できる.
28
第4章
評価実験
本章では, ウェアラブル三次元形状計測システムを実現するために必要な,
• 計測器の誤差評価
• 形状計測の評価実験
などを行うための試作計測システムを構築し, 形状計測に関する評価を行う.
4.1
試作計測器の構築
部分形状計測と計測結果の統合の評価を行うために構築した, 試作ウェアラブ
ル三次元形状計測システムを図 4.1 に示す. 使用した機材は下記の通りである.
• PC
– CPU . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Intel Pentium 4 1.2[GHz]
– メインメモリ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1[GB]
– グラフィックコントローラ . . . . . . . . ATI MOBILITY RADEON 9000
• キャプチャユニット
– I·O DATA mAgicTV . . . . . . . . . . . . . . . . . . . . . 解像度 : 320 × 240[P ixel]
• ビデオカメラ
– WATEC WAT-240R . . . . . . . . . . . . . . . . 出力 : NTSC Composite Video
• スリット光レーザ
29
– TAKENAKA OPTONIC 赤色スリット光レーザ . . . . 波長 : 635[nm]
図 4.1: 試作計測器
4.1.1
カメラと計測器の調整
レンズ歪の補正
歪みのない三次元形状を得るためにレンズ歪を補正する. 補正式は, Tsai のモ
デルのレンズ歪補正式 [21]
Xu = Xd + Dx
(4.1)
Yu = Yd + Dy
(4.2)
を用いる. Xu , Yu は補正後の座標値, Xd , Yd は補正前の座標値である. Dx , Dy が
補正値であり, レンズの半径方向の歪係数 κ1 , κ2 を用いて, 以下のように表すこ
30
とができる(図??).
Dx = Xd (κ1 r2 + κ2 r4 )
(4.3)
Dy = Yd (κ1 r2 + κ2 r4 )
q
r = Xd2 + Yd2
(4.4)
(4.5)
カメラで方眼紙を撮影し, 方眼紙の座標を (Xu , Yu ) , 画像平面状の座標を (Xd , Yd )
とすると, Dx , Dy は既知数となる. 従って, 最小二乗法を用いて κ1 , κ2 が求めら
れる.
カメラとプロジェクタのキャリブレーション
計測器のキャリブレーションを行い, カメラパラメータ行列 C とプロジェクタ
パラメータ行列 P を求める. 図 4.3 に実際に使用した機材の配置を示す.
方眼紙を貼り付けた板をステージ上のカメラから約 30[cm] 離れた地点に設置
する. 図 4.3 の O を Z 軸の原点とし, 方眼紙を貼り付けた板の横方向を X, 縦方
向を Y とする. スライドステージを Z 軸方向に 2[cm] ずつ動かしながら, 各 g
状態をカメラで撮影し, 各状態ごとに, 方眼紙で規定される X, Y の座標値とス
テージの状態で規定される座標値 Z , カメラに撮像されている座標値 xc , yc を目
視で記録する. また, スリット光が通っている座標値も同様に記録する. これらの
作業を, カメラからの距離を 30[cm] ∼ 4[cm] の間で変化させて行う.
記録した値を元にカメラパラメータ行列 C とプロジェクタパラメータ P を算
出する. キャリブレーションは最小二乗法により行う.
4.2
計測器の誤差評価
キャリブレーションで用いた図 4.3 の装置で, 計測器の誤差評価を行う. 最小二
乗法でパラメータを求める際, 用いた座標値のサンプルは,
• カメラパラメータ計算用 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2788 点
• プロジェクタパラメータ計算用 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32 点
31
図 4.2: スリット光断面の取得イメージ図
32
Y
X
O
Z
図 4.3: キャリブレーション時の機材配置
カメラから約 22[cm]
カメラから約 4[cm]
図 4.4: 方眼撮影画像の例
33
表 4.1: 既知の点を使った計測器の誤差評価(平均値)
X の誤差 [cm]
Y の誤差 [cm]
Z の誤差 [cm]
4[cm] ∼ 16[cm]
0.14
0.29
0.77
18[cm] ∼ 28[cm]
0.71
0.72
1.67
全平均
0.16
0.50
1.13
カメラからの距離
である.
まず, プロジェクタパラメータの計算に用いた既知の 32 点に関して, カメラで
撮像される座標値を計測器に与え, 計測器が出力する三次元座標値と既知の三次
元座標値との誤差を調べた. 表 4.1 にその結果を示す.
18[cm] ∼ 28[cm] では 1.67[cm] なる誤差が出現している. これは, 計測器から
遠い地点では, 方眼の板が小さく撮影されるため, 大きな誤差につながっていると
考えられる. 4[cm]∼16[cm] 範囲では, 誤差は 2[mm] 程度におさまっており, キャ
リブレーションは正しく行えていると言える.
次に, 図 4.3 の装置でキャリブレーションと同じように方眼紙を貼り付けた板
をカメラから 30[cm] ∼ 8[cm] の範囲で 2[cm] ずつ動かし, 映像をカメラで記録
する. 各映像ごとに目視でスリット光を抜き出し, スリット光の断面が正しく求
められるかを調べる. 結果を図 4.5 に示す.
4.3
4.3.1
形状計測の実験
前フレーム画像との差分によるスリット光抽出の実験
背景差分によるスリット光抽出の評価実験の様子を図 4.6 に示す. 図 4.6 のよう
な環境に計測器を設置し, 計測器を規定位置から平行に動かし, 計測器の動いた先
で得られる現フレーム画像と, 規定位置で得られる前フレーム画像を現フレーム
画像に近似した画像との差分を取り、スリット光が抽出できるかを評価する。処
理結果を図 4.7 に示す。
34
図 4.5: スリット光断面の計測結果
図 4.6: スリット光抽出実験の様子
35
平行移動量
現フレーム画像
近似した画像
1[cm]
2[cm]
3[cm]
4[cm]
5[cm]
図 4.7: スリット光抽出評価実験結果
36
差分画像
4.3.2
計測器を一方向に動かしたときの形状計測
図 4.8 の実験装置を用いて、計測器を一方向に動かしたときに計測対象物体の
立体形状が取得できるかを調べる. 結果を図 4.9 に示す。計測器は, ガイドレール
上に乗せて動かし, 計測器の位置は磁気式位置センサを用いて計測する. 計測器
の姿勢は変化させないで計測を行う.
4.3.3
計測器を自由に動かした場合の形状計測
計測器を自由に動かした場合に形状が取得できるかを調べる。前節と同じ実験
装置を使い、磁気式位置センサの姿勢情報も考慮して形状計測を行う。結果を図
4.10 に示す。図は計測器を直方体の側面に平行に動かし、計測した後、直方体の
上部を見下ろすように計測しているが、直方体上部が全体形状として、正しく統
合できていないことがわかる。
37
(a) 直方体の箱
(b) ペンギンの置物
図 4.8: 立体形状取得実験環境
38
(a) 直方体の箱
(b) ペンギンの置物
図 4.9: 取得された立体形状
39
(a) 直方体の箱
図 4.10: 計測器を自由に動かした場合に取得された立体形状
40
第5章
5.1
考察
計測器の誤差評価に関して考察
前章でも示したとおり, 18[cm] ∼ 28[cm] では平均 1.67[cm] なる誤差が生じて
いる. これは, 計測器から遠い箇所では, 方眼の板が小さく撮影されるため, 大き
な誤差につながっていると考えられる. 4[cm]∼16[cm] 範囲では, 誤差は 2[mm]
程度におさまっており, キャリブレーションは正しく行えていると言える.
さらに、目視でスリット光を抜き出し、スリット光の断面を計測した結果, ス
リット光平面を得ることができた. ゆえに計測器単体は正しく計測でき, 部分形
状は正しく求められると言える.
5.2
形状計測の実験に関しての考察
差分によるスリット光の抽出は平行移動量が 5[cm] であっても行うことができ
る. 実験に用いたような単色の物体では似た箇所が多いので差分によるスリット
光の抽出が有効である. しかし, 若干のノイズは避けられないため, 実際の処理で
は, 得られた差分画像に輝度・色情報から得られるマスクをかけてスリット光の
みを抽出する. 輝度情報と色情報だけでスリット光を抜き出そうとすると, 計測
対象物体の背景も抽出されてしまうので, ウェアラブル三次元形状計測には有効
な手法であると考える. 抽出したスリット光を用いた形状計測も正しい結果を得
ることができている.
計測器を自由に動かして行う形状計測では, 部分形状が正しく統合できなかっ
た. これは, キャリブレーション手法の関係上, 物体座標系の原点がカメラ上では
なく, 計測フィールド上になるようにキャリブレーションしているためで, 物体座
41
標系の原点と磁気式位置センサとの関係を規定する位置姿勢行列を求めないと,
計測器の姿勢を変化させたときに正しく形状の統合ができない。
42
第6章
結論
本論文では, 手に持てる程度の大きさの物体に関して, 三次元形状を煩雑な前
準備なしに計測し, 結果を逐次, 他の場所に送出できるウェアラブル三次元計測シ
ステムを提案した. また, 試作システムを製作し, 部分形状計測・部分形状統合の
正確性を調べる評価実験を行った.
その結果, スリット光形状計測の精度や部分形状計測の精度には問題があるも
のの, 計測結果を確認しながら, 計測対象物体を計測することが可能なシステム構
築した.
本論文では, 遠隔地に伝送する方法には触れていないが, TCP や UDP の使え
る通信路を用意し, 部分形状計測の計測結果と統合に用いる位置・姿勢情報を伝
送すれば容易に実現できるものと思われる.
従来の三次元形状計測は精度に重点が置かれ, 大型で手軽に使えるものはほと
んど存在しなかった. 現在, コンピュータは小型化により持ち運びが容易になり,
高性能化や通信ネットワークの普及により, 特別な場所でなくても様々なアプリ
ケーションが使えるようになり, どこでもいろいろな情報を検索し, 手に入れるこ
とができるようになった. そして, 検索する情報の一形態として, 三次元情報を記
録・交換・閲覧することは広く行われるようになると考える. 本論文で提案した
システムは三次元情報の取り扱いを簡便にし, 使いやすい記録・交換・閲覧シス
テムの実現に貢献できる.
三次元形状を手軽に計測する装置があれば, 新たな三次元形状計測の利用法が
開拓されていく可能性もあり, 無限の可能性を秘めていると言える.
43
謝辞
本研究の機会を与えて下さり, 暖かい目で, 的確に, 筆者をご指導下さいました,
情報科学研究科像情報処理学講座 千原國宏教授に心から感謝致します. 副指導教
官としてご助言頂いた知能情報処理学講座 木戸出正繼教授に厚く御礼申し上げ
ます。
副指導教官として数々の細やかで有益なご助言をくださり, 日ごろから筆者を
指導してくださいました情報科学研究科像情報処理学講座 眞鍋佳嗣助教授に深
く感謝いたします。数々の有益なご助言を通じて筆者を指導してくださった, 情
報科学研究科像情報処理学講座 安室喜弘助手, 井村誠孝助手, 村上満佳子教務員
に深謝の意を表します。
本論文を校正するに当たり, 多大なるご指導, ご助言を賜りました, 像情報処理
学講座佐々木博史研究員, 研究指針に対し様々な形でご意見を下さり, 良き方向に
お導き下さった, 像情報処理学講座増田泰研究員, 末永貴俊研究員に心より御礼申
し上げます。日頃から様々な形でお世話くださった像情報処理学講座博士後期の
皆様, 常日頃から色々な形で筆者を支えて下さった前期課程の皆様, いつもあたた
かい心配りを頂いた川本桂子秘書に心より感謝申し上げます.
44
参考文献
[1] NTT DoCoMo. Inc. 3d ショールーム.
http://www.nttdocomo.co.jp/museum/showroom/3d/.
[2] 上田市立博物館. 上田市立博物館.
http://museum.umic.ueda.nagano.jp/hakubutsukan/.
[3] SQUARE ENIX. FINAL FANTASY XI Online.
http://www.playonline.com/ff11/index.shtml.
[4] 井口征士 佐藤宏介. 三次元画像計測. 昭晃堂, 1990.
[5] 江良一成. 立体視画像デ―タ作成方法および立体視画像デ―タ作成装置. 公
開特許公報, 特開 2000-228778, 1998.
[6] MIKIMOTO, Co., LTD. 3D-MODE シリーズ.
http://www.mikimoto-japan.com/3d_mode/.
[7] 株式会社トプコン. 測量機器メニュー.
http://www.topcon.co.jp/sokuryo/index.html.
[8] コニカミノルタホールディングス株式会社. 3 次元デジタイザ.
http://www2.konicaminolta.jp/products/industrial/instrument/
vivid/.
[9] Faro Technologies Inc. FaroArm.
http://www.faro.com/JP/Products/FaroArm.asp.
45
[10] Kreon Technologies. Kreon Technologies 3D scanner laser: The complete 3D
scanning solutions.
http://www.kreon3d.com/.
[11] Polhemus. 3SPACE FASTRAK.
http://www.polhemus.com/fastrak.htm.
[12] Ascension. Flock of Birds.
http://www.ascension-tech.com/products/flockofbirds.php.
[13] Northern Digital Inc. NDI: Products: Polaris.
http://www.ndigital.com/polaris.html.
[14] 加藤博一 Mark Billinghurst 浅野浩一 橘啓八郎. マーカー追跡に基づく拡張
現実感システムとそのキャリブレーション. TVRSJ, Vol. 4, , 1999.
[15] Human Interface Technology Laboratory University of Washington. ARToolKit.
http://www.hitl.washington.edu/research/shared_space/download/.
[16] 築澤宗太郎 杉本晃宏 松山隆司. 装着型視覚センサを用いた対象の三次元形
状復元. コンピュータビジョンとイメージメディア, No. 133-10, pp. 71–78,
2002.
[17] Patrick Hebèrt. A Self-Referenced Hand-Held Range Sensor. Third International Conference on 3-D Digital Imaging and Modeling, pp. 5–12, 2001.
[18] Hiroshi Kawasaki Ryo Furukawa.
Interactive Shape Acquisition using
Marker Attached Laser Projector. Third International Conference on 3-D
Digital Imaging and Modeling, pp. 491–498, 2003.
[19] 有限会社テクノドリーム 21. 低価格・持運び可能なポータブル 3D スキャ
ナー.
http://www2.odn.ne.jp/~aeg12730/3dscanner/index.htm.
46
[20] 高木幹雄 下田陽久. 画像解析ハンドブック. 東京大学出版, 1990.
[21] 松山隆司 久野義徳 井宮淳. コンピュータ ビジョン 技術評論と将来展望. 新
技術コミュニケーションズ, 1998.
47
Fly UP