...

修士論文 視覚センサを用いた小型飛行船の自律制御 ならびに人物検出

by user

on
Category: Documents
17

views

Report

Comments

Transcript

修士論文 視覚センサを用いた小型飛行船の自律制御 ならびに人物検出
NAIST-IS-MT0351025
修士論文
視覚センサを用いた小型飛行船の自律制御
ならびに人物検出に関する研究
大谷
孝英
2005 年 2 月 20 日
奈良先端科学技術大学院大学
情報科学研究科
情報処理学専攻
本論文は奈良先端科学技術大学院大学情報科学研究科に
修士(工学)授与の要件として提出した修士論文である。
大谷
孝英
審査委員:
千原國宏教授
中川雅通教授
荒木昭一助教授
眞鍋佳嗣助教授
視覚センサを用いた小型飛行船の自律制御
ならびに人物検出に関する研究*
大谷孝英
内容梗概
現在,屋内環境におけるセキュリティ対策として監視カメラが採用されている.しか
しながら現行の固定式の監視カメラでは,広い室内や込み入った通路などでは死角が生
じ,多くのカメラが必要となる.そこで本研究では移動式の監視カメラとして視覚セン
サを搭載した小型飛行船による自律飛行監視システムの実現を目指す.従来にもカメラ
を用いた飛行船制御に関する研究が行われているが,それらのタスクはあらかじめ設定
された目標位置への移動やホバリングが主であり.監視のためのカメラシステムとして
は十分とは言えなかった.本研究では小型飛行船に搭載されたカメラを用いて飛行船を
制御し,人物の検出,追跡撮影,周回撮影を行う手法について提案する.本研究では飛
行船の正面と側面に 2 台のカメラを搭載して, イメージベースによる飛行船の人物追
跡と,静止した人物に対しては,その周囲を周回撮影する制御を実現した.追跡撮影で
は PD-D 制御により,より早く静止した映像の撮影を実現した.また画像間の対応点探
索や幾何拘束を利用して,飛行船移動カメラからの人物検出を,飛行船制御に影響を与
えない実時間内で行った.
キーワード
飛行船,イメージベース制御,周回制御,人物検出,対応点探索
*奈良先端科学技術大学院大学情報科学研究科情報処理学専攻修士論文,
NAIST-ISMT0351025, 2005 年 2 月 20 日
i
A Study of Image-Based Control of a Small Blimp
And
Detecting Moving Object *
Takahide Otani
Abstract
Recently many video cameras have been used for surveillance. However, the video
cameras are set in a fixed position, so it is important to reduce blind spots. To realize a
mobile surveillance video camera system, this research proposed video cameras
mounted on an autonomous blimp. The video cameras are used for detection a target
person and take a picture of the person. And also the cameras are used for a control the
blimp using a goal image-based controlling method. This research focus two control
type, a tracking a target and a circum flight around it. Experiments result show that
our PD-D control method is suitable for video surveillance. And we show effective of
detecting a person with blimps camera by KLT Tracker and 8-Point-Algorithm.
Keywords:
blimp, image-base control, circum flight
human detection, detecting correspondence point
.*Master’s Thesis, Department of Information Systems, Graduate School of Information Science,
Nara Institute of Science and Technology, NAIST-IS-MT0351025, February 20, 2005
ii
目次
1
第1章 序論
1.1
研究背景 .......................................................................................... 1
1.2
論文構成 .......................................................................................... 2
3
第2章 飛行船監視システム
2.1
飛行監視システムの概要 ................................................................. 3
2.2
システム構成 ................................................................................... 6
2.3
飛行船.............................................................................................. 8
11
第3章 飛行船制御
3.1
従来の飛行船制御.......................................................................... 11
3.2
飛行船の制御 ................................................................................. 13
3.3
ホバリング・トラッキング制御 .................................................... 14
3.3.1
イメージベースによる飛行船制御 ......................................................... 14
3.3.2
ホバリング実験 ...................................................................................... 16
3.4
周回制御 ........................................................................................ 24
3.4.1
周回制御手法.......................................................................................... 24
3.4.2
周回制御実験.......................................................................................... 26
第4章 飛行船カメラからの人物検出
30
4.1
従来の人物検出手法 ...................................................................... 30
4.2
提案手法 ........................................................................................ 31
4.2.1
アルゴリズムフロー............................................................................... 31
4.2.2
構成アルゴリズム .................................................................................. 32
4.3
実験 ............................................................................................... 36
4.3.1
シミュレーション CG 実験 .................................................................... 36
4.3.2
動画実験................................................................................................. 38
iii
第5章 結論
41
謝辞
42
参考文献
43
iv
図目次
図 1.1 飛行船による人物の撮影 ................................................................................. 2
図 2.1 固定経路巡回および人物検出 .......................................................................... 3
図 2.2 人物追跡 .......................................................................................................... 4
図 2.3 人物に対する周回撮影..................................................................................... 4
図 2.4 人物探索 .......................................................................................................... 5
図 2.5 動作モードの遷移図 ........................................................................................ 6
図 2.6 システム構成 ................................................................................................... 7
図 2.7 飛行船概観 ...................................................................................................... 8
図 2.8 プロペラおよび制御組み合わせ .................................................................... 9
図 2.9 正面および側面カメラ ................................................................................. 10
図 2.10 カメラ拡大画像............................................................................................ 10
図 3.1 飛行船制御概要.............................................................................................. 13
図 3.2 不感帯制御..................................................................................................... 15
図 3.3 提案手法制御エリア ...................................................................................... 16
図 3.4 ターゲット拡大図 .......................................................................................... 16
図 3.5 ターゲット抽出プロセス ............................................................................... 18
図 3.6 ターゲット..................................................................................................... 19
図 3.7
PD 制御実験結果(左右方向)......................................................................... 20
図 3.8
PD-D 制御実験結果(左右方向)..................................................................... 20
図 3.9
PD 制御実験結果(上下,ターゲットとの距離方向) ..................................... 21
図 3.10
PD-D 制御実験結果(上下,ターゲットとの距離方向) ............................... 21
図 3.11 ピッチ振動 ................................................................................................... 23
図 3.12 周回制御方法 ............................................................................................... 24
図 3.13 周回制御エリア............................................................................................ 25
図 3.14 周回制御概要 ............................................................................................... 26
図 3.15 周回実験結果(軌跡)...................................................................................... 27
図 3.16 周回実験結果 ............................................................................................... 28
図 4.1 移動物検出フロー .......................................................................................... 32
v
図 4.2 移動領域検出実験結果(CG) ........................................................................... 37
図 4.3 移動領域検出実験結果(実写) ......................................................................... 39
表目次
表 2.1 PC スペック .................................................................................................... 7
表 2.2 カメラスペック .............................................................................................. 7
表 2.3 I/O ボードスペック ......................................................................................... 8
表 3.1 文献分類 ........................................................................................................ 12
表 4.1 人物動き別検出率(CG) .................................................................................. 38
表 4.2 人物動き別検出率(実写) ................................................................................ 40
vi
第1章
1.1
序論
研究背景
近年,凶悪犯罪や国際的なテロ行為の増大に伴い,オフィスや公共機関,家庭な
どあらゆる環境においてセキュリティの重要性が高まっている.異常や不審者を事
前に察知するために,多くの環境で監視カメラが利用されており,これらの映像情
報を手がかりとして,重大事件・事故が解決した例も少なくない.しかしながら,現
在用いられている監視カメラの多くは固定式もしくはパン・チルドズーム方式であ
る.これら固定式カメラは多様な環境に対して比較的導入しやすいという利点があ
るが,その一方で撮影範囲が限定され,広い空間内や複雑に込み入った通路などで
は多くのカメラが必要となる.そこで本研究では小型飛行船を用いた屋内環境にお
ける自律監視システムを提案する.小型飛行船に CMOS カメラを搭載して,その画像
情報をもとにイメージベース法によって自律移動するとともに,人物を検知して,
追跡や周回撮影を行うことを目標とする.
飛行船は従来の地上走行型ロボットと比較し,移動自由度という点で格段に優れ
ている.一般的に室内環境では地上に比べ,空中(飛行船が浮遊する 2m上空)の方が
障害物は少ないからである.不審者の追跡や正面方向への回りこみといったタスク
も地上よりも達成しやすい環境であるといえる.
従来も飛行船制御の研究が行われてきたが,いずれの研究においても特定のター
ゲッットに対して一定距離でのホバリングのみで,実用的なタスクが実現できてい
たとは言い難い.そこで本研究では,セキュリティを背景にしたより実用的なタス
クとして人物の撮影を行う.従来のターゲットに対するホバリング,遠方からの接
近や動くターゲットの追跡(トラッキング)に加えて,ターゲットの全周囲画像を得る
ために飛行船がターゲットの周りを回転する周回制御を実現した.また人物検出の
一手段として,飛行船カメラ画像からの移動物検出を行った.図 1.1 に飛行船によ
る人物撮影を示す.
1
図 1.1
1.2
飛行船による人物の撮影
論文構成
2 章では,飛行船単体および本研究におけるシステム全体の構成について述べる.
また飛行船の自律飛行についての制御フローを解説する.
3 章では,あらかじめターゲットが検出できていることを前提に,そのターゲッ
トを蛍光赤色の円筒と設定し,慣性や空気抵抗の影響を受けやすい飛行船に対して,
イメージベース手法によってホバリング,トラッキング,周回制御を行う.
4 章では,ターゲットの設定手段として,飛行船の移動カメラ画像からの人物検
出を,飛行船制御に影響を与えない処理時間内(10[frame/sec])で行う.
5 章では,実験結果について考察し,新たに得られた知見についてのまとめを行
う.また現状での課題,今後の飛行船研究における展望を述べる.
2
第2章
飛行船監視システム
2.1
飛行監視システムの概要
本研究の飛行船監視システムではオフィスや工場,家庭内などの室内での巡回監視
を第一の目標とする.この目標を実現するためには,以下の動作モードが必要となる.
1.
固定経路巡回モード
対象となる室内の固定経路を,あらかじめ設定された情報(ランドマーク)をもとに巡
回する.また巡回中に人物が存在すれば,飛行船カメラ画像情報より,それを検知す
る.
図 2.1
固定経路巡回および人物検出
3
2.
人物追跡モード
巡回中に検知された人物に対して,飛行船で追跡を行う.人物まで一定距離を維持す
ることが目標である.
図 2.2
3.
人物追跡
人物に対する周回撮影モード
飛行船に対して一定距離内に存在する人物に対して周回撮影を行う.これによって人
物の正面方向への回り込み顔画像の取得が可能になるなど,人物を様々な方向からよ
り詳しく撮影することができる.
図 2.3
人物に対する周回撮影
4
4.
人物探索モード
検知された人物を見失った場合,飛行船自身がその場で回転して,再度人物検知を試
みる.
図 2.4
人物探索
動作モードの遷移図を図 2.5 に示す.
まず固定経路巡回モードであらかじめ設定された室内環境の固定経路を巡回する.巡
回中に人物が検出されれば,その人物を追跡する追跡モードに移行する.追跡中に飛行
船が人物と一定距離内に近づくことができれば周回撮影モードに移行,人物の周りを周
回撮影する.一方,追跡中に人物を見失った場合は探索モードにて探索を行う.
本研究では,これら動作モードのうち人物に対する追跡モードと周回撮影モード,探
索モードを実装した.本報告では追跡モードと周回撮影モードを実現するための制御方
法について述べる.
5
図 2.5
2.2
動作モードの遷移図
システム構成
本研究における飛行船システムについて述べる.システムの基本構成は図 2.6 に示す
ように,主に飛行船,カメラ画像受信機,制御信号送信機(ラジコン付属プロポ),I/O ボ
ード,ホストコンピュータの5つから構成される.飛行船カメラから得られた画像情報
を画像受信機で受信し,ホストコンピュータがそれら画像情報をもとに飛行船制御値を
決定する.飛行船制御値は I/O ボードを介して制御信号送信機に送られ,さらに飛行船
本体の制御部に送信される.
6
図 2.6
システム構成
以下に使用する PC,カメラ,I/O ボードのスペックを示す.
表 2.1
PC スペック
CPU
Pentium4(2.7GHz)プロセッサ
メインメモリ
512MB
OS
Windows XP
プログラム言語
Visual C++
表 2.2
カメラスペック
撮像素子
総画素数 27 万画素,1/4 インチカラーCMOS
送信可能距離
約 30m
サイズ(W×D×H)
11×15×11mm
質量
5g
画像サイズ
VGA(640×480)
7
表 2.3
I/O ボードスペック
出力形式
非絶縁電圧出力
出力レンジ
±1.25V,±2.5V,±5V,±10V
分解能
12bit
USB 転送速度
12Mbps
2.3
飛行船
本研究で用いる飛行船は,市販の屋内用ラジコン飛行船(ヨシオカ・モデル・ファク
トリィ・大翔製)を改造して用いた.飛行船のサイズは全長約 940mm,全高約 490mm
である.バルーン部はラグビーボール型であり,約 100 リットルのヘリウムを充填
できる.ヘリウムを最大容量まで充填したときの飛行船ペイロードは約 47g であり,
バッテリーやプロペラを含むゴンドラ部分(約 35g)を搭載することができる.図 2.7
に飛行船概観を示す.
図 2.7
飛行船概観
8
図 2.8 に示すように,プロペラは地面に対して,水平方向に 2 つ,鉛直方向に 1
つ搭載されており,各プロペラにそれぞれモータが直結している.各モータは,正
回転,逆回転で動作,もしくは停止の状態をとり,その組み合わせにより飛行船の
動きが決定される.そのとき PC からの出力電圧に応じてモータの回転(プロペラ推
力)が変化する.左右2つのプロペラが水平移動と旋回を行い,中央のプロペラで垂
直方向への移動を行う.また,これら 3 つのプロペラ推力を組み合わせることによ
り,前後・上下・左右の 3 軸に対応した動きが可能となる.以下に飛行船プロペラ制
御組み合わせを示す.
図 2.8
プロペラおよび制御組み合わせ
今回は外界の視覚情報を得るために,ワイヤレス小型カメラをゴンドラ部分の前
面と左側面にそれぞれ 1 台ずつ搭載した.前方カメラはホバリング,トラッキング
制御用であり,側面カメラは周回制御用である.以下に正面および側面カメラとカメ
ラ拡大図を示す.
9
図 2.9
正面および側面カメラ
図 2.10
カメラ拡大画像
10
第3章
3.1
飛行船制御
従来の飛行船制御
従来の小型飛行船はイメージベースによる制御[1]∼[7]とポジションベースによる制
御[9]∼[13]の二つの制御手法に大別できる.
Zwaan ら[9]は,現在位置で撮影した画像から対象物体に対して自分のいる相対的な
位置・姿勢を割り出し,あらかじめ求めたゴール位置と対象物体との相対位置・姿勢と
の差分をとることで,目標とする位置への経路を導き出すという,ポジションベースと
いう手法によって飛行船制御を行っている.
一方,Fukao ら[2]や J.P.Ostrowski ら[3]は目標とするゴール位置を,ゴール
画像として与え,現在位置での画像とゴール画像とを比較して,その差からどこに進め
ばゴール画像に近い画像が得られるか(現在の画像とゴール画像との誤差がより小さく
なるか)を判断してゴール位置へと飛行船を導く,イメージベースと呼ばれる制御を行っ
ている.
小型飛行船制御の前提として,ペイロード制約上いずれのシステムも,画像センサは
搭載カメラ 1 個または外部カメラ,アクチュエータではプロペラが 3 もしくは 4 個とい
う構成であった.またこれら研究ではターゲットの追跡や目標地点への到達など移動す
ることに着目したタスクを実現したものが主であり,監視などの特有なタスクを実現す
るには到っていない.
以下に文献分類表を示す.文献 No は参考文献に対応している.
11
表 3.1
文献分類
今回の研究で用いる飛行船の制御には主に以下の特徴的な問題点がある.これら問題
点に対して有効な制御手法を検討する.
まず本研究の目的は室内環境での飛行船制御であるので,室内で飛行するために機体
は小型に限定せざるを得なく,ペイロード制限から外部情報を得るセンサとしては小型
カメラしか搭載することができない.また屋外の高空を飛行する大型飛行船に比べて,
背景環境が格段に複雑である.このような条件でカメラだけを用いて精度良く三次元認
識を行うのは非常に困難である.
また飛行船プロペラを駆動するモータも小型で非力であるに対して,対象となる人物
は移動速度が速い.よってより早い処理時間での制御が望まれる.処理手法にもよるが,
一般的にイメージベースの方がポジションベースより制御処理負荷が小さい.
以上のことから,本研究では飛行船の制御手法としてイメージベース制御を選択し,
監視に必要なタスクとして人物の追跡と周回撮影を目標とする.
12
3.2
飛行船の制御
本研究では前述の四つの動作モードのうち,固定経路巡回モードが実現されたと仮定
し,追跡モードと周回撮影モード,探索モードに取り組んだ.本章では追跡モードを実
現するホバリング,トラッキング制御と,周回撮影モードを実現する周回撮影制御の二
つの制御手法について説明する.
飛行船の制御は,飛行船カメラ画像上のターゲットの重心位置と面積を制御入力とし
て,飛行船の制御を行う.カメラ画像内のターゲット重心位置によって,飛行船の上下
左右位置を決定し,ターゲット重心が常に画面中心付近になるように制御を行う.また
ターゲットの面積によって,飛行船とターゲットの距離を決定して,常に面積が一定(距
離が一定)になるように制御を行う.ターゲット面積と距離の関係については,事前に測
定し正規化を行った.これら画像の入力情報から,上下・左右・距離方向に対してそれぞ
れ独立に制御を行う.以下に制御概要を示す.
図 3.1
飛行船制御概要
13
3.3
3.3.1
ホバリング・トラッキング制御
イメージベースによる飛行船制御
従来,イメージベースによる飛行船制御として以下のような手法が提案されている.
PID 制御は最も一般的な制御手法である.比例制御(Proportional Control),積分制御
(Integral Control),微分制御(Derivative Control)を組み合わせて設定値に収束さ
せる制御を行う.各制御項のゲインを変化させることによって,制御結果が変化する.
各制御系に応じた最適な重み付けを設定する必要がある.
以下に凡例式を示す.
t
U (t ) = K p e(t ) + K i ∫ e(t )dt + K d
0
d
e(t )
dt
U (t ) :時刻 t におけるシステムへの制御信号
e(t ) :時刻 t における画像上のターゲット位置
K p :フィードバックゲイン(比例要素)
K i :フィードバックゲイン(積分要素)
K d :フィードバックゲイン(微分要素)
事前実験の結果,PID 制御は,慣性や空気抵抗の影響を受けやすく完全に静止するこ
とが難しい飛行船という対象では,積分制御(Integral Control)項を導入することで,
より振動が促進されることがある.積分制御(Integral Control)を行わない,比例制
御(Proportional Control)と微分制御(Derivative Control)のみの PD 制御がより有効
である場合が多い.以下に PD 制御の凡例式を示す.
U (t ) = K p e(t ) + K d
d
e(t )
dt
また塚本ら[7]は,飛行船挙動が乱れやすい画面中央付近において,制御を全く行わな
い帯域(不感帯)を設けて,飛行船の振動を抑制した.不感帯の範囲や不感帯域外の制御
値によって,制御結果が異なることが報告されている.以下に不感帯制御のグラフを示
す.
14
図 3.2
不感帯制御
比例制御エリア
U (t ) = K p e(t )
不感帯エリア
U (t ) = 0
以上の従来制御手法に対して,本研究では通常の PD 制御に加え,ターゲット重心位置
が画面中央付近の場合,微分制御(Derivative Control)のみを行う制御を提案する.
これは画面中央付近では多少の位置偏差は犠牲にしても,飛行船を静止させることを最
優先にする制御である.監視撮影用途では,人物を目標位置に正確に捉える必要性が低
く,人物全身が画面内に映っていれば十分である.
15
図 3.3
提案手法制御エリア
ターゲット重心が画面中央付近のみ D 制御
U (t ) = K d
d
e(t )
dt
それ以外のエリアでは PD 制御
U (t ) = K p e(t ) + K d
3.3.2
d
e(t )
dt
ホバリング実験
提案手法の有効性を確認するために飛行船のホバリング実験を行った.
●ターゲットの認識
本章の制御実験は,あらかじめ設定したターゲット,蛍光赤色の円筒(高さ 20cm,底面
半径 5cm)を使用して行った.図 3.3 にターゲット拡大図を示す.
図 3.4
ターゲット拡大図
16
このターゲットのカメラ画像上から認識を,以下のプロセスに示す.
●表色系の設定,ターゲット色抽出,2 値化
色情報を用いて対象を認識するために用いられる表色系として,照明条件の影響を受
けにくくするため,輝度成分を独立にもった YUV 系などが用いられることが多い.し
かし事前実験の結果,今回ターゲットに設定した蛍光赤色の色成分を背景などの他の色
成分に対して,最も精度良く分離できたのは RGB 系であった.そこでターゲットの蛍
光赤色に対して,RGB 各成分ごとに閾値を設定する.そのうえでターゲットと認識され
た領域に対して 2 値化処理を行う.
●複数領域からのターゲット特定
赤色成分もしくはターゲットに近い色成分が背景にあった場合,ターゲット領域が複
数抽出される場合がある.これらを排除するために,対象領域にラベリング処理を行い,
最大領域のみを抽出する処理を行った.これにより背景などに混在する同系色のエラー
成分を排除することができる.但し,画面内の対象領域においてターゲットが最大領域
であることが前提である.
●照明による画像の白トビを排除
画面内において,対象領域を 1 つに特定することができた.しかしターゲットが円筒
のため,側面の照明の当たる角度によって輝度が大きくなり,いわゆる白トビを起こし
認識できない場合がある.これを防ぐために,ターゲットの位置を認識された領域の縦
横端点を頂点とする矩形として設定した.
17
カメラ原画像
RGB 表色系において閾値でターゲット色領域を抽出
ラベリング処理で最大領域のみを抽出
ターゲットを領域の縦横端点を頂点とする矩形に設定
図 3.5
ターゲット抽出プロセス
18
●ホバリング実験概要
ターゲットに対して,2mの距離から接近,ホバリングを行った.カメラ画像内のター
ゲット重心位置により上下・左右位置を,ターゲット面積により距離の計測を行った.な
おターゲットは高さ 1.3m のカメラ用三脚に固定した.
図 3.6
ターゲット
PD 制御における各ゲインは以下である.
U (t ) = K p e(t ) + K d
d
e(t )
dt
K p = 0.005 , K d = 0.1
また提案手法(PD-D)の PD 制御部分は上と同様であり,D 制御ゲインは以下である.
U (t ) = K d
d
e(t )
dt
K d = 0.5
また D 制御エリアは左右方向が 290∼350[pix],上下方向が 75∼125[pix]である.
PD 制御および提案手法(PD-D 制御)における実験結果を,左右方向偏差は図 3.7,図 3.8
に,上下・ターゲットとの距離方向偏差は図 3.9,図 3.10 に示す.
19
PD制御結果
左右方向位置
左右方向画面位置偏差[pix]
700
600
500
400
300
200
100
0
0
50
100
150
200
250
300
350
400
450
500
フレーム[frame]
図 3.7
PD 制御実験結果(左右方向)
提案手法(PD-D制御)
左右方向位置
左右方向画面位置偏差[pix]
700
600
500
400
300
200
100
0
0
100
200
300
フレーム[frame]
図 3.8
PD-D 制御実験結果(左右方向)
20
400
500
PD制御結果
上下方向位置
前後方向位置
上下方向画面位置偏差[pix]
600
500
400
300
200
100
0
0
50
100
150
200
250
300
350
400
450
500
フレーム[frame]
図 3.9
PD 制御実験結果(上下,ターゲットとの距離方向)
提案手法(PD-D制御)
上下方向位置
前後方向位置
上下方向画面位置偏差[pix]
450
400
350
300
250
200
150
100
50
0
0
100
200
300
400
フレーム[frame]
図 3.10
PD-D 制御実験結果(上下,ターゲットとの距離方向)
※フレームレートは平均 10[frame/sec]である.
21
500
●結果考察
図 3.7,3.8 は PD 制御,提案手法(PD-D 制御)によるターゲット重心の左右位置の時
間変化を示している.PD 制御が 50[frame]で目標値(320pix)付近に収束し始めているの
に対し,提案手法では 30[frame]で D 制御が動作し,安定化が始まっている.その後は
両手法とも振幅±20[pix],周期 10[frame]ほどの小さな振動を繰り返しているものの,
全体の挙動としては収束しているといえる.ここで PD 制御は常に目標値付近で収束さ
せているのに対し,提案手法では D 制御エリア(290∼350[pix])範囲内であれば静止する
ように制御される.このことから被写体画像を撮影するという観点では,提案手法が優
れているといえる.
一方,図 3.9,3.10 は PD 制御,提案手法(PD-D 制御)によるターゲット重心の上下位置
と前後距離を示している.PD 制御の上下方向は振幅±30[pix],周期 20[frame]ほどの
振動を繰り返しているものの,目標値(100[pix])付近に収束しているといえる.またター
ゲ ッ ト と の 距 離 方 向 に 関 し て は 目 標 値 (150[cm]) を 中 心 に 振 幅 ± 40[pix] , 周 期
200[frame]ほどの緩やかな振動が確認できる.提案手法の上下方向とターゲットとの距
離方向はともにグラフ上では,振幅±50[pix],周期 20[frame]ほどの振動を繰り返して
いる.しかし,これは飛行船の位置自体が上下,ターゲットとの距離方向に振動してい
るのではなく,機体の位置は静止しながらも,姿勢がその場でピッチ(仰角)方向に振動
していることに起因する.これは飛行船の駆動系が機体重心より下方にあり,D 制御に
よる前後の推進でピッチ方向への振動が発生したと考えられる.以下にピッチ振動の図
を示す.
22
図 3.11
ピッチ振動
しかしながら飛行船のターゲットに対する位置そのものに着目すると,提案手法のター
ゲットとの距離方向は 200[frame]以降収束し,ほとんど振動していない.上下方向もピ
ッチ振動によりカメラ向きが変化することによって,グラフ上は激しい振動を示してい
るが,飛行船の上下位置自体の安定性は PD 制御と変わらなかった.
以上の結果より,提案手法は従来の PD 制御に比べて,左右方向へはより早く目標値
付近で飛行船挙動を安定化したことがわかる.またターゲット方向に関しては,より正
確に安定して一定距離を維持できたといえる.しかしながらターゲットとの距離方向へ
の制御によって発生したピッチ振動によって,PD 制御と比較して安定した画像を維持
できたとは言い難い.よって提案手法は飛行船の左右および上下の位置を目標値付近で
より早く停止させるには有効であるが,距離方向の制御安定性は従来の PD 制御のほう
が優れているといえる.タスクに必要なスペックごとに,制御方法を柔軟に変化させる
必要がある.
23
3.4
3.4.1
周回制御
周回制御手法
人物の詳細な画像情報を得るため,また正面方向に回り込むために,人物に対する周
回撮影が必要である.しかし従来法では周回制御は実現されていなかった.
本研究では側面のカメラを利用して周回制御を行う.制御手法としては,ホバリング,
トラッキング制御時と同様,カメラ画像内のターゲット重心位置によって,制御値を決
定するアルゴリズムを導入している.
周回制御は図 3.12 に示すように,ターゲットを画面中央に捕らえながら前進する動
作であり,その結果周回できることが期待できる.しかし,このとき飛行船はプロペラ
の構造上,周回半径方向へは直接移動することができない.またターゲットとの距離を
正確に測定すること困難である.
図 3.12
周回制御方法
24
以上から周回制御では図 3.13 のようにカメラ画像面を水平方向に対して二分割を行
い,画面に対して左側の領域に対しては左旋回,右側の領域では直進を固定制御値を与
えて行う.
図 3.13
周回制御エリア
まず飛行船左側面に搭載しているカメラを用いるので,飛行船が直進することによっ
て,ターゲットが画面後方に移動する.ターゲットが左旋回エリアに入れば,飛行船は
進行方向に対して左旋回を行う.これによって飛行船の進行方向が変化して,相対的に
ターゲットが画面前方に移動する.
画面を分割する位置や左旋回角度,直進速度によって,周回の半径,速度が変化する.
以下に周回制御概要を示す.
25
図 3.14
3.4.2
周回制御概要
周回制御実験
今回は飛行船がターゲットを中心として半径約 2m の円周上を周回する.ターゲット
はホバリング実験と同様に高さ 20cm,半径 5cm の蛍光赤色の円柱で,高さ 1m のカメ
ラ用三脚に固定した.
以下に実験結果を示す.
26
周回撮影時の移動軌跡 XY平面
1500
移動軌跡 XY平面
1000
Y座標 [mm]
500
0
-2500
-2000
-1500
-1000
-500
0
500
1000
1500
2000
2500
-500
-1000
-1500
-2000
X座標 [mm]
周回撮影時の移動軌跡 YZ平面
2000
移動軌跡 YZ平面
1800
1600
1400
Z座標 [mm]
1200
1000
800
600
400
200
0
-2500
-2000
-1500
-1000
-500
0
500
1000
Y座標 [mm]
図 3.15
周回実験結果(軌跡)
27
1500
2000
2500
左右方向位置
ターゲット重心位置のx座標
[pix]
左右方向位置
700
600
500
400
300
200
100
0
0
200
400
600
800
1000
1200
フレーム[frame]
左右方向位置
上下方向位置
ターゲット重心位置のy座標
[pix]
上下方向位置
500
400
300
200
100
0
0
200
400
600
800
1000
1200
フレーム[frame]
上下方向位置
前後方向位置
ターゲットまでの距離[cm]
前後方向位置
400
350
300
250
200
150
100
50
0
0
200
400
600
800
1000
フレーム[frame]
ターゲットとの距離
※フレームレートはいずれも 10[frame/sec]である
図 3.16
周回実験結果
28
1200
●結果考察
図 3.15,16 は周回軌跡を 100[frame]ごとにプロットしたものである.データの計
測に関しては、あらかじめ床面にマーカーを並べた環境で実験を行った.その後オフラ
インで実験中に撮影された画像に対して手動でマーカー位置の抽出を行い,そのマーカ
ー情報をもとにカメラ位置の検出を行った.
図 3.15 の周回軌跡より飛行船がターゲットを中心に周回撮影に成功していることが
わかる.図 3.16 の各パラメータ偏差に関しては,まず左右方向はターゲット重心位置
が目標中心位置(320[pix])を中心に振幅±150[pix],100∼200[frame]周期内で繰り返し
振動している.これは直進エリア,左旋回各エリアにおいてフィードバック制御が有効
に働き,直進と左旋回を一定周期で繰り返しているためである.900[frame]以降に多少
乱れるが,ほとんどのフレームにおいてターゲットを画面内に捕らえ続けていることが
わかる.また上下方向と 900[frame]以降やや乱れるものの,それ以前まではそれぞれの
目標値(100[pix])付近に安定しておりほとんどのフレームにおいてターゲットを画面内
に捕らえ続けている.ターゲットとの距離方向には制御を行っていないが,125[cm]付
近で安定して収束している.これは飛行船がターゲットに対して一定半径内を安定して
周回したことを示している.
また実験中に画像の乱れが多発した.各グラフ中の垂直方向成分は,この画像乱れに
起因している.これはプロペラ電圧信号との競合でノイズが混入することによって,カ
メラ画像が著しく悪くなる,または完全に何も映らなくなる状態である.
以上よりイメージベースによる,カメラ画像を 2 エリアに分割して.それぞれに直進
制御,左旋回制御を行う手法によって周回撮影制御を実現することができた.またこの
制御は著しい画像乱れやノイズに対してもロバストに対応して,安定して制御できるこ
とがわかった.
29
第4章
4.1
飛行船カメラからの人物検出
従来の人物検出手法
従来,カメラ画像から人物を検出するために様々な手法が提案されている[24].これ
らは大きく以下のように区分できる.
●パターン認識
対象物の表面形状や色を利用するもの,“blobs”,テンプレートマッチングなどが挙げ
られる.あらかじめ与えられた人物の特徴量をカメラ画像と比較して,その最小化問題
として人物の特定を行う.人物検知に加え,特に人物顔画像によるテンプレートマッチ
ングであれば個人の識別も可能である.一般的に計算処理負荷が大きいとされる.
●三次元認識
複数台のカメラもしくは移動カメラの複数画像より,人物およびカメラの相対的な位
置・姿勢,また人物の三次元形状を計測する.理論的には人物とカメラとの厳密な距離対
応がとれる.しかし微小なノイズに対しても大きな影響を受け,システムが破綻する傾
向にあり,ロバスト性に欠ける.またパターン認識と同様,通常は計算負荷が大きいと
される.
一方,飛行船カメラ画像による人物検出には以下の問題点がある.
まず飛行船自身が移動し上空から地上を撮影するため,カメラ角度は見下ろしとなる.
そのため画像の見えの変化が大きく二次元形状を利用するテンプレートマッチングなど
は精度の問題がある.また背景が複雑で既知ではないため,人物と背景との領域分割は
困難である.
また人物検出は飛行船制御と同時に行うため,飛行船制御に影響を与えない範囲での
処理時間(10[frame/sec]以上が望ましい)が必要となる.テンプレートマッチングや三次
元再認識は一般的にオプティカルフロー検出などと比較して処理負荷が大きくため
10[frame/sec]以上での処理が困難である.
さらにワイヤレスカメラを利用していることに加え,プロペラ制御信号との競合のた
30
め,画像の乱れが著しい.よりロバストな処理が必要であり,ノイズに対して敏感であ
る三次元再構成は問題がある.
以上の問題点から,飛行船移動カメラからの人物検出の有効な手法としてオプティカ
ルフローを利用した移動物検出を検討する.移動物検出は他のテンプレートマッチング
などの二次元形状利用やステレオ法などの三次元再構成に対して比較的計算処理負荷が
小さく,飛行船制御に影響を与えない時間内で処理が可能である.また対象の二次元形
状に依存しないので,飛行船の移動や振動によるカメラ画像の見え方の変化にも柔軟に
対応できると判断した.また背景など環境に依存せずに適用できることも大きな利点で
ある.移動物検出は移動対象が人物である保証が無いという欠点があるが,室内環境で
移動する対象は,マニュピレータやロボットが稼動する工場などの特殊な環境を除けば,
人物もしくは愛玩動物などに限定される.よって動きのある対象を認識できれば,監視
の主要な目的を達成できると考えられる.
以上より本研究においては移動物を人物であると仮定した.次節から飛行船移動カメ
ラからの移動物検出について述べる.
4.2
提案手法
4.2.1
アルゴリズムフロー
まず対応点探索の代表的手法である Kanade-Lucas-Tomasi Tracker(以下 KLT)[20],
[21]を用いて連続画像から一定数の対応点探索を行う.それら静止点,移動点を含ん
だ対応点に対して,8-Point-Algorithm (8 点法)[22]の拘束に基づく対応点のみを,繰
り返し計算によりノイズを除去する手法である Randam-Sample-Consensus(以下
Ransac)[23]によって抽出する.図 4.1 にアルゴリズムフローを示す.
31
図 4.1
移動物検出フロー
なお本研究では 8 点法におけるプログラムの都合上,全対応点から 9 点をランダムに
抽出している.
また検出された対応点から,さらにエラーを排除するために,オプティカルフロー長
さ,対応点重心からの距離,前フレームとの連続性の条件で対応点の絞込みを行った.
4.2.2
構成アルゴリズム
本研究における飛行船移動カメラからの移動物検出手法は,大きく以下の三つのアル
ゴリズムから構成される.
●Kanade-Lucas-Tomasi Tracker
勾配法を利用した対応点探索の手法.
対応点の探索方法は,大きく分けてマッチング法と勾配法の二つがある.マッチング法
32
は,連続する動画像間においてフレーム間での直接的な対応づけによって移動ベクトル
を抽出する手法であり,探索範囲の大きさにも依存するが,一般的に長い処理時間が必
要である.一方,勾配法は時空間における各画素の輝度勾配の拘束を利用して対応点の
探索を行う.
いま画像上にある点 ( x, y ) の時刻 t における輝度を I ( x, y, t ) とし,微小時間 δt 後の移動
点を ( x + δx, y + δy ) とする.物体上の輝度は不変であると仮定すると以下の式が成り立
つ.
I ( x , y , t ) = I ( x + δx, y + δy , t + δt )
上式の右辺を Taylar 級数展開すると
I ( x , y , t ) = I ( x , y , t ) + δx
∂I
∂I
∂I
+ δy + δt + e
∂x
∂y
∂t
ここで e は δx, δy, δt に関する2次以上の高次項であり,微小であるとして無視する.
両辺を δt で割ると
δx ∂I δy ∂I ∂I
+
+
=0
δt ∂x δt ∂y ∂t
δt の極限として δt → 0 とすると
∂I dx ∂I dy ∂I
+
+
=0
∂x dt ∂y dt ∂t
ここで見かけの速度ベクトルを u =
時間的な輝度勾配を I t =
dx
dy
∂I
∂I
,v =
,空間的な輝度勾配を I x =
,I y =
,
dt
dt
∂x
∂y
∂I
とおくと,次のように表せる.
∂t
I xu + I y v + I t = 0
この式はオプティカルフローの拘束方程式と呼ばれる.
しかしながら上式だけではオプティカルフローを一意に決定することができない.そ
こで KLT 法では,同一物体の濃淡パターン上の局所領域においては,オプティカルフ
ローは一定であるという条件を仮定し,弛緩法によるエネルギー最小化問題として対応
点探索を行っている[20],[21].
33
●8-Point-Algorithm
8 組以上の対応点より,画像間のカメラの動き T(平行移動),R(回転)を求めることがで
きる.
対応点の画像それぞれのカメラ座標表記を P = ( X , Y ) , P ' = ( X ' , Y ' ) とおくと
P 'Τ EP = 0
という条件式が成り立つ.但し
E = TR
である.
ここで,式を E の要素についての方程式とみなすと,8 組以上の対応点座標の組が与え
られれば
⎛ X 1 X '1
⎜
B=⎜ :
⎜X X'
⎝ n n
X 1Y '1
X1
Y1 X '1
Y1Y '1
Y1
X '1
:
X nY ' n
:
Xn
:
Yn X ' n
:
YnY ' n
:
Yn
:
X 'n
Y '1 1⎞
⎟
: :⎟
Y ' n 1⎟⎠
とおいて,
BE = 0
が成り立つ.
ここで画像ノイズなどの影響で上式を正確に満たす解が存在しない場合にも対応させる
ため| BE |→最小となる E を解とする.このような解は, BE = 0 を満たす正確な解
Τ
が存在するときも含め, B B の最小固有値に対応する固有ベクトルとして与えられる.
これは,行列 E の特異値分解を用いることで計算できる.この固有ベクトルの大きさは
これだけは決まらないが,一般的に| t |という条件を加えることによって
E = ∑ Eij2 = trace( EEΤ ) = trace(TT Τ ) = 2 t
2
2
i, j
より,固有値の大きさ,つまりカメラの動きベクトル E を決定することができる.
●Randam-Sample-Consensus
エラーを含む一定多数のサンプルデータが得られた場合,繰り返し計算によりそのサ
ンプルから正しいパラメータ(拘束式)を抽出する手法を用いる.
34
まず以下の仮定をおく.
1.
合計m個のサンプルがある(但しエラーを含む).
2.
求めたいパラメータはn個のサンプルにより決定できる.
3.
ランダムに選択したサンプルが正しいデータである確率を Pg とする.
4.
正しい解を1つも求められずにアルゴリズムが終了する確率を Pfail とする.
次にアルゴリズムフローを以下に示す.
1.
合計 m 個のデータから,n個のデータを無作為に選択する.
2.
それらn個のデータから(仮の)パラメータを求める.
3.
求めた(仮の)パラメータが,m 個全てのデータに対していくつ適合するかを調べ
る.その適合数を K とする.
4.
K が十分に大きかったら,成功とみなしてアルゴリズムを終了する.
5.
K が小さく条件を満たさなければ,1∼4を L 回繰り返す.
6.
L 回で収束しなければアルゴリズムを終了する.
収束条件 K の大きさは,正しいデータが全サンプル中に占めるおおよその割合を事前に
調査して設定する必要がある.
試行回数 L は以下のように求めることができる.
Pfail = L 回連続して試行に失敗する確率
Pfail = (試行に失敗する確率)×L
Pfail = (1−試行に成功する確率)×L
Pfail = (1−(無作為に選んだデータが正しい確率)×N)×L
Pfail = (1 − ( Pg ) N ) L
つまり試行回数 L は
L=
log( Pfail )
log(1 − ( Pg ) N )
と求めることができる.
35
4.3
実験
提案手法の有効性を検討するために,移動領域検出実験をシミュレーション CG およ
び飛行船カメラ動画に対して行った.
●実験方法
動画(CG)内において移動する人物を,移動領域として抽出できるかどうかを実験する.
4.3.1
シミュレーション CG 実験
CG は室内で画面向かって左側から女性が右方向へ歩き,画面中央において方向転回
し,画面奥に向かって歩いていき,さらにカメラ自体は前方向へ 1[m/s]の速さで前進す
るという構成である.画像サイズは QVGA(320×240[pix])である.KLT の対応点探索
数は 100 点,Ransac における想定静止点数は 80 点である.
実験結果画像を図 4.2 に示す.
36
図 4.2
移動領域検出実験結果(CG)
37
●結果考察
処理速度は平均 0.1[s/f]であった.以下に動き別の検出率を示す.
表 4.1
人物動き別検出率(CG)
検出フレーム
合計フレーム
検出率
左右方向への移動
13
14
92.857%
前後奥行方向への移動
8
28
28.571%
女性が画面に対して左右方向に歩いている場合は,90%以上の検出率であった.対して
画面奥に進むときは 30%以下の低検出率であった.対象がカメラに対して奥行方向に動
く,またはカメラと同じ方向に動くと,対応点探索自体がうまくいかない,もしくは対
応点距離(オプティカルフロー)が短い場合が多い.オプティカルフローが極端に短い場
合,8 点法の結果にも影響を与えることがある.
4.3.2
動画実験
画面に対して左側方から自然光がよく通る室内で,人物が前後左右をランダムに動く.
さらに椅子に座る,柱に隠れるといった行動も行っている.シミュレーション CG 実験
と同様,画像サイズは QVGA(320×240[pix])である.また KLT の対応点探索数は 100
点,Ransac における想定静止点数は 70 点である.
実験結果を図 4.3 に示す.
38
図 4.2
移動領域検出実験結果(実写)
39
●結果考察
処理速度は CG シミュレーションと同様,平均 0.1[s/f]であった.実写においても飛
行船制御に影響を与えない範囲での処理時間を実現することができた.人物の動き別検
出率および背景のみを対象にした誤検出率を下表に示す.
表 4.2
人物動き別検出率(実写)
検出フレーム
合計フレーム
検出率
左右方向への移動
83
88
94.318%
前後奥行方向への移動
44
140
31.428%
誤検出フレーム
合計フレーム
誤検出率
10
343
2.915%
背景のみ
表の結果にあるように,人物のカメラに対する移動方向によって,検出率が著しく変
化した.左右方向への移動に関しては,約 95%の検出率であった.画面左右端において
検出できない場合があったが,これは今回採用した KLT が各画面端(50[pix])では対応点
探索を行わないことに起因していると考えられる.
一方,カメラに対して前後奥行方向の移動では約 30%の検出率しか得られなかった.
これは,左右方向への移動に比べ、奥行方向の移動では連続するフレーム間の対応点の
位置変化が小さい,つまり生成されるオプティカルフローが短いことが原因であると考
えられる.オプティカルフローが短いと、他の静止している対応点のオプティカルフロ
ーとの差分が小さくなり、カメラキャリブレーション誤差や量子化誤差の影響によって,
移動点と静止点との正確な切り分けが困難となる.
また人物が画面外に出る,もしくは柱の裏に隠れてカメラ画像内に移動物が無くなっ
た場合,背景など静止物を移動物と間違って認識する誤検出率は約 3%であった.
40
第5章
結論
本研究では,カメラ画像を用いた飛行船の自律制御および移動物検出を行った.従
来の PD 制御に加え,画面内におけるターゲット重心位置によって,制御ルールを切り
替える手法により,安定したターゲットへのホバリング(トラッキング),周回制御を実
現した.また KLT,8 点法,Ransac を組み合わせることによって,飛行船移動カメラ
からの移動物検出を飛行船制御に支障を与えない実時間内に達成した.
一方で課題も残った.制御面では,ターゲットとの距離方向への急激な静止や発進に
よって生じる首振り運動の抑制が挙げられる.画像処理面では,ワイヤレスカメラ受信
画像のプロペラ制御信号との混信による画像乱れに対して,アンテナの改良やゴンドラ
部におけるカメラとプロペラモータに対して別電源を確保するなどハードウェア面と,
アルゴリズム両面において対策が必要であると考えられる.
今後は上記の課題をクリアするとともに,より実用的な監視システム実現のために,
飛行船制御と移動物検出を組み合わせ,実際の環境で人物に対して適応できるシステム
の完成が望まれる.人物検出に関しても,単に移動物の検出のみならず,人物の認識,
識別といったより高度なタスクの実現を期待している.
41
謝辞
本研究をまとめるにあたり,御指導いただいた,千原國宏教授,中川雅通教授,荒木
昭一助教授,眞鍋佳嗣助教授に厚く御礼申し上げます.
またお忙しい中,二年間直接に御指導いただいた松下電器産業先端技術研究所主幹研
究員の登一生氏に深く感謝致します.
研究について貴重な助言をいただいた松下電器産業先端技術研究所知能情報研究所の
皆様に感謝致します.
最後になりましたが,研究に際して様々な局面で協力してくださった千原研究室の皆
様に感謝致します.
42
参考文献
[1]
角田久雄, 川村秀憲, 山本雅人, 大内東: “カメラ搭載型自律飛行船システムの開発
と位置制御タスクの遂行”
情報処理北海道シンポジウム 2003 講演論文集,pp.
87-94(2003, 4)
[2]
Takanori Fukao, Kazushi Fuzitani, Takeo Kanade: “Image-based Tracking
Control of a Blimp”, In Proc. 42nd IEEE Conference on Decision and Control,
pp. 5414-5419 (2003/12)
[3]
Hobg Zhang, James P. Ostrowski: “Visual Servoing with Dynamics: Control of
an Unmanned Blimp”, IEEE ICRA, pp. 618-623, Detroit MI, 1999
[4]
S. van der Zwaan, A.Bernardino, J.Santos-Victor: “Vision Based Station
Keeping and Docking for Floating Vehicles”, VisLab-TR 07/2001, - European
Control Conference, ECC2001, Porto, Portugal, September 2001
[5]
S. van der Zwaan, A.Bernardino, J.Santos-Victor: “Visual station keeping for
floating robots in unstructured environments”, Robotics and Autonomous
Systems 39, pp 145-155 (2002).
[6]
Mario Fernando, Montenegro Campos: “Autonomous Dirigible Navigation
Using Visual Tracking and Pose Estimation”, ICRA 1999: 2584-2589
[7]
塚本洋介: ”自律型飛行船ロボットの目標物の追従に関する研究”, 北陸先端科学技
術大学院大学
[8]
古川清一, 小林宏, 椎葉太一, 小野木佑, 加藤良樹: “飛行船ロボットの屋内ナビゲ
ーションに関する研究”, 日本機械学会 ロボティクス・メカトロニクス講演会'04
講演論文集,2P2-L1-63(1)-(4),2004.6.18-20
[9]
S. van der Zwaan, Matteo Perrone, Alexandre Bernardino: “Control of an Aerial
Blimp Based on Visual Input”, 8th International Symposium on Intelligent
Robotic Systems - SIRS2000 - Reading, UK, 2000
[10] Takanori Fukao, Kazushi Fujitani, Takeo Kaneda: “An Autonomous Blimp for a
Surveillance System”, In Proc. of 2003 IEEE/RSJ International Conference on
Intelligent Robots and Systems (IROS2003), pp. 1820-1825 (2003/10)
43
[11] 柳沢紀子, 川村秀憲, 山本雅人, 大内東: “屋内用バルーン型ロボットの設計とモデ
ル化”, エンターテイメントコンピューティング 2003 講演論文集,大阪,pp.1-6
(2003, 1)
[12] 西村絢子, 川村秀憲, 山本雅人, 大内東: “追跡タスクにおける自律飛行船ロボット
の学習制御”, エンタテイメントコンピューティング 2003 講演論文集, 大阪,
pp.13-18 (2003, 1)
[13] 本 山 恵 子 , 鈴 木 恵 二 , 川 村 秀 憲 , 山 本 雅 人 , 大 内 東 : “Design of adaptive
self-navigated airship in simulated environment”, Operations Research /
Management Science at Work , Kluwer Academic Publishers, pp.205-213
(2002).
[14] 本 山 恵 子 , 川 村 秀 憲 , 山 本 雅 人 , 大 内 東 : “Development of autonomous blimp
robot with intelligent control”, Operations Research/Management Science at
Work,Kluwer Academic Publishers, pp.205-213 (2002)
[15]
Jens Hacker, Brend-H. Kroplin: ”An experimental study of visual flight
trajectory tracking and pose prediction for the automatic computer control of a
miniature airship”, SPIE AeroSense, 21-25 April, 2003, Orlando, FL
[16]
Jean-Christophe Zufferey, Dario Floreano: “Evolving Vison-Based Flying
Robots”, In Proceedings of the IEEE/RSJ International Conference on
Intelligent Robots and Systems, pp. 2968-2973
[17]
Fumiya Iida: “Biologically Inspired Visual Odometer for Navigation of a Flying
Robot”,
Sensor Fusion and Decentralized Control in Robotic System III,
Photonics East, Proceeding of SPIE, vol. 4196, pp.86-97, 2000
[18]
西 村 絢 子 , 川 村 秀 憲 , 山 本 雅 人 , 大 内 東 : “Learning control of autonomous
airship for three-dimensional pursuit problem”, Proceedings of The 8th
International Symposium on Artificial Life and Robotics(Oita, Japan), Vol1 pp.
194-197(2003, 1).
[19]
本山恵子, 鈴木恵二, 山本雅人, 大内東: “Evolutionary Design of Learning State
Space for Small Airship Control”, Animals to Animats 6 , Mit Press,
pp.307-316 (2000).
[20]
Bruce D.Lucas, Takeo Kanade: “An Iterative Image Registration Technique
with an Application to Stereo Vision”, In IJCAI, 1981.
44
[21]
Carlo Tomasi, Takeo Kanade: “Detection and Tracking of Point Features”,
Technical Report CMU-CS-91-132
[22]
April 1991 Page 2
H. C. Longuet Higgins: “A computer algorithm for recon- structing a scene
from two projections”, Nature, 293:133–135, 1981
[23]
M. A. Fischler, R. C. Bolles: “Random Sample Consensus: A Paradigm for
Model Fitting with Applications to Image Analysis and Automated
Cartography”, Comm. of the ACM, Vol 24, pp 381-395, 1981
[24]
D.M. Gavrila: “The Visual Analysis of Human Movement: A Survey” Computer
Vision and Image Understanding archive Volume 73 , Issue1 (January 1999)
table of contents. Pages: 82 - 98
45
Fly UP