...

3.3 瓦礫内移動体を用いた情報収集タスクフォース

by user

on
Category: Documents
6

views

Report

Comments

Transcript

3.3 瓦礫内移動体を用いた情報収集タスクフォース
3.3 瓦礫内移動体を用いた情報収集タスクフォース
神戸大学:大須賀公一
電気通信大学:樋元淳尚,稲見昌彦,杉本麻紀,加護谷譲二,亀川哲志, 青山尚之,松野文俊
茨城大学:田辺裕基,藍光平,井上康介,馬書根
岡山大学:勝浦敬泰,日笠博史,吉田幸司,蜂谷孝治,伊藤一之, 永谷圭司
国際レスキューシステム研究機構:城間直司,桑原裕之,伊能崇雄,武村史朗,牧田忍
神戸大学:桝田雄気,見延壮希,新妻翔,野村孝文,横田求,綿末太郎,大野和則,田所諭
東京工業大学:新井雅之,田中良典,高山俊男,青木岳史,広瀬茂男
トピー工業株式会社:津久井慎吾
早稲田大学:荒木政和,清田光政,栄野隼一,橋詰匠
京都大学:,工藤洋介,堀口由貴男,趙楽楽,青井伸也,原口林太郎,辻田勝吉,横小路泰義,
椹木哲夫,土屋和雄,吉川恒夫,
東京電機大学:大里祐介,栗栖正充
筑波大学:岩上智之,坪内孝司,油田信一
京都高度技術研究所:鄭心知
大阪大学:井上健司,新井健生
福井大学:前泰志
Abstract
This task force researches the information gathering technology by using movable body which
can go into debris. The situation considered in the task force is as follows. The rescue team arrives
at the disaster scene. We want to search for the victims inside the wide-ranging debris. The range
of the search is 20-30m. To develop the robot systems which can be used in the situation, we
prepare the two groups, G1 and G2 (see Fig.3-3-1). In addition, the each group consists of several
research teams. In this report, we introduce our activities
(1) 目的
瓦礫内移動体を用いた情報収集タスクフォース(以下「瓦礫内TF」と呼ぶ)で想定し
ている状況の概要は
・レスキュー隊が現場到着.
・ある程度の広範囲の瓦礫の中にとりのこされている要救助者を探索したい.
・範囲としては 20∼30m.
というものである.ここで,瓦礫内環境とは,図 3-3-1 の(b)のような環境を指す(それに
対して瓦礫外環境とは図 3-3-1 (a)のような環境を指す).
本研究で開発を目指す移動機構は上下左右から瓦礫が迫っている瓦礫内空間へ進入し
てゆくものである.ただし,上下左右から瓦礫が迫っているとはいえ,場合によっては若
干の隙間が残っているケースもある.例えば,鉄筋コンクリートのビルの倒壊現場などで
はある程度の隙間が広く存在するという状況もある.このケースと瓦礫上環境との違いは,
共に上方の空間は存在するが,瓦礫上の場合はその空間は広いが,本ケースの場合にはそ
178
の空間が相対的に狭い,ということである.
瓦礫外環境
瓦礫内環境
G1
(a) 瓦礫外環境
G2
(b)瓦礫内環境
図 3-3-1
瓦礫外環境と瓦礫内環境
このようなことから,ここで考える瓦礫内空間を,定性的に
(G1)間隙がある程度確保されている場合:鉄筋コンクリート製の建物が倒壊した場合を
想定.主に下が不整地,左右上は 0.2∼0.3m 程度の空隙がある.床面は瓦礫が散乱.
0.1∼0.2m程度の段差や溝が存在.進入距離は 20m 程度である.
(G2)上下左右に瓦礫がせまっている場合:木造家屋が倒壊した場合を想定.上下左右が
不整地で隙間がほとんど無い.具体的には 0.3m×0.3m 程度の隙間がジグザグに続
く.進入距離は 20m 程度である.
という二つの場合にわけて考える(図 3-3-1(b)参照) 1 .それに応じて,本TFでは,二つ
のタイプの瓦礫内探索システムを試作することが目標である.
G1対応タイプ
(1)サイズ等(レスキュー隊が2人で全システムを搬送可能)
・ 形状:多関節連結クローラ方式を採用
・ 全長:1.5m 以内
・ 断面:0.2m×0.2m 以内
・ 重量:30kg 以内(本体),40kg 以内(制御系)
(2)操縦系(2人で操縦.1人が操縦,1人が探索)
・ 基本的には遠隔操縦.
・ 操縦性を支援するために計算機システムを介在させることも有り.
(3)瓦礫内進入出性能
・ 瓦礫内G1を 20m 程度進入可能.
・ 秒速 0.15m 程度で進入可能.
・ 瓦礫内からの引き出しも容易に可能.
(4d)装備(ある程度のボリュームのある装備が可能)
・ カメラ:先頭,後尾,側面などに分散.
・ センサ:超音波距離センサ,レーザ距離計,ガスセンサを搭載.
1
G2対応システムがあればG1も対応可能なように思えるが,実際にはそうではない.なぜなら,G2対応シス
テムはロボット断面積が小さくなり探索能力は低下する,したがって,G1のような環境でG2対応システムを用
いることは得策ではないからである.
179
・ 通信:収集情報を操縦卓に電送するシステムを装備.
・ 対環境性:防水,防塵,暗闇対応.
(5)要求機能
瓦礫内情報(進入瓦礫内状況の映像,瓦礫内3Dマップ)
探索情報(人体位置情報,人体状態情報)
移動体情報(本体姿勢や関節情報など)瓦礫内における本体位置
G2対応タイプ
(1)サイズ等(レスキュー隊が1人で全システムを搬送可能)
・ 形状:線状を想定
・ 全長:不定
・ 断面:0.03m×0.03m 以内
・ 重量:10kg 以内(本体),20kg 以内(制御系)
(2)操縦系(1人で操縦.場合によっては1人が探索をサポート)
・ 基本的には遠隔操縦
・ 操縦性を支援するために計算機システムを介在させることも有り.
(3)瓦礫内進入出性能(棒カメ・ファイバースコープの能力を超える)
・ 瓦礫内G2を 15m 程度進入できる.
・ 秒速 0.15m 程度で進入可能.
・ 瓦礫内からの引き出しも容易に可能.
(4)装備(移動体の断面積が小さいので最低限の装備になる)
・ カメラ:先頭にカメラ.
・ センサ:簡易人体探索センサ.
・ 通信:収集情報を操縦卓に電送するシステムを装備.
・ 対環境性:防水,防塵,暗闇対応.
(5)要求機能
瓦礫内情報(進入瓦礫内状況の映像)
探索情報(人体位置情報,人体音声情報
移動体情報(瓦礫内における本体位置)
上のような目標を達成するために本TFでは以下のような実施体制で研究を進める.
(a)G1対応タイプ開発グループ
このグループでは,G1対応タイプのシステムを開発するために必要になる構成要素を
開発し,インテグレーションする.具体的には3つのグループに分かれて実施する.
1)自己位置同定・3Dマップチーム( 横小路 ,工藤,大里,栗栖,吉川)
瓦礫に埋もれた要救助者の検索の効率化と発見後の最適救出経路の計画や救出時の経路
ナビゲーションのためには,瓦礫全体の 3 次元マップが生成されていることが望ましい.
本研究では,遠隔操縦される複数の移動ロボットが瓦礫内を走行した結果得られる瓦礫の
部分形状データから,瓦礫全体の 3 次元マップを構築する手法について開発する.まず単
一移動ロボットによる 3 次元マップの構築手法を確立する.しかし,単一ロボットでは環
境モデル構築の際の誤差の累積が問題となりうるため,続いて複数のロボットの相互通信
により累積誤差を抑制する手法を開発する.また,瓦礫の 3 次元マップを生成するために,
180
瓦礫内部の形状が測定可能でかつ移動ロボットに搭載可能な小型のレーザレンジファイン
ダを開発する.
2)マルチカメラチーム( 田所 ,見延,牧田)
現在,瓦礫内での情報収集手段としてファイバスコープやサーチカムが使用されているが,
これらには次の問題点がある.
・重量が大きく長時間の作業が困難であること.
・視野が狭いので操作者が瓦礫内部の状態を正確に判断することが難しいこと.
・操作者にとって瓦礫内部のどの隙間を捜索しているのかがわかり難い.そのため被災
者が存在する可能性のある全ての場所を捜索することが困難になること.
・得られるのは画像と音声の情報のみであるため,熟練した操作者の勘が必要になるこ
と.
・到達距離が短い.すなわち,深部の捜索ができないので地下街や大規模構造物内の捜
索には限界があること.
・可能な運動は先端部の首振りのみであり,それ自身が能動的に移動する機構を持たな
いこと.
・一箇所に止まって捜索するので局所的な情報しか得られないこと.
・得られた情報は個別に利用され,対策本部や他のレスキューロボットや PDA などが持
つ情報と自身の持つ情報の統合ができないこと.
これらの問題点を解決し,災害現場において個々の自走可能な小型情報収集機構が得た情
報を災害対策本部や他のレスキューロボットなどに送り,情報を共有,統合することがで
きるシステムを構築することは,災害対策本部のみならず,各作業現場で救助に携わる者
が被災地全体の情報を得ることを可能にする.その結果,適切な人員配置等が可能になり
救助作業に有効である.
本研究の目的は,自走可能な移動体のプラットフォームとして瓦礫内探査蛇型ロボット
「蒼龍」を採用し,前年度までに開発してきた概要を元に,上記 2,3 にあたる蒼龍の問題
点を重点的に解決する事である.
3)操縦システムチーム( 松野 ,稲見,杉本,城間)
瓦礫内タスクフォースにおいては,瓦礫内進入独特の形態や機能を持った移動システム
を開発することを目指している.実環境でロボットが自律的に移動・探索を行うには技術
的問題が多く,極限環境で作業を行うレスキューロボットなどにおいては,人間が遠隔操
作でロボットを操縦する形態が現実的な解の一つとなっている.そこで,本研究では,災
害地におけるロボット操縦において重要な遠隔操作性向上を図る技術の開発を目的とする.
ロボットの遠隔操作性の向上は,これまで有効に利用できていなかったロボット自身のも
つ走破性能を十分に発揮することへと繋がる大変重要な課題である.
4)情報収集システムチーム( 橋詰 ,荒木,清田,栄野)
本研究は被災現場で使用する情報収集システムに用いるためのインテリジェントセン
サの開発を目的としている.図 3-3-2 にインテリジェントセンサ用途を示す.本センサに
搭載している光学系は収差の少ない前方半球視野を持つため,リアルタイムに広域の視野
を得ることが可能となり,移動ロボットの遠隔操縦が容易になる.さらには,ロボットの
真上や真横を撮影し張り合わせることで,通常の光学系では作成不可能な歪みのない移動
181
軌跡の実写地図がリアルタイムに作成可能である.これにより,災害現場での環境認識能
力の大幅な向上が見込まれる.また,ロボットの周囲 360°の距離情報と画像テクスチャ
を統合してローカルな三次元地図を作成し,さらに基地局で GPS データを加えることによ
り,防災シミュレータ等で用いる GIS データベースの作成・更新が可能である.
図 3-3-2
インテリジェントセンサの用途
5)瓦礫内移動システムチーム( 広瀬 ,新井,田中,高山,津久井)
・蒼龍
我々はこれまでに瓦礫内の狭い間隔を縫って進んでいく蛇型ロボットである瓦礫内探
査蛇型ロボット「蒼龍」について試作を行い,その高い走行性能を確認してきた.また,
種々の実験から幾つかの問題点も明らかとなった[ARM(2004)].特に車体間の連結機構の
問題と鉄筋コンクリートなどによる電波障害が挙げられた.また,様々な研究から,災害
環境下で機器がその性能を発揮するためには,保護機構を備え信頼性を向上させる必要が
あると考えられる.
そこで本研究では,①防塵防水機構などの保護機構を備えさせ,災害現場での信頼性を
向上させた機体の開発,②通信線を効果的に用いた制御方式を実現するための,通信線を
巻き取るリールを機体内に搭載し,自ら通信線を放出しながら移動する機体の開発を行い,
実用化することを目的とする.
・防塵防水機構を備えたクローラユニット
災害現場は粉塵泥水が存在する劣悪な環境下であるため,レスキューロボットはその性
能を十分に発揮できるように耐環境性能を向上させる保護機構を備え,信頼性を高めてお
く必要がある.そこで本研究では,粉塵泥水環境である災害現場で性能を発揮できるよう
に防塵防水機構などを備えたクローラユニットの開発と,それをプラットフォームとして
使用し,直列・並列接続することによる簡便で耐環境性の高い瓦礫内探査ロボットの実現
を目的とする(図 3-3-3).
182
Crawler Unit
Joint Mechanism
図 3-3-3
クローラユニットシステム
・半球殻車輪を有する通信線巻き取りリール
瓦礫内・瓦礫上を移動・探査するロボットには鉄骨・瓦礫などの電波障害物の影響を受
けない有線制御が有効であると考えられるが,移動に際し通信線が瓦礫に引っ掛かり移動
を阻害される問題が存在する.そのため我々は車両の前後進と同期して通信線を放出・巻
き取りを行う車両搭載型通信線リールを開発してきた[ARM(2004a)].しかしながら,車両
搭載型通信線リールは,機体体積の制限から大きく確保できないレスキューロボットの機
器積載能力を更に著しく減少させてしまう.
このような背景より,本研究は,①レスキューロボットの有線制御,②通信線の引っ掛
かり防止,③レスキューロボットの機器積載能力確保を狙い,通信線巻き取りリールを内
蔵した半球殻車輪移動体の開発を行い,実用化することを目的とする.
以上の5つのグループは図 3-3-4 のように統合化されることを目指している.
橋爪G
横小路G
田所G
蒼竜(広瀬G)
松野G
図 3-3-4 G1対応タイプ開発チームの統合
(b)G2対応タイプ開発グループ
このグループでは,次世代探査システムであるG2対応タイプのシステムを開発するた
めに必要となる新しい基礎技術を開発する.特に推進機構についての研究を行う.具体的
には2つのグループに分かれて実施する.
1)繊毛振動駆動型推進機構チーム(新妻,武村,田所)
簡易型レスキュー機器として,ファイバースコープはもっとも手軽かつ安価な機器とい
える.しかし,実際に瓦礫内での作業を行うとき,
・到達距離
・瓦礫内の推進性(上の問題とも関係)
などの問題が指摘されている.
183
図3-3-5 瓦礫内におけるファイバースコープのスタック
またケーブル部が細いほど有用だが,隙間に入り込みスタックしやすいという問題が指
摘されている(図3-3-5).先端部に駆動輪などの推進機構を付加し推進性が改善された場
合でも,スコープが10m 以上使用されるようになれば本体重量に起因する問題も起こる.
災害現場で頻繁に利用されるのは棒カメラである.その主な特徴を以下に挙げる.
長所
・棒であるため,オペレータが直感的にカメラ先端部の位置把握をすることが可能
・操作が簡便
・単純な構造のため,壊れにくい
短所
・曲がりくねった場所には入れない
・棒であるため,長い距離は挿入できない
ファイバースコープでは直感的な位置の把握は困難であるが,瓦礫の隙間を縫うように
進入することが出来れば棒カメ以上に被災者発見に貢献することは明らかである.そこで,
ファイバースコープに対し繊毛と振動を利用した簡単な推進機構を付加することで,到達
距離と扱いやすさを両立した普及型のレスキュー機器の開発を検討する.
基本的な考え方として,ファイバースコープのような細い線状の物体を狭量部に送り込
むときには,後ろから押し込んでもうまく挿入できない.この現象は,針に糸を通すこと
を考えると分かり易い(図3-3-6).
図3-3-6 糸のモデル
針に糸を通すとき,糸の先端を針に入れ,出てきた端を引っ張る.先が通っても,後ろ
から押したとしても糸は通らない.よって,ファイバースコープの推進機能を考えるとき,
前方に推進能力があることが必須条件となると考えられる.
184
また,図3-3-5のように人力で差し込む際にはある程度の硬さが必要であると想像でき
るが,推進機構を付加し,到達距離を伸ばすためには柔軟なケーブルを使うべきである.
ただし,柔軟なケーブルの場合,硬い場合に比べて下部の摩擦が増大する.この摩擦に対
処するためにはケーブル全体に渡り推進力を持つことが望まれる.
さらに,ケーブル全体に推進力を持ち,さらに先端に首振り機構を備えることにより,
従来不可能であった上方向(地面方向)への移動も可能になると考えられる.ここで,推
進メカニズムとして,繊毛振動駆動を提案する.いくつかの繊毛駆動方式ロボットの研究
[Ioi(1999)][Niitsuma(2003)]から,実現可能な見込みがある.繊毛振動駆動は繊毛と呼ばれ
る樹脂または金属の細線材を床面に対しある角度をつけて曲げておき,振動を加えること
によって繊毛がたわみと回復を繰り返し,微小な移動を繰り返す.この運動を高周波で行
うことにより,進行する.繊毛振動駆動の特徴として,
・全体に分布的な推進力を持つ
・柔軟なケーブルを使用することが可能となる
・外周に移動機構を持つため,センサなどの搭載に有利
・繊毛が外周にあるため,瓦礫への噛み込み解除に有利
・繊毛の反発力により太いケーブルを用いた場合と同様にケーブルの噛みこみが避け
られる
・比較的簡単な機構であり,機械的安定性が高い
・比較的安価に製作可能
等が挙げられる.
よって,我々は繊毛振動駆動機構をもつファイバースコープ推進機構について,平成16
年度から瓦礫内TFでいくつかの試作機を開発し,その有用性を確認した.
2)ロッド放射推進機構チーム(青木,広瀬)
狭隘環境内での救助活動の際,被害者の位置を同定することが第一ステップである.従
来は探索犬などを使って救助活動を行う方法などもあるが,被害者の声頼りの探索が主で
ある.しかし被害者の声はほとんど現場の作業機器やヘリコプターの音などにかき消され
てしまう場合が多い.また崩壊寸前の建物の奥では救助者すら近づけない状況なため,探
索の効率が非常に悪い.
そこで現在提案されている探索機器としては,ロッドの先端にカメラを備えた機器や無
線を用いた小型ロボットなどがある.しかしこれらを用いてがれき内部の探索を行うとす
ると,前者の場合は柔軟性にかけるため複雑ながれき内部では探索範囲に限界があり,後
者の場合は無線が届かない可能性があるなどといった問題がある.
本研究では人命探索に的を絞り,効率良く探索するロボットの研究を目的とし、能動的
に推進方向を制御できるロッドの先端に,CCD やカメラや集音マイク等の探索機器を備え
た空圧型がれき内探査ロッド(図 3-3-7)の開発を行う.
185
図 3-3-7
空圧型瓦礫内探査伸縮アームの構想図
(c)基礎検討グループ
このグループでは,次世代のG1対応タイプ,G2対応タイプの基本要素となる技術を
検討する.具体的には4つのチームが活動する.
1)百足型推進機構チーム(桝田,原口,大須賀)
狭隘な空間を進入するためには胴体断面積は小さくなくてはならない.また,胴体重量
は軽いほうがよい.そうすると,摩擦駆動の移動機構だと不利になって行く.そこで何ら
かの「毛」状の複足によって瓦礫を引っかけて進む方式の有用性が期待される.本研究で
は,多数の毛を全身にまといその毛の伸縮によって上下左右の瓦礫を押しながら進む軌道
機構の開発を試みる.
2)3自由度関節機構チーム(田辺,藍,井上,馬)
蛇は紐状の単純な形態でありながら体幹をくねらすことにより様々な環境において推
進が行なえる。またその冗長性を生かすことによって形態を変化させ、複雑な環境に適応
することができる。本研究では蛇の能力をロボットへ適用し、環境適応性の高い3次元蛇
型ロボットを開発することを目指す。本研究の目的としては、1) 3自由度の動作が可能な
関節を設計し、これを用いた3次元的動作の可能な蛇型移動ロボット(図 3-3-8)を試作
すること;及び、2) 瓦礫等の存在する未整備環境において3次元蛇型ロボットを動作させ
るための、環境に適応可能な運動機能を付与することである。
蛇型移動ロボットは震災等における瓦礫の散在する環境下での生存者の探索・救援など
の作業が行なえるために、その性能として複雑な形態を採ることのできる広い可動限界角
と生物の蛇の動きに固執されない、図 3-3-9 に示すより効率的な推進形態を採ることが要
求される。これを実現するため、本研究では各関節に±90 度以上の可動限界角を持つ 3 次
元蛇型ロボットを開発する。
(a) 段差の乗り越え
(b) 接地面の変更
図 3-3-8
(c) 複雑環境への進入
3 次元蛇型ロボット
186
図 3-3-9
3 次元蛇型ロボットの動作例
3)ホッピング型移動機構チーム(樋元,青山,松野)
現在、地震やテロによるビルの崩壊など大規模災害による建物の倒壊あるいは火災によ
って多くの犠牲者を出している。近年では、事例の大規模災害を教訓に、大規模災害時に
おける迅速な被災者救助方法が考案され、現実化している。
本研究では、小型、安価、軽量でシンプルな構造の被災者探査ロボットを提案し設計、
開発を行う。大量に現場に投下し、救助犬や大型ロボットでは進入不可能な極狭所へも進
入し、これらと連携しながら被災者の探索を迅速に行えるマイクロロボットの開発を目的
としている。
4)自己位置推定・地図作成システムチーム(勝浦,日笠,吉田,蜂谷, 永谷)
本研究の目標は,倒壊した建物の内部にできた瓦礫内空間を調査する移動ロボットの実現であ
る.このような環境下で,移動ロボットによって環境情報を獲得するためには,瓦礫内移動機構
のみならず,
「ロボットの自己位置認識を正しく行うこと」
,さらに「獲得した環境情報を適切に
オペレータに提示すること」が必要不可欠である.そこで本研究では,
a)
b)
c)
自己位置推定手法
環境情報提示手法
環境情報取得センサシステムの構築
の3点に関する研究開発を行うこととした.これにより,瓦礫内環境情報を獲得する移動ロボットの実現が
期待できる.図 3-3-10 に本研究目的のイメージを示す.
187
図 3-3-10
研究目的のイメージ
(2) 年次実施計画
各グループ,各チームの年次実施計画は以下の通りである.
(a)G1対応タイプ開発グループ
1)自己位置同定・3Dマップチーム( 横小路 ,工藤,大里,栗栖,吉川)
平成 16 年度
・3DSLAM の実装,レンジデータと自己位置データの統合
(平成 17 年度)
・複数移動ロボットによる大規模瓦礫の 3 次元マップ作成の手法開発
(平成 18 年度)
・テストフィールドでの評価実験
2)マルチカメラチーム( 田所 ,見延,牧田)
平成 16 年度
・蒼龍を複眼ビジョンセンサ化,実装するための画像取得回路の小型化.
(平成 17 年度)
・複眼ビジョンセンサを蒼龍に搭載し,瓦礫内にて実験,評価を行う.
(平成 18 年度)
・複数のレスキューロボットに複眼ビジョンセンサを搭載し,瓦礫内分散ネット
ワークを構築する.
3)操縦システムチーム( 松野 ,稲見,杉本,城間)
平成 16 年度
・過去画像履歴を用いたロボットの遠隔操作技術の開発
・開発した遠隔操作システムの走行テストフィールドでの性能評価
(平成 17 年度)
・前年度の評価に基づくシステムの改良
・瓦礫内移動ロボットへの開発した遠隔操作システムの搭載
(平成 18 年度)
・瓦礫内移動ロボットへの開発した遠隔操作システムの搭載,運用,及び,その
評価に基づく改良
4)情報収集システムチーム( 橋詰 ,荒木,清田,栄野)
188
平成 16 年度
・パノラマ環境地図生成のリアルタイム更新
・主要目標性能
車速 0.2[m/s]におけるパノラマ環境地図のリアルタイム描画
(平成 17 年度)
・オープンスペース用表示モード付与
(平成 18 年度)
・センサの小型化検討
5)瓦礫内移動システムチーム( 広瀬 ,新井之,田中,高山,津久井)
平成 16 年度
・蒼龍Ⅲ号機の走行実験
・クローラユニットの第一次試作機の設計と製作
・第一次試作モデルの設計,製作
(平成 17 年度)
・車両搭載型通信線巻き取りリールの設計と製作
・直列関節機構の設計と製作
・第一試作モデルの動作試験と第二次モデルの設計・製作
(平成 18 年度)
・実用化の最終調整
(b)G2対応タイプ開発グループ
1)繊毛振動駆動型推進機構チーム(新妻,武村,田所)
平成 16 年度
・試作機 2∼3 機の設計製作と評価
(平成 17 年度)
・φ30 以下で手による押し込みなしに挿入可能なスコープカメラの開発
(平成 18 年度)
・平成 17 年度までに得られた成果に基づいた実用レベル機の開発
2)ロッド放射推進機構チーム(青木,広瀬)
平成 16 年度
・Slime Scope III の開発を行う.
(平成 17 年度)
・Slime Scope III の改良を行う.
(平成 18 年度)
・Slime Scope 実用化プロトタイプの開発を行う.
(c)基礎検討グループ
1)百足型推進機構チーム(桝田,原口,大須賀)
平成 16 年度
・百足型推進機構の原理を提案し,その具現化を試みる.
(平成 17 年度)
・百足型推進機構のより効率的な移動機構を探索し,最適設計を行う.
(平成 18 年度)
189
・百足型推進機構の実用化を目指して,小型・コンパクト化を目指す.
2)3自由度関節機構チーム(田辺,藍,井上,馬)
平成 16 年度
・ロボットの機動性を向上させるためにその外周に取り付ける能動車輪や能動ク
ローラなどを開発する.
(平成17年度)
・遠隔操作を可能にする蛇型ロボットの制御システムを構築し,環境検出センサ
の開発や環境適応移動アルゴリズムの開発を行なう.
(平成18年度)
・神奈川県川崎市に設置されるレスキューロボット等のテストフィールドでの実
用実験を行い,評価を行う.
3)ホッピング型移動機構チーム(樋元,青山,松野)
平成 16 年度
・マイクロホッピングロボットの蒼竜搭載に向けて改良
マイクロカメラを搭載し,画像イメージを無線転送
コントローラによる遠隔操縦
(平成 17 年度以降)
・瓦礫内での移動力向上,及び被災者探索能力の向上
・障害物踏破のためのジャンプ機能の付加
・後退機能の付加
・他センサとの協調動作
4)自己位置推定・地図作成システムチーム(勝浦,日笠,吉田,蜂谷, 永谷)
平成16年度
・瓦礫内移動ロボットのためのセンサシステムの整備
・瓦礫内移動ロボットの三次元距離情報の獲得と提示
・瓦礫内移動ロボットの自己位置推定手法の検討
(3) 前年度までの成果要約
各グループ,各チームのこれまでの成果を要約する.
(a)G1対応タイプ開発グループ
1)自己位置同定・3Dマップチーム( 横小路 ,工藤,大里,栗栖,吉川)
平成 14 年度においては,SLAM[Dissanayake(2001)]を 3 次元に拡張することにより 3 次
元自己位置推定法を定式化し,数値シミュレーションにより動作確認を行った.また瓦礫
内を移動する小型ロボットに搭載可能な小型レーザレンジファインダを製作するに先立ち,
レンジファインダに要求される仕様を決定した.平成 15 年度においては,3 次元自己位置
推定に付随する問題点を明確にし,新たな実際的な手法,すなわちジャイロの姿勢に関す
る累積誤差をキャンセルする方法とテザーの繰り出し長の利用を提案しその有効性を数値
シミュレーションにより確かめた.レーザレンジファインダに関しては,全方位カメラと
リングレーザを用いた小型レンジファインダの設計概念を示し,試作を行った.また,試
作機の性能評価を行い,3次元瓦礫マップ生成の基礎実験を行った.
190
2)マルチカメラチーム( 田所 ,見延,牧田)
我々はこれまでに瓦礫内にて高度な情報収集活動を可能にするために,瓦礫内全方位ビ
ジョンセンサの試作機を開発してきた.試作機は直径 30mm,長さ 100mm の円環の円周
廻りに 45 度間隔で 8 個の CMOS カメラを配置し,長さ方向に 4 列カメラ取り付け用の穴
を開けている.本試作機の概観を図 3-3-11 左に示す.また試作機に搭載しているカメラ単
体を図 3-3-11 右に示す.設計図を図 3-3-12 に示す.
図 3-3- 11 左:複眼ビジョンセンサ試作機 1 号機,右:CMOS Camera
( HAM4902)
図 3-3-12 複眼ビジョンセンサ試作機 1 号機の設計図
この試作機の特徴は,全方位パノラマ視覚,ステレオ視による奥行き情報の取得を同時
実現が可能なことである.全方位パノラマには円筒モデルのスクリーンに再投影する
Cylindrical panorama の手法[Szeliski(1997)]を用いた(図 3-3-13).また長さ方向のステレオカ
メラをにより,中心射影からの 3 次元復元を行うことができる.実際に得られた距離画像
を図 3-3-14 に示す.中心射影には内部変数,外部変数を求める必要があるため,Zhang の
手法[Zhang(1998)]によりキャリブレーションを行い導出した.
図 3-3-13
複眼ビジョンセンサ試作機 1 号機から得られた全方位(360 度)パノラマ
191
図 3-3-14
複眼ビジョンセンサ試作機 1 号機のステレオカメラによる距離画像
3)操縦システムチーム( 松野 ,稲見,杉本,城間)
(a) 平成 14 年度
1) レスキューロボット・システムに必要な基盤技術の洗い出し
2) AR 技術を用いた情報収集ロボットの遠隔操作システム
ラジコン戦車に2台のカメラを搭載し,プロジェクタを用いて偏光メガネを装着し
たオペレータに立体映像を提示するシステムを開発した.
3) 脚ロボットの歩容生成アルゴリズムの開発
ステップ状の段差がある環境を考え,環境に与える力を計測しながら,歩行に必要
な足先反力を得られるかどうかを確かめる「足探り動作」を提案した.環境が崩壊
した場合にもロボットが転倒しないような足探り位置とロボットの重心の満たすべ
き領域を求め,安定歩行を実現する歩容を生成するアルゴリズムを開発した.
4) 多連結クローラ型ロボット(KOHGA)の設計
5) ネジの原理に基づいたヘビ型ロボットの設計
(b) 平成 15 年度
1) ロボットの遠隔操作技術の開発
i) AR 技術を用いた情報収集ロボットの遠隔操作システム
遠隔操作性を向上させる任意視点からの俯瞰的画像生成・提示システムを提案し,
2 次元水平面におけるシステムを開発し,オペレータにとって本手法により提示
される画像は移動ロボットが環境内でどのような状態にあるのかを容易に認識で
き,遠隔操作感が向上することを確認した.
ii) 操作性を考慮した遠隔操作型情報収集ロボットの開発
・ボランティアスタッフによるレスキュー活動の重要性を考慮し,非熟練者が操作
可能なレスキューシステムの構成を提案した.
・蛇型レスキューロボットのための,機構的半自律制御系を考案し,試作機の製作
と予備実験を行った.
2) ロボットによる災害現場の 3D 環境情報マッピング手法の開発
少ない情報量の地図作成に主眼を置き,移動するのに必要な情報,すなわち交差点
や経路,特徴的な物体の順序といった環境中の定性的な情報をもとにした行動地図
を,ロボット自らが作成していくことを目的とし,地図データベースの構築アルゴ
リズムと全方位カメラからの画像処理システムの構築が完了した.
192
3) 多連結クローラ型ロボット(KOHGA)の開発
単体のクローラ型車両での問題点をレスキューロボット競技(RoboCup Rescue 国際
大会 2002, 2003, RoboCup Rescue Japan Open 2003)や川崎ラボテストフィールド
での実験で洗い出した.走破性の観点では,より複雑な環境への適応性を向上させ
るために,クローラ車両を関節により多数連結し,ヘビのように細長い形状を持た
せることが有効であることを見出した.その具現化として,不整地環境に柔軟に対
応できる多連結クローラ型ロボットロボット KOHGA を開発した.
4) ネジの原理に基づいたヘビ型ロボットの開発
ロ ボ ッ ト 自 身 の 体 幹 の 大 き さ の 空 隙 さ え あ れ ば ,瓦 礫 内 に 侵 入 行 く こ と が 可 能 な
ように,また,体幹の一部のみが環境に接している場合にも推進できるようにす
るため,ネジの原理に基づいたネジ推進ユニットを開発した.ネジ推進ユニット
を直列に結合した場合には,ネジ推進ヘビ型ロボットを,並列に結合した場合に
は全方向移動ロボットを構成できる.
5) 軽量化ユニット型脚ロボットの開発
キャスターを持った3自由度の1脚ユニットを3ユニットで3脚のモジュールを構
成し,このモジュールを結合・分離・再結合できる柔軟な設計となっている軽量化
ユニット型ロボットの開発を目指し,その設計・製作を行った.
4)情報収集システムチーム( 橋詰 ,荒木,清田,栄野)
ODV(OmniDirectional Vision)画像からの速度情報を取得し,それとキャタピラ回転速度
を観測量とするカルマンフィルタを用いることにより ODV を搭載した移動体の自己位置
標定精度向上が有効であることを確認した.さらにその自己位置と姿勢からモーションス
テレオ視による三次元地図作成手法の開発を行った.
5)瓦礫内移動システムチーム( 広瀬 ,新井之,田中,高山,津久井)
平成 14 年度までに,蒼龍Ⅰ・Ⅱ号機による走行実験などや様々な研究により,実際の
災害現場で使用する際の幾つかの問題点が判明した.大別すると,①連結機構に関する
問題,②クローラの構造と駆動方法に関する問題,③無線操縦における電波に関する問
題,以上3つの問題に分けることが出来る.これらの問題を解決するため,車体構造・
有線制御のための通信線リールの検討をし,設計・製作を行った.開発した蒼龍Ⅲ号機(図
3-3-15)は全長 1210mm,高さ 122mm,幅 145mm,重量 10kg である.また,制御装置を搭
載し床下などで走行実験を行った.
Motors for changing posture & Battery
Linear Axes for Postural Change
Searching Device
Motor for Driving Crawlers
Reel for Wired Control (Inside)
Pitch & Yaw
図 3-3-15
蒼龍Ⅲ号機,床下実験場での走行試験
193
(b)G2対応タイプ開発グループ
1)繊毛振動駆動型推進機構チーム(新妻,武村,田所)
新規テーマにより無し.
2)ロッド放射推進機構チーム(青木,広瀬)
(a) Slime Scope
これまで Slime Scope は、主動力源として足踏み式ポンプ等で発生する空気圧を利用し
て進展する空圧伸展アームの伸縮による 1 自由度と,先端ユニットの屈曲の 2 自由度によ
り複雑な 3 次元地形である瓦礫内での探索を目標として開発を進めてきた。図 3-3-16 はこ
れまでに開発した「Slime Scope I」と「Slime Scope II」である [Mishi(2002)] [Mishi(2003)].
図 3-3-16
Slime Scope
(b)15 年度の成果
15 年度は先端ユニットの試作を行った。図 3-3-17 は新たに試作した先端ユニットである.
この先端ユニットは,屈曲部を構成するフレキシブルコンジット,フレキシブルコンジッ
トを屈曲させるためのワイヤ,ワイヤに張力を発生させるためにフレキシブルコンジット
の両端に搭載したエアシリンダ,エアシリンダを駆動するための 5 ポート電磁弁と小型ス
ピードコントローラと,先端部を構成する CCD カメラ,暗所用高輝度 LED,カメラレン
ズの付着物を除去するエアブロアからなる.
図 3-3-18 に屈曲部の内部模式図を示す.屈曲 2 自由度は,1 自由度の屈曲を生成するワ
イヤ式エアシリンダ機構を 2 個組み合わせて実現する.図 3-3-18 に示すようにエアシリン
ダ内でピストンを変位させると,ワイヤによりフレキシブルコンジットを任意の角度に屈
曲させる事ができる.このワイヤ式エアシリンダ機構を 90 度位相でフレキシブルコンジッ
トの両端に配置する.
194
図 3-3-17
先端ユニット
図 3-3-18
屈曲部内部模式図
動作実験として,①エアシリンダの特性実験,②先端ユニットの動作実験,③CCD カメ
ラ用エアブロアの動作実験を行った.
①の実験は,エアシリンダ端部とワイヤのシールの検証とエアシリンダによる発生張力
の測定を行った.その結果,図 3-3-19 に示すようなワイヤを x リングによってシールする
方式により十分な効果をえることができ,設計通りに最大 160[N]の張力が発生しているこ
とを確認した.図 3-3-20 は②の実験である.開発した屈曲機構は最大 80[deg]屈曲するこ
とができ,先端ユニット単体でも十分に使用可能であることがわかった.しかしフレキシ
ブルコンジットの特性によりワイヤに緩みが発生し,目標の可動範囲を確保することがで
きなかった.今後,フレキシブルコンジット内の改良を行っていく.図 3-3-21 は③の実験
である.カメラのレンズに搭載したエアブロアによりレンズを覆う付着物を除去すること
が可能であることを確認した.
図 3-3-19
シール
図 3-3-20
屈曲部の動作実験
図 3-3-21 ブロアの動作実験
(c)基礎検討グループ
1)3自由度関節機構チーム(田辺,藍,井上,馬)
平成 14 年度において、±90 度以上の可動限界角を持つピッチとヨーの動作の他に±180
度の可動限界角を有するロールの動作をも行なうことが可能な 3 自由度関節ユニットを開
発した.開発した 3 自由度関節ユニットは以下のような特徴を持つ。
・
ロール・ピッチ・ヨーの3軸が1点で直交交差しているので、特異姿勢が存在しない。
・ 差動機構の採用により干渉駆動を実現し、搭載モータのパワーを有効に活用している。
・ ロール軸とピッチ軸の可動限界角が±90度を有することでロボットが複雑な体勢を
採ることができる。
・ ロール軸の回転が行なえることで、蛇では不可能な推進方法も可能となる。
195
製作した関節ユニットの動作実験、及び4つの関節ユニットを連結し、4リンクによ
る蛇行移動実験と直線式移動実験を行なった。
実験の結果より、3自由度を持つ関節ユニットが広い可動限界を有し、さらにロール
軸周りの回転を加えたことでより柔軟性の高い3次元蛇型ロボットを実現できることを明
らかにした。しかし、試作した関節ユニットには十分な運動性能があるものの、その重量
とスケールの大きさ、ロール軸の剛性、バッテリや制御ボードなどを搭載するスペースの
無さなどという問題があることが判明した。
平成15年度において、今年度は前年度に試作された関節ユニットの問題点を克服する
ために、以下に示す二つの改良を行なった。
その1:重量とスケールの大きさについては、小型モータとドライバを使用し、全体
的に関節を小さくすることで、関節の軽量化を図った。ロール軸の剛性については、
内歯車機構を使用し、大径の軸受けを両側から挟むことにより剛性を高め、長時間
の動作でもガタが生じにくい設計になっている。
その2:自由度を減らしても3自由度を有する関節の性能を極力減らさないために、
ロール軸を含む2自由度関節にした。ロールの自由度が含まれることで、ヨー軸と
ピッチ軸の回転を両方実現している。ロール回転型2自由度関節にすることで、重
量とスケールの問題を解決し、しかも関節性能の大幅な低下を回避する。
改良した関節ユニットを10セット試作し、それによるロボットの機械モデルを試作し
た。なお、この機械モデルによる単純な実験を行なった。
2)ホッピング型移動機構チーム(樋元,青山,松野)
これまでに,図 3-3-21 に示すようなマイクロホッピングロボットを開発した.振動モー
タを駆動源としたロボットで,サイズは 30*30*30(mm)から 40*40*40(mm)と小型軽量で,
重量も 15g程度とレスキューロボットとしては,最小の大きさとなっている.
図 3-3-22
駆動原理
進行速度は 30mm/s.ロボットの天地のどの面で接地しても進行可能なため,転倒しても
移動を続行することが可能である.また材料費は約 1000 円であり,大量生産が可能であり,
現場に大量に投入することで被災者の早期発見に大きく貢献できると想定された.図
3-2-22 に基本的なロボットのイメージ図及び赤外線センサ搭載型ロボットの写真を示す.
・駆動原理
前 進時,後退時に作用する振動推進モデルを図3-3-23に示す.前進時は遠心力が移動体
の垂直成分上向きに作用することで,移動体の垂直抗力が減少する.つまり移動体が移動
196
面から受ける摩擦力が軽減され,移動速度が上昇する.逆に後退時は,遠心力が垂直成分
下向きに作用するため,移動体の垂直抗力が増加する.その結果,摩擦力が増加し移動体
の移動性能が低下する.
振動モータが一回転する毎に前進後退の動作をすると仮定すると,移動体に作用する摩
擦力は前進時<後退時であることから,移動体の変位量は前進時>後退時になる.この時
の変位差が,小型跳躍式ロボットの1サイクルの走行距離に相当する.
図 3-3-23
駆動原理
・人体検知
被災者探索には人体を検知するセンサが不可欠である.昨年度には焦電型赤外線センサ
を利用した人体捜索システムを開発し,マイクロホッピングロボットに搭載した.捜索範
囲をロボットの周囲 5mと設定し,テストフィールドにおいて人体捜索実験を行ったとこ
ろ,捜索範囲内の人間を探知し接近していくことができた.この結果から,マイクロホッ
ピングロボットによる被災者探索は可能であろうと考えられる.
図 3-3-24
人体捜索実験結果
図 3-3-24 に人体捜索実験の結果を示す.青い線がロボットの移動軌跡を表している.左
下からスタートし,右に 2m上に 5m離れた地点にいた人間を検知し,接近していく様子が
表されている.
3)自己位置推定・地図作成システムチーム(勝浦,日笠,吉田,蜂谷, 永谷)
平成 14 年度には,「環境情報取得センサシステムの構築」を目指し,不整地移動ロボッ
197
トに搭載するセンサシステムを構築した.このセンサシステムは,建物の倒壊現場内など
において環境情報を獲得するためのものであり,以下に示すセンサおよびアクチュエータ
により構成される.
・レーザレンジファインダ (SICK 社製)
・ジャイロセンサユニット(NEC トーキン社製)
・レーザレンジファインダのリフトアップ機構
・レーザレンジファインダの回転機構
また,「自己位置推定手法の研究」として,製作した上記のセンサシステムを利用し,
屋内の三次元情報を,エレベーションマップを用いて表現した.
平成 15 年度には,平成 14 年度に開発した不整地移動ロボットを利用し,自己位置推
定と環境情報提示に関する研究を進めた.これにより,以下に示す成果を得た.
(a)自己位置推定手法
S-DEM という三次元環境を表現する手法を提案し,この環境表現と相関演算を利用した
不整地移動ロボットの自己位置推定手法を提案した.また,この手法により,二点間の相
対位置を推定し,その手法の有効性を確認した.ただし,環境条件によっては,位置推定
が失敗するケースも確認された.
(b) 環境情報提示手法
レーザレンジセンサより得られた三次元距離情報を利用し,コンピュータ内において
VRML を用いた環境情報提示を行った( 図 3-3-25 参照).また,視覚センサより得た画像
データを利用した,環境の三次元提示手法の実装を行った.
図 3-3-25
3 次元情報のワイヤフレーム表示(左)と面の表示(右)
(c) ロボットシステムの整備
平成 14 年度に引き続き,不整地移動ロボットシステムの整備を進めた.また,初号機より
得られた問題点を解決するため,新たに二号機の構築を行った( 図 3-3-26 参照).
図 3-3-26 不整地移動ロボット 2 号機 : RD-II
198
(4) 平成 16 年度の目的
各グループ,各チームの平成16年度の目標をそれぞれ述べる.
(a)G1対応タイプ開発グループ
1)自己位置同定・3Dマップチーム( 横小路 ,工藤,大里,栗栖,吉川)
これまで,数値シミュレーションにより有効性を確かめてきた自己位置推定のモデルを,
実験により検証する.また,レンジファインダにおいてはデータ取得の高速化を計る.さ
らに,推定された位置・姿勢周りにレンジファインダからのデータを統合することで小規
模瓦礫の 3 次元マップを作成する.
2)マルチカメラチーム( 田所 ,見延,牧田)
前年度までに開発してきた概要を元に,瓦礫内探査蛇型ロボット「蒼龍」を複眼化し高
度な情報活動を与える.蒼龍にはセンサを積み込むための十分な空間は確保されておらず,
前年度までに開発した複眼全方位センサを制御するための回路を搭載する事は不可能であ
る. よって
・複眼全方位ビジョンセンサの画像取得回路を蒼龍に実装できるよう FPGA を使い回路面
積を小型化する.図 3-3-27 参照.
・HDL を用いたハードウェア記述による回路設計.
の以上を今年度の目的とした.
図 3-3-27
蒼龍複眼化イメージ図
3)操縦システムチーム( 松野 ,稲見,杉本,城間)
1995 年度の阪神淡路大震災以後,特に日本では,災害時におけるダメージを軽減化する
ための高い情報処理能力を持つ知能的なレスキューロボットシステムやロボット技術が期
待されている.実環境でロボットが自律的に移動・探索を行うには技術的問題が多く,地
震災害やテロ災害などの極限環境で作業を行うレスキューロボットなどにおいては,人間
が遠隔操作でロボットを操縦する形態が現実的な解の一つとなっている.典型的なロボッ
トの遠隔操作においては,遠隔地の情報をロボット搭載カメラにより撮像し,それをオペ
レータに提示してロボットの操作を行う形が一般的である.しかし,通常のカメラ構成に
よるロボットの遠隔操作が如何に難しいかはよく知られた事実である.本研究では,ロボ
ットに搭載されたカメラからの画像を時空間情報として保存し,それを利用することで遠
隔操作性を向上させる遠隔操作手法の開発を目的としている.端的に言えば,画像の時空
間情報より生成したロボットを俯瞰的に見た画像をもとにその遠隔操作を行う技法である.
199
本手法は,レスキューロボット技術のひとつであるが,あらゆる移動物体へ適用可能な技
術でもある.
移動ロボットの高い走破性能は,実環境で実際に稼動するレスキューロボットなどにお
いては不可欠であるが,一般的な遠隔操作法では,ロボット周囲の環境,及び,ロボット
自身の環境内での状態を把握するのが難しくロボットの走破性能を十分に発揮することが
できない.本遠隔操作手法によりそれが克服でき,ロボット自身がもつ走破性能を十分発
揮することができ,実質的なロボットの走破性向上を図ることが可能である.
4)情報収集システムチーム( 橋詰 ,荒木,清田,栄野)
平成 16 年度は,地図生成のリアルタイム更新を目的とする.まず唯一自動化されてな
かった ODV 画像を用いた移動速度推定処理の自動化を行い,それとともに処理速度の高
速化を計ることにより,リアルタイムにパノラマ環境地図を作成する.
5)瓦礫内移動システムチーム( 広瀬 ,新井之,田中,高山,津久井)
平成16年度は以下のことを行う.
・開発した蒼龍Ⅲ号機の基本走行性能試験を行い,現実の環境での使用に対する検討
を行う.
・ゴムライニング型スチールベルトクローラが現在研究・開発段階であるため,試作
品を用いた第一次試作機の開発・評価を行い,実用化のための技術に関する知見を
積む.
・半球殻車輪を有する通信線巻き取りリールの構想検討・設計・開発を行う.
(b)G2対応タイプ開発グループ
1)繊毛振動駆動型推進機構チーム(新妻,武村,田所)
先に延べたように,繊毛振動駆動を用いた移動機構の研究がすでにいくつか行われてい
るが,瓦礫内のような不整地における移動については研究されていない.よって,繊毛振
動駆動が瓦礫内で利用する移動機構であるのか,また長い索状体について適用できるかを,
試作と実験を通して検討する.
今年度設計製作する試作機の目標として,
・
太さ:φ4cm 以内
・
到達距離:5m 以上
・
先端部の四方への屈曲
・
先端部に数種のセンサを搭載
・
カメラの前方に(もしく全体に分布的な)推進力を持つ
・
前進時には任意の方向に移動できること
を挙げる.
実験は国際レスキューシステム研究機構神戸ラボの実験フィールドまたは倒壊家屋実
験施設にて行い,単純な棒カメラとの性能比較を行う.
2)ロッド放射推進機構チーム(青木,広瀬)
本年度は昨年度得られた成果を基に,空気圧によって小ロッドを突き出し推進する Slime
Scope III の開発を行う.
(c)基礎検討グループ
1)百足型推進機構チーム(桝田,原口,大須賀)
200
軽量かつ線状な瓦礫内探査システムにおいても有効に働くことができる新しい移動機
構を提案し,その性能を検証する.
2)3自由度関節機構チーム(田辺,藍,井上,馬)
ロボットの機動性を向上させるためにその外周に取り付ける能動車輪や能動クローラ
などを開発する.本年度においてロボットの外周に取り付ける能動車輪や能動クローラな
どを考案し,ロボットの能動関節と能動車輪や能動クローラなどとの協調駆動でロボット
の機動性を向上させる.
3)ホッピング型移動機構チーム(樋元,青山,松野)
本年度の主目的はマイクロホッピングロボットの蒼竜への搭載である.イメージ図を図
3-3-28 に示す.
図 3-3-28
蒼竜から飛び出すマイクロホッピングロボット群
蒼竜への搭載を目指すに当たって,必要な機能として
・マイクロカメラの搭載
・ロボットの操縦
が考えられる.本年度はこの 2 点に着目して設計開発を行うことを目的とした.
4)自己位置推定・地図作成システムチーム(勝浦,日笠,吉田,蜂谷, 永谷)
平成 16 年度の研究目的は,平成 15 年までに行ってきた研究を継続し,倒壊現場におけ
る移動ロボットの自己位置推定と環境地図の作成を行うことである.ただし,本年度では,
対象とする環境を瓦礫内に絞ることとした.そこで,本年度は,平成 15 年までに開発した
ロボットシステムを利用した,瓦礫内移動ロボットのための(1)三次元距離情報の獲得
と提示,(2)自己位置推定手法,を継続して進めるとともに,(3)瓦礫内移動ロボット
のための小型センサシステムの整備を目標とした.
(5) 平成 16 年度の成果
各グループ,各チームの平成16年度の成果は以下の通りである.
(a)G1対応タイプ開発グループ
1)自己位置同定・3Dマップチーム( 横小路 ,工藤,大里,栗栖,吉川)
i)ランドマーク(マーカー)の検討
201
・人工マーキングによるランドマークの設置
SLAM の枠組みにおいて,環境内にランドマーク(特徴点)が存在することは必要不可
欠な要素である.ところが,震災後のガレキ内の環境下においてこうしたランドマー
クが存在することは期待しにくい.そこで,我々は人工的にマーキングをしていく方
法とることにした.これは,一般の環境では通常許されず,瓦礫内という特殊な環境
下においてのみ利用できる有効な方法であると考えられる.マーキングの手法は検討
の結果,ペイントボールを用いることとした(図 3-3-29).これは内部に塗料を詰めた
ボールのことで,命中と同時にボールの外殻が破裂し,図 3-3-30 のように内部の塗料
がターゲットに塗布されるボールのことである.図 3-3-31 に示す市販のランチャーを
用いて発射が可能であり,これを改良してロボットに搭載することで積極的にマーキ
ングすることが可能になると考えている.
図 3-3-29 ペイントボール
図 3-3-30 塗布されたボール
図 3-3-31 ランチャー
・塗料
マーカーの塗料には,暗いことが想定される瓦礫の隙間においても識別可能である
ことが要求される.そこで我々は次に示す 3 つの塗料についてそれぞれ検討した(表
3-3-1).
表 3-3-1 検討した塗料
塗料
長所
短所
現状の判断
蛍光塗料
・明るい環境下で識別易
・暗い環境下では識別に難
△
再帰性反射塗料 ・暗い環境下でもはっきりと見える ・光源の配置に問題
◎
蓄光塗料
・一旦光を当てることで自発的に発光 ・発光時間が短い
○
なお,再帰性反射塗料とは入射光の方向へ反射光を反す塗料のことで,道路の標識等
に用いられている.図 3-3-32 に示すように再帰性反射塗料のマーカーを設置し,簡単
な照射実験を行った.完全に真っ暗にしたあと光を照射した様子を図 3-3-33 に示す.
くっきりとマーカーだけが浮き上がっている様子が見て取れる.注意すべき点として
は,再帰性反射塗料の性質上,光源をなるべくカメラの付近におく必要があるという
ことである.
また,蓄光塗料は時計の文字盤や針に用いられ,暗くても光を発する塗料である.
本研究ではN夜光と呼ばれる蓄光性の高い塗料を試したが,十分な(カメラ越しに認
識可能な)光を発するためには強い光を照射せねばならず,またその光は長持ちしな
かった.試しに 300W のハロゲンランプで照射したところ,カメラ越しに見ると,10
202
図 3-3-32 再帰性反射塗料設置
図 3-3-33 照射
秒程度で識別不可能になった.以上の検討から,いずれの場合にもさらなる工夫なし
には達成困難ではあるが,現段階では光源配置の問題に目処がついている再帰性反射
塗料を用いることを考えている.なお,蛍光塗料については,紫外線を発光するブラ
ックライトを用いることで暗い環境下においても識別できる可能性,および光を漏ら
すことなく蛍光塗料のみを光らせることができるという好都合な可能性があるため,
今後さらに検討する予定である.
ii)自己位置推定実験
∼手動でのランドマーク抽出によるオフライン実験∼
平成 15 年度までに考案した SLAM を実際のロボットに実装させてオフラインによる
自己位置推定実験を行った.ここでのねらいは,SLAM のアルゴリズムが有効に機能
するかどうかを実験的に確かめることである.この実験時にはマーカーのトラッキン
グ機能がまだ完全に完成していなかったので,ランドマークの抽出は全方位カメラを
用いて手動で行うことにした.なお,ランドマーク抽出の自動化については(c)で説明
する.
・ 実験概要と実験装置
まず,作成した実験フィールドを図 3-3-34 に示す.想定する瓦礫はトンネル状のス
ペースとし,全長約 340cm,幅約 79cm,高さ約 85cm,また,途中 170cm のところで
右斜め前方に曲がるように設定した.図中の黄色はランチャーで発射されたペイント
ボールを模擬して作ったマーカー(ランドマーク)であり,大きさは約半径 4cm の円
で収まる程度である.移動ロボットを 5cm 毎に前進させ,そのとき,カメラ上に映る
マーカーのプロファイル,およびロボットの位置・姿勢を記録する.そして,これら
のデータからオフラインでロボットの自己位置推定を行う.なおランドマーク位置の
初期推定値の精度は自己位置推定精度に大きく影響するが,ここでのオフライン計算
においては,同じ研究グループで開発中のレーザレンジファインダにより,ロボット
からマーカーまでの相対座標を計測できるものとした.なお,オフライン計算では,
ロボットは瓦礫モデルに沿って一定速度 0.1m/s で進行し途中で右斜め前方に折れ曲が
るとする.また,加速度センサ,ジャイロのデータはロボットの軌道・姿勢から逆算
してガウス白色ノイズを加えたものとした.使用する移動ロボットはラジコン戦車と
し図 3-3-35,図 3-3-36 にそのラジコン戦車と搭載された全方位カメラを示す.
203
図 3-3-34 実験フィールド
図 3-3-35 ラジコン戦車
図 3-3-36 全方位カメラ
・実験結果
図 3-3-37 にランドマークを追跡することで得られたロボットの自己位置の推定結果
を示す.青の太線が推定軌道,黒の点線が真の軌道を表す.また,軌道に沿って記し
た矢印はロボットに固定された座標系の向きを表し,緑,黄,赤の順番に進行方向,
頭上方向,およびこれら 2 方向に対して垂直な方向を表す.図中,青の○は設定した
ランドマークの真値を表し,赤の*は推定されたランドマークの位置を表す.結果と
して,約 2m の走行で 10cm∼20cm の位置誤差で収まっていることが分かる.なお,マ
ーカーの観測を行わず,内界センサのみによるデッドレコニング(慣性航行)の結果
を比較のために図 3-3-38 に示した.マーカーの観測を行わない場合,容易にドリフト
していく様子がわかる.なお,両図とも左側が鳥瞰図,右側が横からみた図である.
図 3-3-37
SLAM による自己位置推定
図 3-3-38 慣性航行のみによる自己位置推定
204
・ テンプレートマッチングによるトラッキング実験(ランドマーク発見と追跡)
前節ではランドマーク抽出を全方位カメラの画像か上で手動で行っていたが,実際
にはランドマークの発見と追跡を自動で行う必要がある.今回のように全方位カメラ
でトラッキングを行う場合,ランドマークの大きさが著しく変わるという問題点があ
る.そこで,我々は次のようなアルゴリズムでテンプレートマッチングを行うことで
この問題の解決を図った.まず,中心付近にランドマーク
発見
のための初期検索
を行う.全方位カメラは双曲面ミラーを前方に向けて搭載するので,ランドマークは
中心付近で発見されることに着目した.その後,ロボットの前進と共にランドマーク
は放射状に移動するが,初期検索画面で発見したランドマーク付近の小さな領域に,
改めて検索領域を設けることで
追跡
を行う.こうすることでより,高効率且つよ
りロバストなトラッキングを行う.さらに,大きさの変化するランドマークに対応す
るため,大きさの異なる複数のテンプレート(図 3-3-39)を事前に用意しておき,テ
ンプレートの切り替えを行う.図 3-3-40 に,このアルゴリズムを用いてトラッキング
を行ったている様子を示した.実際,この方法では,約 0.1m/s の遅い速度において,
ランドマークの発見,追跡ができることを確認した.現状では,大きな衝撃が加わる
ような速い速度では,ランドマークの誤認識が生じるため,(d)に示す加速度センサの
情報を利用して,検索領域を予め予測するという方向からこの問題に対し検討してい
く予定である.
図 3-3-39 事前に登録したテンプレート
図 3-3-40 トラッキング例
・加速度センサ,ジャイロユニットの作成
移動ロボットに搭載する加速度センサとジャイロのユニットを作成した.用いる加
速度センサはクロスボー製 3 軸加速度センサ,ジャイロはシリコンセンシング社製の 1
軸ジャイロ 3 つである.今後はこれらの内界センサを合わせてロボットに搭載し,実験
により自己位置推定を行っていく予定である.
205
図 3-3-41 センサユニット
・レーザレンジファインダの構成
本年度作成したレーザレンジファインダを図 3-3-42 に示す.
全方位ミラーブロック
ホットミラ
円錐ミラー
LED
双曲面ミラ
USB2 カ メ ラ
NTSC カ メ ラ
レーザ発振モジュール
リングレーザ発振ブロック
図 3-3-42 レーザレンジファインダの外観
作成したレンジファインダは以下のブロックによって構成される.
○リングレーザ発信ブロック:
リングレーザの発信およびマップのテクスチャ画像取得用の照明.赤外線レーザ発
信モジュール,レーザ光を全周方向へ拡散させるための円錐ミラー,全周照明用高
輝度 LED の 3 つの要素により構成される.
○全方位ミラーブロック:
直径 41φの円柱状ブロックで,全周画像の取得,および可視光と赤外光の分離を行
う.双曲面ミラー,ホットミラーにより構成される.なお,ホットミラーとは赤外
光のみを反射し,可視光は投下させる鏡である.
206
○NTSC カメラ:
ランドマーク抽出追跡用のカメラ.3 次元マップのテクスチャ画像の取得も兼ねる.
○USB2 カメラ:
リングレーザ(赤外光)撮像用カメラ.45mm×45mm×50mm(奥行き)の USB2.0 規格カ
メラ.画素数 652×494,最高 60fps までのフレームレートでプログレッシブ画像を
取得できる.
Y
H yperbo lic mirro r
Hy perbol ic
focal poi nt
IR Laser beam
Ho t mirro r
NTSC camera
USB 2 camera
fm
fm
Laser modu le
X
C oni cal mirro r
図 3-3-43 レーザレンジファインダのモデル
図 3-3-43 は作成したレーザレンジファインダのモデルを示したものである.瓦礫上
に照射された赤外レーザ光は一度双曲面ミラーで反射され,さらにホットミラーで反
射された後 USB2 カメラで撮像される.ホットミラーは赤外光のみを反射させるため,
可視光は USB2 カメラでは撮像されない.逆に双曲面ミラーで集約された可視光は,
ホットミラーを透過し,NTSC 小型カメラで撮像される.このとき赤外レーザ光は透過
されないため NTSC カメラには撮像されない.以上のように,本年度作成したレーザ
レンジファインダの特徴は,リングレーザの撮像を行うカメラを高速 USB2 カメラへ
変更し,ホットミラーの使用でランドマーク追跡用のカメラと独立させ,データ取得
の高速化を計った点である.
図 3-3-44 は計測用ソフトウェアの画面である.計測対象は開口部が正方形(約 0.6×
0.6m)の段ボール箱の内部である.ただし,赤外レーザ発信モジュールの作製が間に合
わなかったため,緑色レーザを使用し,ホットミラーの代わりにハーフミラーを使用
して調整している.画面右側はレーザが照射されているときの USB2 カメラの画像で
あり,左側はその画像とレーザが照射されていないときの画像との差分から抽出した
レンジデータである.レンジデータの取得周期は処理用 PC の性能にも依存するが,撮
像周期を早くするとレーザ光の抽出精度が悪くなる.現状,毎秒 15 回のレートで安定
してレンジデータが取得できる.
207
図 3-3-44 計測用ソフトウェア
図 3-3-45 は測定結果を示したものである.キャリブレーションを行っていないため
測定精度は悪く,現状 30cm の距離で最大 2cm 程度の誤差がでるが,この点はキャリ
ブレーションによりまだ改善できる.なお,計測用ソフトウェアは取得した各レンジ
データと自己位置推定で得られたロボットの座標(位置.姿勢)を対応させることで,
OpenGL を使用した 3 次元ポリゴンモデルを構築できるようになっている
0.3
Measured value
Real value
0.2
0.1
0
Laser range finder
-0.1
-0.2
-0.3
-0.3
-0.2
-0.1
0
0.1
0.2
0.3
[m]
図 3-3-45 計測結果
2)マルチカメラチーム( 田所 ,見延,牧田)
(a)FPGA による開発
前年度までに開発した画像取得回路(図 3-3-47 左)は蒼龍に搭載するには大きく,極
限まで効率化された設計がなされている蒼龍には搭載スペースがなく実装する事は
不可能である.
我々は回路システムを改善するために,プラットフォームとして株式会社アットマ
ークテクノ社の SUZAKU(図 3-3-46 右) [AtmarkTechno(2003)]をと呼ばれる FPGA 搭載
ボード採用した.FPGA は Xilinx 社の Spartan3 が使われており,
MicroBlaze[Xilinx(2004)]と呼ばれるソフトマクロコア CPU が搭載されている.
208
また,この CPU を使って uClinux と呼ばれる組み込み用の Linux も搭載されている.
図 3-3-46
左:前年度までに開発した画像取得コア
右:SUZAKU(FPGA)ボード
複眼ビジョンセンサのプラットフォームにこの FPGA ボードを用いる事で次の改善
点が見込められる.
1.
FPGA による回路小型化.
この基板ボードはサイズが 72x47mm と小さく,FPGA の中へ HDL によって
記述された論理回路を配置する事で小型化,ハードウェアの保守性,再利用性
の改善が可能である.
2.
OS(uClinux)の搭載.
このシステム上に Linux などの OS を搭載することで,強力なネットワーク
機能と豊富で実績のあるソフトウェア資産を利用し開発を円滑に進める事が可
能になる.
3.
画像転送に LAN の利用.
瓦礫内に進入していくには安定的に通信できるケーブル長が確保されなけれ
ばいけない.LAN ケーブルを使用した場合 USB などに比べてケーブル長を長
く取ることができ,瓦礫の奥深いところまで進入が可能となる.また既存の OS
に含まれるソフトウェア資産を使う事が可能で,開発を簡単化,効率化できる
点もある.欠点としては USB2.0 や IEEE1394 などに比べ LAN には通信プロト
コルスタックの必要性やそれに費やされる処理による速度低下など,我々のセ
ンサにとって不利となる面もある.しかしながら実際には実用性や分散ネット
ワークなどの発展性を考慮すると,全くその点が欠点となることはなく利点の
方が大きいと考えた.
(b)HDL によるハードウェアの開発.
1) ソフトコアによるシステム化
HDL を使い回路システムを記述化することで,可能な限り回路をソフトウェア化さ
せることでハードウェアに対する保守性と資産の流用生を向上させる事ができる.
我々は MicroBlaze と呼ばれるソフトマクロコア CPU を中心に周辺コアを接続しシス
テムを開発していく.この接続技術には IBM CoreConnect の OPB Bus[IBM(1999)]が用
いられている.全体の回路システム図を図 3-3-47 に示す.CMOS カメラから画像を取
209
得する回路(図中:Image capture core)は OPB Bus により接続される.CMOS カメラ 1 個
に対して 1 つの画像取得コアが接続され,SUZAKU ボードを 1 個には 4 個までのの
CMOS カメラに接続される.
図 3-3-47 全体回路システム図
2) 画像取得コア構造
カメラから時系列に画像データが出力されるため,CPU が直接画像取得を行うと多
くのリソースを消費させてしまう.また複数のカメラから同期した信号が発せられた
場合もリアルタイムに同時処理ができない.そのため画像取得コアには DMA バスマ
スタを実装し画像データをメモリに直接転送させる機能を実装した.図 3-3-49 に画像
取得コアのバス駆動の動きを示す.
①
CPU により画像取得コアのレジスタへ,DMA 転送アドレス,画像データの長
さなどを設定する.
②
画像取得コアは CMOS カメラから出力される垂直,水平同期信号に同期して画
像データを取得する.
③
画像取得コアに実装された DMA バスマスタにより画像データを転送のめもり
アドレスへ出力する.
また OPB バスと接続する画像取得コアは,OPB Bus に対するタイミンングと CMOS
カメラに対するタイミングの両方のタイミングに同期する必要がある.この時,両タ
イミングは当然違う上,速度も違うため,その違いを吸収させるための FIFO を内蔵
させている.
210
図 3-3-48 画像取得コアの動作
画像取得コアの画像取得部は
•
カメラキャプチャステートマシーン
•
FIFO 制御ステートマシーン
から構成される.図 3-3-49 に示す.カメラキャプチャステートマシーンは画像の垂直,
水平,ピクセルのタイミング信号に同期してデータをキャプチャしていく.データを
キャプチャ後ステートマシーンは FIFO への書き込み信号 Write_Enable を発行する.
これを受け FIFO 制御ステートマシーンがキャプチャステートマシーンと並行して動
作し FIFO へ書き込み作業を行う.
図 3-3-49
画像取得コアのステートマシーン
(c)結論.
複眼全方位ビジョンセンサのための回路を SUZAKU による FPGA ベースの開発にて行
211
った.また CMOS カメラから画像を取得する画像取得コアの開発を行った.現在,CMOS
カメラは 2 個まで接続して画像をカメラから同時に取得できている事を確認した.
蒼龍に複眼全方位ビジョンセンサを構築するための条件の,「画像取得回路の面積 の
縮小」を実現することができた.問題点としては画像を外部のホストマシンへ転送する
ための LAN の速度がビデオレートには不足していることが挙げられる.この点には画
像圧縮などのコアを実装して解決するなどの対応策が考えられる.
3)操縦システムチーム( 松野 ,稲見,杉本,城間)
ここでは,ロボットの遠隔操作性を向上させる過去画像履歴を用いたロボットの遠隔操作
手法について述べる.
遠隔操作性を向上させる画像の生成
本研究での遠隔操作性を向上させる俯瞰的複合画像の生成は,以下の技術に基づき実現さ
れる.
・ロボットの位置・姿勢推定技術
・ロボットの推定位置・姿勢とロボットにより撮像された過去画像履歴による時空間情
報に基づいた複合画像生成技術
つまり,ロボットの位置・姿勢情報とそれぞれの画像が撮像されたときのカメラの位置・
姿勢情報を含んだ過去画像履歴が必要である.
図 3-3-51 は,この俯瞰的複合画像生成法を示したものである.上左画像は,ロボットに
搭載されたカメラからの画像,上中画像はロボットの現在位置・姿勢情報である.これら
のカメラ画像とそれに対応するカメラの位置・姿勢情報は画像履歴として保存される.上
右画像は過去画像履歴より選択されたロボットを俯瞰的に見る視点からの画像である.こ
れらの情報と予め生成されているロボットの CG モデルより図 3-3-50 下の環境中のロボッ
トを俯瞰的に見た複合画像を生成する.
212
図 3-3-50 俯 瞰 視 点 画 像 生 成 の 概 念
ロボットに搭載されたカメラよりの画像履歴及びセンサにより計測されたロボットの位
置・姿勢情報より複合画像を図 3-3-50 のように生成し,その複合画像をオペレータに提示
をして遠隔操作を行う.オペレータは,遠隔操作においてこれらの複合画像を用いること
により,ロボット自身や未知環境の状態を容易に把握でき,遠隔操作性を向上することが
可能となる.
俯瞰視点画像生成アルゴリズムは以下のようになる.
アルゴリズム
1. ロボットオペレーション中,その現在位置・姿勢情報を取得する(位置・姿勢情報取
得)
2. ロボットから撮像された画像をその位置・姿勢情報と共にフィルタバッファ内に取り
込む(履歴画像保存)
3. 現在のロボット位置に基づき,フィルタバッファ内に保存された画像の中から複合画
像生成に適した画像を選択し,その選択された画像が撮像された位置を視点位置とす
る(履歴画像をもとに視点の選択)
4. 現在のロボットの位置・姿勢情報に従って,先の視点 位置から見たロボットの CG モ
デルを描画する(ロボットモデルの描画)
5. 選 択 し た 視 点 位 置 か ら 見 た ロ ボ ッ ト モ デ ル を 履 歴
画像にマッピングする(俯瞰視点画像生成)
6. これらの処理を繰り返す
本システムの概要を図 3-3-5 1 に示す.カメラ画像は,
そのときのカメラの位置・姿勢情報と共にメモリ内にビ
ットマップ形式で保存される.ロボットの位置・姿勢情
報がセンサより取得されると,その情報をもとにその時
213
図 3-3-51 システムの概要
点でのロボットを観察するのに一番適した視点位置に対応する画像をメモリ内に保存され
ている過去に取り込んだカメラ画像の中から選択し て,その視点位置から見たときのロボ
ットモデルをその選択された画像へスーパーイン
ポウズして,複合画像を生成する.最適な視点位
置の判定法は,フィルタバッファ内に画像と共に
保存されたその画像が撮像された視点位置情報に
よる.図 3-3-52 に示すように,選択された画像は
俯瞰視点画像の背景画像として使用される.
この背景画像は実時間のものではないが,擬似
実時間なものである.このようなシステム構 成で
あ るため,このシステムは,擬似実時間という意
図 3 -3-52 擬似実時間画像生成
味で動的に変化する環境へ対処することが可能である.また,本システムは,イメージベ
ーストな手法であるため,3 次元の環境モデルを構築する必要がなく,このような俯瞰視
点画像の生成においても処理時間が少ないという特徴がある.
本遠隔操作手法は,ロボットの環境内での状態把握が容易になるばかり でなく,帯域幅
の低い回線での遠隔操作のロバスト性,ロボットオペレータのカメラ酔いの低減,ロボッ
トをワイヤフレーム表現することで死角の低減など様々な特徴を有している.
過去画像を用いたロボットの遠隔操作
本章では,提案する生成される複合画像の視点位置選択手法(過去画像提示法)について
述べる.
a). 固定俯 瞰視点を用いたロボットの遠隔操作
この手法では,視点位置は固定され,
背景画像としては,常に同じ画像が使
用される.オペレータには,環境中で
動いているロボットを固定視点位置か
らみた複合画像が提示される(図
3-3-53).
b). 移 動 俯 瞰 視 点 を 用 い た ロ ボ ッ ト の
図 3-3-53 固定視点位置を用いた遠隔操作
遠隔操作
この移動俯瞰視点手法に対しては,以下に示す 4 種類の生成される複合画像の視点位置選
択手法(過去画像提示法)を用いたロボットの遠隔操作を提案する.
ⅰ) リアルタイム画像提示法
ⅱ) 一定時間遅れ画像提示法
ⅲ) 一定距離背後位置画像提示 法
ⅳ) 視野領域内判定画像提示法
こ れらの手法は全て実時間に実行
可能なものである.
i) リアルタイム画像提 示法
ロボットに搭載されたカメラ から
リアルタイムに出力される画像を
図 3-3-54 リアルタイム画像提示
214
そのオペレータにそのまま提示する手法(図 3-3-54).これは,通常行われる基本的な遠隔
操作手法である.
ⅱ) 時間遅れ画像提示法
一定時間前の画像をフィル タ
バッファ内に保存された過去
画像履歴の中から選択し,そ
のときの一定時間前のカメラ
位置を複合画像の視点位置と
してオペレータに提示するこ
とにより,ロボットから離れ
た背後の場所からロボットを
図 3-3-55 時間遅れ画像提示法
見る視点を実現する手法であ
る(図 3-3-55).
この手法では,一定時間の間に撮像される画像を保存するのに必要なメモリ空間をフィル
タバッファ内に確保し,その保存された画像の中でもっとも古い過去に撮像された画像が
複合画像の背景として選択され,その画像に関連した位置・姿勢情報が複合画像視点位置
として使用される.現時刻の最新の撮
像された画像がフィルタバッファ内に
挿入される度に,一番古い画像がバッ
ファ内から削除される.フィルタバッ
ファ内には,常に,現時刻から設定し
た一定時刻前までの画像が保存されて
いる.
ⅲ) 一定距離背後位置画像提示法
ロボットの一定距離背後に離れた位置
に,過去画像履歴の中から一番近い視
点位置の画像を選択し提示する手法で
図 3-3-56 一定距離は以後位置画像提示
ある(図 3-3-57).時間遅れ画像提示法では,ロボットが停止したときに複合画像視点位置
がロボットの現在位置に追いついてしまうが,この手法は,そのように視点位置が追いつ
くことはない.
ⅳ)視野領域内判定画像提示法
一定距離背後位置画像提示法において,
常に画面内にロボットモデルを確認でき
るようにしたものである.この手法にお
いては,選択された視点位置をもとに生
成される複合画像内(選択された視点位
置からの視野範囲内)に現在位置・姿勢
にあるロボットが表示されているかどう
かを評価し,常にロボットが複合画像に
表れるようにしている.この手法により
図 3-3-57 視野範囲の上面図
215
常にロボットを画面内で確認でき,また周囲の環境情報も得やすい画像をオペレータに提
供できる.
搭載カメラの視野範囲は,図 3-3-57 のように表される.ロボットの進行方向は,座標系
における x 軸と一致し,y 座標はそれと直行するように規定される.図 3-3-58 で,色付き
の領域は,搭載カメラから視認できる領域
を表している. θ w [rad] は,水平画角の半
分の角度である.d min [mm] は,カメラセン
タの地面への射影点と視野領域内の点まで
の最短距離である.これは,以下のように
得ることができる.
d min =
Hc
tan(θ p + θ h )
Wmin [mm] は , 視 点 位 置 の 射 影 点 か ら 最 短
距離 d min にある視野領域の水平方向の幅で
図 3-3-58 カメラ視野範囲の側面図
あり,以下のように得ることができる.
Wmin = 2
Hc
d center
tan θ w = 2
tan θ w
sin(θ p + θ h )
cos(θ p + θ h )
d center [mm] は,カメラセンタの地面へ
の射影点と画面中心の視線方向と地面
が交わる点との間の距離で以下のよう
に得ることができる.
d center =
Hc
tan θ p
wcenter [mm]は,視点位置から距離 d center
にある視野領域の水平方向の幅であり,
以下のように得ることができる.
Wcenter = 2
Hc
d
tan θ w = 2 center tan θ w
sin θ p
cosθ p
図 3-3-59 視 野 領 域 内 判 定 画 像 提
θ h [rad],θ p [rad],そして,H c [mm]は,
それぞれ,垂直画角の半分の角度,カメラの水平線からのピッチ角,地面からのカメラの
高さを表している(図 3-3-59).
フィルタバッファ内に保存されたそれぞれの画像に関連した位置・姿勢情報全てがこの
手法では利用される.図 3-3-57 に示された視野領域内にロボットが存在するかどうかがそ
の位置・姿勢情報,及び,カメラの画角情報を使用して評価される.フィルタバッファへ
の新しい撮像画像の挿入は,ロボットが規定された距離,あるいは,角度だけ移動,回転
することにより行われる.つまり,フィルタバッファ内の保存画像は連続的に撮像された
216
ものとなっているとは限らない.保存された画像は,ロボットの動きにより疎に広がった
場所から撮像されたものである.
俯瞰視点位置は,バッファ内に保存された画像に対する撮像位置の中から選択される.
現在位置・姿勢にあるロボットが視野領域内(図 3-3-57 の色付き部分)にあるかどうかが
評価され,保存されている全ての画像の中から画像中心に最も近い位置にロボットモデル
が表示される保存画像が背景画像として選択される.具体的には,バッファ内に保存され
ている n 個の画像に対するカメラ中心線と地面との交点の座標を求め,現在のロボットの
位置とその交点の距離が最短な保存画像を選択する.選択された画像はその後即座に消去
されるのではなく,ある一定期間はフィルタバッファ内に再度選択されるようしばらく保
存される(図 3-3-59).
この手法をリアルタイムで利用した例のひとつを図 3-3-60 に示す.図中左下のモニタ画
像は実際のロボット搭載カメラ画像であり,パソコンの画面に表示されている画像が本手
法を用いて生成した俯瞰視点画像である.視点位置は,画像面においてロボットモデルが
どの程度画像中心に近く表示されるかどうかにより自動で選択される.オペレータは,遠
隔地にあるロボットの操作をこれらの生成された複合画像を用いて行った.この手法によ
り遠隔地の環境内でのロボット状態を容易に把握することが可能となり,オペレータのロ
ボット操作の助けとなる.
c). 相対位置推定に基づいたロボットの遠隔操作
移動ロボットにおけるその位置推定は,解決すべき大きな課題であるが,本手法は,移
動ロボットの推定位置・姿勢を利用するが,必ずしもロボットの絶対的な位置・姿勢情報
を必要とせず,この問題のひとつの回避の仕方を示している.本手法は,ロボットの相対
的な位置推定のみでも実行可能なアルゴリズムとなっている.また,相対位置・姿勢,及
び,それに関連する画像を用いているため,例え推定したロボットの絶対位置・姿勢が時
間がたつごとに誤差を大きく含んだとしても,短期間で相対的に見れば誤差は小さいまま
であり,生成されるロボットが環境中にいる複合画像と実世界で実カメラを用いて実際に
ロボットを撮像したときの画像とのずれは,ある範囲内に抑えることができる.これは,
あたかも,本アルゴリズムが故に,複合画像中でロボットの位置・姿勢の修正が自動的に
行われているように見える.
図 3-3-61 は,この相対位置に基づいたロボットの遠隔操作の概念図である.図 3-3-61
において,実線は,ロボットが実際に進んだ経路,点線は,推定したロボットの移動経路
である.複合画像の生成においては,推定したロボットの位置・姿勢情報を利用している
ため,図中右に位置するひとつ前の仮想カメラ視点位置からロボットを見たときの複合画
像は,推定したロボットの位置・姿勢に大きな誤差があるため実際の状況とは大きく異な
るものとなってしまう.しかし,視点位置がその次の現在の仮想カメラ視点位置に切り替
わると移動ロボットの推定位置・姿勢は,その仮想視点位置からの誤差の少ない相対的な
推定位置・姿勢に基づいて行われるため,絶対的な推定位置・姿勢の誤差は大きいが,そ
の視点位置からみた生成される複合画像は実際の状況に合ったものとしてあたかも自動的
に位置を修正したかのようになっている.このように本手法は,そのアルゴリズムの性格
上,ある程度の精度を持った相対的な位置・姿勢の推定が行うことができれば実現可能な
構成となっている.
217
提案した遠隔操作手法により,ロボットのオペレータは,ロボット自身の状態,及び,
その周りの未知環境の状態を容易に把握することができ,これが,遠隔操作性の向上へと
繋がる.本遠隔操作手法は,帯域幅の低い通信でのロバスト性,イメージベーストの画像
生成であるため,複合画像生成におけるリアルタイム性が高い等の利点があり,また,遠
隔操作における死角の低減,オペレータのカメラ酔いの低減等を図ることが可能である.
本手法は,ロボットの遠隔操作のみならず,あらゆる移動体の操作適用可能な技術である.
図 3-3-61 相対的位置推定に基づく遠隔操作手法
図 3-3-60 開 発 し た シ ス テ ム に よ る
ロボットの遠隔操作
4 )情報収集システムチーム( 橋詰 ,荒木,清田,栄野)
i)概要
本提案 手法は災害発生の初動時における,閉塞空間内の環境認識能力の向上を目的とし
て いる.そのため,処理速度が非常に重要である.前年度までにアルゴリズム開発を完了
させ,一部ポスト処理ながら一連のパノラマ環境地図生成フローは実現できていたが,移
動ロボットと組み合わせてのリアルタイム更新までは実現できていなかった.そこでまず,
自動化されてなかった画像からの速度推定処理の実装を行い,処理負荷の高い自己位置標
定とパノラマ環境地図生成処理を別モジュール化して,2 台の PC で並列処理を行って高速
化を図った.この結果,車速 0.2[m/s]において時間遅れのないパノラマ環境地図の表示が
可能となった.また,本システムを倒壊家屋に見立てた狭い倉庫内を走行させ,実際に倒
れている人間が容易に探索できることを確認するとともに,周囲の物体との相対位置関係
が容易に捉えられる事を確認した.一方,本方式の限界として広いオープンスペースで使
用した場合の問題点を抽出した.
ii)システム構成
図 3-3-62 に , シ ス テ ム ブ ロ ッ ク 図 を 示 す . 本 シ ス テ ム は , 前 方 半 球 視 野 を 持 つ
ODV[Hasizume(2003)]を小型遠隔移動体に搭載し,被災地等の極限環境内を走行させ,その
周囲のパノラマ環境地図をリアルタイムに生成するものである.ロボットに搭載された
IMU により,加速度,角加速度,そして磁気方位を計測し,JOY ステックにより車体操作
信号を取り込み,ODV の時系列画像より後述するアルゴリズムを用いた推定速度を取得す
る.更にこれらの信号を用いたカルマンフィルタによる自己位置標定装置で推定した位
置・姿勢から求めた移動ベクタから画像の重ね合わせを行い,継ぎ目の無い連続パノラマ
218
画像によるパノラマ環境地図を生成する.
図 3-3-62
パノラマ環境地図生成システムブロック図
iii) 速度推定アルゴリズム
ODV 画像中の周囲環境 から特徴点を抽出し,その相対位置を連続的に推定することで
車速 を推定する.はじめに,複数の ODV 画像から床上の特徴点 P を抽出し,複数の画像
においてその移動軌跡を追跡する,次に ODV 画像上の座標を,直交座標に変換すること
で,三次元空間上での移動距離を推定する.ここでは特徴点抽出,追尾に関して述べる.
ODV 画像から地面が写っている部分を抽出し,そのデータをエッジ化,二値化処理によ
り 特徴点を抽出する.そのデータからブロックマッチング法により移動軌跡ベクトルを算
出し,直交座標系に移動軌跡ベクトルを変換し,移動距離を算出の上,移動速度を求める.
ODVで撮影した移動前,移動後の画像を図 3-3-64,図 3-3-65 に示す.これらの画像から
特 徴点を抽出し,オプティカルフローを用いてベクトルを検出したものを図 3-3-65 に示す.
ただし,ベクトルは図 3-3-63,図 3-3-64 中の赤枠内の領域を切り取って表示している.ま
た,ODV画像上の座標を図 3-3-65 のようにおくと,特徴点P(x ODV ,y ODV )は 2 つの変数θrと
θgを用いて次のように表わされる.
α −θg
) * sin θ r
α +β
α −θg
= cy + (rs + (W ) *
) * cosθ r
α +β
xODV = cx + (rs + (W ) *
yODV
(1)
ここで,ODV撮影画像において,円の中心座標を(x c ,y c ),内側の円の半径をr S ,外側
の 円の半径をr L ,特徴点の円の中心までの距離をr P とおいた.また,θr,θgは直交座
標系において,図 3-3-66 のような位置関係になっている.そこで,ベクトルOPを求め,
地面との交点を計算して特徴点の直交座標系における位置を求める.直交座標系におけ
る特頂点の位置P(x 3D ,y 3D )は,以下のように求められる.
219
図 3-3-63
移動前画像
図 3-3-64
図 3-3-65
移動後画像
オプティカルフロー図
Y
O
X
θr
rs
θg
P
W
図 3-3-66
x3 D = −
y3 D
tan(
ODV 画像中の座標系
α −β
W
図 3-3-67
直交座標系
(r − L) − α ) * h0
( xODV − xc )(α + β )
))
2Wα + 2rβ + (α − β ) L
( xODV − xc )(α + β )
= −h0 * tan(sin −1 (
))
2Wα + 2rβ + (α − β ) L
cos(sin −1 (
220
(2)
以 上 の よ う に 座 標 を 変 換 し , 特 徴 点 の 移 動 量 を グ ラ フ 化 し た も の を 図 3-3-68 及 び 図
3-3-69 に示す.この図は,X 方向の移動量が昇順になるように特徴点の全画素に ID 番号を
ふり,その画素毎に対応するように Y 方向の移動量をソートしたものである.図 3-3-68
より,X 方向の移動量が正負に大きく分かれていることがわかる.しかし,これまでの実
験により正しくマッチングが取れた箇所は X,Y ともに一定の値を示すことがわかっている.
そこで,一定の閾値以下で一定数続くものを採用し,その領域の平均値をもって移動量と
する.今回の例では図 3-3-69 に示す ID213∼261 の値を平均し,移動量を求める.
ここで,正しくロボットの移動量を示している画素 ID は,その X,Y 方向の変化率が一
定であることに着目し,誤対応点を除くため,その変化率で閾値処理を行い,正しいマッ
チングが取れた画素 ID を求め,その平均値をとることで,移動量を算出する.例として
図 3-3-68,図 3-3-69 で実際に使用している画素 ID を朱色のゲートで囲む.
X方 向
10
移動量 cm
5
287
265
243
221
199
177
155
133
-5
111
89
67
45
23
1
0
-10
-15
画 素 ID 番 号
図 3-3-68
X 方向の移動量
Y方向
15
5
0
-5
1
19
37
55
73
91
109
127
145
163
181
199
217
235
253
271
289
移動量 cm
10
-10
-15
-20
画素ID番号
図 3-3-69
Y 方向の移動量
vi) パノラマ環境地図のリアルタイム生成
図 3-3-70 に車速 0.2[m/s]で図 3-3-72 の環境内を走行させた際のリアルタイム更新された
パノラマ環境地図を示す.走行経路に合わせて時間遅れなく順次表示がされており,リア
ルタイム処理が実現されていることがわかる.尚,画像テクスチャの張り合わせ部に不揃
いが現れているのは,車体の動揺周波数に比べて画像更新レートが遅い為,結果的に姿勢
角変動分がそのまま位置誤差となっている事と,キャタピラ振動の並進加速度分による姿
221
勢角誤差によるものである.今後の対策として,1)地図の更新周期の向上,2)並進加
速度を考慮した姿勢角検出精度向上が課題である.
図 3-3-70
リアルタイム更新パノラマ環境地図
図 3-3-71
実験環境
v) パノラマ環境地図の対象物までの距離感度
本パノラマ環境地図で用いる画像は等距離写像で得られた画像のため,対象物までの距
離が変わると大きさ自体が変化してしまう.従って,狭いトンネル状の空間を移動しなが
ら地図を作っている際には,各画素当りの投影された形状や大きさは変化しないため,人
間の目で見た場合は,きれいな連続したパノラマ状の地図が得られる.しかしながら,実
際の瓦礫内環境においては,周囲の壁面までの距離は一定とは限らないため,撮像対象の
222
距離に対する画素の形状/大きさ変化の感度評価を行った.
図 3-3-72 のように左右に 2 個の赤いコーンを設置し,その間を移動ロボットで通過させ
て得たパノラマ環境地図を評価する.図 3-3-73 に移動経路の両脇に 1[m]離してコーンを設
置した際の結果を示し,図 3-3-74 に移動経路の両脇に 5[m]離してコーンを設置した際の結
果を示す.尚,ここでは,距離感度のみを評価するため,姿勢角誤差をポスト処理で補正
した結果を示す.図 3-3-73 と図 3-3-74 を比較してわかるように,距離の 2 乗に反比例して
遠方のコーンの大きさが小さくなっており,距離感度が高いことがわかる.また,図 3-3-74
では,コーンが二重に写っており,毎フレーム毎に貼り合わせている画像の大きさにより,
遠方では,連続したフレームに同じコーンが写ってしまい,二重に写りこみを起している
ことがわかる.このことから,極端に壁面までの距離に変化があるオープンスペースの空
間では画面の不連続性や二重写り込みを起す可能性があることが判明した.
図 3-3-72
図 3-3-73
距離感度試験環境
コーン間 1[m]のパノラマ環境地図
223
図 3-3-74
コーン間 5[m]のパノラマ環境地図
(vii)複雑な環境におけるパノラマ環境地図の視認性
本提案方式のフィールドでの有用性を確認するため,複雑な背景を持つ狭く,長い奥行
きを持つ図 3-3-75 の倉庫内において,パノラマ環境地図の視認性を確認した.図 3-3-76
に得られたパノラマ環境地図を示す.通常の前方視カメラの映像(例
図 3-3-75)では見
逃し易い,左右の壁沿いに倒れた人間を的確に捉えており,しかも,周囲の物体との相対
位置関係も容易に捉えられるため,遭難者の捜索や周囲の壁の倒壊状況の把握,救出/進
入方法の検討には有効であることがわかる.また,前述の実験で明らかになった画像の距
離感度が高いという問題点も,この程度の奥行き寸法の変動では,実用上は問題にはなら
ないことがわかった.
以上より,本提案のセンサは,特に瓦礫内のような閉塞空間内の遭難者探索や周囲状況
把握において効果を発揮することが明らかになった.
図 3-3-75
倉庫内の前方視カメラ映像
224
図 3-3-76
倉庫内のパノラマ環境地図
5)瓦礫内移動システムチーム( 広瀬 ,新井之,田中,高山,津久井)
i)蒼龍
開発した蒼龍Ⅲ号機の基本走行性能実験(旋回実験(図 3-3-77),超堤実験(図 3-3-78),
超壕実験,捻転実験(図 3-3-79))を行った.表 3-3-2 にその結果を示す.
図 3-3-77
旋回実験
図 3-3-78
超堤実験
225
図 3-3-79
捻転動作実験
表 3-3-2
基本走行性能
最小旋回半径
488 [mm]
超堤高
483 [mm]
超壕幅
590 [mm]
ii)防塵防水機構を備えたクローラユニット
クローラユニットとしては,図 3-3-80 に示すものを試作した.全長 378mm,高さ 162mm,
幅 140mm,重量 5.1kgである.防塵防水性能を向上させるため,外部に露出する回転部を
減らし,側面を除いて全面をクローラで覆った形状となっている.クローラベルトは軽量・
高強度の要求を満たすため,トピー工業社製のゴムライニング型スチールベルトクローラ
を使用した[ARM(2004b)].クローラユニットは,大別すると駆動輪W 1 ,誘導輪W 2 ,側板
C 1 ,ベルトB 1 から構成される(図 3-3-81(a)).本設計では,駆動輪W 1 ,誘導輪W 2 を側板
C 1 で固定し,ベルトB 1 が巻かれている簡単な形状とした.側板は図 3-3-81(b)の様に2枚の
板から構成される.側板C 1 は構造部材であり,駆動輪・誘導輪の軸と機能拡張のための中
央空間C B につながっている.側板C 2 はシール部材R s を挟み側板C 1 に取り付けられ,側板を
中空構造としている.駆動輪内のモータとバッテリー間の配線やスプロケットと中央空間
の間の配線 等W 1 の取 り回しはこ の空間を利 用して行わ れる.クロ ーラユニッ トの駆動 輪
W 1 側の断面図を図 3-3-82 に示す.駆動輪の軸Hsは中空構造し,スプロケットS 1 は内歯歯
車G i を取り付け,大口径ベアリングB b 2個で支えられて,伝達ギアG t を通して軸内部に配
置されたモータMによって駆動されている.モータMは駆動輪の軸方向と同方向に配置し,
駆動輪内に収める事で防塵防水性を高め,また,センサ等の機能拡張部品を収める空間を
広くとれるようにしている.駆動輪W 1 と誘導輪W 2 ともに回転部にはV-ring(R 1 )を配置し,
軸Hsと側板C 1 の間にはO-ring(R 2 )を配置することにより防塵防水構造となっている.さら
に,空圧を用いて機械の内部圧をわずかに高め,機械内部から外部へ向かう空気の流れを
作る事で摩擦抵抗の軽減と防塵防水性の向上させる方法の利用を考えている
[ARM(2004c)].
図 3-3-80
クローラユニット試作機
226
Center Box (C ) for
(B) Sensors
and Battery
(A)
B
Sprocket (S1)
Crawler Belt (B1)
Drive Wheel (W1)
Side Cover (C1)
Idle Wheel (W2)
図 3-3-81
図 3-3-82
Wires (W1)
Side Cover (C1)
Sealing (RS)
Side Cover (C2)
クローラユニット
クローラユニットの防塵防水機構
iii)半球殻車輪を有する通信線巻き取りリール
ここではまず従属体の形状に関する報告をする.①レスキューロボットの有線制御,②
通信線の引っ掛かり防止,③レスキューロボットの機器積載能力確保の方法として,レス
キューロボット本体を追尾する従属体を製作し,従属体に機器を搭載する方法が考えられ
る.従属体の形状としては,瓦礫内を移動する際にどこかが障害物に衝突して止まってし
まう可能性を低減させるため,全面が左右一対の半球型の車輪で囲まれた球形移動体を提
案する(図 3-3-83).この形状であれば車体のどの部分が障害物に触れても回転運動で滑ら
かに回避できると考えられる.図 3-3-85 に試作したものを示す.
図 3-3-83
球形従属体
227
Hemispherical Shelly Wheel
Spherical Shelly Body
図 3-3-84
半球殻受動車輪試作機
次に,内部リールの構造についての構想を述べる.
リールは釣りのレベルワインダのような平行巻機構がない場合,ケーブルを偏って
巻き取ってしまい,その空間を有効に活用できない.さらにこのようなレスキュー用
機器の場合,空間確保・重量の面で,平行巻機構のためだけにアクチュエータを増加
することは望ましくない.そのため以下のようにして平行巻機構を構成した.
リール,および主導軸(Driving Shaft)円板部品は軸 A を中心として,従動部品(揺動部
(Oscillator) + カム従動子(Cam Follower))は軸 B を中心としてそれぞれ回転する部品で
ある(図 3-3-86).リール内部にはモータが配置されており定電流で駆動され,リール
自身を定トルクで回転させる.リールはモータにより一方向だけに回転してケーブル
を巻き取り,先行体の移動力など,巻き取る力よりも大きい引き出す力がかかったと
きにケーブルは放出される.リールの回転は減速機で適度に減速され,主導軸円板部
品を回転させる.このとき主動軸は偏心回転しているため,従動部品は軸 B を中心と
した揺動運動を行う.この揺動部品にプーリを取り付け,ケーブルをリールに対し誘
導・巻取することで平行巻機構を実現する.
Cable
(a) Oscillator
(b)
Driving Shaft
Reel
A
A
Cam Follower
B
Reduction Gearbox
図 3-3-85
平行巻機構
228
B
(b)G2対応タイプ開発グループ
1)繊毛振動駆動型推進機構チーム(新妻,武村,田所)
i)試作 1 号機
まず,図3-3-86のような加振モータを2個,図3-3-87のような真鍮製繊毛リングを12個
使用した外径φ68mm,全長500mm,繊毛の分布長さ160mm,繊毛角約20°,重量1kgfの試作
機を製作した(図3-3-89).
図3-3-86
振動モータ
図3-3-87
図3-3-88
真鍮製繊毛リング
試作1号機
モータユニットおよび先端屈曲用ワイヤを内蔵し,人力による押し込みなどの補助なし
に平地において最大5mmの障害乗り越えおよび外径より5mm程度狭い部分への進入ができ,
移動速度は約100mm/s であった.ただし,先端屈曲については人力でワイヤを操作する必
要がある.本試作機においては,真鍮製繊毛リングを用いたため重量や外径寸法の大きさ
が問題となった.また,先端の首振り機構についても不十分であった.
ii)試作 2 号機
試作 1 号機で問題となった重量とサイズの問題を解決するため,樹脂繊毛を植え付けた
テープを,振動モータと首振り機能を内蔵したフレキシブルホースに巻きつけて利用する.
この方式であれば既存のファイバースコープに対して追加することができるため,需要
が大きいと思われる.また,テープを巻く方法で装着するため,振動モータや先端首振り
機構の配線が露出せず,機械的安定性が高い.
繊毛を植えたテープは図 3-3-89 のようなもので,建材であるサッシ隙間用パイルテープ
を元にパイル径などについて変更を加えた特注品である.また,テープ裏面が両面テープ
になっており,ホースへの巻きつけが容易である.
また首振り機構には比較的簡単に利用でき,安定した繰り返し性能を持つ人口筋肉であ
る BioMetal を用いた.BioMetal はフレキシブルホース断面に対し 90 度づつ,4 本を軸方
向に配置している(図 3-3-90).それぞれの BioMetal に電圧をかけることにより,任意の 4
方向への首振りが可能である.
229
振動モータとして携帯電話用の小型振動モータ(φ6mm,長さ 12mm)を用い,フレキ
シブルホースに埋め込んだ.配線は繊毛テープでホースに巻き込むことにより処理した.
試作 2 号機(図 3-3-91)は直径 38mm,長さ 200mm,重量 90gf,最大首振り角約 30°,
繊毛長 10mm,繊毛角約 40°,移動速度約 40mm/s であった.実験で浮かび挙がった問題
点は,木材,コンクリート上では良好な走破性を得るが登坂能力が低いこと,長時間使用
すると首振角が減少することである.それぞれ,振動量または繊毛角の問題と,BioMetal
をカシメ固定しているためで,ハードウェアとしての完成度を向上させることで解決でき
ると考えられる.
パイル高10mm
両面テープ
幅10mm
図 3-3-89
繊毛テープ
図 3-3-90
図 3-3-91
BioMetal による首振機構
試作 2 号機
iii)試作 3 号機
試作 3 号機では,2 号機の問題点を解消し,さらに実用化に向けた取り組みとして,市
販の CCD スコープカメラに対して繊毛テープと振動モータ,首振り用人口筋肉を付加し,
高機能化を試みている(図 3-3-92).
カメラは広角 116°レンズを搭載した直径 8.8mm,ケーブル径 3.8mm の 35 万画素 CCD
スコープカメラを使用し,これに繊毛長や材質を様々に変えた数種類の繊毛テープを巻
きつけてテストを行うことができる(図 3-3-93).繊毛長 10mm のテープを巻いたときの
外径は 25mm 程度である.
また,首振り用人口筋肉の取り付け部を改良し,最大 45°
230
程度までの屈曲を実現した.
図 3-3-92 試作 3 号機の概略図
先端のカメラ部には高輝度 LED による照明も装備し,国際レスキューシステム研究機構
神戸ラボ倒壊家屋実験施設で実験を行い,性能試験を行う予定である.
図 3-3-93 試作 3 号機の骨格図
2)ロッド放射推進機構チーム(青木,広瀬)
i) Slime Scope III
図 3-3-94 に示す Slime Scope III は,直径約 30mm,全長約 10m程度の探査スコープで
あり,外部より供給する空気圧を利用して体幹を構成する各胴体ユニットより斜め後ろ方
向に複数の小ロッドが突き出し,この突き出し動作を繰り返し行うことにより瓦礫内推進
を行う.また,スコープ先端の先端ユニットは2自由度屈曲動作を実現する屈曲部とその
先端に搭載したカメラ部で構成し,屈曲部を制御することにより瓦礫内での推進方向の誘
導と瓦礫内を見回す動作を行う.
Slime Scope III は,各胴体ユニットと先端ユニットがねじ込み式になっているため,探
索長さに応じてスコープを延長することができるとともに,携帯を容易にすることができ
る.各ユニットはφ32mm×300mm 程度の大きさであり,接続部をシールすることにより
防塵防水性を確保する.
ii) 胴体ユニット
胴体ユニットは図 3-3-95 上図に示すように体幹の中心に配置したエアチューブ,エアチュ
ーブの外側を摺動する誘導用コマ,誘導用コマによって胴体ユニット斜め後方へ突き出さ
れる小ロッド,空気圧によって誘導用コマを動かすための伸展ホースと復元用バネ,下図
231
に示すように機構を保護するフレキシブルコンジットで構成する.先端ユニットへの電力
供給と信号線はエアチューブの内部を通す.
胴体ユニット
先端ユニット
小ロッド
図 3-3-94
Slime Scope III
小ロッド
進展ホース
復元用スプリング
誘導用コマ
エアチューブ
コンジット
図 3-3-95
胴体ユニット
誘導用コマはエアチューブ上を摺動し,小ロッドの突き出し動作を実現する.伸展ホー
スは一方の端部を胴体ユニット端部に固定し,他方を誘導用コマに固定して誘導用コマ側
の端部を内側に折り込む.そして空気圧を掛けることにより折り込まれた伸展ホースが内
側より繰り出され,誘導用コマが移動し,小ロッドを押し出すことができる.また排気を
行うと復元用バネにより誘導用コマが戻されて本の状態に復元することができる.これら
の動作における空気圧の吸排気の制御は外部に設置する電磁弁によって行う.
iii)先端ユニット
232
先端ユニットは図 3-3-96 に示すように,カメラ部と屈曲部で構成する.
カメラ部は図 3-3-97 に示すように CCD カメラと照明用 LED,レンズ洗浄用ブロアを搭
載する.エアブロアは空気の噴出孔の角度を変更し,レンズに直接吹き付けるようにして
いる.
屈曲部は図 3-3-98 に示すように,2個の駆動用モータにより滑りネジを介してワイヤを
固定するワイヤホルダを駆動し,ワイヤ張力によって樹脂性ワイヤガイドとスポンジで構
成する屈曲部を屈曲させる.
高輝度 LED
屈曲部
洗浄用ブロア
カメラ
カメラ部
図 3-3-96
先端ユニット
図 3-3-97
カメラ部
サーボモータ
スポンジ
ワイヤホルダ
ワイヤガイド
ワイヤ
図 3-3-98
屈曲部
vi)動作実験
動作実験として,①胴体ユニットの小ロッドの突き出し動作,②先端ユニット屈曲部の
屈曲動作,③カメラ部の洗浄用ブロアの動作実験を行った.
①の実験では,図 3-3-99 に示すように進展ホースに空気圧を掛けて伸展させ,小ロッド
の突き出しを行った.伸展ホースの推力は内圧 0.1MPa で 54N であったが,φ1mm のピア
ノ線製小ロッドの変形による摺動抵抗が予想以上に大きく,突き出し動作が確認できたが,
突き出し動作後の復元用バネによる復元動作ができなかった.今後は,摺動抵抗を減らす
ための小ロッドの突き出し軌道の検討が必要である.
②の実験では,屈曲部の動作実験を行った.図 3-3-100 に示すようにサーボモータを駆
動して屈曲動作を行うことができた.今後はスポンジの弾性を検討し,屈曲角の拡大を行
233
う.
③の実験では,洗浄用ブロアの効果を検証した.粒子の大きな砂粒や水滴などには効果
があったが,静電気で付着している細かい粉塵を除去することはできなかった.
図 3-3-99
小ロッドの突き出し実験
図 3-3-100
屈曲部の動作実験
平成 16 年度の結論
空気圧によって小ロッドを突き出し推進する Slime Scope III の試作をおこなった.今後
は,動作実験より得られた知見を基に問題点を修正して開発を進めていく.
(c)基礎検討グループ
1)百足型推進機構チーム(桝田,原口,大須賀)
図 3-3-101 に示すように,弾力性のある毛を出し入れすることにより,瓦礫のひっかか
りを利用して推進力を得る機構を考案した.
ひっかかり
すべり
図 3-3-101
提案する機構の推進原理
考案した機構についてモデルを製作し,その推進性能を検証した.製作したモデルは,
234
弾性針(φ0.5mm のプラスチックファイバー)を取り付けたアクリル板を,穴を開け弾性針
を通したプラスチック板のベースに対して前後運動させることによって,弾性針の出し入
れを行う.弾性針は,10mm 間隔で,移動方向に沿って 8 本×5 列,計 40 本配置した.なお,
弾性針の取り付け部はボールジョイントのようにしてある程度回転を自由にした.また,
アクリル板の前後運動にモーターとバネを用いることで往復の際の速度を変える.具体的
には,弾性針を出して地面をかき前進する工程では,地面との摩擦と前進のための力が必要
なのでモーターを用いてゆっくり動かし,弾性針を引っ込める工程はバネによって早く動
かす機構にした.(図 3-3-102,図 3-3-103 参照).このモデルにより,提案する機構を用い
て前進運動が実現できることを確認した.
モーター
バネ
移動方向
ギア
ラック
図 3-3-102
図 3-3-103
モデル概略図
製作したモデル
現状の問題点・課題として,ある程度ひっかかりのある平面以外では,うまく作動しな
い.摩擦の少ない面では,弾性針と地面の接触部分が滑ってしまい力が伝わらない.また,
各弾性針に均等に力が加わらない凹凸のある面では,一本ごとの弾性針の強度(剛性)が足
りないために推進力が得られなかった.そこで,弾性針の地面に接触する部分に形状,材
質などで摩擦を増やす.また,弾性針の剛性を大きくする.ただし,針の剛性が大きくな
235
ると,その変形抵抗により機構の動作抵抗が大きくなるため,針の取り付け部分やベース
の穴形状を工夫し,これを小さくする.さらに,進行方向以外の方向への針の変形(座屈)
や取り付け部での回転を小さくするため,針を板状にし,取り付け部を円柱形のジョイン
トにする.これらのことを踏まえ,現在改良モデルの製作中である.
2)3自由度関節機構チーム(田辺,藍,井上,馬)
本年度において,遊星歯車減速機構を用いて図 3-3-104 に示すロボットの外周に取り付
ける能動クローラを設計し,現在試作に取り掛かっている.
図 3-3-104 開発する能動クローラ機構と関節ユニット
本能動クローラは一つのアクチュエータの入力でクローラベルトの回転とクローラ自身の
回転という二つの出力ができる遊星歯車減速機構を用いていて,図 3-3-105 に示す外部環
境の変化に応じて自律的に出力形態の変換を行う.つまり,アクチュエータの出力のトル
クを制御することで,クローラベルトの回転とクローラ全体の回転との出力形態の変化を
自律的に行う.クローラが障害物との接触がない場合,クローラベルトをのみ回転できる
トルクを出力する.このとき,クローラ全体を回転させるトルクよりかなり小さいため,
クローラ全体の回転がない.一方,クローラが障害物等と接触すれば,クローラ全体を回
転するトルクを出力し,クローラ全体とクローラベルトとともに回転し,障害物の乗り越
えを行う.
236
図 3-3-105
能動クローラの出力形態の変換
・障害物との接触がなければ,クローラベルトがのみ回転する.
・障害物等との接触があれば,クローラ全体がベルトとともに回転し,障害物の乗り越え
を行なう.
引き続き,クローラの試作や,3 自由度を有するロボット関節への能動クローラの装
備や,ロボットの能動関節と能動クローラとの協調駆動制御の検討などを行い,ロボット
の機動性を向上させる.なお開発される蛇型ロボットの実機実験を行い,応用できる可能
性について検証を行なう予定である.
3)ホッピング型移動機構チーム(樋元,青山,松野)
i)マイクロカメラの搭載
今回採用したカメラは,小型無線型カメラで以下のような仕様になっている.
・サイズ
φ19.5mm
・重量
8g
・電源電圧
1.2v
・消費電流
330mA
・電波エリア
h 11.5mm
30m
このカメラを搭載したマイクロホッピングロボットを開発した.写真を図 3-3-106 に示
す.ロボットのサイズは,20*25*25mm,重量は 12gとなっている.また,移動スピード
は 40mm/s から 50mm/s(床面の摩擦係数に依存する)となっている.
また,実際にカメラから得られる画像を図 3-3-107 に示す.
図 3-3-106
カメラ搭載型
マイクロホッピングロボット
237
図 3-3-107
カメラ映像
ii)コントローラ
マイクロホッピングロボットを操縦するためのコントローラを製作した.左右の振動モ
ータの回転数をそれぞれ別に制御することで,ロボットの左右で移動速度に差を生じさせ,
左右旋回を可能にしている.実際の現場ではオペレータが転送された画像を見て,遠隔操
作することになる.
iii)障害物踏破能力の向上
図 3-3-108
障害物踏破能力
災害地では大小様々な瓦礫などの障害物が散乱している.被災者捜索を実現するために
は,これらの障害物を乗り越えて移動することが必要になる.そこで我々はロボットに斜
毛をとりつけ,登坂能力を向上させることを試みた.結果は図 3-3-109 に示すように数 cm
の障害物であれば乗り越えて移動できることを確認した.
vi)ロボット射出機構の開発
マイクロホッピングロボットを蒼竜から射出する為の機構の設計,開発を行った.
図 3-3-110 に示すように,板バネによってロボットを射出する機構となっている.この
238
とき,板バネの弾性係数や,面積によってロボットの飛距離,射出角度を調整することが
できるため,様々な災害現場に適応することが可能だと考えられる.
今回は,飛距離 5mの射出機構を製作,実際にカメラを搭載した超小型ロボットを 5m
まで飛ばすことに成功した.
図 3-3-109
射出機構
(左上.1
右上.2
下.3)
4)自己位置推定・地図作成システムチーム(勝浦,日笠,吉田,蜂谷, 永谷)
i) 瓦礫内移動ロボットのための三次元距離情報の獲得と提示
平成 15 年度までの研究では,三次元地図を構築するために,サーフィスモデルを構築
し,テクスチャマッピングを行ったが,距離センサによって獲得したデータを直接利用し
ていたため,一点で観測した環境情報だけでも,膨大なデータ量となった.このため,多
点で得た複数の環境情報を融合する事は,データ量の問題から,非常に困難となっていた.
そこで,本年度は,距離センサによって獲得したデータを,一定間隔で区切ったボクセル
に投票することで,冗長データを削減することとした.さらに,この離散化したデータに
マーチンキューブ法を適用し,三次元環境情報の提示を行うことを試みた.
このマーチンキューブ法は,ボリュームレンダリング法の一つで,三次元行列内に蓄積
されたデータから,一定の濃度の表面を多角形で近似するものである.この方法は,CT デ
ータなどから特定の部位や器官のみを抽出し,CG 表現する時に用いられる.ボクセル状に
与えられた荒いデータに対して 14 通りの平面パターンの生成を行うため( 図 3-3-111 左側
の 14 パターン),少ない情報から,比較的精度の高いレンダリング行う事が可能となる.
この手法に,新たに 2 パターンを追加し( 図 3-3-110 右側の 2 パターン),獲得した三次元
情報を提示することとした.この適用結果の一例を 図 3-3-111 に示す.左図は対象とする
環境,右図はマーチンキューブ法を用いて表示した三次元表示の結果である.
239
図 3-3-110
図 3-3-111
マーチンキューブ法のパターン
マーチンキューブ法を用いた環境情報の提示
以上の手法を,様々な環境における獲得データに適用し,冗長となるデータを大幅に削減
しつつ,三次元環境情報を提示できることが確認された.この提示手法における今後の課
題としては,この手法で構築した三次元環境へのテクスチャマッピングが挙げられる.
ii)瓦礫内移動ロボットのための自己位置推定手法
瓦礫内移動ロボットが未知環境を探索した後,オペレータに提示する三次元環境情報を
構築するためには,観測地点におけるロボットの位置姿勢を正確に把握する必要がある.
このロボットの位置推定を行うため,昨年度から引き続き,
「複数の観測地点におけるセン
サ情報のマッチングによる現在位置推定手法」の改良を進めることとした(関連研究は
[Gutmann(1996)][Lu(1997)]).このように,未知環境において獲得したセンサ情報から自己
位 置 を 推 定 し つ つ , 環 境 地 図 を 構 築 す る 手 法 を SLAM(Simultaneous Localization and
Mapping)と呼び,現在多くの研究が進められている[Thrun(2001)] [Choset(2001)].
昨年度までの研究では,自己位置推定は,X,Y,Z 座標系の移動量を推定するもので,
ロボット自体のヨー,ピッチ,ロー角は,センサより得られるという前提を用いていた
[Nagatani(2003)].しかしながら,一般には,ロボットの姿勢を測定する傾斜センサには誤
差が存在し,このためにマッチングに失敗することが多いという問題があった.また,距
離データについては,平面スキャンするレーザレンジファインダをチルト回転させること
で獲得するため,距離データの間隔が均等とならず,これがマッチング結果のずれを引き
起こすという問題も生じた.さらに,全てのデータを利用した相関演算を行ったため計算
量が膨大となり,処理時間がかかるという問題も存在した.
そこで,本年度は,マッチング誤差の問題点を解決するため,(a)において述べた量子化
処理と,グリッドマッチングを行い,方位角と X,Y,Z 軸系の移動量の推定を行うこと
とした.具体的な手順を,以下に示す.
まず,100×100×100 の三次元仮想ボクセルを作り,ボクセル内に距離情報が存在する
240
場合は1,存在しない場合を0とする.なお,ボクセルサイズは,一辺を 10cm とする.
次に,量子化処理した三次元ボクセル中にある距離データを,二次元の 100×100 のグリッ
ド上に投票し,その個数を数値で示す.この数値化した個数を特徴パラメータとして,マ
ッチングを行う.マッチングは,すでに構築したグリッドマップに,仮想移動と回転を行
い,新たにセンサから獲得したグリッドマップと最も相関値の高いものを検出する.この
マッチングにより,移動ロボットの移動量を推定することができる.なお,Z 軸の移動量
を推定するには,Z 軸と X 軸のグリッドへ投票し,マッチングを行うことで,Z 軸の移動
量の推定が可能である.このマッチング手法の概要を 図 3-3-112 に示す.
図 3-3-112
平面グリッドに投票するマッチング手法の概要
この手法の有効性を確認するための実験を行った.対象環境は,岡山大学総合研究棟五
階リフレッシュシュスペースとした.まず,二箇所での距離データを獲得し,このデータ
に本手法を適用した.ただし,本実験では,対象環境に凹凸が存在しないため,ロボット
の傾きと高さ変化を考慮しないものとした.実験結果は,初期位置から,次の観測地点ま
での移動量は,実測では X 軸方向に 66[cm],Y 軸方向に 38[cm],角度 33[deg]であった.
これに対し,本手法の推定結果は,X 軸 70[cm],Y 軸 40[cm],角度 34[deg]となった.グ
リッドサイズを考慮すると,この手法により,位置推定が成功しているといえる.この,
二地点における平面グリッドに投票された環境情報と,それらを融合した結果を 図 3-3-113
に示す.
図 3-3-113
二観測地点のマッチング結果
上述の提案したマッチングを繰り返すことで,三次元環境情報を逐次獲得することが可
能である.そこで,同一の環境において,9 個所の観測点で得られた情報を重ね合わせた.
この結果を 図 3-3-114 に示す.
241
図3-3-114
9地点で獲得した環境情報を重ね合わせた結果
この結果より,本手法を用いることで,環境情報を逐次構築していくことが可能である
ことがわかった.ただし,この実験では,壁や天上などの情報を精度よく獲得可能である
環境を対象としたため,本提案手法によって,マッチングを行うことが比較的容易であっ
たとも考えられる.今後は,本手法だけでなく,環境の状況に応じたマッチング手法を考
案する必要がある.
iii) 瓦礫内移動ロボットのための小型センサシステムの整備
本研究では,対象とする環境が比較的狭い瓦礫内であるため,ロボットのサイズを可能
な限り小さくする必要がある.しかしながら,昨年度までに開発を進めてきたセンサは,
比較的大型のロボットに搭載することを想定していたため,小型のロボットに搭載するこ
とができない.一方,センサ情報は,できるだけ高い位置で獲得することが望ましい.そ
こで本年度は,小型のアーム機構を有する小型のセンサシステムを開発することとした.
このアームは,二自由度の関節を有しており,アームを伸ばした状態が 490mm である.
これにより,高い位置でのセンサ情報の獲得ならびに,前方にアームを伸ばすことによる
狭空間の情報獲得が可能となると期待できる.アームの先端には,測域センサ(二次元平
面内の距離情報を獲得するセンサ)が取り付けられたベースを回転させるための 1 自由度
のアクチュエータを有する.各アクチュエータは,小型軽量の新生工業社製 超音波モータ
をハーモニックギアで減速したものを利用することとした.また,搭載する測域センサは,
北陽電機社製の測域センサ URG-X002S/P を利用した.視覚センサについては,現在小型
軽量のものを検討中である.現在製作を進めているセンサアームを 図 3-3-115 に示す.
図 3-3-115
センサアームを搭載したクローラロボットの概観
このセンサシステムを利用して獲得した三次元距離情報の例を 図 3-3-116 に示す.ここ
242
で,左図は模擬倒壊環境であり,右図は獲得した三次元情報を表している.なお,右図中
の A 地点には,倒壊環境外のオペレータが写りこんでいることがわかる.また,右図中の
B 地点には,奥に見えている被災者のダミーが確認できる.さらに,右図中の C 地点付近
は,被災者の右に広がっている斜めになった板が確認できる.
図 3-3-116
センサシステムを用いた環境情報獲得例
このセンサアームは,これまでに研究室で開発されたセンサシステムの重量が合計 7kg
強であるのに対して,重量が 1kg 弱となっており,小型・軽量化を進めることができた.
ただし,小型のレーザ距離センサを利用したため,最大の測定距離が 8m から 4m と短く
なった.
今後の課題としては,このセンサを用いたロボットの自己位置推定ならびに三次元環境
情報の構築が挙げられる.
(6) 平成 16 年度の成果発表等
(a) 口頭発表
自己位置同定・3Dマップチーム( 横小路 ,工藤,大里,栗栖,吉川)
・工藤,横小路,吉川:”単一移動ロボットによる瓦礫の三次元マップ生成のための自
己位置推定(第 2 報),”SICE SI 部門講演会(SI2004)予稿集,2004(発表予定)
・M.Kurisu, Y.Yokokohji, Y.Shiokawa and T.Samejima: “Development of a Laser Range
Finder for 3D Map-Building in Rubble,” Proceedings of IEEE/RSJ International
Conference on Intelligent Robots and Systems 2004(IROS2004), 2004
・工藤,横小路,吉川:”単一移動ロボットによる瓦礫の三次元マップ生成のための自己
位置推定,”ロボメカ講演会(ROBOMEC2004)予稿集,2004
マルチカメラチーム( 田所 ,見延,牧田)
・岸間,見延,牧田,田所: ”がれき内での情報収集を目的としたインテリジェントセ
ンサヘッドの開発”,ROBOMEC2004,1A1-H-38, 2004
・S.Makita, T.Kishima, M.Minobe and S.Tadokoro : “Development of Compound Eye Camara
System for Searching in Rubble”, IROS2004, TA2-B1, 2004
・見延,牧田,田所 :” 瓦礫内での情報収集を目的としたインテリジェントセンサヘ
ッドの開発-レスキューロボットのための組み込みビジョンセンサの検討-”,SI2004,
1B1-3,2004
243
操縦システムチーム( 松野 ,稲見,杉本,城間)
・Yang, Ito, Saijo, Gofuku and Matsuno: "A neural network-based remote guidance interface
for rescue robot, " Proc. of International Symposium on Artificial Life and Robotics, 1
pp.140-143, 2004
・Kamegawa, Yamasaki, Igarashi and Matsuno: "Development of The Snake-like Rescue
Robot KOHGA," Proc. IEEE International Conference on Robotics and Automation 2004.
(CD-ROM)
・Asama, Hada, Ohga, Takizawa, Tadokoro, Noda, Matsuno and Hatayama: "Introduction of
Task Force for Rescue System Infrastructure in Special Project for Earthquake Disaster
Mitigation in Urban Areas," Proc. IEEE Int. Conf. on Robotics and Biomimetics, 2004
・Ito, Yang, Saijo, Hirotsune, Gofuku and Matsuno: "A rescue robot system for collecting
information designed for ease of use, - To propose a system concept and to develop a
prototype system-," Proc. of IEEE International Workshop on Safety, Security, and Rescue
Robotics, CDROM, 2004
・Chatterjee and Matsuno: "On the need for robot description ontology and scene description
ontology for effective rescue operations involving robot platforms," Proc. of IEEE
International Workshop on Safety, Security, and Rescue Robotics, CDROM, 2004.
・Shiroma, Kagotani, Sugimoto, Inami and Matsuno: "A Novel Teleoperation Method for a
Mobile Robot Using Real Image Data Records," Proc. IEEE Int. Conf. on Robotics and
Biomimetics, 2004.
・Yang, Ito, Saijo, Hirotsune, Gofuku and Matsuno: "A Combined Navigation Strategy by a
Steering Wheel and a Mouse for Tank Rescue Robot," Proc. IEEE Int. Conf. on Robotics
and Biomimetics, 2004.
・ Chatterjee and Matsuno: "Development of Modular Legged Robots: Study with
Three-Legged Robot Modularity," Proc. IEEE/RSJ Int. Conf. on Intelligent Robots and
Systems, 2004.
・Sato, Shiroma, Yamasaki, Kamegawa, Matsuno and Igarashi: "Cooperative Task Execution
by a Multiple Robot Team and Its Operators in Search and Rescue Operations," Proc.
IEEE/RSJ Int. Conf. on Intelligent Robots and Systems, 2004.
・Yang, Ito, Saijo, Hirotsune, Gofuku, Matsuno: "A Mechanical Intelligence in Assisting the
Navigation by a Force Feedback Steering Wheel for a Snake Rescue Robot," Proc. of IEEE
International Workshop on Robots and Human Interactive Communications, CDROM,
2004.
・Shiroma, Sato, Chiu and Matsuno: "Study on Effective Camera Images for Mobile Robot
Teleoperation," 13th IEEE International Workshop on Robot and Human Interactive
Communication, 2004.
・Shiroma, Chiu, Kamegawa and Matsuno: "Development of Rescue Robotic Systems for
Both Daily and Emergency Use," The 1st IEEE Technical Exhibition Based Conference on
Robotics and Automation, 2004.
・加護谷,杉本,新居,城間,稲見,松野:" 実写履歴画像を用いた遠隔ロボット操縦法の研
244
究," ヒューマンインタフェース学会研究報告集,6-3,pp.53-56,2004.
・佐藤,松野:" 遠隔操作型ロボットを用いた簡易な行動地図の作成," 第 22 回 日本ロ
ボット学会学術講演会,3A22,2004. (CDROM)
・佐藤,城間,小島,稲見,松野:" 遠隔操作ロボットにおける有効な提示カメラ画像の検証,
" 第 22 回 日本ロボット学会学術講演会,3A27,2004. (CDROM)
情報収集システムチーム( 橋詰 ,荒木,清田,栄野)
・橋詰他: “屋外環境下で用いる自律移動システムに 関する研究(第 28 報),” ロボティ
クス・メカトロニクス講演会’04, 2P2-H-25, 2004.
・橋詰他: “屋外環境下で用いる自律移動システムに関する研究(第 29 報),” ロボティク
ス・メカトロニクス講演会’04, 2P2-H-40, 2004.
・Hasizume,et: “Development of a forward-hemispherical vision sensor for acquisition of a
panoramic integration map,” IEEE ROBIO2004,264,2004.
・橋詰他: “屋外環境下で用いる自律移動システムに関する研究 (第 23 報二組のミラー
を 持 つ 反 射 型 全 周 撮 像 器 の ス テ レ オ 視 に よ る 高 精 度 な 距 離 画 像 生 成 ),” 第 4 回
(社)計測自動制御学会 システムインテグレーション部門
講演会
SI2003,
1B3-6,2003.
瓦礫内移動システムチーム( 広瀬 ,新井之,田中,高山,津久井)
・新井,津久井,広瀬: "レスキューロボットのための防塵防水機構を備えたクローラユ
ニットの開発," ロボティクス・メカトロニクス講演会’04,2A1-H-20,pp.76,2004
・高山,新井,広瀬: "レスキュー用連結クローラ走行車「蒼龍 号機」の開発," 第 22 回
日本ロボット学会学術講演会,3A16,pp.176,2003
・ARAI, Takayama, Hirose: “Development of “Souryu-III” Connected Crawler Vehicle for
Inspection inside Narrow and Winding Spaces,” IROS 2004,TA1-B4pp.46, 2004
ロッド放射推進機構チーム(青木,広瀬)
・落合 亮吉
青木 岳史
広瀬 茂男: "レスキュー用伸展アームのためのヘッドユニッ
ト の 開 発 (空 圧 に よ る 屈 曲 機 構 と カ メ ラ 視 界 確 保 用 エ ア ブ ロ ワ )", ROBOMEC’04,
2P1-H-24,2004
3自由度関節機構チーム(田辺,藍,井上,馬)
・Kousuke Inoue, Shugen Ma, and Cheng Hua Jin, Neural Oscillator Network-Based
Controller for Meandering Locomotion of Snake Like Robots, in Proc. 2004 IEEE Int.
Conf. on Robotics and Automation (ICRA'04), 2004.4, 5064---5069
・Li Chen, Yuechao Wang, Shugen Ma, and Bin Li, Studies
on Lateral Rolling Locomotion
of A Snake Robot, in Proc. 2004 IEEE Int. Conf. on Robotics and Automation (ICRA'04),
2004.4, 5070---5074
・ Changlong Ye, Shugen Ma, Bin Li, and Yuechao Wang, Turning and side motion of
snake-like robot, in Proc. 2004 IEEE Int. Conf. on Robotics and Automation (ICRA'04),
2004.4, 5075---5080
・Shugen Ma, Yoshihiro Ohmameuda, and Kousuke Inoue, Dynamic Analysis of
3-dimensional Snake Robots, in Proc. 2004 IEEE/RSJ Int. Conf. on Intelligent Robots and
Systems (IROS'04), 2004.9, 767---772
245
・Changlong Ye, Shugen Ma, Bin Li, and Yuechao Wang, Locomotion Control of a Novel
Snake-like Robot, in Proc. 2004 IEEE/RSJ Int. Conf. on Intelligent Robots and Systems
(IROS'04), 2004.9, 925---930
・Changlong Ye, Shugen Ma, Bin Li, and Yuechao Wang, Twisting locomotion of a 3D
snake-like robot, in Proc. 2004 IEEE Int. Conf. on Robotics and Biomimetics (Robio2004),
2004.8, 555---560
・Changlong Ye, Shugen Ma, Bin Li, and Yuechao Wang, Analysis of snake-like robots
raising head, in Proc. 2004 IEEE Int. Conf. on Robotics and Biomimetics (Robio2004),
2004.8, 561---566
・Shugen Ma, Guangping Lan, Yuki Tanabe, Ryo Sasaki, and Kousuke Inoue, A Serpentine
Robot Based on 3 DOF Coupled-driven Joint, in Proc. 2004 IEEE Int. Conf. on Robotics
and Biomimetics (Robio2004), 2004.8, 37---42
・田所 直樹・馬 書根・井上 康介・田辺 裕基, 蛇型ロボットの 3 次元斜面蛇行移動
の運動解析, 日本機械学会ロボティクス・メカトロニクス講演会'04 講演論文集
(CD-ROM), 2004
・田辺 裕基・馬 書根・井上 康介, ロール回転型 2 自由度関節による 3 次元蛇型ロボ
ットの開発, 日本機械学会ロボティクス・メカトロニクス講演会'04 講演論文集
(CD-ROM), 2004
ホッピング型移動機構チーム(樋元,青山,松野)
・樋元,青山: "マイクロ振動モータによる 共振式跳躍移動機構- 第 4 報 - 赤外線セン
サによる 被災者探査の試み," 2004 年度精密工学会秋季大会
学術講演会講演論文
集,pp.885-886,2004
自己位置推定・地図作成システムチーム(勝浦,日笠,吉田,蜂谷, 永谷)
・勝浦,石田,永谷,田中: "多視点観測可能な三次元距離センサを有する瓦礫内探索
用移動ロボットの開発 ," ロボティクス・メカトロニクス講演会, 2P2-H-22, 2004
・日笠,石田,永谷,田中: "距離センサと視覚センサの統合による倒壊環境の三次元
地図の構築 ," ロボティクス・メカトロニクス講演会, 2P2-H-23, 2004
・Ishida, Nagatani, Tanaka: "Three-Dimensional Localization and Mapping for a Crawler-type
Mobile Robot in an Occluded Area Using the Scan Matching Method," Proc. of IEEE/RSJ
Int. Conference on Intelligent Robots and Systems, pp. 449-454, 2004
・日笠, 永谷, 田中: "倒壊環境内の三次元地図生成を目指した不整地移動ロボット,"
第5回計測自動制御学会 システムインテグレーション部門講演会, 2004
(b) 論文発表
操縦システムチーム( 松野 ,稲見,杉本,城間)
・舩木,松野: "シンプレックス法に基づいた接触力計算のための凸多面体間衝突検出,"
日本ロボット学会,22-6, pp.764-771,2004.
・ Sugimoto, Kagotani, Nii, Shiroma, Inami and Matsuno: "Time Follower's Vision: “A
Tele-Operation Interface with Past Images,”" The January/February 2005 issue of IEEE
CG&A, 2005. (to appear)
・Shiroma, Chiu, Sato and Matsuno: "Cooperative Task Execution of Search and Rescue
246
Mission by a Multi-robot Team," Advanced Robotics. (accepted)
・ Yang, Ito, Saijo, Hirotsune, Gofuku and Matsuno: "A Rescue Robot for Collecting
Information Designed for Ease of Use, " Advanced Robotics. (accepted)
3自由度関節機構チーム(田辺,藍,井上,馬)
・大豆生田 吉広・馬 書根・井上 康介, 3 次元蛇型ロボットの動力学解析 , 日本機械
学会論文集, Vol.70, No.692(C), 2004.4, 1077---1084
・Changlong Ye, Shugen Ma, Bin Li, and Yuechao Wang, Study on Turning and Sidewise
Motion of a Snake-like Robot, Chinese Journal of Mechanical Engineering, Vol.40, No.10,
2004.10, 119---123,128 (in Chinese with English Abstract)
(c) 展示
操縦システムチーム( 松野 ,稲見,杉本,城間)
・大大特シンポジウム 2004, 1 月 22 日∼1 月 23 日,電気通信大学,2004
・創造工房, 3 月 28 日, IRS 川崎ラボラトリ, 2004
・IRS 川崎ラボ一般公開, 4 月 17 日, IRS 川崎ラボラトリ, 2004
・ロボカップ・ジャパンオープン 2004, 5 月 1 日∼5 月 4 日, 大阪「インテックス大阪」,
2004
・Time Follower's Vision, SIGGRAPH 2004 Full Conference DVD-ROM Disk1 Emerging
Technologies, 2004
・ロボカップ 2004, 6 月 27 日∼7 月 5 日, ポルトガル リスボン,2004
・創造工房,7 月 24 日,IRS 川崎ラボラトリ,2004
・Tokyo・Tama 異業種交流会 in 電通大, 9 月 22 日, 電気通信大学, 2004
・The 1st IEEE Technical Exhibition Based Conference on Robotics and Automation , 11 月
18 日∼11 月 19 日, TEPIA 東京, 2004
情報収集システムチーム( 橋詰 ,荒木,清田,栄野)
・g-Contents WORLD2004, 10 月 26 日∼27 日, 大手町サンケイプラザ 3F, 2004.
瓦礫内移動システムチーム( 広瀬 ,新井之,田中,高山,津久井)
・Souryu-I の動展示: Robot x Rescue 2004, 8 月 5 日∼8 月 7 日, 神戸サンボーホール, 2004
・Souryu-III の動展示: 東京工業大学学園祭「工大祭 2004」, 10 月 23 日∼10 月 24 日, 東
京工業大学, 2004
・Souryu-III の動展示: Made in Italy Night and Charity Lottery. Gala’ dinner of the Italian
Chamber of Commerce in Japan, 11 月 26 日, Westin Hotel Tokyo, 2004
(d) 特許
操縦システムチーム( 松野 ,稲見,杉本,城間)
・発明の名称: 画像生成方法, 発明者: 松野文俊, 稲見昌彦, 城間直司, 出願番号:
特願 2004-013689(出願中), 特許出願人: (株) キャンパスクリエイト
瓦礫内移動システムチーム( 広瀬 ,新井之,田中,高山,津久井)
・連結車両の車間連結機構, 出願日:平成 15 年 05 月 22 日, 出願番号:特願 2003-144865
ロッド放射推進機構チーム(青木,広瀬)
・空圧伸展型チューブ装置
出願番号
2002-365108
(e)その他
247
出願日
2002.12.17
*解説*
・松野,田所:"レスキューロボットと地理情報システム," 写真測量とリモートセンシン
グ(日本写真測量学会誌), 43-2, pp.32-35,2004
・松野:" レスキューロボット・システムの性能評価のためのテストフィールド
大特
--- 大
IRS 川崎 LAB の紹介 ---," 日本ロボット学会誌,22-5, pp.570-571,2004
・松野,石黒,山本,田所:" 国際レスキューコンプレクス構想," 日本ロボット学会誌,22-7,
pp829-832,2004
*招待公演*
・ Matsuno:" Rescue Robots and Systems in Japan," IEEE Int. Conf. on Robotics and
Biomimetics,
Special Invited Talk, August 22-25, 2004
・松野:" ロボットは災害救助犬を超えられるか!," 日本ロボット学会,第 28 回シンポ
ジウム「レスキューの現状と将来」,東京,11 月 19 日,2004
・松野:" レスキューロボットを題材とした制御工学教育, " 制御教官協議会, 制御工学
教育研究集会, 千葉, 11 月 26 日, 2004
*報道*
[新聞等]
・平成 16 年 4 月 28 日
ASCII24.com
日本 SGI と電通大,新型レスキューロボット"FUMA"を共同開発−仕様の公開も計
画
・平成 16 年 4 月 28 日
Enterprise Watch
日本 SGI と電通大,実用化を視野に入れたレスキューロボット「FUMA」を開発
・平成 16 年 4 月 28 日
ITmedia ニュース
日本 SGI と電通大,WindowsPC で操作するレスキューロボット開発
・平成 16 年 4 月 30 日
日経産業新聞
日本 SGI,電通大機動力に優れるレスキューロボ共同開発
・平成 16 年 4 月 30 日
電波新聞
日本 SGI 新型レスキューロボット開発
・平成 16 年 4 月 30 日
日刊工業新聞
新型レスキューロボ情報収集能力を向上
・平成 16 年 5 月 1 日
日本 SGI,電通大と共同
ITmedia ニュース
日本 SGI と電通大,WindowsPC で操作するレスキューロボット開発
・平成 16 年 5 月 6 日
Asahi.com
日本 SGI と電通大,新型レスキューロボットを共同開発
・平成 16 年 5 月 6 日
NEWS@nifty
[新製品]日本 SGI と電通大,新型レスキューロボットを共同開発(BCN)
・平成 16 年 5 月 6 日
Yahoo!JAPAN Autos
[新製品]日本 SGI と電通大,新型レスキューロボットを共同開発
・平成 16 年 6 月 4 日
IT Media ニュース
FUMA(ふうま)は「ロボット界の Linux」を目指す
・平成 16 年 6 月 10 日
日経産業新聞(朝刊)
248
先端技術 21世紀の気鋭 レスキューロボ けん引 教え子の遺志,研究に熱
・平成 16 年 6 月 20 日
話のびっくり箱
すすめ!
かがくのお話,
pp. 41-50
ロボットきゅうじょたい
・平成 16 年 7 月
研究室訪問
学研「科学と学習」増刊号
--レスキューロボットの未来--
Science & Technology Journal
第 73 回
人命救助に当たるロボットを研究,
13-7, pp.46-47,
(財)科学技術広報財団
ふれあい
ロボットと共生する時代
レスキューロボット
pp. 32-3
・平成 16 年 8 月 14 日
毎 日 コ ミ ュ ニ ケ ー シ ョ ン ズ MYCOM PC WEB SIGGRAPH 2004 - EMERGING
TECHNOLOGIES 展示セクション(2)
http://pcweb.mycom.co.jp/articles/2004/08/14/siggraph2/001.html
・平成 16 年 9 月 1 日
ITmedia ニュース
レスキューロボット,実用化への道
・平成16 年 11 月 16 日
日刊工業新聞
進化するにっぽんぶらんど
・平成16 年 12 月 7 日
視点
−消防隊員がトライ
日本力
レスキューロボット実用化
日刊工業新聞
救助ロボ,実用化の条件
[テレビ・ラジオ等]
・平成 16 年 7 月 6 日
NHK ラジオ, NHK 国際放送
Japan & The World 44 Minutes, Snake-like Rescue Robot
・平成16 年 9 月 28 日
ガイアの夜明け
テレビ東京
ロボットはパートナー
∼実用型ロボット開発に挑む∼
(7) 参考文献
自己位置同定・3Dマップチーム( 横小路 ,工藤,大里,栗栖,吉川)
・[Dissanayake(2001)] M.W.M.G. Dissanayake, P. Newman, S. Clark, H.F. Durrant-Whyte and
M. Csorba: “A solution to the simultaneous localization and map building (SLAM) problem”,
IEEE Transactions on Robotics and Automation, Vol.17, no.3, pp.229-241, 2001
操縦システムチーム( 松野 ,稲見,杉本,城間)
・[Sato(2004a)] 佐藤, 城間, 小島, 稲見, 松野: “遠隔操作ロボットにおける有効な提示カ
メラ画像の検証,” 日本ロボット学会学術講演会, 2004.
・[Shiroma(2004a)] N. SHIROMA, N. SATO, Y. CHIU and F. MATSUNO: “Study on Effective
Camera Images for Mobile Robot Teleoperation,” 13 th IEEE International Workshop on
Robot and Human Interactive Communication, 2004.
・ [Shiroma(2004b)] N. SHIROMA, G. KAGOTANI, M. SUGIMOTO, M. INAMI and F.
MATSUNO: “A Novel Teleoperation Method for a Mobile Robot Using Real Image Data
Records,” IEEE International Conference on Robotics and Biomimetics, 2004.
・[Sato(2004b]] N. SATO, N. SHIROMA, T. YAMASAKI, T. KAMEGAWA, F. MATSUNO
and H. IGARASHI: “Cooperative Task Execution by a Multiple Robot Team and Its
Operators in Search and Rescue Operations,” 2004 IEEE/RSJ International Conference on
249
Intelligent Robots and Systems, 2004.
操縦システムチーム( 松野 ,稲見,杉本,城間)
・[Szeliki(1997)] R. Szeliski, H. Y. Shum : “Creating full view panoramic image mosaics and
environment maps”, Association for Computing Machinery, 1997
・ [Zhang(1998)]Zhengyou zhang, "A Flexible New Technique for Camera Calibration",
Microsoft Resetch Microsoft Corporation One Microsoft Way Redmond, WA 98052, 1998
・[AtmarkTechno(2003)] AtmarkTechnoe:
URL:http://www.atmark-techno.com/product/suzaku.html
・[Xilinx(2004)] Xilinx : “MicroBlaze Processor Reference Guide – Embedded Development
Kit – “, 2004
・[IBM(1999)] IBM : “The CoreConnect™ Bus Architecture”, 1999
情報収集システムチーム( 橋詰 ,荒木,清田,栄野)
・[Hasizume(2003)]橋詰他: ”二組のミラーを持つ全周撮像器のステレオ視による高精度な
距離画像生成,” 日本機械学会論文集 C 編第 69 巻 680 号,2003.
瓦礫内移動システムチーム( 広瀬 ,新井之,田中,高山,津久井)
・[ARM(2004)]Toshio TAKAYAMA, Shigeo HIROSE: “Development of “Souryu
I&II”-Connected Crawler Vehicle for Inspection of Narrow and Winding Space-,” Journal of
Robotics and Mechatronics, Vol.15, No.1, pp.61-69, 2003
・[ARM(2004a)]ARAI,Takayama,Hirose: "Development of “Souryu-III” Connected Crawler
Vehicle for Inspection inside Narrow and Winding Spaces,"IROS2004,TA1-B4, 2004
・[ARM(2004b)]新井,津久井,広瀬: "レスキューロボットのための防塵防水機構を備えた
クローラユニットの開発," ロボティクス・メカトロニクス講演会’04,2A1-H-20,pp.76,
2004
・[ARM(2004c)]伊能,新井,広瀬: "レスキューロボットのための防塵防水機構に関する基
礎的考察,"SI2003,3J2-4, 2003
・[ARM(2004d)]高山,広瀬,新井: "瓦礫内推進連結クローラ走行車「蒼龍 号機」の開発,"
ロボティクス・メカトロニクス講演会’03,2P1-2F-B5, 2003
繊毛振動駆動型推進機構チーム(新妻,武村,田所)
・[Ioi(1999)]五百井: "遠心力を利用した走行マイクロロボットの研究," 日本ロボット学
会誌,Vol.17, pp.396∼401, 1999
・[Niitsuma(2003)] 新妻,関森,前田: "瓦礫内探索レスキューロボットのための繊毛移
動機構の開発," ロボティクスメカトロニクス講演会'03 講演論文集, 2P1-2F-B2, 2003
ロッド放射推進機構チーム(青木,広瀬)
・[Mishi(2002)]三島大輔,青木岳史,広瀬茂男:狭隘環境内探索用空圧伸展アームの開
発,SI2002
・[Mishi(2003)]Daisuke Mishima, Takeshi Aoki, Shigeo Hirose: Development of Pneumatically
controlled Expandable Arm for seach in the Enviroment with Tight Access, FSR2003
pp315-320 (July 14-16, 2003)
3自由度関節機構チーム(田辺,藍,井上,馬)
・[Hiro(1989)]] S. Hirose and M. Sato: “Coupled Drive of the Multi-DOF Robot”, in Proc. 1989
250
IEEE Int. Conf. on Robotics and Automation (ICRA’89), pp.262/268, 1989
・[Toga(2001]] K. Togawa and S. Hirose: “Design of Active Cord Mechanism ACM-R2 to
Realize 3-D Motion”, Journal of Robotics and Mechatronics, Vol.13, No.2, pp.176/182, 2001
・[Mori(2001)] M. Mori and S. Hirose: “Development of Active Cord Mechanism ACM-R3 with
Agile 3D mobility”, in Proc. 2001 IEEE/RSJ Int. Conf. on Intelligent Robots and Systems
(IROS2001), pp.1552/1557, 2001
・[Kame(2000)]亀川・Chatterjee・伊藤・松野:
動ロボットの開発と制御
, 第18 回日本ロボット学会学術講演会予稿集, 2000
・[Ma(2002a)]馬・佐々木・叶・井上:
の開発
多様な移動形態を持つ3 次元超冗長移
干渉駆動による蛇型ロボットの3 自由度関節
, 計 測 自 動 制 御 学 会 シ ス テ ム イ ン テ グ レ ー シ ョ ン 部 門 講 演 会 (SI2002) ,
pp.247/248, 2002
・ [Ma(2002b)] S. Ma, H, Araya, and L. Li: “Development of a Creeping Locomotion
Snake-Robot”, IASTED International Journal of Robotics and Automation, Vol.17, No.4,
pp.146/153, 2002
・[Ma(2001a)] S. Ma: “Analysis of Creeping Locomotion of a Snake-like Robot”, Int. J. of
Advanced Robotics, Vol.15, No.2, pp.205/224, 2001
・[Ma(1998)] 馬,増子: “ヘビの運動形態に関する研究— 第2 報: 各種蛇行形状曲線にお
け る ヘ ビ の 蛇 行 移 動 効 率 の 比 較 —“, 日 本 機 械 学 会 論 文 集 , Vol.64, No.617(C),
pp.273/278, 1998
・[Ma(1986)] 馬: “ヘビの運動形態に関する研究— 第1 報: ヘビの直進蛇行移動体形曲線
—“, 日本機械学会論文集, Vol.62, No.593(C), pp.230/236, 1996
・[Ma(2003a)] S. Ma, Y. Ohmameuda, K. Inoue, and B. Li: “Control of a 3-Dimensional
Snake-like Robot”, in Proc. 2003 IEEE Int. Conf. on Robotics and Automation (ICRA’03),
2003, pp.2067-2072
・[Ma(2001b)] S. Ma: “Analysis of Creeping Locomotion of Snakes and Snake-like Robots”, in
Proc. 2001 Int. Workshop on Bio-Robot and Teleoperation, pp.60/67, 2001
・[Ye(2002)] C. Ye, S. Ma, and B. Li: “Coupled-Actuation Modular Universal Unit (MUU) of
Snake-like Robot”, 中日国交正常化30 周年学術シンポジウム— 21世紀科学技術及び中
日学術交流, 中国北京,7 月27-31 日,2002
・[Bur(1995)] J. Burdick, J. Radford, and G.S. Chirikjian: “A Side-winding Locomotion Gait for
Hyper-Redundant Robots”, Int. J. Advanced Robotics, Vol.9, No.3, pp.195/216 1995
・[Chi(1995)] G.S. Chirikjian and J.W. Burdick: “The Kinematics of Hyper-Redundant Robotic
Locomotion”, IEEE Trans. on Robotics and Automation, Vol.11, No.6, pp.781/793, 1995
・[Worst(1996)] R. Worst and R. Linnemann: “Construction and Operation of a Snake-like
Robot”, in Proc. IEEE International Joint Symposia on Intelligence and Systems, pp.164/169,
1996
・ [Hirose(1993)] S. Hirose: “Biologically Inspired Robot — Snake-like locomotors and
manipulators”, Oxford University Press, 1993
・[Oh(2004)] 大豆生田・馬・井上: “3 次元蛇型ロボットの動力学解析”, 日本機械学会論
文集, Vol.70, No.692(C), 2004.4, pp.1077/1084
251
・[Ma(2003b)] S. Ma, N. Tadokoro, B. Li, and K. Inoue: “Analysis of Creeping Locomotion of a
Snake Robot on a Slope”, in Proc. 2003 IEEE Int. Conf. on Robotics and Automation
(ICRA'03), 2003, pp.2073/2078
・[Ma(2003c)] S. Ma, N. Tadokoro, K. Inoue, and B. Li: “Influence of Inclining Angle of a
Slope to Optimal Locomotion Curves of a Snake-like Robot”, in Proc. 2003 IEEE Int. Conf.
on Robotics, Intelligent Systems and Signal Processing (RISSP’03), 2003.10.8-13,
pp.353-358
・[Ma(2003d)] C. Ye, S. Ma, Y. Wang, and B. Li: “Coupled-drive-based Joint Design of a Snake
Robot and its Body-lifting Method”, in Proc. 2003 IEEE Int. Conf. on Robotics, Intelligent
Systems and Signal Processing (RISSP'03), 2003, pp.1086/1090
・[Sasa(2003)]佐々木・馬・田所・井上:
3 自由度関節を有する蛇型ロボットの開発
,
第 21 回日本ロボット学会学術講演会論文集, 2003.9.20-22, (CD-ROM), 1L12
・[Kin2003]金・井上・馬: “CPG を用いた蛇型ロボットの自律分散制御
, 第 21 回日本ロ
ボット学会学術講演会論文集, 2003.9.20-22, (CD-ROM), 3B23
ホッピング型移動機構チーム(樋元,青山,松野)
・[Misumi(2003)]Misumi Ryutaro: “Design and Development of Micro Hopping Robots
for Victim Detection under Rubble,” Proceedings from ASPE2003 Annual Meeting,
pp.231-234, 2003
・[Misumi(2004)] “Design and Development of Micro Hopping Robots for Victim Detection
under Rubble,” Proceedings of 6 th Japan-France Congress on Mechatronics and 4 th
Asia-Europe Congress on Mechatronics, pp.386-391, 2003
自己位置推定・地図作成システムチーム(勝浦,日笠,吉田,蜂谷, 永谷)
・ [Thrun(2001)] S.Thrun: “A probabilistic online mapping algorithm for teams of mobile
robots,” International Journal of Robotics Research, Vol.20, No.5, pp.335-363, 2001
・ [Choset(2001)] H.Choset and K.Nagatani: “Topological simultaneous localization and
mapping (slam). toward exact localization without explicit localization,” IEEE Transaction
on Robotics and Automation, Vol.17, No.2, pp.125-137, 2001
・[Gutmann(1996)] J. Gutmann and C. Schlegel: “Comparison of scan matching approaches for
self-localization in indoor environments, ” Proceedings of the 1st Euromicro Workshop on
Advanced Mobile Robots, IEEE Computer Society Press, 1996
・[Lu(1997)] Lu, F., and Milios, E.: “Globally consistent range scan alignment for environment
mapping,” Journal of Autonomous Robots, Vol.4, pp.333-34, 1997
・[Nagatani(2003)] Keiji Nagatani, Hiroshi Ishida, Satoshi Yamanaka, Yutaka Tanaka: “Three
dimensional Localization and Mapping for Mobile Robot in Disaster Environments,”
International conference on Intelligent Robots and System, pp.3112-3117, 2003
252
Fly UP