...

地図情報と拡張現実感を用いた位置依存情報のオーサリング Authoring

by user

on
Category: Documents
9

views

Report

Comments

Transcript

地図情報と拡張現実感を用いた位置依存情報のオーサリング Authoring
社団法人 電子情報通信学会
THE INSTITUTE OF ELECTRONICS,
INFORMATION AND COMMUNICATION ENGINEERS
信学技報
TECHNICAL REPORT OF IEICE.
地図情報と拡張現実感を用いた位置依存情報のオーサリング
伊東 大輔†
天目
隆平†
神原 誠之†
横矢
直和†
† 奈良先端科学技術大学院大学 〒 630–0192 奈良県生駒市高山町 8916–5
E-mail: †{daisu-it,ryuhei-t,kanbara,yokoya}@is.naist.jp
あらまし
拡張現実感(Augmented Reality:AR)を利用したヒューマンナビゲーションなどの位置に依存した情報提
供サービスを実現する上で,位置に依存した情報を管理するためのオーサリングシステムの必要性が指摘されている.
近年,地図を用いたオーサリングシステムなどの開発も盛んに行われている.しかし,2次元及び3次元の地図を利
用して位置依存情報のオーサリングを行う場合,地図と現実環境の不一致により,制作者の意図した提示位置と現実
の環境中での提示位置にずれが生じる場合がある.本稿では,地図情報を利用したシステムとモバイルARシステム
を利用した2つのフェーズを切り換えてオーサリングを行うことで,効率的なオーサリングが可能なシステムの構築
を目的とする.第1フェーズでは地図を利用し,第2フェーズではARを利用してオーサリングを行う.制作者は2
種類のクライアントシステムを利用し,意図した提示位置・姿勢にコンテンツを配置することで,地図と現実環境の
不一致による提示位置のずれ等を解消する.また,プロトタイプシステムを用いた実験結果によりシステムの有用性
を示す.
キーワード
拡張現実感,オーサリング,位置依存情報,ネットワーク共有データベース
Authoring of Location-based Information
Using GIS Data and Augmented Reality
Daisuke ITO† , Ryuhei TENMOKU† , Masayuki KANBARA† , and Naokazu YOKOYA†
† Nara Institute of Science and Technology 8916–5 Takayama-cho, Ikoma-shi, Nara-ken 630–0192 Japan
E-mail: †{daisu-it,ryuhei-t,kanbara,yokoya}@is.naist.jp
Abstract This paper describes an authoring system which supports authors of location-based information systems
to manage the contents. This paper proposes an authoring system which authors can manage contents efficiently by
authoring with two phases: 2D or 3D map based authoring phase and an AR view based authoring phase. In the
map based authoring phase, the author can arrange location-based information with 2D or 3D map views. The AR
view based authoring phase makes it possible to intuitively modify the contents by viewing AR scenes. Examples
of authoring using a prototype system are shown to confirm the feasibility of the proposed system.
Key words augmented reality,authoring,location-based information,network shared database
1. ま え が き
じた観光案内情報をネットワークを介して取得し,携帯電話や
PDA・ウェアラブルコンピュータ等のモバイル端末を持った
近年,GPS等の位置情報をもとに,携帯電話やPDA・ウェ
ユーザに対して情報を提示する観光案内システム「平城宮跡ナ
アラブルコンピュータ [1,2] 等のモバイル端末を持つユーザ
ビ」が提案されている [10].また,それらのシステムでユーザ
に対して観光案内等の位置依存情報を提示するヒューマンナビ
に提示する映像や音声,ARコンテンツ等の位置に依存した情
ゲーションシステムが盛んに研究されている [3, 4, 5].さらに,
報をネットワーク共有データベースで保持し,ウェブブラウザ
拡張現実感(Augmented Reality:AR)技術 [6,7,8] を利用
等を用いてコンテンツのオーサリングを行うシステムの開発も
して情報の提示を行う観光案内等のアプリケーションが開発さ
行われている [11,12].なお,本稿で述べるオーサリングとは,
れている.Vlahakis らはARを利用して古代ギリシア時代の
データベースへの新たなコンテンツの追加及び既存のコンテン
遺跡に当時の建物を重畳表示するウェアラブル観光案内システ
ツの位置・姿勢情報の修正,削除などコンテンツと位置・姿勢
ム ARCHIOGUIDE を開発した [9].また,ユーザの位置に応
情報の関連付けを行う操作を意味する.
—1—
ARを利用して制作者(オーサ)が意図した位置に仮想物
体の配置する手法として,Piekarski らは Tinmith を提案した
[13].Tinmith では,ユーザの指に装着した画像マーカを利用
し計測された位置・姿勢情報からユーザの動きを認識し,直感
的に現実の環境中に仮想物体を配置することが可能である.ま
た,現実環境中に配置された画像マーカの位置・姿勢を推定し
仮想物体の配置等を行うシステムも開発されている [14,15,
16].一方で,ウェブブラウザ等に表示された2次元地図上でコ
ンテンツのオーサリングを行う手法として,Fisher は屋外にお
ウェアラブル タブレットPC
コンピュータ
ユーザクライアント
位置情報
無線
ネットワーク共有
ネットワーク データベース
コンテンツ
サーバ
図 1 位置依存情報データベースを利用するARシステム
AR提示画像
けるARを用いた体験学習アプリケーションの作成を支援する
オーサリングツールを開発した [17].また,Güven らは,3次
元地図上で,映像や音声,ARコンテンツのオーサリングを行
うシステムを提案した [18].
しかし,広域環境においてARを用いてオーサリングを行う
場合,直感的にコンテンツの配置が可能である反面,時間や手
ユーザ
クライアント
間がかかるといった問題がある.一方,地図を用いてARコン
3次元モデル
テンツのオーサリングを行う場合,効率的にコンテンツの配置
図 2 AR提示画像の例
が可能であるが,地図と現実環境の不一致などにより,コンテ
ンツの管理者であるオーサの意図した提示位置と実際の現実環
境中の提示位置にずれが生じたり,樹木のような地図にないオ
地図情報を用いた
オーサリング
ブジェクトによる遮蔽が生じる場合がある.そのため,必ずし
もユーザに対してオーサの意図した見せ方でコンテンツを提示
することができない.そこで本稿では,地図情報を利用したシ
ステムとモバイルARシステムを利用して2つのフェーズを切
り換えてオーサリングを行うことで,効率的かつ制作者の意図
した提示位置・姿勢で情報の管理をすることが可能なオーサリ
オーサクライアント
モード切換
AR表示による
オーサリング
ングシステムの構築を目的とする.地図情報を利用したオーサ
リングでは,環境の大局的な俯瞰及び,効率的なコンテンツの
配置・修正・削除が可能である.モバイルARシステムを利用
したオーサリングでは,コンテンツの位置・姿勢を実際にAR
オーサクライアント
データベース情報
地図情報
無線
ネットワーク ネットワーク共有
追加・修正・削除情報 データベース
コンテンツ
位置依存
データベース情報
コンテンツ
地図情報
コンテンツ
無線
地図情報
ネットワーク
修正情報
サーバ
図 3 地図情報とARを利用したオーサリングシステムの概要
表示されたシーンを確認することで,現実環境と地図との不一
致による提示位置・姿勢のずれや,樹木等によりコンテンツが
ワークを介してユーザの現在位置に応じたコンテンツを取得し,
遮蔽されるといった問題に対応可能である.
ユーザに提示する.
以降,2章では提案システムについて,3章ではプロトタイ
プシステムを用いた実験及び考察について述べる.最後に,4
章で本稿のまとめと今後の課題について述べる.
2. 地図情報とARを利用した位置依存情報の
オーサリング
2. 2 地図情報とARを利用したオーサリングの概要
提案するオーサリングシステムは,図 3 に示すように地図情
報を加えた前述のサーバとオーサが利用するクライアントから
なるサーバクライアント型システムである.オーサは,2つの
フェーズを切り換えながらオーサリングを行う.第1フェーズ
では,デスクトップPCやノートPCを利用し,環境の地図を
2. 1 位置依存情報データベースを利用するARシステム
見ながらコンテンツの追加・修正・削除等のオーサリングを行
位置依存情報データベースを利用するARシステムは,観光
う.第2フェーズでは,現実環境中のコンテンツが配置された
案内等の位置依存情報をAR表示によりユーザに提示するシ
場所でAR表示されたシーンを見ながら,コンテンツの提示位
ステムを想定する.図 1 に想定するARシステムの概要,図 2
置・姿勢の修正を行う.また,第2フェーズでオーサが用いる
にクライアントに対してARによりコンテンツが提示された
クライアント機器は,自己位置・姿勢の計測,カメラによる現
例を示す.本研究では,ARシステムは,サーバクライアント
実環境の撮影及び無線ネットワークによるサーバとの通信が可
型システムを想定している.サーバは,環境内への注釈付けを
能である.通常,オーサが用いるオーサクライアントは,一般
行う注釈情報や3次元モデル等のARコンテンツを提示位置・
ユーザが用いるユーザクライアントより高精度に位置・姿勢計
姿勢情報と関連付けて管理するネットワーク共有データベース
測が可能であると想定している.
を保持する.また,クライアントは,自己位置・姿勢の計測と
2. 3 第1フェーズ:地図情報を利用したオーサリング
無線ネットワークの接続が可能であり,サーバから無線ネット
第1フェーズでは,地図をもとに環境の大局的な俯瞰及び,
—2—
③モード選択ボタン
上:オーサリングモード
①地図情報表示欄
下:ビューモード
④コンテンツ
ファイル選択ボタン
⑤ファイル名欄
⑥位置情報欄
⑦高さ選択用
プルダウンメニュー
⑧コンテンツ
プレビュー欄
⑨姿勢情報欄
⑩データベースへの
登録ボタン
②データベース情報欄 ⑪コンテンツ削除ボタン
(b) ビューモード時の地図の表示画像例
(a) オーサリングモード時のGUI
図4
クライアント
オーサリング開始
第1フェーズの画像例(デスクトップ,ノートPCなどによる作業)
データベース情報、
地図情報
(1)コンテンツの選択
サーバ
(3)姿勢情報の入力
位置依存
コンテンツ
(4)位置・姿勢情報の保存
地図情報
オーサリング終了
ルを1つ選択する.選択されたコンテンツファイルのファイル
5 ファイル名欄に,そのコンテンツのモデル
名は,図 4(a) の
ネットワーク共有
データベース
(2)位置情報の入力
選択ダイアログを表示し,オーサが所持するコンテンツファイ
データベースへの
追加情報の登録、
コンテンツ
図 5 第1フェーズにおけるコンテンツ追加の手順と
サーバクライアント間のデータの流れ
8 コンテンツプレビュー欄に表示される.
は,図 4(a) の
( 2 ) 位置情報の入力
位置情報の入力は,マウス等の入力デバイスを用いて図 4(a)
1 地図情報表示欄内の地図をクリックすることで位置を指定
の
6 位置情報欄に表示
する.指定した位置の情報は,図 4(a) の
7 高さ選択用プ
される.また,高さに関する情報は,図 4(a) の
ルダウンメニューから数値を選択する.なお,位置情報欄の各
数値を調整することで位置の微調整を行うことも可能である.
各数値が入力されると,地図中の指定した位置にモデルが表示
される.
( 3 ) 姿勢情報の入力
効率的なコンテンツの配置・修正・削除を行う.図 4 に3次元
8 コンテンツプレビュー欄の
姿勢情報の入力は,図 4(a) の
地図を用いた第1フェーズでのGUIの例を示す.第1フェー
モデルをマウス等の入力デバイスで回転させることで設定する.
ズには,コンテンツの配置等を行うオーサリングモードと,任
9 姿勢情報欄に表示される.
設定された姿勢情報は,図 4(a) の
意視点から環境を見渡し,配置結果を確認するビューモードが
なお,姿勢情報欄の各数値を調整することで姿勢の微調整を行
あり,オーサリングモード時のGUIを図 4(a) に,ビューモー
うことも可能である.
ド時の地図の表示画像例を図 4(b) に示す.それぞれのモードの
3 モード選択ボタンで行う.第1フェー
切り替えは,図 4(a) の
( 4 ) 位置・姿勢情報の保存
データベー
コンテンツの位置・姿勢の修正後,図 4(a) の10
ズでは,まずサーバよりデータベース情報・地図情報を取得し,
スへの登録ボタンを押し,コンテンツファイルと位置・姿勢情
1 地図情報表示欄に,コンテンツの位置・姿
地図が図 4(a) の
報を関連付けてデータベースへ送信する.追加・更新されたコ
2 データベース表示欄に,コンテンツのモデルが地図
勢情報が
2 データ
ンテンツファイル名及び,位置・姿勢情報は図 4(a) の
内にそれぞれ表示される.コンテンツの追加・修正・削除等の
ベース情報欄に反映される.
オーサリングが完了後,データベースの更新し,新たに追加さ
コンテンツの位置・姿勢の修正
れたコンテンツをサーバに送信する.図 5 にコンテンツの追加
登録されているコンテンツの提示位置・姿勢の修正は,修正
手順とサーバクライアント間のデータの流れを示す.以下に,
2 データベース情報欄から選択
したいコンテンツを図 4(a) の
オーサリングモードにおけるコンテンツの追加・修正・削除及
し,以下コンテンツの追加の手順と同様の方法で行う.
び,ビューモードでの配置したコンテンツの確認の各手順につ
コンテンツの削除
いて述べる.
コンテンツの追加
( 1 ) コンテンツの選択
4 コンテンツファイル選択ボタンを押しファイル
図 4(a) の
既に登録されているコンテンツを削除する場合,図 4(a) の
2 データベース情報欄からコンテンツを選択し.図 4(a) の11
コンテンツ削除ボタンを押して行う.
配置したコンテンツの確認
—3—
①メインビュー
(カメラからの映像)
②サブビュー
(地図又は,キャプチャ画像)
クライアント
オーサリング開始
ネットワーク共有
データベース
(1)コンテンツの選択
③位置修正ボタン
(垂直・水平方向)
⑧修正情報
④位置修正ボタン
の保存ボタン
(奥行き方向)
⑥キャプチャ
画像選択用
⑤画像撮影
⑦コンテンツ選択用
プルダウンメニュー プルダウンメニュー
ボタン
図6
(2)提示位置・
姿勢情報の修正
⑨姿勢修正
開始ボタン
⑩姿勢修正
終了ボタン
位置依存
コンテンツ
(3)位置・姿勢情報の保存
オーサリング終了
修正情報
サーバクライアント間のデータの流れ
クライアント端末
カメラの光軸方向
位置修正ボタン
3 モード
地図情報に3次元地図がある範囲では,図 4(a) の
提示画像
(現実の環境にAR
コンテンツを重畳)
選択ボタンでビューモードに切り替えることで,図 4(b) のよう
に,任意の視点から3次元地図内でのコンテンツの提示位置・
2. 4 第2フェーズ:ARを利用したオーサリング
第2フェーズでは,コンテンツが配置された現実環境におい
て,コンテンツをARを用いて提示し,コンテンツの位置・姿
勢の修正を行う.図 6 に第2フェーズのGUIの例を示す.図 6
1 メインビューにはコンテンツがAR表示された様子が,
2
の
サブビューにはオーサの現在位置付近の地図が提示される.提
案システムでは,現実環境の画像を記録し,サブビュー内に表
示することが可能である.別視点で画像を撮影しておくことで,
メインビュー内の現実のカメラの映像とサブビュー内の静止画
像上に重畳されたARコンテンツを同時に見ながら,位置・姿
5 画像撮影ボタンを押し
勢の修正が可能である.なお,図 6 の
記録することで,画像が撮影され,画像と撮影位置が記録され
る.サブビュー内に撮影画像を表示した例を図 7 に示す.記録
6 キャプチャ画像選択用プルダ
画像が複数枚ある場合,図 6 の
ウンメニューから選択可能である.図 8 に提示位置・姿勢の修
正の手順とサーバクライアント間のデータの流れを示す.以下
に,提示位置・姿勢の修正手順について述べる.
( 1 ) コンテンツの選択
提示位置または姿勢の修正を行うコンテンツを図 6 の コン
テンツ選択プルダウンメニューから1つ選択する.なお,選択
されたコンテンツのみがAR表示される.
( 2 ) 提示位置・姿勢情報の修正
•
提示位置の修正
3 位置修正ボタン
コンテンツの提示位置の修正は,図 6 の
4 位置修正ボタン(奥行き)を押し
(垂直・水平方向)または
クライアント端末を横に傾ける
クライアント端末
ボタンを
押しながら
クライアントを
傾ける
画像を利用したオーサリング
姿勢を確認することが可能である.
地図情報
図 8 第2フェーズにおける提示位置・姿勢の修正の手順と
第2フェーズのGUI(モバイル機器による現場での作業)
図7
サーバ
データベース情報、
地図情報、
コンテンツ
ARコンテンツ
提示画像
(現実の環境にAR
コンテンツを重畳)
図 9 第2フェーズにおけるコンテンツの提示位置の修正方法
ながら,クライアント端末の姿勢を変化させて行う.奥行き方
向とはカメラの光軸方向である.修正方法を図 9 に示す.図 6
3 位置修正ボタン(垂直・水平方向)を押しながらクライア
の
ント端末を前後に傾けることにより垂直方向に,左右に傾ける
ことで水平方向にコンテンツの位置が変更される.コンテンツ
4 位置修正ボタン(奥行き)を押し
の奥行き方向への修正は,
ながら前後に傾ける.傾きの大きさに応じて,コンテンツの前
後方向の速度が変化する.また,垂直・水平・奥行き方向への
修正に対応したボタンにより,コンテンツの提示位置の微調整
も可能である.オーサの現在位置とコンテンツの提示位置は,
2 サブビュー内の地図で確認することが可能である.
図 6 の
•
姿勢情報の修正
コンテンツの姿勢の修正は姿勢センサを用いて行う.図 6 の
9 姿勢修正開始ボタンを押すと,それまでカメラの姿勢を計測
していた姿勢センサの計測データが,姿勢を修正したいコンテ
ンツの姿勢に反映される.オーサは,姿勢センサを取り外し,
傾けることで姿勢を調節する.姿勢を修正する間,カメラから
9 姿勢修
得られる現実の映像は静止画となり,オーサは図 6 の
正開始ボタンを押した時点の環境の静止画を見ながら,姿勢セ
ンサを用いてコンテンツの姿勢をこの静止画に合うように修正
9 姿勢修正終了ボタンを押して,
することが可能である.図 6 の
姿勢の修正を終了する.
( 3 ) 位置・姿勢情報の保存
—4—
60秒の時間を要した.よって第1フェーズでは,従来の地図
カメラ
CCD
Qcam For
Notebooks
Pro QV-700
(Logicool)
計算機
VAIO typeU VGN-U71P
(SONY)
図 10
を用いたオーサリングシステム [18] と同様に効率的にコンテン
姿勢センサ
InertiaCube²
(InterSense)
位置センサ
(GPS)
eTrex(GARMIN)
第2フェーズにおけるクライアントシステムの機器構成
8 保存ボタン押し,修正後の位置・姿勢情報をデータ
図 6 の
ベースに送信する.
3. プロトタイプシステムを用いたオーサリング
実験
本章では,プロトタイプシステムを用いて本学内で行ったA
Rコンテンツのオーサリング実験について述べる.本実験では,
第1フェーズで3次元地図を用いてデータベースへのコンテン
ツの追加を行い,第2フェーズでARを用いたコンテンツの提
示により位置・姿勢の修正を行った.
3. 1 クライアントシステムの機器構成
図 10 に第2フェーズにおけるクライアントシステムの機器
構成を示す.以下に,本実験で用いた計算機と3つのセンサの
詳細について述べる.
計算機(Sony: Vaio typeU VGN-U71P, CPU Pentium M
1.1GHz, 512Mbyte memory)
:各センサから得られるデータを
もとにサーバからコンテンツを取得し,オーサに提示する画像
の生成とオーサリングを行う.
:計
カメラ(logitech: Qcam For Notebooks Pro QV-700)
算機のディスプレイ面の法線方向と,カメラの光軸方向が一致
するように装着する.縦480画素,横640画素のRGB各
8ビットのカラー画像を30フレーム毎秒で取得する.
:毎秒1回,数メートルの誤差で
GPS(GARMIN: eTrex)
緯度・経度の計測が可能である.
姿勢センサ(Intersense: inertiacube2 ):カメラ付近に取り
付けられ,カメラの姿勢を計測する.姿勢センサは,方位角
(ヨー),傾斜角(ピッチ,ロール)の3軸まわりの回転角を計
測可能である.
3. 2 オーサリング実験
本実験では,本学内の複数の建物の入口付近にそれぞれ対応
する3次元モデルの案内板を配置するタスクを設定した.以下
に,各フェーズにおける実験の詳細について述べる.
•
第1フェーズ
ノートPCを用いて,あらかじめ用意されていた案内板のモ
デルを3次元地図をもとに,3.1 節で述べた手順で指定された
ツのオーサリングが可能であると考えられる.
•
第2フェーズ
第1フェーズで既に配置されたコンテンツを現実の環境中で
ARにより表示し確認を行った結果,地図と現実環境の不一致
により,図 12 に示すように現実の環境中では提示位置・姿勢に
ずれが生じた.第2フェーズでは,このようなコンテンツの位
置・姿勢のずれの修正を行った.図 12 に示すコンテンツにお
いて,3.2 節で述べた手順に基づき提示位置・姿勢の修正を行っ
た.提示位置のみを修正した場合および,提示位置・姿勢の修
正後の様子をそれぞれ図 13,図 14 に示す.本実験では,コン
テンツの位置・姿勢の修正を行うのに,システムの使用経験の
ある者で約50秒の時間を要した.
3. 3 考
察
本実験により,地図とARを用いてオーサリングを行った場
合,地図を用いることで効率的にコンテンツの配置が可能であ
り,AR表示を用いることで提示位置・姿勢の修正に対応可能
であることを確認した.また,第2フェーズにおいて,現実環
境中でのコンテンツの提示位置・姿勢の調整が可能であること
から,樹木等の地図にないオブジェクトによる隠蔽を避けて,
コンテンツの提示位置を修正することが可能であると考えられ
る.なお,現実環境に3次元モデルを位置ずれなく重畳するに
は,誤差数センチ程度以内の位置計測が要求される.本実験で
用いたGPSの計測精度は数メートル程度であり,より正確な
位置合わせが必要なコンテンツの場合,RTK−GPS [19] な
どの利用が考えられる.
4. まとめと今後の課題
本稿では,地図情報を利用したシステムとモバイルARシス
テムを利用した2つのフェーズを切り換えてオーサリングを行
うことで,効率的かつ制作者の意図した提示位置・姿勢で情報
の管理をすることが可能なオーサリングシステムの構築を行っ
た.第1フェーズの地図情報を利用したシステムでは,オーサ
リングを行う環境の地図情報をもとにコンテンツを配置し,第
2フェーズのモバイルARシステムでは,現実の環境中におい
てARを用いてコンテンツを表示し,直感的な操作によりコン
テンツの提示位置・姿勢の修正を行った.以上の2つのフェー
ズを組み合わせることで,効率的かつ制作者の意図した正しい
位置・姿勢でコンテンツを配置することが可能となる.
今後の課題として,現在のシステムでは,提示位置・姿勢が
一意に定められるARコンテンツのみを対象としているが,提
示する範囲を定めた映像や音声などのコンテンツへの対応を行
う予定である.
謝辞
本研究の一部は,科学技術振興機構 (JST)・戦略的創造研究推
進事業 (CREST)「高度メディア社会の生活情報技術」及び,総務省・
建物の前に配置した.また,ビューモードを利用し,オーサは
戦略的情報通信研究開発推進制度 (SCOPE)「ネットワークを介して
配置されたコンテンツの位置・姿勢の確認を行った.環境内に
人間の日常活動と情報・体験共有を支援する複合現実情報環境」プログ
案内板の1つを配置した様子を図 11 に示す.本実験では,コ
ラムの支援による.
ンテンツの配置を行うのに,システムの使用経験のある者で約
—5—
第1フェーズ終了後の
提示位置・姿勢
案内板の
モデル
図 11
図 13
第1フェーズでの案内板の配置例
第2フェーズでの位置修正後のコンテンツの様子
文
図 12
[1] S. Mann:“ Wearable Computing: A First Step toward Personal Imaging ”,IEEE Computer, Vol. 30, No. 2, 1999.
[2] R. D. Vaul, M. Sung, J. Gips, and A. S. Pent land:“ MIThril
2003: Applications and Architecture ”,Proc. Int. Symp. on
Wearable Computers 2003, pp. 4-11, 2003.
[3] R. Malaka, and A. Zipf: “ Deep Map . Challenging IT Research in the Framework of a Tourist Information System ”,
Proc. 7th Int ’l Congress on Tourism and Comm, pp. 15-27,
2000.
[4] K. Cheverst, N. Davies, K. Mitchell, A. Friday, and C. Efstatiou: “ Developing a Context-aware Electronic Tourist
Guide: Some Issues and Experiences ”, Proc. CHI2000, pp.
17-24, 2000.
[5] J. Baus, A. Kruger, and W. Wahlster:“ A Resorce-adaptive
Mobile Navigat ion System ”, Proc. 7th Int. Conf. on Intelligent User Interfaces 2002, pp. 15-22, 2002.
[6] S. Feiner, B. MacIntyre, and D. Seligmann: “ Knowledgebased Augmented Reality ”, Communications of the ACM,
Vol. 36, No. 7, pp. 52-62, 1993.
[7] R. Azuma, Y. Baillot, R. Behringer, S. Feiner, S. Juiler, and
B. MacIntyre:“ Recent Advances in Augmented Reality ”,
IEEE Computer Graphics and Applications, Vol. 21, No. 6,
pp. 34-47, 2001.
[8] M. Kanbara, N. Yokoya, and H. Takemura: “ Registration
for Stereo Vision-based Augmented Reality Based on Extendible Tracking of Markers and Natural Features ”, Proc.
16th Int. Conf. on Pattern Recognition, pp. 1045-1048, 2002.
[9] V. Vlahakis, J. Karigiannis, M. Tsotros, M. Gounaris, L.
Almeida, D. Stricker, T. Gleue, I. Christou, R. Carlucci,
and N. Ioannidis: “ ARCHEOGUIDE: First Results of an
Augmented Reality, Mobile Computing System in Cultural
Heritage Sites ”, Virtual Reality, Archaeology, and Cultural
Heritage International Symposium, pp. 28-30, 2001.
[10] R. Tenmoku, M. Kanbara, and N. Yokoya: “ Nara Palace
第1フェーズ後のコンテンツの位置・姿勢のずれ
図 14
献
[11]
[12]
[13]
[14]
[15]
[16]
[17]
[18]
[19]
理想的な
提示位置・姿勢
第2フェーズでの姿勢修正後のコンテンツの様子
Site Navigator: Device-independent Human Navigation Using a Networked Shared Database ”,Proc.10th Int. Conf.
on Virtual Systems and Multimedia,pp. 1234-1242, 2004.
K. Makita,M. Kanbara,and N. Yokoya:“ Shared Database
of Annotation Information for Wearable Augmented Reality System ”,Proc. 5th Pacific Rim Conf. on Multimedia,
Vol.3,pp. 499-507, 2004.
柴田史久,橋本崇,吉田友祐,木村朝子,田村秀行,
“ 多様な携
帯・可搬型機器に対応可能なモバイル複合現実感システム(1)基本アーキテクチャとコンテンツ記述方式- ”,日本バーチャル
リアリティ学会第9回大会論文集,pp. 281-284,2004.
W. Piekarski,B. H. Thomas: “ An Object-Oriented Software Architecture for 3D Mixed Reality Applications ”,
Proc. on Mixed and Augmented Reality, pp. 247-256, 2003.
J. Zauner, M. Haller, A. Brandl, W. Hartmann: “ Authoring of a Mixed Reality Assembly Instructor for Hierarchical
Structures ”,Proc. on Mixed and Augmented Reality, 2003.
G. A. Lee, C. Nelles, M. Billinghurst, and G. J. Kim:“ Immersive Authoring of Tangible Augmented Reality Applications ” ,Proc. on Mixed and Augmented Reality, pp.
172-181, 2004.
I. Poupyrev, D. Tan, M. Billinghurst, H. Kato, H. Regenbrecht, and N. Tetsutani:“ Tiles: A Mixed Reality Authoring Interface ”,Proc. 8th IFIP TC.13 Conf. on HumanComputer Interaction, pp. 334-341, 2001.
S. Fisher:“ An Authoring Toolkit for Mixed Reality Experiences ”,Proc. Int. Workshop on Entertainment Computing,
pp. 487-494, 2002.
S. Güven, S. Feiner:“ Authoring 3D Hypermedia for Wearable Augmented and Virtual Reality ”,Proc. 7th on Wearable Computers, pp. 118-126, 2003.
神原誠之, 横矢直和: “ RTK-GPS と慣性航法装置を併用したハ
イブリッドセンサによる屋外型拡張現実感システム ”,画像の認
識・理解シンポジウム (MIRU2005) 講演論文集, pp. 933-938,
2005.
—6—
Fly UP