Comments
Description
Transcript
肩載せアクティブカメラ・レーザによる 遠隔協調作業
筑波大学大学院博士課程 システム情報工学研究科修士論文 肩載せアクティブカメラ・レーザによる 遠隔協調作業 酒田信親 (知能機能システム専攻) 指導教官 葛岡英明 2005 年 3 月 概要 コンピュータネットワークの発達により、物理的にお互いの声や視界が及ばない離れた 2 地点に居る人間が、音声や映像をお互いに伝え合うことが容易になった。このような状況に いる 2 人の人間をある作業に従事させ、音声と映像が送受信可能な端末によって、その作業 を円滑に進めることを遠隔協調作業支援という。本研究では、特に遠隔協調作業支援に使用 する装着型端末の提案・実装・評価を行った。 本稿では、新規提案端末としてアクティブカメラ・レーザによる装着型端末を提案する。 2 軸制御のカメラの上にレーザポインタを搭載したウェアラブルアクティブカメラ・レーザ (WACL)を開発した。この WACL を遠隔地より指示者がパン・チルトし、作業者の周囲の状 況をカメラの映像で把握し、レーザによって作業場所を指し示すことで、指示者の意図を作 業者に明確に伝え円滑に作業を進められる。しかし、装着型端末の共通の問題として、装着 者が動くことで、カメラの撮影場所が変化し、それにより指示者は明確な指示が困難になる ため、WACL に慣性センサと画像処理によるスタビライズ機能を搭載し、装着者がある程度 動いてもカメラの映像を安定させる機能を実装した。また、ヘッドマウントディスプレイ (HMD)とヘッドマウントカメラ(HMC)を用いた従来型の頭部装着型作業端末を用意し、 提案端末と比較実験を行った。 本報告では、実験結果であるビデオログデータを解析し、作業の達成時間、使用した単語 数、疲労度や機器の使用の容易さ、さらにアンケートやインタビューを統計的手法で比較し 提案端末の新規性、利点、また、問題点を述べる。また、実験により明らかになった提案端 末の問題に対して解決法を提示する。 目次 はじめに ······························································································ 3 第1章 第2章 関連研究 ······························································································ 4 第3章 WACL ································································································· 6 3.1 定点撮影・指示手法 ·················································································· 7 3.1.1 画像処理による移動量推定 ··································································· 8 3.1.2 特徴点の抽出・追跡 ············································································ 8 3.1.3 回転角度の算出 ·················································································· 9 第4章 WACL を用いた遠隔協調作業システム ···················································· 12 第5章 ユーザテスト ······················································································ 14 5.1 HMD/HMC ベースのヘッドセットシステム ················································ 14 5.2 タスク ·································································································· 17 第6章 実験結果 ···························································································· 19 6.1 作業完了時間 ························································································· 19 6.2 会話解析 ······························································································· 21 6.3 主観評価(アンケート&インタビュー) ····················································· 22 第7章 考察 ·································································································· 24 7.1 作業完了時間 ························································································· 24 7.2 会話解析 ······························································································· 24 7.3 主観評価 ······························································································· 25 7.4 まとめ ·································································································· 25 第8章 おわりに ···························································································· 27 謝辞 ················································································································· 28 参考文献 ··········································································································· 29 i 図目次 WACL の外観 .........................................................................................................6 定点撮影・指示手法の流れ図.................................................................................8 特徴点抽出の結果...................................................................................................9 特徴点の移動量 ....................................................................................................10 定点撮影・指示機能 ............................................................................................. 11 WACL を用いた遠隔作業端末..............................................................................12 WACL ベースの遠隔協調作業システム ...............................................................13 指示者が使用する WACL 用ソフトウェアインターフェース ..............................13 HMD/HMC(ヘッドセット)ベースの遠隔作業端末 .........................................15 ヘッドセット型端末を用いた遠隔協調作業システム .......................................15 指示者が使用するヘッドセット用ソフトウェアインターフェース .................16 本ユーザテストの作業空間...............................................................................17 合計作業完了時間 .............................................................................................20 セクション別作業完了時間...............................................................................20 ブロッククラスタの選択・組み立ての指示に関する単語数 ............................21 作業者の位置・視点の指示に関する単語数 .....................................................22 7 段階の絶対評価(Q1-Q6:ヘッドセットについて Q7-12:WACL について) 23 図 18. 7 段階の相対評価(1:ヘッドセット7:WACL)........................................23 図 1. 図 2. 図 3. 図 4. 図 5. 図 6. 図 7. 図 8. 図 9. 図 10. 図 11. 図 12. 図 13. 図 14. 図 15. 図 16. 図 17. ii 第1章 はじめに コンピュータネットワークの発達により、物理的にお互いの声や視界が及ばない離れた 2 地点に居る人間が、音声や映像をお互いに伝え合うことが容易になった。このような状況に いる 2 人の人間をある作業に従事させ、音声と映像が送受信可能な端末によって、その作業 を円滑に進めることを遠隔協調作業支援という。また、ウェアラブルコンピュータ[1]や無線 ネットワーク技術が、遠隔協調作業の対象をデスクトップから、携帯電話に代表されるよう に装着型端末へと拡大している。(e.g.[2])。実世界の作業環境の中で使われる装着型端末では、 実物体に対して作業をすることが多い。その装着型端末のインタフェースが複雑だと、装着 者がインタフェースを操作するだけで、長い間作業が中断してしまう。よって、できるだけ 簡単な操作で扱える遠隔協調作業に向いたインタフェースが必要とされる。 従来、遠隔協調作業支援のために、典型的な装着型端末として、ウェアラブルコンピュー タに接続されたヘッドマウンドディスプレイ(HMD)、カメラ(HMC)、及び作業者間無線ネッ トワークで遠隔地からなるシステムがあげられる[2,18]。音と映像は装着者の実作業空間の 状況を知らせるために、遠隔の協調作業者である指示者に送られ、また、HMD を通して装 着者は、遠隔の指示者が提供するアノテーションやその他の視覚的なアシストを得ることが できる。しかし、頭部に機器を装着するため、これらの機器の装着者である作業者が疲労し てしまう点や、作業者の頭部にカメラを装着しているため、実作業空間から得られる映像は、 作業者の頭部方向に依存する点などの問題がある。そこで、これらの問題点を改善した遠隔 協調作業支援のための頭部非装着型の新しいウェアラブルインタフェースの開発と、それを 用いた遠隔協調作業支援システムを提案し、従来型の頭部装着型端末を用いたシステムとの 比較に関するユーザテストを行い評価する。 3 第2章 関連研究 遠隔協調作業支援に用いる端末のインタフェースの最終的な目標は、遠隔地に分散したユー ザ同士の共有理解の確立を支援し、"grounding"[3]と呼ばれるプロセスによって、コミュニ ケーション基盤の共有を支援することである。grounding プロセスとは、共有知識、信念、 目的など、コミュニケーションを円滑にする共有基盤を確立する過程のことである。 対面的なコミュニケーションでは、視線、表情、ジェスチャ、音声、非言語音などの多種 多様な手がかり(cue)が、共有基盤の確立に使われている。様々なデバイスが利用可能な固定 設置型の遠隔会議システムに関する研究では、これら複数の手がかりを効果的に伝達する方 法が提案されている。また、対面的なコミュニケーションでは、言語的、非言語的な手がか りに加えて、実物体や、実環境とのインタラクションが重要な役割を果たしている。例えば Suchman は、非言語的な手がかりと同様に、描画行動が会話の順番取り(turn taking)を支 援することを見出した[4]。一方、Mehan と Wood は、実世界にある"物"が、共有理解の確 立に利用されていると報告した[5]。 主に顔映像(talking head)を伴う従来のデスクトップ会議システムに対し、装着型の協調作 業支援システムは、しばしば、実物体を取り扱う作業を支援するために設計されている。そ のようなシステムでもっとも重要なのは、ユーザに対して遠隔地の状況把握を効果的に促す と共に、実作業環境とのインタラクションを拡張するツールを提供することである。また、 実作業環境に関する協調作業中、タスクは主に 対象物・場所の識別 、 手順の説明 、 理 解の確認 の3段階で構成される[19]。この初期の研究として、ユーザが HMD と HMC を 装着し、装着者の作業空間の映像を遠隔地の指示者に伝送する葛岡の Sharedview がある[6]。 この研究では、ウェアラブルコンピュータは用いられていないものの、3次元空間タスクに おいて HMD や HMC がどのように協調作業を支援するかが示されている。 指示者は、HMC で得られた遠隔作業空間の映像に手振りを重ね合わせて作業者の HMD に表示させること ができる。このような直感的な指示により、非言語的な手がかりを双方向に伝達することを 可能にした。葛岡は、この指示者の手振り映像が指差し動作を遠隔地に伝えるのに効果的で あることを示し、対面と遠隔間の両方においてコミュニケーション形態が類似していること を見出した。British Telecom が開発した CamNet システム[7]も HMC と HMD を用いた システムであり、遠隔地の医者から救命士が指示を受けることができる。医者は、事故現場 の映像を見ながら、救命士の HMD に表示されている画像の一部分をマウスで指し示せる。 この研究は、多くの遠隔協調作業タスクのためには、音声、映像、ポインタを共有すれば十 分である可能性があることを示した。Kraut らは、上記と類似したインタフェースを用いた コミュニケーションについて調査した[8]。この例では、自転車の修理タスクにおいて指示者 が初心者(作業者)を遠隔支援した。作業者は HMD と HMC を着用し、電子マニュアル と指示者の顔映像、作業空間映像を含む共有デスクトップを見ることが出来た。Kraut らは、 指示者の遠隔支援の有無、及び指示者の遠隔支援有りの場合での映像の有無における作業効 率を比べた。指示者の遠隔支援がある場合、作業者は 50%早く作業を完了することができた が、映像の有無は作業完了時間に影響を与えなかった。ただし、音声のみと音声と映像があ る場合とではコミュニケーション形態が大きく異なっており、映像がない場合、作業者は作 業状況をより明示的に言葉で説明した。Kraut らは、協調作業者間で利用可能な技術が、作 業中のコミュニケーション形態に影響を及ぼすと報告した。このように、多くのシステムで 4 は指示者は HMC によって遠隔地の状況把握をするという共通の特徴を持つ。しかしこの場 合、指示者の視界は作業者が何を見ているかに依存してしまう。Fussell らは、固定設置カ メラと HMC を比較することによりこの問題を浮き彫りにした[9]。固定作業空間での遠隔協 調では、HMC より広角の固定設置カメラの方が効果的であることを見出したが、この結果 は驚くにはあたらない。なぜなら、指示者が一度に作業空間全体を見渡せるカメラは状況把 握能力を向上させるからである。 これらの結果は、作業空間映像、遠隔ポインティングの手段、及び遠隔地の指示者に可能 な限りの状況把握機能を提供するインタフェースを提供することで、遠隔協調作業を支援す ることができることを示している。HMD に代わるものとして、視覚的アシストを実物体上 に直接投影するインタフェースが数多く提案されている。例えば、葛岡の GestureCam イ ンタフェース[10]では、パン・チルト可能なサーボ制御のカメラの上にレーザポインタが搭 載されており、遠隔地の指示者はこのレーザを使って対象物体を強調することができる。た だし、GestureCam はユーザが着用するために設計されてはいなかった。また、CTerm はそ れぞれ独立してパン・チルト可能なサーボ制御のレーザとカメラを組み合わせたもので、可搬 性のよい端末である。移動時は携帯可能で、使用時は現場にいる被指示者の傍らに設置する。 遠隔地の指示者はカメラとレーザポインタを独立に制御しつつ、映像を見ながら音声とレー ザポインタで指示を送ることが可能である。Mann の Telepointer[11]の場合、照射方向の制 御が可能なレーザと固定カメラを着用することで遠隔協調作業を可能にしている。ビデオプ ロジェクタを使うことで、ポインタはもちろん他の視覚的アシストをも実物体上へ投影する ことができる(例えば[12、13])。狩塚と佐藤のウェアラブルプロジェクタシステム[14]は、頭 部への機器の装着を強いることなく、ウェアラブルなセッティングで視覚的アシストを実世 界に投影が可能である。しかし、そのプロジェクタシステムはまだ遠隔協調作業には応用さ れておらず、また、他のプロジェクタベースのシステムと同様、重量、電力消費、屋外での 明るさなど多くの問題が残されている。 5 第3章 WACL 図1. WACL の外観 先に述べたように、CTerm では、カメラ、レーザポインタそれぞれを遠隔地より独立に 動かすことができる。しかしながら、機構が複雑になり装着型にするのは困難であると言え る。一方、Telepointer では、カメラは固定でレーザのみ遠隔地より自由に動かせる。この 場合、機構は単純なため装着しやすいが、カメラから得られる映像が装着者の動きに依存す る上、その動きによりレーザポインタの指示が安定しないという問題点がある。そこで装着 型の小型アクティブカメラ(WAC: Wearable Active Camera)[15]のカメラヘッドの光軸と レーザ光軸をほぼ平行にし、それらを図 1 のように固定することで、装着者の動きとは独立 6 して映像を取得でき、さらにレーザで指示を出すことが可能な新しいインタフェースモジュ ールを提案する。このような簡素な機構を持つモジュールは、小型軽量化が容易であるため、 装着型端末の構成要素として適している。また、レーザとカメラの操作が一体となるため、 遠隔地の指示者は簡単な操作で、レーザとカメラを動かすことができる。さらに、画像処理 によるビジュアルサーボにより、レーザポインタの指示位置の安定化なども可能となる。こ の装着型コミュニケーション端末のための新しいインタフェースモジュールを、 WACL(Wearable Active Camera with Laser Pointer)[25]と呼ぶ。 3.1 定点撮影・指示手法 WACL によって遠隔地から装着者の状況の確認、及び装着者への指示を行う場合、装着者 が動作するとカメラの撮影場所やレーザの指示位置も動いてしまうため、的確な指示を与え ることが困難となる。そこで、装着者の動作を推定し、それに合わせて WACL を制御し、 装着者の動作によらず常に定点の撮影・指示を行う機能が必要となる。 装着者の動作には、大きく分けて平行移動と回転が存在する。特に、回転に関しては少し の回転でも画像上の変化は大きく、指示した点が全く映像中に映らなくなる場合も有り、遠 隔地からの状況確認にも支障をきたす。この回転に対しては主に WACL に取り付けた回転角 センサで対応し、平行移動や回転角センサのノイズの補正には画像処理による移動量推定で 対応することにした。そのために、センサタスク、ビジョンタスク、コントロールタスクの 3つのタスクをカメラヘッドの安定のために実装した(図 3) 。センサタスクでは回転角セン サから値を取得、ビジョンタスクでは画像処理がなされていて、コントロールタスクでは制 御値、ビジョンタスクかセンサタスクから受け取り WACL の制御をしている。3つのタスク のうち、ビジョンタスクがもっとも計算コストを要求する。そのため、それぞれお互いのタ スクを停止させないようスレッドで実装され非同期で動いている。また、回転角センサの値 を取得するセンサタスクは、画像処理を行うビジョンタスクより、かなり良いスループット で動いている。 装着者の動きの中で特に回転に関しては、少しの動きでも、画像上では大きく見た目が 変化し、指示対象物が映らずビジョンタスクの中の画像処理がうまく機能しない可能性があ る。そこで、指示対象物が撮影映像にある程度映る地点まではセンサタスクの中の回転角セ ンサの値で制御を施し、その後はビジョンタスクの中の画像処理を活性化し、その後は画像 処理によって推定された移動量を用いて制御を行うことにした。ビジョンタスクの中の画像 処理は、必要のないときは随時停止しており、これによりシステム全体のスループットを上 げている。 ここで、それぞれのタスクの相互関係を説明する。装着者が動くと、センサタスクは相 対回転角 Rs を検出する。この Rs の値がある値 cosθT より大きい時、相対回転角 Rs が制御に 使われる。このとき、ビジョンタスクの中の画像処理は不活性状態に置かれる。また、この 値がある値 cosθT より小さい場合は、ビジョンタスクの中の画像処理が活性化され画像処理 による移動推定量の値 Rv が制御に使われる。また、コントロールタスクの中で、WACL の アクチュエータの角度 ap を常時取得している。この WACL のアクチュエータの角度と、目 標制御角 at の絶対差分がある角度 cosθT 以内になると、ビジョンタスクの中の画像処理を活 7 性化し画像処理による移動量推定の値 Rv を制御に用いる。このアルゴリズムによって、装 着者の大きな動きがあった場合やカメラヘッドに指示対象物が映っていないと予想される地 点では、回転角度センサの値を使い。指示対象物が撮影映像に映る地点にカメラヘッドが存 在すると思われる場合は画像処理による移動量推定を用いる仕組みになっている。 図2. 定点撮影・指示手法の流れ図 3.1.1 画像処理による移動量推定 あらかじめ定点撮影・指示をしたい場所を写した画像(今後、指示画像と呼ぶ)より、複 数の特徴点を抽出しておく。そして、各フレームで、撮影された画像(今後、更新画像)に 対して、指示画像で抽出された特徴点の移動量を特徴点追跡処理により計測する。ただし、 追跡結果には必ず誤りが含まれるため、外れ値除去を行う。処理の流れを下記にまとめる。 1. 指示画像から特徴点の抽出 2. 指示画像と更新画像で、各特徴点の移動量を算出 3. 外れ値除去 4. 外れ値を除去した各特徴点の移動量から WACL の移動量を推定 5. 推定した移動量より WACL の回転角度決定 3.1.2 特徴点の抽出・追跡 指示画像から特徴点を抽出する手法を述べる。特徴点の抽出と追跡には、Lucas-Knanade 法[16](以後 LK 法と略す)を用いた。まず、指示画像から特徴点を複数抽出する。選び出 した各特徴点が、更新画像のどの点に対応するかを追跡処理により計測し、各特徴点の移動 8 量を算出する。画像処理の実装には、Intel の開発した OpenCV を用いた。画像の表示や周 辺の実装には Kylix3 を使用した。OpenCV では、特徴点の個数と品質を設定できる。例え ば、特徴点の個数を多く取ると、特徴として弱い点も選ばれ良い結果をもたらさないが、少 なく指定すると精度が落ちてしまう。そこで、個数だけでなく品質でも特徴点を選ぶことが 可能になっている。この品質は、特徴点を中心とする局所矩形内の画素の輝度勾配の 2x2 の 無修正平方和積和行列における第2固有値の大きさを表している。 以下、 品質を決める値 を Quality Value と呼ぶ。Quality Value は0∼1の間に正規化されており、実験によって 適切な値(0.19)を選んだ。 図3. 特徴点抽出の結果 3.1.3 回転角度の算出 上記で算出された各特徴点の移動量から外れ値を除去するために LMedS 推定[17]を行う。 外れ値を適切に除去する確率は、 と成る。本実装では、ランダムサンプリングの回数は 6 回とした。この場合、外れ値の割 合が 0.2 だとすると、はずれ値を適切に除去する確率は、0.999936 となる。また、視点の 移動により大きく見え方が異なる物体の特徴点が外れ値になっても、物体以外の部分で複数 の特徴点の移動量が正しく出ていれば、外れ値として除去される。 この LMeds 推定後の複数の特徴点移動量から、WACL の回転角度を求める。この外れ値 を除去した複数の特徴点移動量に対して、2 次元アフィン変換モデルを適用し、最小二乗法 を用いて最適値を選んだ。 求められた最適値より画像の中心が何 pixel 動いたかを計算する。 また、事前に WACL が1degree 動くとカメラ画像は何 pixel 移動するかを事前に調べてお き、この値を用いて、求められた pixel 数から WACL に与える回転角度(degree)を算出 する。 次に、LK 法による移動量推定結果を図4に示す。左半分は、指示画像と、WACL の水平 方向に WACL を平行移動したのち撮影した画像である。これらの画像は目測により、水平方 向に 50pixel ずれていることが確認された.図4の右上に,LK 法を用いて各特徴点の移動 9 量を求めた結果を示す、複数について誤りが存在しているのが確認できる。これらすべての 点の移動量の平均は、22pixel となった。次に、図4の中で右下に、LMedS 推定による外 れ値除去をおこなった結果を示す。外れ値除去を行って移動量を推定した結果、49pixel と なり、ほぼ正しく推定できていることが確認された。 図5の上部に、WACL を装着し定点撮影・指示手法を用いて、青色のコップを捕らえ続け た結果を示す。このとき、装着者が椅子に座ったまま時計周りに回り、その後、半時計周り に回りおおよそ元の位置に戻った。青いコップを遠隔からの指示に用いる画像としては安定 していることがわかる。また、図5の下部のグラフは、定点撮影・指示手法を用いた時の、 レーザの着光点から青色のコップまでの距離を示す。B と C のフレームの間で、青いコップ は撮影画面外に出ているが、C のフレームでは、センサタスクによって WACL のカメラヘッ ドがコップの中心に向かって制御されていて、D のフレームからは、ビジョンタスクによる 画像処理によって制御されていることがわかる。 図4. 特徴点の移動量 10 図5. 定点撮影・指示機能 11 第4章 WACL を用いた遠隔協調作業システム 図6. WACL を用いた遠隔作業端末 ここで、WACL を用いた遠隔作業支援システムについて述べる。作業者は、図6に示すよ うに、WACL、回転角センサ、マイク、ヘッドホン、およびサブノート PC(Pentium-M 1GHz) 入りのバックパックを着用する(重さ約 2kg)。また、図 7 に示すように WACL からの映像 (JPEG、320x240、15Hz)とマイクからの音声(16bit、48000Hz)はサブノート PC でキャプ チャされ、WACL のパン・チルト角情報と共に、無線ネットワーク(IEEE802.11b)を介して 遠隔地の PC に送られる。カメラの視野角は約 49 度、WACL のパン・チルト角は、それぞ れ 84 度、82 度に設定した。遠隔地の PC には図 8 に示すような GUI が実装されている。 GUI の左上にはライブ映像が表示されており、その映像中を左クリックすると、クリックし た位置が映像の中心になるように WACL が制御される。中クリックによりスタビライズ機能 が起動する。その際に、GUI の右上にクリックした時点の静止画が表示され、どの目標に対 してスタビライズしているのかを確認することができる。なお、画像を用いたスタビライズ は対象の見た目が大きく変化する状況では正常に機能しない場合があるため、後の章で説明 するユーザテストでは回転角センサデータのみに基づいてスタビライズを行った。また、レ ーザのオン・オフは右クリックによりトグルで切り替えをすることができる。これら WACL の制御データ(パン・チルト角、レーザのオン・オフ)と指示者の音声は、やはり無線ネット ワークにより作業者のサブノート PC へ送信される。これらの機能によって、遠隔地の協調 作業者は装着者の動作や視点移動の影響を受けずに、実作業環境を観察し、音声とレーザポ インタで的確に指示を送ることができる。しかしながら、WACL のレーザスポットの視覚的 12 表現能力は HMD の持つビデオ映像を表示できる機能には及ばない。また、WACL を小型・ 軽量化するために小型の DC ギアモータや小型ギアを用いているため、ポインティングの精 度や解像度は十分ではない。 作業者側 WACL モーションセンサ •音声 •レーザのオン/オフ •パン/チルト サブノートパソコン 指示者側 IEEE 802.11b ヘッドフォン WACL マイクロフォン •音声 •映像と現在のWACLの(X,Y)座標 図7. WACL ベースの遠隔協調作業システム レーザスポット スタビライズのための対象画像 ライブ映像 擬似パノラマ画像 図8. 指示者が使用する WACL 用ソフトウェアインターフェース 13 第5章 ユーザテスト このユーザテストでは、遠隔協調作業において、WACL インタフェースを用いた場合と HMD 及び HMC から成るヘッドセットインタフェースを用いた場合とを比べる。本実験の シナリオとして、筆者らは、移動する必要がある現場作業者と遠隔指示者との協調作業に関 心を持っている。具体的には、複数地点を移動し作業を行うネットワーク技術者が、遠隔地 に居る工事監督者から、どの部屋に行きどの端子に対し作業をするのかなどの指示を受ける 例などが考えられる。この種のシナリオでヘッドセットシステムを用いた実験例([18、20] など)はこれまでにも数多く報告されているが、ヘッドセットシステムと WACL のような ウェアラブルアクティブカメラレーザとの比較はまだなされていない。このユーザテストの 最終目的は、作業完了時間、使いやすさ、コミュニケーションの仕方やユーザの嗜好におい て、WACL システムとヘッドセットシステムとの間でどのような違いがあるかを評価するこ とにある。ヘッドセットシステムと WACL システムとでは、様々な点で大きく異なる。ヘ ッドセットシステムでは、遠隔地の指示者が、作業者の HMC で撮影された映像を見る。こ れは、"作業者の目を介して"映像を見ているようなものである。一方、WACL システムでは、 遠隔地の指示者は作業者の動きとは独立して視点を制御することができる。また、ビデオシ ースルーHMD システムでは、実世界の映像の上に視覚的アシストが重畳されるが、WACL システムではレーザスポットで実物体を直接指し示す。従って、遠隔制御可能なカメラは遠 隔地の指示者に効果的な状況把握能力を持たせることができ、また、作業者が HMD に映さ れた視覚的アシスト付き映像を見るよりも、実作業空間上のレーザスポットを見る方が作業 空間に作業者を集中させ続けることができると考えられる。 5.1 HMD/HMC ベースのヘッドセットシステム 従来型のヘッドセットシステムであるが、作業者の外観は図9 に示す通りであり、作業者 は HMD 、 HMC 、 マ イ ク 、 及 び ヘ ッ ド ホ ン を 備 え た ヘ ッ ド セ ッ ト と サ ブ ノ ー ト PC (Pentium-M1GHz)入りのバックパックを着用する(重さは WACL システムと同じく約 2kg)。なお、カメラは WACL に装備されているものと同じ型である。図10に示すように、 カメラ映像とマイクからの音声はサブノート PC でキャプチャされ、無線ネットワークで遠 隔地の PC に送られる。図11 左に示す指示者側の GUI の左上にはライブ映像が表示され ており、ライブ映像中を中クリックすると、その時点の静止画が右上に表示される。ヘッド セットシステムは、DOVE[21]と似たような機能を持っており、左クリックによりライブ映 像と静止画に線画を描くことができる。カーソル表示のオン・オフは右クリックにより行う。 また、作業者の HMD にはマウスカーソルが上に載っている方の画像が表示される。つまり、 カーソルを動かすだけでどちらの画像を作業者に見せるかを選択できる。このような操作で、 作業者はライブ映像や静止画、カーソルの動く様子、線画を HMD で見ながら、指示者の音 声を聞くことができる。 14 図9. HMD/HMC(ヘッドセット)ベースの遠隔作業端末 作業者側 カメラ HMD ヘッドフォン Headset 図10. マイクロフォン 指示者側 •音声 •カーソル座標(X, Y) カーソルのオン/オフ •タイムコード付きアノテーション サブノートパソコン IEEE 802.11b •音声 •タイムコード付き映像 ヘッドセット型端末を用いた遠隔協調作業システム 15 線画 ポインタ ライブ映像 静止画 静止画のログ 図11. 指示者が使用するヘッドセット用ソフトウェアインターフ ェース 16 5.2 タスク 図12. 本ユーザテストの作業空間 本ユーザテストでは、ウェアラブルインタフェース装置が重要な役割を果たすと考えられ る遠隔協調作業として、移動を伴う作業を実施する作業者と、遠隔地からその作業者に指示 を送る熟練指示者との協調作業を想定したタスクを設定した。そのタスクを実施する作業者 側の実験環境は、図12のように、A、B、C、HOME の4セクションにより構成した。A、 B、C 各セクションには数個のブロックを組み合わせて作ったブロッククラスタを散らばら せて置き、HOME セクションには全長約 67cm のベースブロックを配置した。遠隔地の熟練 指示者は隣の部屋に隔離され、指示者と作業者(被験者)はネットワーク越しでしかコミュ ニケーションが取れない状態とした。被験者は、各セクションで表 1 のような作業を行う必 要があった。 17 表1. 各セクションでのタスク内容 セクション タスク A 12個のブロッククラスタから指示者が要求する2個を 取る。各ブロッククラスタは、緑と黄色のブロックから なり、形状が異なる。 B 12個のブロッククラスタから指示者が要求する2個を 取る。各ブロッククラスタは、同じ形をしているが、色 の組み合わせが異なる。 C (1-a) 指示者にPCモニタを十数秒間見せる。 (1-b) 単純なブロック組立作業を8回繰り返す。 (2) 11個のブロッククラスタから指示者が要求する 1個を取る。指示者は、PCモニタの表示からどれを選 ぶべきかを知ることができる。各ブロッククラスタは、 異なる形状をしており、色の組み合わせも異なる。 HOME 各セクションから運んできた計5個のブロッククラスタ から指示者が要求する2個を、ベースブロック上の要 求される位置に要求される向きで取り付ける。 セクションCの PC モニタには 0 、 1 を示す単純なアニメーションが繰り返し提示 されており、約12∼15秒観察すると 000 から 111 までの組み合わせが判明 し、指示者はどのブロッククラスタを取るべきかを知ることができる。一方、作業者は、そ のブロッククラスタを取る前に、単純なブロック組み立て作業をする必要があり、その作業 をしながら PC モニタを指示者に安定して見せることは困難である。例えば、実際の作業に おいても、キーボードを打ちながらモニタを見たり、配線などの操作をしながらインジケー タや機械の挙動を確認したりする場合のように、指示者が見たい場所と作業者が見たい場所 が異なることがあり得るため、本実験ではこのようなセクションを設定した。HOME セク ションは、各セクションから取ってきたブロッククラスタを、ベースブロックの要求された 場所・方向で取り付けるため、細かい場所や向きの指示が必要となった。各タスクは必ず HOME セクションの椅子に座っている状態から始まり、HOME セクションの椅子に座った 状態でのブロッククラスタ取り付け作業で終了した。セクション A、B、C は各 1 回ずつ立 ち寄る必要があり、また、途中必ず 1 度 HOME セクションに戻り、その時点で保持してい るブロッククラスタを HOME に置く指示があった。各セクションに立ち寄る順番、取って くるブロッククラスタ、PC モニタに表示されるコード、HOME セクションのベースブロッ クのどの部分にどのブロッククラスタを取り付けるかは、タスクごとにランダムに設定され た。また、各セクションでは、すべてのブロックを十分な解像度で 1 画像中に捉えることが できないように、空間的に分散させて配置した。 本ユーザテストでは、16名の被験者(24歳から38歳、男性9名女性7名)を作業者と した。2名の熟練指示者(24歳と33歳の男性)は、おのおの8名ずつとペアを組んで指示 を担当した。ヘッドセット、WACL を用いたシステムそれぞれで、トレーニングタスクを1 回、実タスクを 1 回実施した。持ち越し効果を分散させるために、8組は、ヘッドセット、 WACL の順にタスクを行い、残りの8組は WACL、ヘッドセットの順とした。また、各組は 最後に、WACL とヘッドマウントカメラの両方(HMD はつけない)を装着し、作業者視点映 像と WACL 視点映像の両方を収集するためのタスクを1回実施したため、1 被験者あたりの タスク試行回数は5回となった。各被験者に、最も早く正確に作業を完了した被験者には粗 18 品を進呈することを事前に説明した。指示者に関しては、実験の途中で指示者の学習効果が 表れないように、パイロットテストを含め何度もこのタスクをこなした。 第6章 実験結果 このユーザテストの実タスクのビデオログに基づいて、作業完了時間を計測し、手動でト ランスクリプトを作成した。そのトランスクリプトから、モーラ(日本語の音節の単位)数、 ブロッククラスタの選択・組み立ての指示に関する単語数、及び作業者の位置・視点の指示 に関する単語数を、セクションごとに作業者・指示者別で数え上げた。また、各被験者(作 業者)にはアンケート、及びメールや口頭での追加インタビューにより、ヘッドセット及び WACL の印象、疲労度、使いやすさを絶対・相対評価してもらい、主観評価として統計的解 析を行った。 6.1 作業完了時間 作業完了時間に関して、実験時に撮影したビデオログデータを用いて、各セクションでの 作業完了時間と移動時間を含めた合計作業時間を計測した。まず、図13に合計作業完了時 間の箱ヒゲ図を示す。縦軸の Headset1、Headset2、WACL1、WACL2、WACLHMC は、 それぞれ、ヘッドセットのトレーニングタスク、実タスク、WACL のトレーニングタスク、 実タスク、作業者視点及び WACL 視点映像収集タスクを示す。ヘッドセットの実タスク (Headset2)と WACL の実タスク(WACL2)の作業完了時間に関してウィルコクソンの符号順 位検定を行ったところ、2つの作業完了時間の間に有意な差は見られなかった(p=0.5)。また、 これは、性別、指示者、コンピュータの使用頻度の違いによらず、また、身長との相関も特 に見られなかった。図14は、ヘッドセット、WACL の実タスクにおけるセクションごとの 作業完了時間の箱ヒゲ図である。縦軸の Headset2、WACL2 はヘッドセットの実タスクか WACL の実タスクかを示し、A、B、C、HOME、MOVE は、それぞれ、セクション A、B、 C、HOME、およびセクション間の移動時間を示している。ヘッドセットと WACL の各セク ションでの作業完了時間に関してウィルコクソンの符号順位検定を行ったところ、セクショ ンCで有意な差が見られた(セクションA:p=0.21、セクションB:p=0.48、セクションC: p=0.007、HOME セクション:p=0.12、移動時間:p=0.38)。セクションCでは、ヘッドセ ットを着用したユーザがブロック組立作業をしながら PC モニタを同時に見続けるというの は非常に困難であった。一方、WACL の場合、指示者は作業者の視点とは関係なく、PC モ ニタに WACL を向けることができるため、作業者が組立作業をしている間に PC モニタを見 ることができた。ほとんどの作業者は組立作業によって上体を揺らしたり肩を左右にひねっ たりしたが、スタビライズ機能を有効にすることで比較的安定して PC モニタを観察し続け ることができた。さらに、いくつかのケースでは、作業者が組立作業をしている間に、指示 者は PC モニタの表示を見終わりブロックを探し始めることができた。 19 図13. 図14. 合計作業完了時間 セクション別作業完了時間 20 6.2 会話解析 WACL システムとヘッドセットシステムのどちらの場合においても、指示者の発話による モーラ数は全体の約 90%を占めていた。ヘッドセットシステムでの指示者のモーラ数は、 WACL システムのそれよりも有意に少なかった(ウィルコクソン符号順位検定: p=0.03)。 しかし、作業者のモーラ数は WACL システムとヘッドセットシステムとで統計的に違いが なかった。そこで単語数については指示者に絞って詳しく解析を行う。図15、16は、選 択・組み立ての指示に関する単語数と作業者の位置・視点の指示に関する単語数を、それぞ れのセクションごとに比べたものである。選択・組み立ての指示に関する単語数は、セクシ ョン A と HOME では、WACL システムに比べ、ヘッドセットシステムを用いた場合の単 語数が有意に少なかった。しかし、セクション B と C では2つのシステム間で単語数に違 いはなかった。また、すべてのセクションにおいて、位置・視点に関する指示者の単語数は WACL の場合の方が少なかった(図16)。 図15. ブロッククラスタの選択・組み立ての指示に関する単語数 21 図16. 6.3 作業者の位置・視点の指示に関する単語数 主観評価(アンケート&インタビュー) 各被験者(作業者)には、アンケートやメールや口頭での追加インタビューにより、ヘッド セット及び WACL の印象、疲労度、使いやすさを絶対評価、相対評価してもらった。まず、 ウィルコクソンの符号順位検定により両デバイスの絶対評価の結果(図17)を比較した。各 デバイスを用いた指示がわかりやすかったかどうか(図中の Q1 と Q7、p=0.43)、各デバイス を用いて指示者になにか確認をするといったコミュニケーションは簡単だったかどうか(Q6 と Q12、p=1.0)について違いはなかった。次に、各デバイスによる視覚的なアシスト(ヘッド セット:画像や画像上のカーソルおよび線画 WACL:レーザスポット)は見やすかったかど うか(Q3 と Q9、p=0.13)、各デバイスの視覚的アシストで指示されたブロックや場所と実作 業空間のそのブロックや場所とを対応付けることは簡単だったかどうか(Q4 と Q10、p=0.11) については、統計的には有意な差は見られなかったが、図からもわかるように WACL の方が よい評価を得た。また、各デバイスを身に付けて違和感はなかったかどうか(Q2 と Q8、 p=0.002)、各デバイスを使っているときに実作業空間は見やすかったかどうか(Q5 と Q11、 p=0.003)については、有意な差が見られ、WACL の方が統計的に良い評価を得た。ヘッドセ ットと WACL との各相対評価(図18)について、1 サンプルのT検定(検定値=4)を行っ たところ、作業をして疲れたのはどちらですか?(Q14)という設問のみ有意な偏りが見られ た(p=0.016)。つまり、ヘッドセットの方がより疲れたという評価であった。トレーニングに よって、いち早く慣れることができたと感じるのはどちら?(Q13、p=0.173)、どちらが作業 をしやすかったですか?(Q15、0.787)、指示者を身近に感じたのはどちらですか?(Q16、 p=0.304)、どちらのほうが早く作業を終えたとおもいますか?(Q17、p=1.0)の各設問では、 特に有意な偏りは見られなかった。 22 図17. 図18. 7 段階の絶対評価(Q1-Q6:ヘッドセットについて Q7-12: WACL について) 7 段階の相対評価(1:ヘッドセット7:WACL) 23 第7章 7.1 考察 作業完了時間 今回のユーザテストでは、ヘッドセットと WACL との間で合計作業完了時間に有意な差は なかった。セクションごとの作業完了時間において、セクション C では、WACL の方が早 いという有意な結果が得られた。これは、指示者が装着者の動作や視点移動をあまり受けず に視点を選べる WACL の利点によるものと考えられる。また、他のセクションでは統計的に 有意な差はなかったが、HOME セクションとセクションAでは、ヘッドセットの方が早い という傾向があった。HOME セクションでは、ベースブロックにブロッククラスタを取り 付ける際に、指示者は場所や向きについての細かい説明をする必要があったが、ヘッドセッ トの場合、静止画像上へ線画の描画が可能であったため、言葉での詳細な説明はあまり必要 ではなかった。一方、WACL では、パン・チルト機構の位置決め精度の不足や、作業者の体 の動きによるレーザの位置ずれのため、ポインティングの操作を繰り返すことが多かった。 また、ブロックをどのように回転させるかといった指示をレーザだけで行うのは難しく、 言葉での詳細な説明を伴う指示となった。これらの要因により、ヘッドセットの方の作業完 了時間が早いという傾向が出たものと思われる。被験者からは、HMD の線画による指示は 非常にわかりやすかったという多くの意見を得た。対象物体の画像上の解像度の高さは、色 (セクションB)を見分けるよりも、形状(セクションA)を見分けるのにより必要となる。ヘッ ドセットでは、HMD で対象がどのように写っているかを確認しながら能動的に作業者に見 せることが容易であったが、WACL では、画像にどのように対象が写っているかを確認する 手段がなかったため、指示者がブロック形状を判断しづらい場面があった。このような要因 がセクションAでの完了時間の差になって表れたものと思われる。 7.2 会話解析 今回の会話解析は指示者 2 名のみのデータに基づいているため統計的価値が高いとは言 えないものの、手順の説明を要する場面では、指示者は WACL を装着した作業者に対しよ り多く発話し、視点の変更が要求される場面では、ヘッドセットを装着した作業者により多 く発話するという結果を得た。セクション A、B、C における作業者の主な仕事は、指示者 が要求したブロッククラスタを取ることであった。WACL のレーザによる視覚的アシストは、 ブロッククラスタを識別する段階では有用だったが、HOME セクションでの組み立て作業 の様に詳細な手順の説明を必要とする段階ではあまり有用ではなかった。ヘッドセットの場 合、指示者は静止画に線画を描画できたため、ブロッククラスタを付ける位置や方向を詳し く口頭で説明する必要はなかった。指示者 2 名とも、HOME セクションでのブロック組み 立て作業において、WACL の場合に負担をより強いられたと述べた。セクション A と B の タスク自体は似ているが、ブロッククラスタを見つけるのに使う視覚情報は異なっていた(A は形、B は色)。対象物体の映像上の解像度の高さは、色を見分けるよりも形を見分けるのに より必要とされた。WACL では、HMD のようにブロックがどのように写っているかを確 認できないので、時折、映像中のブロッククラスタが不明瞭で、指示者が間違った指示を作 24 業者に送ることがあった。これにより、セクション A での選択・組み立てに関する単語数が 増加した。この問題は、ズーム機構やより高解像度のイメージセンサを用いることで軽減で きるかもしれない。一方、全てのセクションにおいて、指示者は全ての物を一度で見渡すこ とが困難だった。ヘッドセットの場合、指示者は作業空間を思い通りに見ることができるよ うに、しばしば言葉で作業者に協力を仰がなければならず、それが各セクションにおける位 置・視点の指示に関する単語数を増加させる原因となった。 7.3 主観評価 着用時の違和感、視覚的な見易さ、疲労感の面、WACL の方が使用者に優れた印象を与え るという結果が得られた。これは、WACL の持つ遠隔協調作業支援における有用性を示して いると言える。ヘッドセットに対する被験者のコメントとしては、画像と実世界のどちらを 見ればよいか混乱した、眼や頭が疲れた、作業中に少しずつ装着位置がずれてしまうのが気 になった、装着して違和感があったなどがあった。最初の2つについては網膜投影型の HMD などによってある程度解決できるが、後者の2つは頭部着用型デバイスに必ず伴う問題点で ある。 7.4 まとめ ユーザテストでは、HMD/HMC ベースのヘッドセットシステムと WACL システムを比較 することで、遠隔協調作業における WACL の利点と問題点について調査した。このユーザ テストにより明らかになった WACL システムとヘッドセットシステムの特徴を表 2 にまと めた。注目すべきは、WACL インタフェースが、作業者に優れた印象を与える一方で、詳細 な説明が必要な場面では、指示者に負担を強いるというコミュニケーションの非対称性[18] を引き起こしていることである。この非対称性を取り除く現実的な手段の一つは、WACL ユ ーザにより高度な視覚的アシストを提示できる付加的なディスプレイ装置を装着することで ある。ハンズ・フリー、アイ・フリー、ヘッド・フリーという WACL の利点を損なうこと なく、実現できるものとして SWD(Shoulder Worn Display)[22][23][24]はこの目的に適して いる可能性がある。また、別の手段としては、MEMS ミラーでレーザ光を走査し、実作業 空間に直接、絵や字などの詳細な視覚的アシストを描画することが考えられる。 25 表2. WACL システムとヘッドセットシステムの特徴 入力デバイスとして ヘッドセット WACL ヘッドマウントカメラ(HMC) 肩載せパンチルトカメラ 指示者にとって •作業者がどこに注目しているかを 知ることが容易 •視点を変える為に発話が増える 作業者にとって •作業者の注視したいものを見続け るための負担あり 指示者にとって •手の動きから作業者がどこに注目 しているかを知ることは可能 •視点を制御することに遠隔地の状 況を把握しやすい 出力デバイスとして 全体として ヘッドマウントディスプレイ(HMD) 肩載せパンチルトレーザ 指示者と作業者にとって •豊富な視覚的アシスト(ポインティン グや線画を伴う映像) 指示者にとって •詳細な指示を送るのが容易 作業者にとって •ビューファインダーとしてのHMD(視 覚的なフィードバック)により作業者 は積極的に作業 •視覚的アシストと実作業空間との 対応を取るための負担あり •目の疲労を伴う 指示者と作業者にとって •単純すぎる視覚的アシスト(ポイン ティング) 指示者にとって •詳細な指示のために発話が増える 作業者にとって •視覚的なフィードバックが少ないた め作業者は比較的受動的に作業 •実作業空間へ直接ポインティング •指示者がどこに注目しているかを 知ることが容易 作業者にとって •ハンズフリー •着用時に違和感 •作業中にずれ易い 作業者にとって •ハンズフリー、アイフリー、ヘッドフ リー •着用時にあまり違和感がない 26 第8章 おわりに 本研究では、2 軸制御のカメラの上にレーザポインタを搭載したウェアラブルアクティブ カメラレーザ(WACL)を提案・開発し、WACL のカメラの撮影地点や指示点を安定させる 慣性センサと画像処理を用いた定点撮影・指示手法を実装した。その定点撮影・指示手法を 有する WACL を使い頭部非装着型遠隔作業端末と遠隔協調作業システムを構築し、従来型頭 部装着型端末とユーザテストを行った。そのユーザテストの実験結果であるビデオログデー タから、作業の達成時間と使用した単語数を計測して解析を行い、さらにアンケートやイン タビューを統計的手法で解析し疲労度や機器の使用の容易さを比較し、提案端末の新規性、 利点、また、問題点を明らかにした。 ユーザテストの実験結果により、全体作業完了時間では有意な差は無かったが、指示者が 装着者の動作や視点移動をあまり受けずに視点を選べる WACL の利点によって、WACL シ ステムの方の作業完了時間が早いという有意な結果が得られた。これは、WACL によって指 示者が作業者空間に作業者の動きとある程度独立した視点と作業空間ある程度を見渡せるカ メラを獲得し、指示者の状況把握能力を向上させたと言える。また、WACL の利点として、 ハンズ・フリー、アイ・フリー、ヘッド・フリーな点や、主観評価のアンケートより、着用 時にあまり違和感がないという点、指示者が作業者の手の動きから作業者がどこに注目して いるかを知るのが容易である点、実作業空間へ直接ポインティングしているため実作業空間 は見やすい点、レーザスポットは WACL の撮影画像の中心なので指示者がどこに注目してい るか作業者は知ることが容易な点が明らかになった。さらに、指示者の状況把握能力を向上 させるために、雲台の上ではない場所に WACL にもう一つ固定の魚眼レンズを装着し、解像 度は低いが指示者が一度に作業空間全体を見渡せることも考えられる。 しかし、WACL のレーザスポットの点による表現は、単純すぎる視覚的アシストとビジュ アルフィードバッグしか実現できない。そのため、ヘッドセットを用いた場合に比べ、指示 者は言葉で詳細な指示をするため発話数が増えるし、受動的に作業に従事していた。これは、 WACL インタフェースが詳細な説明が必要な場面では、指示者に負担を強いるというコミュ ニケーションの非対称性を引き起こしていることがわかった。この非対称性を取り除く現実 的な手段の一つは、より表現能力が豊かな視覚的アシストを提示できるデバイスを WACL ユーザに装着することである。そこでハンズ・フリー、アイ・フリー、ヘッド・フリーとい う WACL の利点を損なうことなく、実現できるものとして SWD(Shoulder Worn Display) はこの目的に適している可能性がある。また、別の手段としては、MEMS ミラーでレーザ 光を走査し、実作業空間に直接、絵や字などの詳細な視覚的アシストを描画することが考え られる。また、WACL では、HMD のようにブロックがどのように写っているかを確認で きないので、時折、映像中のブロッククラスタが不明瞭で、指示者が間違った指示を作業者 に送ることがあった。この問題は、ズーム機構やより高解像度のイメージセンサを用いるこ とで軽減できるかもしれない。 今後は、明らかになった限界に関して、提案した解決手法を実装し、WACL と SWD、WACL と HMD の組み合わせに関してユーザテストを行う予定である。 27 謝辞 本研究の全てにおいてご指導・ご鞭撻を頂いた産業技術総合研究所の蔵田武志研究員と指 導教官である葛岡英明先生に格別の深謝を送ります。 本研究の一部は、文部科学省の科学技術振興調整費による。 28 参考文献 [1] A brief history of wearable computing:http://www.media.mit.edu/wearables/lizzy/timeline.html [2] Hestnes, B., Heiestad, S., Brooks, P., Drageset, L., Real situations of wearable computers used for video conferencing - and implications for terminal and network design”, In Proc. of ISWC 2001, pp.85-93, 2001. [3] H. H. Clark and S. E. Brennan. Perspectives on socially shared cognition, chapter Grounding in communication, pages 127–149. APA Books, Washington, DC, 1991. [4] L. Suchman. Representation in scientific practice, chapter Representing practice in cognitive science, pages 301–321. MIT Press, Cambridge, MA, 1990. [5] H. Mehan and H. L. Wood, editors. The reality of ethnomethodology. Wiley, New York, 1975. [6] H. Kuzuoka. Spatial workpace collaboration: A sharedview video support system for remote collaboration capability. In Proc. CHI 92, pages 533–540, 1992. [7] BT Development. Camnet videotape. Suffolk, Great Britain, 1993. [8] R. E. Kraut, M. D. Miller, and J. Siegal. Collaboration in performance of physical tasks: Effects on outcomes and communication. In Proc. CSCW 96, pages 57–66, 1996. [9] S. R. Fussell, L. D. Setlock, and R. E. Kraut. Effects of head-mounted and scene-oriented video systems on remote collaboration on physical tasks. In Proc. CHI 2003, pages 513–520, 2003. [10] H. Kuzuoka, T. Kosuge, and M. Tanaka. Gesturecam: A video communication system for sympathetic remote collaboration. In Proc. CSCW 94, pages 35–43, 1994. [11] S. Mann. Telepointer: Hands-free completely self contained wearable visual augmented reality without headwear and without any infrastructure reliance. In Proc. ISWC00, pages 177–178, 2000. [12] H. Hua, A. Girardot, C. Gao, and J. Rolland. Engineering of head-mounted projective displays. Applied Optics, 39(22):3814–3824, 2000. [13] M. Inami, N. Kawakami, D. Sekiguchi, Y. Yanagida, T. Maeda,and S. Tachi. Visuo-haptic display using headmounted projector. In Proc. IEEE VR 2000, pages 233–240. [14] T. Karitsuka and K. Sato. A wearable mixed reality with an on-board projector. In Proc. ISMAR 2003, pages 321–322. [15] T. KATO, T. Kurata and K. Sakaue, VizWear-Active:Distributed Monte Carlo Face Tracking for Wearable Active Camera, In Proc. ICPR2002, Vol. 1, pp.395-400, 2002 [16] B.D. Lucas and T. Kanade, An Iterative Image Registration Technique with an Application to Stereo Vision, In Procc. DARPA Image Understanding Workshop, pp. 121-130, 1981 [17] R.J Rousseeuw and A.M. Leroy, Robust Regression and Outlier Detection, John Wiley & Sons, 1986 [18] M. Billinghurst, S. Bee, J. Bowskill, and H. Kato. Asymmetries in collaborative wearable interfaces. In Proc. ISWC99, pages 133–140, 1999. [19] S. R. Fussell, L. D. Setlock, E. M. Parker, and J. Yang. Assessing the value of a cursor pointing device for remote collaboration on physical tasks. In Proc. CHI 2003, pages 788–789, 2003. [20] D. Gobert. Designing wearable performance support: Insights from the early literature. Technical COMMUNICATION, 49(4):444–448, 2002. [21] J. Ou, X. Chen, S. R. Fussell, and J. Yang. DOVE: Drawing over video environment. In Proc. MM’03, pages 100–101. 29 [22] N. Sakata, T. Kurata, T. Kato, M. Kourogi, and H. Kuzuoka. WACL: Supporting telecommunications using wearable active camera with laser pointer. In ISWC 2003, pages 53–56. [23] 酒田信親, 蔵田武志, 興梠正克, 葛岡英明, マーク・ビリングハースト: "遠隔協調作業に おける肩載せアクティブカメラ・レーザの利点と限界", 第 30 回 HI 学会研究会・日本 VR 学会ウェアラブル/アウトドア VR 研究委員会第 6 回研究会, Vol. 6, No. 5, pp.17-22 (2004) [24] 酒田信親, 蔵田武志, 興梠正克, 葛岡英明, マーク・ビリングハースト: "肩載せアクティ ブカメラ・レーザによる遠隔協調作業", マルチメディア,分散,協調とモバイル (DICOMO2004)シンポジウム, pp.377-380 (2004) [25] 酒田信親, 加藤丈和, 興梠正克, 葛岡英明, 蔵田武志: "レーザ搭載型ウェアラブルアクテ ィブカメラによる遠隔コミュニケーション支援", 信学技報・第12回複合現実感研究会, PRMU2002-172, pp.19-24 (2003) 30