Comments
Description
Transcript
修士論文 把持対象に注目した動作計測に基づく 手のアニメーション 山崎
NAIST-IS-MT0551128 修士論文 把持対象に注目した動作計測に基づく 手のアニメーション 山崎 仁之 2006 年 2 月 2 日 奈良先端科学技術大学院大学 情報科学研究科 情報処理学専攻 本論文は奈良先端科学技術大学院大学情報科学研究科に 修士 (工学) 授与の要件として提出した修士論文である。 山崎 仁之 審査委員: 千原 國宏 教授 (主指導教員) 横矢 直和 教授 (指導教員) 眞鍋 佳嗣 助教授 (委員) 把持対象に注目した動作計測に基づく 手のアニメーション∗ 山崎 仁之 内容梗概 人間の手は,動きの自由度が高く,その動作は非常に多彩である.特に作業を 行っている手の動作は,計測もコンピュータグラフィクスによる再現も容易では ない.本研究では,物体を把持するときの手の動作が手に取った把持対象の物体 の形状やサイズなどに依存するということに注目する.把持対象とする物体の特 徴を規定することにより,たとえ詳細な各指の屈折角度などを直接計測せずとも, 手首の物体へのアプローチといった,物体と手首の位置関係を計測することで手 の把持動作を推定することが出来ると考えられる.このような考えに基づき,本 研究では,形状が既知の把持対象に対し,その大きさ等に代表される特徴により, 手の把持動作がどのように相違するのかを比較検討し,その上で,把持対象の特 徴に基づいた把持動作の推定手法及びアニメーション生成手法について提案する. キーワード 把持動作, 動作推定, 手姿勢モデル, 動作計測, アニメーション, 動作生成 ∗ 奈良先端科学技術大学院大学 情報科学研究科 情報処理学専攻 修士論文, NAIST-ISMT0551128, 2006 年 2 月 2 日. i Hand Animation of Object-Oriented Grasping Motion∗ Masayuki Yamazaki Abstract Hand motion has variety of expression because of its high degrees of freedom. Especially for working hand, its motion is complexed and very hard to be captured or measured. This paper focus on the fact that hand motion for grasping objects depends on geometry features of the object including size and shape. Movements of those objects give important clues to understand how they are manipulated by hand motions. The relative directions to reach the object, for example, may specify how human approach and grasp it. Based on the above idea, we propose a motion modeling of interference to the object. This technique has a potential to easy designing the computer generating hand motion and estimation of working hand motion in the actual scenes. Keywords: Grasping motion, Motion modeling, Hand model, Motion measurement,Animation ∗ Master’s Thesis, Department of Information Processing, Graduate School of Information Science, Nara Institute of Science and Technology, NAIST-IS-MT0551128, February 2, 2006. ii 目次 1. はじめに 1 2. 研究概要 3 2.1 研究目的 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3 2.2 研究背景 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3 2.3 提案手法概要 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5 3. 把持動作の計測と蓄積 7 3.1 物体の特徴と把持動作 . . . . . . . . . . . . . . . . . . . . . . . . 7 3.2 動作データの計測 . . . . . . . . . . . . . . . . . . . . . . . . . . . 8 . . . . . . . . . . . . . . . . . . . . 10 3.3.1 人間の手の動作 . . . . . . . . . . . . . . . . . . . . . . . . 11 3.3.2 手姿勢モデル . . . . . . . . . . . . . . . . . . . . . . . . . 13 3.4 把持動作についての考察 . . . . . . . . . . . . . . . . . . . . . . . 17 3.4.1 把持動作と開放動作 . . . . . . . . . . . . . . . . . . . . . 17 3.4.2 把持動作の流れ . . . . . . . . . . . . . . . . . . . . . . . . 18 3.4.3 同じ特徴を有する物体の把持動作 . . . . . . . . . . . . . . 19 3.4.4 特徴の相違する物体の把持動作 . . . . . . . . . . . . . . . 21 3.4.5 動作パターンデータの再現性について . . . . . . . . . . . 21 3.5 動作パターンデータの蓄積 . . . . . . . . . . . . . . . . . . . . . . 26 3.3 動作パターンデータへの変換 4. 把持動作の生成 29 4.1 物体に対する特徴の設定 . . . . . . . . . . . . . . . . . . . . . . . 29 4.2 把持位置の特定 . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30 4.3 把持動作の生成 . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35 5. 生成例 40 5.1 生成例1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40 5.2 生成例2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50 iii 6. 考察 59 6.1 動作生成について . . . . . . . . . . . . . . . . . . . . . . . . . . . 59 6.2 把持対象モデルについて . . . . . . . . . . . . . . . . . . . . . . . 62 6.3 物体の特徴について . . . . . . . . . . . . . . . . . . . . . . . . . 63 7. おわりに 64 謝辞 65 参考文献 66 iv 図目次 1 Cyber Touch System(Immersior 社製) . . . . . . . . . . . . . . . . 9 2 マーカ配置 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10 3 カメラ配置 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11 4 計測風景 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12 5 ビューア画像 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13 6 従来の手姿勢モデル . . . . . . . . . . . . . . . . . . . . . . . . . 15 7 屈曲に応じた関節回転軸の変化 . . . . . . . . . . . . . . . . . . . 16 8 手姿勢モデル . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17 9 距離−屈曲角度 . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18 10 把持動作の流れ . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19 11 同じ特徴を有する物体の把持動作 . . . . . . . . . . . . . . . . . . 20 12 円筒側面を把持する動作 . . . . . . . . . . . . . . . . . . . . . . . 22 13 幅の広い直方体 (幅 130mm) を把持する動作 . . . . . . . . . . . . 22 14 幅の狭い直方体 (幅 45mm) を把持する動作 . . . . . . . . . . . . . 23 15 屈曲動作 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24 16 屈曲角−捻れ角 (人差し指第 3 関節) . . . . . . . . . . . . . . . . . 25 17 屈曲角−捻れ角 (人差し指第 2 関節) . . . . . . . . . . . . . . . . . 25 18 屈曲角−捻れ角 (人差し指第 1 関節) . . . . . . . . . . . . . . . . . 26 19 同一の形状に対する類似パターンの組 . . . . . . . . . . . . . . . 27 20 把持対象モデル (缶) . . . . . . . . . . . . . . . . . . . . . . . . . 30 21 把持対象モデル (花瓶) . . . . . . . . . . . . . . . . . . . . . . . . 30 22 把持箇所特定概念図 . . . . . . . . . . . . . . . . . . . . . . . . . 31 23 把持方向特定概念図 . . . . . . . . . . . . . . . . . . . . . . . . . 32 24 仮想把持線と物体把持線の相関 (円筒を横からつかむ場合) . . . . 33 25 仮想把持線と物体把持線の相関 (円筒を上からつかむ場合) . . . . 34 26 仮想把持線と物体把持線の相関 (箱を上からつかむ場合) . . . . . . 34 27 仮想把持線と物体把持線の相関 (板を横からつかむ場合) . . . . . . 35 28 基本形状把持までの動作生成 . . . . . . . . . . . . . . . . . . . . 36 v 29 動作パターン生成 . . . . . . . . . . . . . . . . . . . . . . . . . . . 37 30 握持動作の生成 . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39 31 花瓶モデル . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40 32 花瓶上部を掴む動作 (横視点1) . . . . . . . . . . . . . . . . . . . 42 33 花瓶上部を掴む動作 (横視点2) . . . . . . . . . . . . . . . . . . . 43 34 花瓶上部を掴む動作 (上視点1) . . . . . . . . . . . . . . . . . . . 44 35 花瓶上部を掴む動作 (上視点2) . . . . . . . . . . . . . . . . . . . 45 36 花瓶下部をつかむ動作 (横視点1) . . . . . . . . . . . . . . . . . . 46 37 花瓶下部を掴む動作 (横視点2) . . . . . . . . . . . . . . . . . . . 47 38 花瓶下部をつかむ動作 (上視点1) . . . . . . . . . . . . . . . . . . 48 39 花瓶下部をつかむ動作 (上視点2) . . . . . . . . . . . . . . . . . . 49 40 ボトルモデル . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50 41 ボトル上部を掴む動作 (横視点1) . . . . . . . . . . . . . . . . . . 51 42 ボトル上部を掴む動作 (横視点2) . . . . . . . . . . . . . . . . . . 52 43 ボトル上部を掴む動作 (上視点1) . . . . . . . . . . . . . . . . . . 53 44 ボトル上部を掴む動作 (上視点2) . . . . . . . . . . . . . . . . . . 54 45 ボトル下部をつかむ動作 (横視点1) . . . . . . . . . . . . . . . . . 55 46 ボトル下部を掴む動作 (横視点2) . . . . . . . . . . . . . . . . . . 56 47 ボトル下部をつかむ動作 (上視点1) . . . . . . . . . . . . . . . . . 57 48 ボトル下部をつかむ動作 (上視点2) . . . . . . . . . . . . . . . . . 58 49 動作生成失敗例 . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60 50 物体と指の干渉による動作 . . . . . . . . . . . . . . . . . . . . . . 61 51 実測値と生成値の対比 . . . . . . . . . . . . . . . . . . . . . . . . 62 vi 表目次 1 手姿勢モデルにおけるリンク構造 . . . . . . . . . . . . . . . . . . vii 14 1. はじめに この数年の間に,コンピュータグラフィックス (CG) による映像表現は映画や テレビ,そして,ビデオゲームと各方面にて用いられるようになった.また,そ のクオリティも,CG 技術の進歩やコンピュータの処理速度の向上により,格段 に高くなり,現在では,精巧な造形や質感を備えた表現が可能となり,一見して 本物と見紛うばかりの映像が提供されるようになっている.その反面,アニメー ションのような CG で表現されたキャラクタが動きまわる作品においては,その 動きに不自然なところがあるものが少なくない.一般的に,動きを作成するため に,各関節の曲がり具合等を逐一調節しながら動作を生成する,キーフレームア ニメーションと呼ばれる手法が用いられており,この手法では,前述のように自 然な動作の表現が困難であることに加え,製作において膨大な時間と労力が必要 である. 最近では,このような動きをなるべく自然に,そして,低コストに作成するた めに,実際の俳優の演技を計測し,その動作をキャラクタの動きとする,モーショ ンキャプチャを用いた手法が多く利用されている.この手法で作成されたキャラ クタは,確かに腕の動きや脚の挙動などにおいて,自然な動作が表現可能であり, 且つ,製作に要するコストも軽減できる.しかしながら,モーションキャプチャ により計測できる箇所は,腕や脚,そして,頭など,ある程度限定され,計測が 出来ない細部,特に手の指の細かい動きについては,依然として,キーフレーム アニメーションに頼らざるをえない. さらに,このようにして多大な労力を費やして作成された手の動きのデータは, そのほとんどが再利用出来ないという問題もある.例えば,日常生活における手 の動きは大まかに分けて,手招きや V サインといった,相手に自分の意思を伝え るために或る特定の形状を表現する動きであるジェスチャー動作と,本を取る, 壜の蓋を開ける,取っ手を掴むといった,何か用を為すための動きである作業動 作に分けられる.前者については,その性格上,予め決められた動きがほとんど で,一度作成された動きのデータを蓄えておき,シーンに応じて呼び出して腕の 動きに当てはめて再度利用することができる.だが,日常において,このような ジェスチャー動作は,実際に行われる手の動きのうちのわずかな部分でしかなく, 1 そのほとんどは何等かの作業動作である.そこで,作業動作もジェスチャー動作 と同様に,事前に動きのデータを蓄積しておき,シーンに応じて腕の動きに当て はめることで,手の動作を自動生成することが出来ないかと考えられる. ところで,作業動作は基本的に,作業の対象となる何かがあり,それに対して 手が何等かの干渉を与えるという形で実現される.したがって,作業動作は,そ の動作の種類によっても当然相違するが,それと同時に,作業の対象となるもの の形や大きさといった外観や,使用方法や使用目的といった作業対象となるもの の機能によっても変化する.そのため,このような作業動作については,たとえ 動きのデータを作成しても,作業対象が変わると,単純に再利用することは出来 ない.しかし,このことから逆に,作業の対象となる物体の外観や機能といった 情報から手の動きを推定することが可能であるともいえる. そこで,このような着想に基づき,本研究では,作業動作を物を掴むという動 作 (把持動作) に限定したうえで,この把持動作の対象となる物体の形状や大きさ といった特徴に応じて,物を掴むときの手の動きがどのように変化するのかを検 証し,さらに,その検証を踏まえて,任意の特徴を備える物体を把持する際の手 の動きを,自然な動作として生成する. 本研究を,例えばビデオゲーム等に応用することで,従来は物を掴む際の表現 が,予め記録されている動きを表示するという画一的であったものを,数種の動 作パターンの蓄積によって,物体の特徴や状況に応じた様々な掴み方ができるよ うになるなど,コンピュータグラフィックスにおけるキャラクタ表現における自 由度とリアリティを高めることが可能となる. 次章以降,関連研究ならびに具体的な提案手法について説明する. 2 2. 研究概要 2.1 研究目的 本研究は,腕の動きや手の傾きなどの大まかな動き (大局的動作) に基づいて, 手の動きの中で一般的に用いられる,物を掴むという動作について,指の動きな どの詳細な部位の動き (局所的動作) のアニメーションを,自然な動きを持った形 で生成することを目的とする. 2.2 研究背景 コンピュータグラッフィックスの分野において,ヒトに代表されるような動物の 動きをいかに自然に表現するかは大きな問題である.車や飛行機といった無機質 な物体の動きは機械的で,各種のシミュレーションなどにより容易に再現される. それに対し,動物の動きは不規則で且つ可動部が多く,自然な動きを再現しよう とした途端に困難となる.この問題に対する一つの回答としてモーションキャプ チャシステムの使用が挙げられる.モーションキャプチャシステムは,その原理 によって,光学式,磁気式,機械式などの種類があるが,いずれも実際の動きを 計測し,その動きをコンピュータ内のモデルに当てはめることによって,動きを 表現する方法である.この手法によって,生成された動作は,実際に計測された 動作を用いているため,自然な動作という点が担保されている.そのため,この ようなモーションキャプチャを利用してコンピュータアニメーションを生成する ことが増えている [1][2]. 一方,モーションキャプチャでは,実際の動作を計測できるとはいえども,腕 のような大局的な動きと,指のような細部の動きを同時に計測することが困難で あるという点が難点となっている.そのため,全体の動作については自然な表現 が実現できたとしても,人間の動作において大きなウェイトを占める手の動作の 表現については別途生成する必要がある.そのような背景を踏まえ,手の形状や 動作といったものを事前に計測・蓄積しておき,状況に応じて最適なものを選択 して用いるという手法がいくつか提案されている. 3 特に,予め動作を蓄積しておくという手法は,手話やジェスチャーといった動 作の表現に広く用いられている [3][4][5].手話やジェスチャーといった手の用途 は,鎌倉が分類する日常生活における手の用途のうち「象徴」という用途に相当 し [6],手の形状や動き自体が予め決まっているものが多いため,予め動作を蓄積 しておくという手法と極めて相性が良いと考えられる.手の用途としては他に把 持,操作等が分類されるが,このような用途での手の動作を生成する例としては 次のようなものがある. 例えば,北村らは,手指動作の生成において利用者の手の動作を表現するに当 たり,事前に複数種類の手の動作をモーションデータとして蓄積しておき,利用 者の腕の計測位置に基づいて手の動作状態を推定することで,蓄積された役者の 動きを記録したモーションデータのうち最適なものを取り出してアニメーション として表示する手法を提案している [7].この手法では,表現可能な動作は蓄積さ れているデータに限定されるが,たとえ,利用者の手の動作を正確に取得するこ とができなくとも,腕の位置といった情報さえ取得できれば,蓄積された自然な 動作が表現可能であるという利点がある. また,Ying らは,掴む箇所の形状に着目し,物体を掴む際に,類似する形状を つかむ場合には同じ手の形状を為すことを利用して,任意の形状を掴む際の手の 形状を生成する手法を提案した [8].この手法では,事前に様々な物の形状及びそ れを掴むときの手の形状を蓄積しておき,任意の物体を掴む手の形状を生成する 際には,蓄積された形状とのマッチングを取り,同形状の物を掴むときの手の形 状を選択・生成している. 更に,純粋に手の動きというわけではないが,Yahya らは,物を掴む際の体全 体の姿勢をキャプチャし,このデータをデータベース化することで,物体を掴む 際の姿勢を生成する手法を提案している [9].その際の手の姿勢については,物体 と手の間の関係により決定する手法を採用している. また,手の動きを計測・蓄積し,蓄積された情報に基づいて,動きを再現する 研究は,コンピュータグラフィックスの分野以外にも応用されている.例えば,人 が物を把持する際の動作を視覚的に取得・解析し,ロボットの動作などに応用す る研究 [10][11] 等も行われている. 4 こうした,把持や操作といった用途が,象徴という動作と最も相違する点は, 象徴という動作が手単独で成立するのに対し,把持や操作といった動作は,動作 の対象となる物体が存在する点である.この相違により,象徴動作については特 定の動作の蓄積,若しくは,その動作の単純な変形によって,手の動作アニメー ションの生成という目的を達するのに対し,把持動作や操作動作は,対象となる 物体に該当する動きが蓄積されていない場合は生成ができない.そのため,把持 や操作といった手の動きのアニメーションを作成するには,少なくとも,一度は 対象となる物体 (若しくは類似する物体) に合わせた把持や操作といった動作を計 測する必要がある. 2.3 提案手法概要 本研究では前述の目的を達成するために,把持動作の生成において,把持対象 となる物体の特徴に着目することにより,計測により得られた少数の動作データ から,一般的な物体に対する把持動作アニメーションを生成する手法について提 案する.本手法は,自然な手の動きの再現を担保した,手の動作に関するデータの 計測と蓄積に関する手法と,蓄積されたデータを利用した自然な動きを持った手 のアニメーションの生成手法の二つからなる.以下で,本手法の概要を説明する. 計測と蓄積に関する手法では,まず手の動作に関するデータを,物体の形状に 基づいて分類し計測を行った.続いて,計測によって得られたデータに基づき, 「物を掴む」という動作の表現に要される手の自由度を検討した.そして,この 検討に基づき,必要な自由度を有する手姿勢モデルを構築し,このモデルによっ て,自然な動作を保持しながらも編集や加工が容易な形である,各関節角によっ て表されるデータへの変換・蓄積を行った.更に,変換されたデータに基づいて, 把持動作の解析を行い,把持動作がどのような動作によって成り立っているのか, また,特徴の変化に応じて動作がどのように相違するのかといった点についての 検討を行うことで,動作の分類方法を確立した. もう一つの手法である手のアニメーションの生成手法では,まず,把持対象と なる物体について,どのような基本形状の組み合わせにより構成されているのか 検討した.その上で,手が物体に対してどのようにアプローチしたかという情報 5 に基づいて,データの蓄積によって構築されたデータベースからデータの選択・ 編集を行い,把持動作におけるアプローチ時の手の動きを再現した.そして,こ のようにして再現された手の動きに,物体に対する接触判定による詳細な握持動 作の再現を組み合わせることで,詳細な形状に対応した手のアニメーション生成 手法を確立した. 次章以降,夫々の詳細について説明する. 6 3. 把持動作の計測と蓄積 本手法において重要となる実際の手の動きに基づいた動作の生成には,事前に 計測した動作を蓄積したデータベースが必要となる.このデータベースは,円筒 や直方体といった物体を構成する際の基本となる形状を把持する際の手の動作を, 形状やサイズといった物体の特徴に応じて分類して動作を蓄積する. しかしながら,動作を蓄積する際には,次章以降に説明するデータ補間等に利 用できるように,動作の比較・検討や編集等が容易なデータとして蓄積する必要 がある.また,それと同時に,そのデータによって手の持つ自然な動作が再現可 能である必要がある.そこで,いかに汎用性を持ち,且つ,自然な動作が再現可 能な形でデータを蓄積するか,この点がデータベースを作成する上でのポイント となる. 本章では,このポイントを踏まえ,動作の計測並びにその蓄積手法について説 明する. 3.1 物体の特徴と把持動作 具体的な計測の話に入る前に,把持動作と物体の特徴との関係について説明す る.ヒトが物体を掴むという動作を行う際には,まず,物体を視認することで, 物体の形状や大きさ,そして機能などを認識し,その認識に応じて事前に手形状 を形成することで把持動作を行っていることが知られている [12].このことから, 把持動作は物体の形状,大きさ,機能といった情報に依存しており,特定の形状, 大きさ,機能を有する物体を把持する際の動作は,これらの情報により,ある程 度特定することが可能であると考えられる.本研究ではこの点に着目し,物体の 特徴,特に形状や大きさといった観点に注目して動作の計測・蓄積を行う.しか し,形状や大きさが相互に異なる物体は無数に存在し,それらすべてについての データを取得することは現実的ではなく,また,不可能である. そこでまず,類似の形状,大きさを有する物体を把持する際の手の動きは,相 互に類似する動作であると仮定した.また,計測対象とする物体として,形状に ついては基本的な形状 (円筒や直方体) に限定し,各形状について,大きさの異な 7 る複数の物体の把持動作を計測・蓄積することとした.その上で,計測・蓄積さ れていない形状や大きさを有する物体の把持動作については,次章で説明する手 法を用いることで生成することとした. ここで,大きさが極端に相違する場合には,たとえ形状が同じであっても,把 持動作が相違する場合がある.例えば,同じ直方体をつかむ場合でも,大きな箱 をつかむ場合と,薄い板切れをつかむ場合での手の動作が相違することを我々は 経験上把握している.この大きさの相違により把持動作が相違する物体について は別箇の物体として区別する必要があるが,この点に関しては後述する. 3.2 動作データの計測 実際にヒトが物体を把持する際に手がどのように動くのかを把握するため,把 持動作の計測を行う. 手の動作を計測する方法としては,データグローブが用いられることが多い. データグローブとは,各関節箇所に角度センサを配し,各関節の屈曲を計測する 手袋型の装置である (図 1).これを用いて得られるデータ群は,各指の屈曲角度 の集合で表され,そのデータ群を手のモデルに当てはめることで手の形状並びに 動作を表現する.この方法により得られたデータ群は取り扱いが容易であるとい う特徴を有する.その反面,データグローブの計測できる自由度は取り付けられ ているセンサ数に対応するが,一般に市販されているデータグローブが計測でき る自由度は30程度であり,手の持つ繊細且つ複雑な動きを十分に再現するには, 自由度が不十分であると考えられる. そこで,動作計測には光学式のモーションキャプチャシステムである MAC3D System(Motion Analysis 社 [13]) を使用し,手の動作を計測した.計測されたデー タ群は,位置データの集合であり,データグローブのように自由度の制限がない ため,手の形状をそのまま取得することができ,手の持つ繊細且つ複雑な動きを 保持することが可能である. 光学式のモーションキャプチャにおける計測では,手の所定の位置にマーカを 配してその位置を計測する.その際の配置は,一般的に屈曲位置に相当する関節 に配することが多い [14][15].今回はその例に倣い,各指の関節並びに指先にそれ 8 図 1 Cyber Touch System(Immersior 社製) ぞれマーカを配し,手の根元 (手首) に一つ配置した.また,手と腕の位置関係を 把握するために,腕にもマーカを配している.腕に取り付けるマーカは,その捻 れを把握するために,3箇所取り付けている (図 2). ここで,今回のような光学式モーションキャプチャシステムによる指の動作計 測には,手特有の計測上の難点がある.まず,手においては,5本の指がそれぞ れ独立に動き,且つ,それぞれが2ないし3つの関節を有するといった自由度の 高い動きをするため,ある指の動きによって他の指に取り付けられたマーカが隠 されてしまう現象(オクルージョン)が頻発する.また,図 2 に見られるように, マーカ間の距離が近いため,カメラによりマーカを撮影する際に各マーカごとの 識別が困難となる事態が発生する. そこで,計測に際しては,上記問題点を考慮して以下の点において工夫をした. まず第一にマーカに対しての工夫として,あまりに大きなマーカを用いると,マー カの識別が困難となるため,今回は,直径6 mm のマーカを自作し使用した.こ れにより,マーカ間の距離がマーカの大きさに比較して広くなり,識別されやす くなる.次に,カメラの配置に対しての工夫であるが,今回,マーカのオクルー ジョンを回避するために,マーカが多く配置される手の甲の側にカメラを多く配 置した.また,高低差をつけることにより,たとえ,あるカメラで死角になって いたとしても,他のカメラで補足することができる配置とした (図 3,4). 9 図 2 マーカ配置 このように計測されたデータ群 (以後,動作データという) は,自作のビューア により図 5 に示したように表示される. 3.3 動作パターンデータへの変換 計測された動作データは,手の各部位に取り付けたマーカが,空間上にてどの ような軌跡を描いたかという位置データの一群である.このような位置データ群 は汎用性に乏しく,データの操作等の取り扱いに不便である.そのため,動作デー タを各関節角の角度に変換して,角度データ群である動作パターンデータという 形にし,データ補間等のデータ操作に利用できるようにする.動作データを動作 パターンデータに変換する際に,動作データを計測時に保持した自然な手の動き を如何にして保持したまま変換するかということが重要となる. 本節では,動作データから自然な手の動きを保持したまま,如何に動作パター ンデータに変換するかを説明する. 10 ᛠᜬ‛ 㜞⟎䉦䊜䊤 ૐ⟎䉦䊜䊤 ታ㛎ⅣႺ䉕ᣇ䈎䉌䈢࿑ 図 3 カメラ配置 3.3.1 人間の手の動作 まず,人間の手の動作とはどのようなものなのか,そして,自然な動きを再現 するためにはどのような点が必要かを考える. 図 6 に示すのは,従来から一般的に用いられている手姿勢モデルである [16]. このモデルにおける自由度は,手の移動についての自由度を考慮しないと 23 自 由度である.しかしながら,このモデルでは手の動作を十分に表現することがで きない.その理由としては,まず自由度が足りないということが挙げられる.例 えば,手の甲の部分の変形について考える.図 6 に示されたモデルでは,手の甲 部分の変形については,各指に相当する部分毎に1自由度の計4自由度しか割り 当てられていない.これでは,本来の甲の変形を表現することはできない. また指についても,第1,2関節については1自由度しか割り当てられてない. しかしながら,宮田らの研究 [14] によれば,図 7 に示されるように指の屈曲角度 に応じて屈曲回転軸は変化する.このように,単純に1自由度で表現されている 部位についても,その回転軸は常に一定というわけではなく,その表現のために は,それ以上の自由度が必要である. 11 図 4 計測風景 12 図 5 ビューア画像 以上のことから,自然な手の動作を表現するためにはこれらの要素を含めて再 現できる手姿勢モデルが必要である. 3.3.2 手姿勢モデル 前節で述べたような検討を基に,位置データ群である動作データを,自然な動 作を再現可能な角度データ群である動作パターンデータに変換するため,図 8 に 示すような手姿勢モデルを用いる. 本モデルは,手首部,そして,各指の関節を結ぶリンク (表 1) で定義される. その際の各端点は,動作データ計測時に手に配したマーカの位置と対応している. また,各リンクは長さが一定であり,リンク間の角度の変化によって手の形状を 規定する.その際に,手の甲部分と各指部分の2つに分けてモデル化を行った. まず,手の甲部分について説明する.本モデルで手の甲は4枚の三角形から構 成されると仮定した.この4枚の三角形はそれぞれリンク (back2,back3,back4) を共有している.これら4枚の三角形の各々については手首部側の頂点における 角度 (以下,開き角度という) を規定することにより,その形状を一意に定めるこ 13 部位 甲 親指 人差し指 中指 薬指 小指 表 1 手姿勢モデルにおけるリンク構造 リンク名 端点1 端点2 back1 手首 親指の根元 back2 手首 人差し指第3関節 back3 手首 中指第3関節 back4 手首 薬指第3関節 back5 手首 小指第3関節 thumb1 親指の根元 親指第2関節 thumb2 親指第2関節 親指第1関節 thumb3 親指第1関節 親指指先 index1 人差し指第3関節 人差し指第2関節 index2 人差し指第2関節 人差し指第1関節 index3 人差し指第1関節 人差し指指先 middle1 中指第3関節 中指第2関節 middle2 中指第2関節 中指第1関節 middle3 中指第1関節 中指指先 ring1 薬指第3関節 薬指第2関節 ring2 薬指第2関節 薬指第1関節 ring3 薬指第1関節 薬指指先 pinkie1 小指第3関節 小指第2関節 pinkie2 小指第2関節 小指第1関節 pinkie3 小指第1関節 小指指先 14 図 6 従来の手姿勢モデル とが出来る.そして,このように形状が定められた4枚の三角形の相対角度を規 定することで,甲全体の形状を特定する. 次に各指部について説明する.本モデルでは,甲と同様に指部は,隣接する関 節間により構成される3枚の三角形により構成されていると仮定する.この各三 角形は指の屈曲角度をリンクの間の角度として規定することにより,その形状を 定める.そして,これら3枚の三角形の相対角度 (以下,捻れ角度) を規定するこ とで,指の形状を特定する. この手姿勢モデルを用いて,動作データを各関節の屈曲角度により定義された 動作パターンデータに変換する.このように変換されたデータは角度データ群で あるため汎用性があり,動作生成の際のデータ間の補間といった処理 (次章以降 で説明する) が容易となるだけでなく,次節にて説明するように,動作データの 持つ自然な動作を保持したデータとなっている. 15 図 7 屈曲に応じた関節回転軸の変化 16 ዮᦛⷺᐲ ᐔ㕙㑆 ⋧ኻⷺᐲ 㐿䈐ⷺᐲ ᝳ䉏ⷺᐲ 図 8 手姿勢モデル 3.4 把持動作についての考察 変換された動作パターンデータについて,そのデータを詳細に検討し,把持動 作というものの特徴等について考察する. 3.4.1 把持動作と開放動作 まず,物をつかんで離すという一連の流れに着目してみる.図 9 は,円筒物体 の側面をつかむ動作における,人差し指の屈曲角度と物体と手首部との間の距離 の相関について表したグラフである. このグラフを見ると分かるように,物体に近づく際の動作と物体から離れる際 の動作では,それぞれでその軌跡が相異していることが分かる.ここで,物体に 近づく際の動作を (狭義の) 把持動作,そして,物体から離れる際の動作を開放動 作と定義すると,その動作は互いに相違するため,両者は別個に捉える必要があ る.今回は特に,把持動作のみに着目した. 17 〒㔌㪄ੱᏅ䈚ᜰ╙㪉㑐▵ዮᦛⷺ 㪇 㪄㪇㪅㪈 㪇 㪌㪇 㪈㪇㪇 㪈㪌㪇 㪉㪇㪇 㪉㪌㪇 㪄㪇㪅㪉 㪊㪇㪇 㪊㪌㪇 㪋㪇㪇 㪋㪌㪇 㐿േ 㪄㪇㪅㪊 㪻㪀㪸㫉 㪄㪇㪅㪋 㩿 ᐲⷺ㪄㪇㪅㪌 ᦛ ዮ㪄㪇㪅㪍 ᛠᜬേ 㪄㪇㪅㪎 㪄㪇㪅㪏 㪄㪇㪅㪐 㪄㪈 〒㔌㪄╙㪉㑐▵ዮᦛⷺ 〒㔌 図 9 距離−屈曲角度 3.4.2 把持動作の流れ 次に,把持動作に絞り,その一連の流れについて着目する.図 10 は,円筒の上 面を把持する際の人差し指の屈曲角度と,物体に最接近した位置を0,最も離れ た位置を1として正規化した正規化距離をプロットしたグラフである.なお,以 後特段の説明がない限り,正規化距離とはこの距離の事を指す. このグラフに示したように,把持動作は,大きく「準備動作」, 「移動動作」, 「握持動作」の3つのステップからなる.まず,準備動作のステップでは,把持物 体の形状に応じて大まかな手の形を決める.例えば,物体の大きさに応じて手の 開きを変え,また,物体をつかむ方向に応じて手首の方向を決める.次に,移動 動作のステップでは,準備動作の段階で決定された手の形を調節しつつ手を物体 のある位置まで移動させる.その際の,腕の動きはほぼ等速運動であることが分 かる.最後に,握持動作のステップでは,腕の移動に加え,物体の位置まで移動 した手の各関節を更に曲げることで物体に指を接触させ,最終的に把持を完了さ せる. 18 ╙䋳㑐▵ ╙䋲㑐▵ ╙䋱㑐▵ ᱜⷙൻ〒㔌 㪇 㪈 㪇㪅㪐 㪄㪇㪅㪈 㪇㪅㪏 㪇㪅㪎 㪄㪇㪅㪉 㪇㪅㪍 㪀㪻 㪸㫉 㩿 㪄㪇㪅㪊 ᐲ ⷺ 㪇㪅㪌 㪇㪅㪋 㪄㪇㪅㪋 㪇㪅㪊 㪇㪅㪉 㪄㪇㪅㪌 㪄㪇㪅㪍 㔌 〒 ൻ ⷙ ᱜ Ḱേ 㪈 㪋 㪎 㪇㪈 㪊㪈 㪍㪈 ⒖േേ 㪐㪈 㪉㪉 㪌㪉 㪏㪉 㪈㪊 㪋㪊 㪎 㪊 㪇 㪋 㪊 㪋 㪍 㪋 㪐 㪋 䊐䊧䊷䊛 ីᜬേ 㪉 㪌 㪌 㪌 㪏 㪌 㪈 㪍 㪋 㪍 㪎 㪍 㪇 㪎 㪊 㪎 㪍 㪎 㪐 㪎 㪉 㪏 㪌 㪏 㪇㪅㪈 㪏 㪏 㪈 㪐 㪇 図 10 把持動作の流れ 把持動作はこのような一連の流れによって構成されるが,各ステップでの指の 動作は,把持対象となる物体の形状等に応じてそれぞれ相違する.また,対象に よっては,一律にこのように分割できるわけでもない. 3.4.3 同じ特徴を有する物体の把持動作 個々の把持動作についての検討を行う前に,3.1 にて述べた,類似する特徴を有 する物体の把持動作は共に類似するという仮定について検討する.図 11 は,円筒 の上面の把持動作について,95mm の円筒と 120mm の円筒の2つについて,夫々 複数回計測した結果をプロットしたものである.ここで,横軸は前述した把持動 作の流れにおいて,準備動作から握持動作までに腕が移動した正規化距離である. このグラフに代表されるように,同一の特徴を有する物体を掴む際の手の動作 は細かくはいくつかのパターンに分けられるが,全体的には類似するものであり, 先の仮定は妥当であると結論できる.また,95mm の円筒の把持動作と 120mm の円筒の把持動作を比較すると,握持動作終了時の屈曲角度等に径の大きさによ 19 㪄㪇㪅㪉 㪄㪇㪅㪉㪌 㪄㪇㪅㪊 ⷺᐲ㩿㫉㪸㪻㪀 㪄㪇㪅㪊㪌 㪄㪇㪅㪋 㪄㪇㪅㪋㪌 㪄㪇㪅㪌 㪄㪇㪅㪌㪌 㪐㪌㫄㫄 㪈㪉㪇㫄㫄 㪄㪇㪅㪍 㪄㪇㪅㪍㪌 㪇 㪇㪅㪈 㪇㪅㪉 㪇㪅㪊 㪇㪅㪋 㪇㪅㪌 ᱜⷙൻ〒㔌 㪇㪅㪍 㪇㪅㪎 図 11 同じ特徴を有する物体の把持動作 20 㪇㪅㪏 㪇㪅㪐 㪈 る特徴的な差異が見られるが,両者の動作の間には類似性が見られる. 3.4.4 特徴の相違する物体の把持動作 図 12,13,14 に示したグラフは,それぞれ異なる形状の物体を把持する際の人差 し指の屈曲角度の変化を示したものである.これらを比較すると,動作が相違す ることが把握できる. 例えば,前述した円筒の上面を把持する場合には,準備動作において早い段階 で手の形状を決定した後,その形状のまま移動を行い,その後の握持動作も各関 節をほぼ同速度で変化させるという動作が見られる.それに対し,同じ円筒を把 持する場合でも,側面を把持する場合には,物体への到達までの間,指の関節は 常に変化を続け,把持の流れの各ステップの境がほとんど無い.また,幅 120mm の直方体を把持する場合,準備動作から移動動作にかけては,第1関節について は大きな動きが無いものの,握持動作において大きく変化するという特徴が見ら れる.一方,同じ直方体でありながら,幅 45mm の直方体を把持する場合は特徴 的で,第1関節については一連の動作中においてもほとんど変化せず,且つ,第 2関節については,移動動作において屈曲動作を示した後,握持動作時には,逆 方向への変移が見られる. このように,把持動作において,物体の形状に応じてその動作がそれぞれ異な ることが把握できる.また,サイズの差が微小である場合には前節で述べたよう にその動作は類似するが,極端にサイズが異なる場合には動作そのものが異なる ことが把握できる. 3.4.5 動作パターンデータの再現性について 変換に用いた手姿勢モデルは,動作データの持つ自然な手の動きを保持したま ま,角度データ群である動作パターンデータへと変換することを前提として構成 した.そこで,得られた動作パターンデータが,動作データの持っていた自然な 手の動きを保持しているか検討する. 21 ᵎ ᵏ ദᙹ҄ុᩉ ᇹᵑ᧙ራ ᇹᵐ᧙ራ ᇹᵏ᧙ራ ᵋᵎᵌᵏ ᵋᵎᵌᵐ ᵎᵌᵗ ᵎᵌᵖ ᚌࡇᵆᶐᵿᶂᵇ ᵎᵌᵔ ᵋᵎᵌᵒ ᵎᵌᵓ ᵋᵎᵌᵓ ᵎᵌᵒ ᵋᵎᵌᵔ ദᙹ҄ុᩉ ᵎᵌᵕ ᵋᵎᵌᵑ ᵎᵌᵑ ᵋᵎᵌᵕ ᵎᵌᵐ ᵋᵎᵌᵖ ᵎᵌᵏ ᵋᵎᵌᵗ ᵎ ᵓᵎ ᵏᵎᵎ ᵏᵓᵎ ᵐᵎᵎ ἧἾὊἲ 図 12 円筒側面を把持する動作 ᵎ ദᙹ҄ុᩉ ᇹᵑ᧙ራ ᇹᵐ᧙ራ ᇹᵏ᧙ራ ᵋᵎᵌᵏ ᵎᵌᵗ ᵎᵌᵖ ᵎᵌᵕ ᵎᵌᵔ ᵋᵎᵌᵑ ᵎᵌᵓ ᵋᵎᵌᵒ ᵎᵌᵒ ᵎᵌᵑ ᵋᵎᵌᵓ ᵎᵌᵐ ᵋᵎᵌᵔ ᵎᵌᵏ ᵋᵎᵌᵕ ᵎ ᵓᵎ ᵏᵎᵎ ᵏᵓᵎ ᵐᵎᵎ ᵐᵓᵎ ἧἾὊἲ 図 13 幅の広い直方体 (幅 130mm) を把持する動作 22 ദᙹ҄ុᩉ ᚌࡇᵆᶐᵿᶂᵇ ᵋᵎᵌᵐ ᵏ ᵎ ᵏ ദᙹ҄ុᩉ ᇹᵑ᧙ራ ᇹᵐ᧙ራ ᇹᵏ᧙ራ ᵋᵎᵌᵏ ᵎᵌᵗ ᵎᵌᵖ ᵎᵌᵕ ᵎᵌᵔ ᵋᵎᵌᵑ ᵎᵌᵓ ᵋᵎᵌᵒ ᵎᵌᵒ ദᙹ҄ុᩉ ᚌࡇᵆᶐᵿᶂᵇ ᵋᵎᵌᵐ ᵎᵌᵑ ᵋᵎᵌᵓ ᵎᵌᵐ ᵋᵎᵌᵔ ᵎᵌᵏ ᵋᵎᵌᵕ ᵎ ᵐᵎ ᵒᵎ ᵔᵎ ᵖᵎ ᵏᵎᵎ ᵏᵐᵎ ᵏᵒᵎ ᵏᵔᵎ ἧἾὊἲ 図 14 幅の狭い直方体 (幅 45mm) を把持する動作 まず,動作パターンデータから再構成された手の動作がどのようになるか,そ の一例を示す.図 15 に示したのは,円筒の側面をつかむ際の指の動きを表現し たものであり,左側の図は前方から見た手の形状,そして,右側の図は上方から 見た手の形状を表している.但し,手首の捩れについては表現していない.これ を見ると分かるように,手の甲の変形が表現されており,また,指を屈曲する際 の屈曲方向が中指の方向に向いていることから,屈曲軸の変化が表現されている といえ,全体として指の自然な動作が再現されていることが分かる. 次に,自然な動作の表現において必要である,屈曲角度に応じた捩れ角度の変 化について検討する.図 16∼18 に示したのは,円筒の側面をつかむ際の屈曲角 度と捻れ角度の相関を表したグラフである. このグラフから分かるように,屈曲角度に応じ捻れ角度が変化していることが 把握できる.これにより,自然な指の動作に必要不可欠な,屈曲角度に応じた関 節回転軸の変化が再現できていることが分かる. このように,本手姿勢モデルにより,動作データが保持していた自然な動作を 23 図 15 屈曲動作 24 OOࢲ OOࢲ OOࢲ މᚌ TCF Ǖᚌ TCF 図 16 屈曲角−捻れ角 (人差し指第 3 関節) OOࢲ OOࢲ OOࢲ މᚌ TCF Ǖᚌ TCF 図 17 屈曲角−捻れ角 (人差し指第 2 関節) 25 OOࢲ OOࢲ OOࢲ މᚌ TCF Ǖᚌ TCF 図 18 屈曲角−捻れ角 (人差し指第 1 関節) そのままに動作パターンデータに変換が行われているといえる. 3.5 動作パターンデータの蓄積 取得された動作パターンデータは,データベース化することで次章以降説明す る動作生成において利用可能な形で蓄積される必要がある.ここで,動作パター ンデータの考察により示されたように,動作パターンデータは把持対象となる物 体の特徴に応じて,相互に類似性が見られる部分と差異がある部分がある.そこ で,このような動作パターンデータの特性に基づいて,動作生成において有効な 動作パターンデータの蓄積方法について説明する. 蓄積に当たっては,まず,動作パターンデータのうち把持動作に相当する部分 を抽出する.把持動作に相当する部分の抽出においては,把持動作の流れの説明 にて述べた「準備動作」, 「移動動作」, 「握持動作」という動作部分を対象として 把持動作を抽出し,この一連の動作からなるデータを蓄積の対象とする.このよ 26 うにして得られたデータは,正規化距離と各関節の屈曲角度等の関係として与え られ,以後の動作生成における補間処理において正規化距離を基準として補間処 理を行うことが可能となる. 更に,補間処理を行うには,同じ形状で且つ大きさの相違する物体の把持動作 を関連付けて蓄積する必要がある.ここで,把持動作の検討において述べたよう に,同一の形状の物体を把持する場合,大きさの差異がある程度限られた範囲内 ならば,その把持動作には類似性が見られる.この特徴を利用し,同一の形状で サイズの相違する物体を把持する動作において,類似する動作を一組として蓄積 することで,その組の間での補間処理を可能とした.その一例として図 11 に示 したデータから,類似する一組のデータを抽出した例を図 19 に示す. 㪄㪇㪅㪉 㪄㪇㪅㪉㪌 㪄㪇㪅㪊 ⷺᐲ㩿㫉㪸㪻㪀 㪄㪇㪅㪊㪌 㪄㪇㪅㪋 㪄㪇㪅㪋㪌 㪄㪇㪅㪌 㪄㪇㪅㪌㪌 㪐㪌㫄㫄 㪈㪉㪇㫄㫄 㪄㪇㪅㪍 㪄㪇㪅㪍㪌 㪇 㪇㪅㪈 㪇㪅㪉 㪇㪅㪊 㪇㪅㪋 㪇㪅㪌 ᱜⷙൻ〒㔌 㪇㪅㪍 㪇㪅㪎 㪇㪅㪏 㪇㪅㪐 㪈 図 19 同一の形状に対する類似パターンの組 しかしながら,同一の形状の物体であっても極端に大きさが異なる場合には, 把持動作が相違するため,これらのデータについては別箇に扱う必要がある.例 えば,同じ直方体を把持する動作であっても,幅の広い箱のような物体を把持す 27 る場合と,板のような幅の狭い物体を把持する場合ではその動作が異なる.この ようなデータについては,別の形状として把握した上で,サイズの異なる類似す るデータを組として蓄積する. 以上の方法により,今回は,基本形状のうち使用頻度が高いと考えられる • 円筒の側面 • 円筒の上面 • 幅の広い直方体 • 幅の狭い直方体 という4つの形状について把持動作の計測並びに蓄積を行った. 28 4. 把持動作の生成 前章では,基本形状を把持する際の動作を,動作パターンデータという形で汎 用性のあるデータとして,分類・蓄積したデータベースの構築手法について述べ た.このようにして構築されたデータベースには,サイズや形状が予め決まった 物体を把持する際の動作しか蓄積されておらず,これをそのまま使っただけでは, 実際に計測を行った把持動作しか再現することはできない.そこで,一般的な把 持動作の生成のため,蓄積されたデータを利用した動作生成手法について考える 必要がある. 本章では,動作パターンデータベースを利用した,任意の把持物体を把持する 手のアニメーションの生成方法について説明する. 4.1 物体に対する特徴の設定 物体を把持する際の手の動作は,対象となる物体の形状に大きく依存する [12]. これは,前章で示した対象となる物体の形状による把持動作の違いにも表されて いる (図 12∼14 参照).このことから,把持対象となる物体の形状情報が把握で きれば,それに対応した把持動作を推定することが可能であるともいえる.そこ で,物体の形状情報をどのように与えるか (または取得するか) という点について 考える必要がある. ここで,身の回りにある道具に目を移してみると,そのほとんどは大まかな形 状としては円筒や直方体といった形状の組み合わせによって成り立っていると考 えられる.また,大まかな形状として類似した箇所を把持する際の動作は,少な くとも手を持ってゆくまでの動作はほぼ同じであることが推測できる.したがっ て,これを利用して,物体の概形を基本形状と見做すことで,一連の把持動作の うちの「準備動作」から「握持動作」の初期における手の形状を,基本形状を把 持する動作とすることができると考えられる. そこで,把持動作生成の前準備として,把持対象となる物体のモデルに,事前 に概形に相当する基本形状を当てはめておく.図 20,21 に割り当て例を示す.図 20 は缶のモデルであるが,このような形状については缶のモデルが内接するよう 29 な円筒を基本形状として割り当てた.また,図 21 に示したのは,途中にくびれ た首にあたる部分がある花瓶のモデルである.このような花瓶については,上部 と下部に径の異なる円筒を基本形状として割り当てた. 図 20 把持対象モデル (缶) 図 21 把持対象モデル (花瓶) 4.2 把持位置の特定 図 21 に示したような物体を把持する場合を考える.この物体には,上部と下 部に異なる大きさの円筒が基本形状として割り当てられているが,どちらの円筒 が割り当てられた部分を掴むか,また,基本形状に対してどちらの方向から掴む かによって手の動作が相違する.例えば,下部の円筒が割り当てられた部分をつ かむ場合の手の開きは,上部の円筒を割り当てられた部分をつかむ場合よりも広 くなると考えられるし,更に,同じ上部の円筒が割り当てられた部分をつかむ場 合でも,横からつかむ場合と上からつかむ場合では手の動作が異なる.そこで, 把持動作を生成するためには,物体のどこを掴むか,そして,どの方向から掴む かを特定する必要がある. まず,物体の把持箇所を特定する手法について説明する.図 22 は把持箇所の 特定方法を示した図である.まず,前提条件として,把持物体の情報として把持 物体の重心位置と,各基本形状の重心位置を把握しているとする.把持物体の重 心位置と腕の間の距離を求め,把持動作における一連の腕の動作において,最も 腕と重心位置が接近したときを求める.その上で,最も接近した際の,各基本形 30 〒㔌䈏ᦨዊ䈫䈭䉎 ᤨ䉕᳞䉄䉎 ᛠᜬ‛ 䈱㊀ᔃ 〒㔌䈏ᦨዊ䈫䈭䉎 ၮᧄᒻ⁁䉕․ቯ ၮᧄᒻ⁁ 䈱㊀ᔃ 図 22 把持箇所特定概念図 31 状の重心位置と腕の間の距離を求め,その距離が最小となるものを,把持対象と なる基本形状として特定する. 次に,特定された基本形状に対してどの方向から掴むかを特定する方法につい て説明する.まず,中村らは,物体を把持する際の手の向きについて,物体の方 向を表す物体把持線と,手の向きを表す仮想把持線の向きがほぼ同方向を向くこ とに着目し,仮想把持線の向き,即ち手の向きに応じて,どの物体を把持するか, その対象を特定する方法について提案している [17].本手法では,この中村らの 手法を応用し,把持方向の特定を行った.その概念図を図 23 に示す.この図にお ‛ᛠᜬ✢ ᗐᛠᜬ✢ ᗐᛠᜬ✢ 図 23 把持方向特定概念図 いて,物体把持線が円筒の長軸方向に1本,そして,直方体には各面の垂線方向 に3本設定されている.また,手には,その手がどちらの方向を向いているか判 断するための指標として,仮想把持線が設定されている.この仮想把持線は,薬 指の第3関節から人差し指の第3関節へと向かうベクトルを用いる.ここで,手 の方向を示す仮想把持線が,どの物体把持線と同一の方向かを比較することによ り,物体のどの面を把持するのかを特定する. 実際に仮想把持線と物体把持線との相関を表したグラフを図 24∼27 に示す.こ 32 れらのグラフは,横軸に正規化距離を,そして,縦軸に仮想把持線と物体把持線 の内積をプロットしたものである.なお,仮想把持線と物体把持線は共に単位ベ クトルであるとする.また,円筒については物体把持線は円筒の長軸方向のみと し,横からつかむ場合も上からつかむ場合もこの物体把持線との内積を用いた. 一方,箱や板といった直方体については,各面に垂直な物体把持線を設定し,つ かむ方向に相当する物体把持線と仮想把持線の内積を求めた.このグラフにおい ては,内積が1に近づくほど仮想把持線と物体把持線方向が近く,且つ,0に近 づくほど垂直に近いことを表す. 㪈 㪍㪌㫄㫄 㪏㪌㫄㫄 㪈㪇㪇㫄㫄 㪇㪅㪏 ౝⓍ 㪇㪅㪍 㪇㪅㪋 㪇㪅㪉 㪇 㪇 㪇㪅㪉 㪇㪅㪋 㪇㪅㪍 㪇㪅㪏 㪈 ᱜⷙൻ〒㔌 図 24 仮想把持線と物体把持線の相関 (円筒を横からつかむ場合) ここで,図 24,26,27 をみると,正規化距離で0近傍では,概して0.9以上の 値となっており,仮想把持線と物体把持線の方向がほぼ等しくなっていると見る ことができる.更に,図 25 については,正規化距離で0近傍でほぼ0になって いることから,仮想把持線と物体把持線は相互に垂直の関係にあることが把握で きる.また,この特徴は,大きさの違いにより多少異なるものの,ほぼ満たされ る特徴である. 33 㪇㪅㪍 㪐㪌㫄㫄 㪈㪉㪇㫄㫄 㪇㪅㪌 㪇㪅㪋 ౝⓍ 㪇㪅㪊 㪇㪅㪉 㪇㪅㪈 㪇 㪄㪇㪅㪈 㪇 㪇㪅㪉 㪇㪅㪋 㪇㪅㪍 㪇㪅㪏 㪈 ᱜⷙൻ〒㔌 図 25 仮想把持線と物体把持線の相関 (円筒を上からつかむ場合) 㪈 㪈㪊㪇㫄㫄 㪈㪌㪇㫄㫄 㪇㪅㪏 ౝⓍ 㪇㪅㪍 㪇㪅㪋 㪇㪅㪉 㪇 㪇 㪇㪅㪉 㪇㪅㪋 㪇㪅㪍 㪇㪅㪏 ᱜⷙൻ〒㔌 図 26 仮想把持線と物体把持線の相関 (箱を上からつかむ場合) 34 㪈 㪈 㪋㪌㫄㫄 㪍㪌㫄㫄 㪇㪅㪏 ౝⓍ 㪇㪅㪍 㪇㪅㪋 㪇㪅㪉 㪇 㪇 㪇㪅㪉 㪇㪅㪋 㪇㪅㪍 㪇㪅㪏 㪈 ᱜⷙൻ〒㔌 図 27 仮想把持線と物体把持線の相関 (板を横からつかむ場合) このように,仮想把持線と物体把持線の間には明確な相関関係が有り,仮想把 持線の方向により物体の把持方向を決定することが可能である. 把持対象とすべき基本形状とその把持方向の特定をしたうえで,把持対象とな る基本形状が何であるか (円筒か直方体か等) という情報と,基本形状のサイズ, そして,把持方向の情報を得て,次のステップである把持動作の生成に移る. 4.3 把持動作の生成 動作の生成においては,まず,把持対象となる基本形状を把持するまでの動作 を生成する.図 28 に生成までの概念図を示す.基本形状を把持する動作の生成 は,まず,基本形状の形に関する情報 (円筒,直方体等) と,腕が基本形状のどの 面を把持するかという情報を得る.例えば,図 28 に示した例の場合には,基本 形状の形に関する情報は円筒であり,どの面を把持するかという情報は上面とい うことになる.次に,この情報を用いて動作パターンデータベースに蓄積された 35 ᖱႎ䉕ขᓧ ᒻ⁁ 䉰䉟䉵 ᛠᜬᣇะ േ䊌䉺䊷䊮 䌄䌂 ᒻ⁁䊶䉰䉟䉵䊶ᛠ ᜬᣇะ䈮ㆡ䈜䉎 䊂䊷䉺䉕↢ᚑ ၮᧄᒻ⁁䉕ᛠᜬ䈜䉎䉁䈪䈱 േ䉕↢ᚑ 図 28 基本形状把持までの動作生成 36 データから,把持対象となる基本形状を把持する動作を生成する.ここで,前章に て述べたことだが,動作パターンデータベースには,基本形状の種類によりデー タが分類されており,各分類には,サイズの異なる場合についての動作パターン データが複数蓄積されている.しかしながら,把持対象となる基本形状のサイズ に該当するデータが常にあるとは限らない.そこで,異なるサイズをつかむ動作 パターンデータから,対象とするサイズをつかむ動作パターンデータを生成する 必要がある. 異なるサイズの基本形状をつかむ動作パターンデータから,対象とするサイズ の動作パターンデータを生成する手法を説明する.ここでは,円筒の側面をつか む動作について,直径 65mm と 85mm の円筒をつかむ動作パターンデータが動 作パターンデータベースに蓄積されていると仮定し,そこから,直径 75mm の円 筒をつかむ動作パターンデータを生成する方法を例に挙げて説明する.図 29 は, 䎐䎓䎑䎖 䎚䎘䏐䏐䎋↢ᚑ୯䎌 䎙䎘䏐䏐䎋⸘᷹୯䎌 䎛䎘䏐䏐䎋⸘᷹୯䎌 䎐䎓䎑䎖䎘 䎐䎓䎑䎗 䎐䎓䎑䎗䎘 ⷺᐲ䎋䏕䏄䏇䎌 䎐䎓䎑䎘 䎐䎓䎑䎘䎘 䎐䎓䎑䎙 䋳䋮䋲䈧䈱േ䊌䉺䊷䊮䊂䊷 䉺䈱㑆䉕㑆䈜䉎䈖䈫䈪 ᒰ䈜䉎䉰䉟䉵䈱ᛠᜬേ 䊌䉺䊷䊮䉕↢ᚑ䈜䉎 䎐䎓䎑䎙䎘 䋱䋮䉰䉟䉵䈱⇣䈭䉎䋲䈧 䈱േ䊌䉺䊷䊮䊂䊷䉺 䉕ㆬᛯ 䎐䎓䎑䎚 䋲䋮⣨䈫ኻ⽎‛䈫䈱㑆䈱 ᱜⷙൻ〒㔌䉕᳞䉄䉎 䎐䎓䎑䎚䎘 䎐䎓䎑䎛 䎓 䎓䎑䎕 䎓䎑䎗 䎓䎑䎙 䎓䎑䎛 䎔 ᱜⷙൻ〒㔌 図 29 動作パターン生成 円筒の側面をつかむ際の人差し指第3関節の動作を表したグラフである.このグ 37 ラフにおいて 65mm のグラフと,85mm のグラフは動作パターンデータベースに 蓄積されているデータに基づくものである.ここで,75mm の場合における動作 パターンを生成するには,両者の内挿若しくは外挿といった線形補間処理を行う ことで生成する.このようにして,蓄積されていないサイズのデータについては, 蓄積されているデータに基づいて,新たに動作を生成する.ここまでの処理によ り,対象となる基本形状をつかむまでの動作が生成される. しかし,基本形状はあくまでも実際の把持対象物体の形状を単純化したものに 過ぎない.そこで,把持動作における「握持動作」の後半に相当する部分を生成 する必要がある.この生成においては,物体のポリゴンモデルと,手のポリゴン モデルの間の接触判定をすることにより実現する.図 30 の上部は前段階までの 処理により生成された動作の最後の状態である.この状態から更に握持動作を進 行させるため,各関節の屈曲を進める.その際に,この状態に至るまでの動作を 延長するように,屈曲の方向と速度を定める.そして,指が把持物体に接触する まで屈曲動作を進め,指が物体に接触した時点でその指の屈曲動作を止める.こ れを,すべての指について行うことで把持動作を完了させる. 38 ၮᧄᒻ⁁ ᛠᜬ‛ ធ⸅䈚䈢䉌 ዮᦛേ䉕ᱛ 図 30 握持動作の生成 39 5. 生成例 前章まで,本手法によるアニメーションの生成手法についての説明を行った. 本手法を用いることで,自然な動作をもった把持動作を再現することが可能であ ることは,すでに述べたとおりである. そこで本章では,今回の提案手法を用いることで,どのようなデータに基づい て,どのようなアニメーションが制作可能であるのか,いくつかの実例をもって 示す. なお,実装にあたり,グラフィック表示については OpenGL を使用した.また, 接触判定には様々なアルゴリズムが提案されており [18][19][20],これらのアルゴリ ズムを利用した多くのライブラリが提供されているが [21][22],今回は ColDet[23] というライブラリを用いて実装した. 5.1 生成例1 図 31 に示したような花瓶を掴む際の動作を生成した. 䋶䋶䋮䋸䌭䌭 䋱䋴䋲䋮䋶䌭䌭 䋷䋰䋮䋰䌭䌭 䋸䋷䋮䋹䌭䌭 図 31 花瓶モデル 40 図 31 に示した花瓶の各所の寸法は図中に示したとおりである.この花瓶には 上部と下部に1づつ基本形状として円筒が割り当てられている.そこで,花瓶の 上部をつかむ場合と,下部をつかむ場合,夫々について動作生成を行い,その動 きの違いを比較する. 図 32∼35 に示したものは,花瓶の上部を掴むアニメーションを生成した結果 である.図 36∼39 に示したものは,花瓶の下部を掴むアニメーションを生成し た結果である.これらの図において,左側の図は腕の動作を示した図であり,右 側の図はその腕の動きに対して生成された手の動作を示した図である.また,図 32,33 と図 34,35 は同じ時点での動作を視点を変えて表示したものであり,そのほ かの図についても同様である. この結果を見ると分かるように,自然な動作による把持動作の再現が生成され ていることが分かる.また,上部をつかむ場合と,下部をつかむ場合ではその動 作の相違が見られる. 41 図 32 花瓶上部を掴む動作 (横視点1) 42 図 33 花瓶上部を掴む動作 (横視点2) 43 図 34 花瓶上部を掴む動作 (上視点1) 44 図 35 花瓶上部を掴む動作 (上視点2) 45 図 36 花瓶下部をつかむ動作 (横視点1) 46 図 37 花瓶下部を掴む動作 (横視点2) 47 図 38 花瓶下部をつかむ動作 (上視点1) 48 図 39 花瓶下部をつかむ動作 (上視点2) 49 5.2 生成例2 次に,図 40 に示したようなボトルを掴む際の動作を生成した. 䋳䋸䋰䋮䋰䌭䌭 䋱䋳䋲䋮䋰䌭䌭 䋵䋰䋰䋮䋰䌭䌭 㱢 䋷䋲䋮䋰䌭䌭 図 40 ボトルモデル 図 40 に示したボトルの各所の寸法は図中に示したとおりである.このボトル の上部に円筒を,下部に直方体を基本形状として割り当てている.そこで,ボト ルの上部をつかむ場合と,下部をつかむ場合,夫々について動作生成を行い,そ の動きの違いを比較する. 図 41∼44 に示したものは,ボトルの上部を掴むアニメーションを生成した結 果である.図 45∼48 に示したものは,ボトルの下部を掴むアニメーションを生 成した結果である.これらの図において,左側の図は腕の動作を示した図であり, 右側の図はその腕の動きに対して生成された手の動作を示した図である. 生成例1と同様に,自然な手の動きが再現されていることが分かる.また,本 生成例では,上下で異なる種類の基本形上が割り当てられているため,図 43 と 図 47 で示された物体に接近する際の動作も大きく相違する.このように,複数 種類の基本形状を掴む動作が生成可能であることが分かった. 50 図 41 ボトル上部を掴む動作 (横視点1) 51 図 42 ボトル上部を掴む動作 (横視点2) 52 図 43 ボトル上部を掴む動作 (上視点1) 53 図 44 ボトル上部を掴む動作 (上視点2) 54 図 45 ボトル下部をつかむ動作 (横視点1) 55 図 46 ボトル下部を掴む動作 (横視点2) 56 図 47 ボトル下部をつかむ動作 (上視点1) 57 図 48 ボトル下部をつかむ動作 (上視点2) 58 6. 考察 6.1 動作生成について 本提案手法を用いて生成された手のアニメーションは,自然な動作を再現して いることが生成例から見て取れる.また,その動きも滑らかであり,モーション キャプチャにより取得したデータの自然さを保持したまま再現されていることが 分かる. しかしながら,動作生成において,不具合が生じる例もいくつか見られた.そ の一例を図 49 に示す.この失敗例においては,中指や薬指等の屈曲が逆方向に 変移していることがわかる.本失敗例に代表されるような,生成失敗の原因とし ては次の2点が考えられる. まず第1に,物体と指の干渉による動作変化が考えられる.通常,手が物体を 掴む際には,すべての指が同時に物体に接触するわけではなく,各指が順次接触 してゆく.その際に,ある指がまだ物体に接触していない移動動作中であっても, すでに物体に接触している指が握持動作を開始してしまうという状態が起こり得 る.図 50 に,直径 85mm の円筒を横方向から掴む際の各指の第1関節の屈曲変 化を示す.このグラフにおいて,中指は図中点 A 以降,薬指は図中点 B 以降で, 指の屈曲方向に変化が生じている.これは,人差し指がまだ未接触の段階で,先 に接触した中指,薬指が物体を強く握り締める際に,指と物体との干渉によって, その姿勢に変化が生じたためと考えられる.そのため,本来生成すべき,円筒の 更に内側にある物体の把持動作においては,点 A ないし点 B 以降も指は把持物体 と接触するまで屈曲が進むはずであるところ,その部分の再現が出来ずに不具合 が生じたということが考えられる. 第2に,同一の基本形状における,大きさの相異による動作の相異である.同 じ形状を有する物体であっても,その大きさが極端に相異する場合には,把持動 作が相異する場合がある.例えば,前述したように,同じ直方体をつかむ場合で も,掴む部分の大きさが相異するとその動作は相異する.このような動作の相異 は,当然直方体に限られるものではなく,他の形状についても認められると考え られる.図 51 に示すのは,失敗例の生成値と,生成に用いた実測値,そして,失 59 図 49 動作生成失敗例 60 㪇 㪄㪇㪅㪈 B ⷺ ᐲ 㩿㫉㪸 㪻 㪄㪇㪅㪉 㪄㪇㪅㪊 㪄㪇㪅㪋 㪄㪇㪅㪌 㪐㪊 㪏㪐 㪏㪌 㪏㪈 㪎㪎 㪎㪊 㪍㪐 㪍㪌 㪍㪈 㪌㪎 㪌㪊 㪋㪐 㪋㪌 㪋㪈 㪊㪎 㪊㪊 A 㪉㪐 㪉㪌 㪉㪈 㪐 㪌 㪈 㪄㪇㪅㪎 㪈㪊 㪄㪇㪅㪍 㪈㪎 ੱᏅ䈚ᜰ ਛᜰ ⮎ᜰ ዊᜰ 䊐䊧䊷䊛 図 50 物体と指の干渉による動作 敗例近傍の大きさの円筒を把持する際の実測値を表したグラフである.これを見 ると分かるように,65mm と 85mm の円筒を掴む動作からは,径が大きくなるほ ど屈曲角度が小さくなると考えられ,実際に生成された動作も,グラフ上で上方 に現れている.しかしながら,実際に 100mm の円筒を掴む動作の計測を行うと, 屈曲角度は 65mm と 85mm の動作から推測される動作とは異なる.このことか ら,ある大きさを境として,同じ円筒を掴む動作であっても,その動作は相異す ると考えられる.このような,大きさの相異による動作の相異により,正しい動 作が生成されなかったことも失敗した一因と考えられる. このような問題点を解決するためには,まず各指について,把持動作終端部の データについてより詳細に検討し,握持動作における指と物体との干渉による影 響を除外する必要があると考えられる.また,把持動作が,物体の大きさに応じ てどのように相異するのかについても更なる検討を要する. 61 㪇 ↢ᚑ୯㩿㪈㪈㪎㫄㫄㪀 ታ᷹୯㩿㪍㪌㫄㫄㪀 ታ᷹୯㩿㪏㪌㫄㫄㪀 ታ᷹୯㩿㪈㪇㪇㫄㫄㪀 㪄㪇㪅㪈 ⷺ ᐲ 㩿㫉㪸 㪻 㪄㪇㪅㪉 㪄㪇㪅㪊 㪄㪇㪅㪋 㪄㪇㪅㪌 㪄㪇㪅㪍 㪇 㪇㪅㪈 㪇㪅㪉 㪇㪅㪊 㪇㪅㪋 㪇㪅㪌 ᱜⷙൻ〒㔌 㪇㪅㪍 㪇㪅㪎 㪇㪅㪏 㪇㪅㪐 㪈 図 51 実測値と生成値の対比 6.2 把持対象モデルについて 本手法における大きなメリットの一つとして,把持対象となる物体の形状を問 わないという点が挙げられる.これは,4.1 にて述べたように,把持対象となる物 体に基本形状の割り当てがされており,把持動作における「準備動作」から「握 持動作」の初期部分については,割り当てられた基本形状にのみ基づいて生成さ れ,物体の詳細な形状に依存するのは「握持動作」の後半部分の接触判定のみで あるからである.そのため,たとえ精細な物体のモデルであっても,基本形状が 割り当てられていれば,本手法により把持動作を生成することが可能である. ここで,今回は手作業により基本形状の割り当てを行ったが,この部分に関し ては,ポリゴン数を減少させる処理であるポリゴンリダクション [24][25] の手法 を応用することで,精細なモデルであっても単純化することが可能であると考え られる. 62 6.3 物体の特徴について 本研究の目的は,腕の動きと物体の特徴に基づいた自然な動きによる把持動作 の生成ということで,物体を掴むという単純な動作についての生成を対象とした. 物体の特徴としては主に形状に関する情報のみを対象としたが,現実の物体を掴 むという動作は,同じ形状をつかむ場合でも,時と場合に応じて変化する. 把持動作が変化する要因としては, • 把持後の物体に対する操作 • 把持対象となる物体の状態 • 把持対象となる物体の特性 等が考えられる. 把持後の物体に対する操作については,同じ物体をつかむ場合でも,その後の 動作として何を想定するかによって,掴み方が相違することは日常でも良く起こ る事象である.単に鉛筆を掴むことを例に挙げても,その後の操作として考えら れる「文字を書く」, 「筆箱にしまう」, 「鉛筆を削る」のいずれの場合も掴み方は 異なる.だが,一方で,異なる道具であっても,類似の持ち方をするものも多い. 例えば,鉛筆で「文字を書く」という操作をするときの掴み方は,半田鏝で「半 田付けをする」という操作をするときの掴み方と類似する.このような,物体を 道具としてみたときの使い方といった特徴を更に物体に付加することで,同一の 物体の同一箇所を掴む場合であっても,様々な掴み方をするという,表現の幅の 拡大を図ることができる. 同様に,物体の状態や特性といったものも物体の特徴に付加しうる要素である. 同じコップを持つ場合でも,空の場合と,並々と水が入っている場合では掴み方 が相違する [26].このような,把持対象となる物体の状態による掴み方を変化さ せることで,本来であれば有り得ない掴み方といったものを回避することができ る.更に,物体の硬さや重さといった要因もつかみ方を変化させる要因であるこ とは言うまでも無い. 本手法の応用により,このような様々な情報を物体の特徴として用いることで, 状況に応じた把持の生成ができると考えられる. 63 7. おわりに 本研究では,把持対象となる物体の特徴に注目した手のアニメーションの生成 手法についての提案を行った. まず,手の持つ自然な動きを保持した動作の計測・蓄積を行うため,モーション キャプチャによる手の動作計測により,手の持つ自然な動作をそのまま動作デー タとして取得,そして,この動作データを,自然な動きを保持したまま蓄積する ため,高い自由度を表現可能な手姿勢モデルに適用することで動作パターンデー タに変換,これを蓄積するという,一連の計測・蓄積方法の提案をした. 次に,このように蓄積された動作パターンデータを用い,任意の特徴を有する 物体を把持する際のアニメーションを生成する手法について提案を行い,本手法 を用いた把持動作アニメーションを生成した.この把持動作アニメーションは自 然な動きが再現できていることが確認できた. 以上から,本手法を用いることで,従来生成に労力を要した手のアニメーショ ンの生成,特に,手の表現において広く用いられることが予測される把持動作ア ニメーションの生成において,その生成にかかる負担を軽減することが可能とな ると共に,コンピュータグラフィックスにおけるキャラクタ表現における自由度 とリアリティを高めることができると思われる. 64 謝辞 本研究の機会を与えて戴き,数々の有益なご指導を与えてくださいました情報 科学研究科 千原 國宏教授に深甚なる謝意を表します. 本論文をまとめるに際し有用なご教示を頂きました情報科学研究科 横矢 直和 教授に厚くお礼申し上げます. 本研究を遂行するにあたり,随所にて御助言いただきました情報科学研究科 眞 鍋 佳嗣助教授に深く感謝いたします. 日々の研究において,直接の御指導,御助言を戴きました情報科学研究科 安室 喜弘助手,井村 誠孝助手に心から感謝致します. MAC3D システムの使用にあたり,使用方法の指導から様々な便宜を図ってい ただきました,論理生命学分野 野村 知広氏にお礼申し上げます. 研究において,様々な御助言を戴きました像情報処理学講座 スタッフの皆様, 並びに,博士後期課程,前期課程の皆様,誠にありがとうございました. また,研究生活において,様々な事務手続きなどの手配をしていただいた,山 田 真絵秘書に感謝いたします. 最後に,この一年間,日々著者を支えてくれた妻に心から感謝の言葉を捧げ ます. 65 参考文献 [1] Jehee Lee,Jinxiang Chai,Paul S.A.Reitsma,Jessica K.Hodgins,Nancy S.Pollard:”Interactive Control of Animated with Human Motion Data ”, ACM Transactions on Graphics,Vol.21,pp.491-500,Jul,2002 [2] 川崎雷太,北村喜文,岸野文郎:”3点の6自由度トラッカによる両手把持道具 を利用する人体運動アニメーション生成 ”,2004 情報処理学会論文誌,Vol.45 No.8,pp.2078-2096,Aug,2004 [3] 村上満佳子:”手話アニメーションにおける修飾表現手法の研究 ”,奈良先端 科学技術大学院大学情報科学研究科修士論文,2001 [4] Vassilis Athitsos and Stan Sclaroff:”Estimating 3D Hand Pose from a Cluttered Image ”,Boston University Computer Science Tech. Report,No.2003009,Jun,2003 [5] Vassilis Athitsos and Stan Sclaroff:”Database Indexing Methods for 3D Hand Pose Estimation ”,Boston University Computer Science Tech. Report, No.2003-010,Apr,2003 [6] 鎌倉矩子:手のかたち手のうごき,医歯薬出版,1989 [7] 北村喜文,飯田貴幸,日下志友彦,岸野文郎:”重回帰分析による状態推定 と DP マッチングを用いた手指アニメーションのインタラクティブな生成 ”, 2003 電子情報通信学会論文誌,VolJ86-DII No.10,pp.1450-1459,Oct,2003 [8] Ying Li,Nancy S.Pollard:”A Shape Matching Algorithm for Synthesizing Humanlike Enveloping Grasps ” [9] Yaha AYDIN,Masayuki NAKAJIMA:”Database Guided Realistic Grasping Posture Generation Using Inverse Kinematics ”,IEICE TRANS.INF. & SYST.,Vol.E81-D No.11,pp.1272-1280,Nov,1998 66 [10] 池内克史,木村浩,小川原光一:”人間行動の観察とロボットタスク・スキ ル獲得に基づく作業熟練過程の解明 ”,IT の深化の基盤を拓く情報学研究平 成 16 年度研究成果報告書 A03 [11] Yoshihiro Sato,Keni Bernardin,Hiroshi Kimura,Katsushi Ikeuchi:”Task analysis based on observing hands and objects by vision ”Proc.of 2002 IEEE/RSJ International Conference on Intelligent Robots and Systems, pp.1208-1213,Jan,2002 [12] 福田浩士,福村直博,片山正純,宇野洋二:”対象物の認知と手の把持形状 の計算との関係−ヒトの把持運動への計算論的アプローチ− ”,1999 電子情 報通信学会論文誌,Vol.J82-DII No.8,pp.1314-1326,Aug,1999 [13] MotionAnalysis: http://www.motionanalysis.com/ [14] “ デジタルハンド技術の開発に関するフィージビリティスタディ報告書 ”, pp.35-48,財団法人機械システム振興協会 (2005) [15] Nancy S.Pollard and Victor B.Zordan:”Physically Based Grasping Control from Example ”,ACM SIGGRAPH Symposium on Computer Animation(2005) [16] :上田悦子 ”多視点シルエット画像を用いた手の形状推定 ”,奈良先端科学 技術大学院大学情報科学研究科修士論文,2001 [17] 中村宜孝,宮里勉,岸野文郎:”把持動作における preshaping の解析とター ゲット予測 ”1997 電子情報通信学会論文誌,Vol.J80-A No.6,pp.1003 − 1013, Jun,1997 [18] 山地秀美,新藤義昭:”Z バッファ法を利用したオブジェクト及び衝突検出 ”, 情報処理学会論文誌 2002,Vol.43 No.6,pp.1899-1909,Jun,2002 [19] GINO VAN DEN BERGEN,”Efficient Collision Detection of Complex Deformable Models using AABB Trees ” 67 [20] S. Gottschalk, M. C. Lin and D. Manocha,”OBBTree: A Hierarchical Structure for Rapid Interference Detection ”,Proc. of ACM Siggraph’96,1996 [21] FreeSOLID: http://www.win.tue.nl/ gino/solid/ [22] RAPID – Robust and Accurate Polygon Interference Detection: http://www.cs.unc.edu/ geom/OBB/OBBT.html [23] ColDet Free 3D Collision Detection Library: http://photoneffect.com/coldet/ [24] H.Hoppe:”Progressive meshes. ”,ACM SIGGRAPH 1996,pp.99-108,1996 [25] J. Popovic,H. Hoppe:”Progressive simplicial complexes ”,ACM SIGGRAPH 1997,pp.217-224,1997 [26] 熊沢彰人,齋藤直樹,梶川伸哉,岡野秀晴:”人間の物体把持における手の 動作に関する実験的考察 ”,計測自動制御学会東北支部第210回研究集会, 210-6, Jul,2003 68