Comments
Description
Transcript
修士論文 多層ニューラルネットワークを用いた筋電位に基づく 不特定
NAIST-IS-MT1351028 修士論文 多層ニューラルネットワークを用いた筋電位に基づく 不特定ユーザに対する動作認識手法 小原 和馬 2015 年 3 月 12 日 奈良先端科学技術大学院大学 情報科学研究科 情報科学専攻 本論文は奈良先端科学技術大学院大学情報科学研究科に 修士 (工学) 授与の要件として提出した修士論文である. 小原 和馬 審査委員: 小笠原 司 教授 (主指導教員) 池田 和司 教授 (副指導教員) 高松 淳 准教授 (副指導教員) 吉川 雅博 助教 (副指導教員) 多層ニューラルネットワークを用いた筋電位に基づく 不特定ユーザに対する動作認識手法 ∗ 小原 和馬 内容梗概 筋電インタフェースは,筋電位から動作を推定し,それに応じた制御を行うシ ステムである.筋電位は個人差が大きいため,限定されたユーザのみが利用でき るインタフェースとして開発されてきた.しかし,インタフェースのアクセシビ リティの観点では,不特定ユーザが利用できることが望ましい. そこで本研究では,不特定多数のユーザが利用できる筋電インタフェースの開 発のため,筋電位に基づく不特定ユーザ認識の性能を改善することを目的とし, その手法を提案する.提案手法では,多層ニューラルネットワークにより筋電位 の個人差にロバストな特徴量を抽出する.この特徴量を用いてラベル識別を行う ことにより,不特定ユーザ認識の性能の改善を図る. 実験では,前腕における 7 動作の認識により提案手法の有効性を検証した.検 証の結果,不特定ユーザ認識をインタフェースに用いるためには十分な性能とは 言えないが,安全性の観点において性能の改善を確認した. キーワード インタフェース,筋電位,スパースコーディング,多層ニューラルネットワーク, パターン認識 ∗ 奈良先端科学技術大学院大学 情報科学研究科 情報科学専攻 修士論文, NAIST-IS-MT1351028, 2015 年 3 月 12 日. i EMG-based Motion Recognition for Unspecified Users Using Multilayer Neural Network∗ Kazuma Ohara Abstract Electromyogram interfaces are systems that control an application based on recognizing motion from myoelectric potentials. Because of the large differences in myoelectric potential between individuals, interfaces have been developed for specific users. In terms of accessibility, it is desirable that any users can use the interfaces, even when the system has not been made for unspecified users. Therefore, the aim of this thesis is to improve the performance of motion recognition for unspecified users. This is useful for the development of EMG interface available to unspecified users. In the proposed method, we extract features robust for the differences in myoelectric potential by use of multilayer neural networks. Then, we identify motions using these features. We believe that this research contributes to improve the performance of motion recognition for unspecified users. The results of the motion recognition experiment with unspecified users show that performance in terms of safety is improved by the proposed method. Keywords: Interface, Electromyogram signal, Sparse coding, Multilayer neural network, Pattern recognition ∗ Master’s Thesis, Department of Information Science, Graduate School of Information Science, Nara Institute of Science and Technology, NAIST-IS-MT1351028, March 12, 2015. ii 目次 1. はじめに 1 1.1 研究背景 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1 1.2 研究目的 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2 1.3 関連研究 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2 1.4 本論文における構成 3 . . . . . . . . . . . . . . . . . . . . . . . . . 2. 従来における動作認識手法 4 2.1 筋電位の計測 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4 2.2 筋電位の特徴抽出 . . . . . . . . . . . . . . . . . . . . . . . . . . . 6 2.3 筋電位の識別 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10 2.4 認識器の設計 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10 3. 多層ニューラルネットワークを用いた動作認識手法 11 3.1 多層ニューラルネットワークによる特徴抽出 . . . . . . . . . . . . 11 3.2 多層ニューラルネットワークへの入力ベクトル . . . . . . . . . . . 15 3.3 多層ニューラルネットワークの学習 . . . . . . . . . . . . . . . . . 15 3.3.1 プレトレーニング . . . . . . . . . . . . . . . . . . . . . . . 17 3.3.2 ファインチューニング . . . . . . . . . . . . . . . . . . . . 23 認識器の設計 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27 3.4 4. 不特定ユーザ認識の評価実験 28 4.1 認識動作 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28 4.2 筋電位の計測 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30 4.3 データセットの生成 . . . . . . . . . . . . . . . . . . . . . . . . . 33 4.3.1 データセットの定義 . . . . . . . . . . . . . . . . . . . . . 33 4.3.2 従来手法におけるデータセットの生成 . . . . . . . . . . . 33 4.3.3 提案手法におけるデータセットの生成 . . . . . . . . . . . 34 4.3.4 動作ラベルの付与 . . . . . . . . . . . . . . . . . . . . . . . 34 4.4 認識性能の評価指標 . . . . . . . . . . . . . . . . . . . . . . . . . iii 35 4.5 特定ユーザ認識実験 . . . . . . . . . . . . . . . . . . . . . . . . . 36 4.6 不特定ユーザ認識実験 . . . . . . . . . . . . . . . . . . . . . . . . 39 4.6.1 実験 1:従来手法における認識実験 . . . . . . . . . . . . . 39 4.6.2 実験 2:提案手法における認識実験 . . . . . . . . . . . . . 41 4.7 特徴量の評価 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46 4.8 考察 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49 5. おわりに 51 5.1 本論文のまとめ . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51 5.2 今後の課題 52 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 謝辞 53 参考文献 54 iv 図目次 2.1 Motion recognition process from EMG . . . . . . . . . . . . . . . 5 2.2 Location of the EMG sensor for flexor carpi ulnaris . . . . . . . . 5 2.3 Feature extraction process from EMG . . . . . . . . . . . . . . . . 9 3.1 Motion recognition process of the proposed method . . . . . . . . 13 3.2 Neural networks of two layers . . . . . . . . . . . . . . . . . . . . 13 3.3 Multilayer neural networks of l layers . . . . . . . . . . . . . . . . 14 3.4 Behavior of the sigmoid function . . . . . . . . . . . . . . . . . . . 14 3.5 Basic illustration of pre-training . . . . . . . . . . . . . . . . . . . 16 3.6 Basic illustration of fine-tuning . . . . . . . . . . . . . . . . . . . 16 3.7 Encoding and decoding by auto-encoder . . . . . . . . . . . . . . 18 3.8 Encoding and decoding by sparse denoising auto-encoder . . . . . 21 3.9 Behavior of the logarithmic function 21 . . . . . . . . . . . . . . . . 3.10 Back propagation based on the likelihood maximization of multilayer neural networks . . . . . . . . . . . . . . . . . . . . . . . . . 26 4.1 Motion types to be recognized in the experiment . . . . . . . . . . 29 4.2 Locations of the muscles targeted by the EMG sensor in the experiment . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31 4.3 Series of movements performed during one run of the experiment . 32 4.4 Bayes error rate estimated by the nearest neighbor method . . . . 48 表目次 4.1 Relationship between muscles and motion . . . . . . . . . . . . . 4.2 Results for motion recognition with training of the recognizer with the previous method to specific users . . . . . . . . . . . . . . . . 4.3 31 38 Results for motion recognition of unspecified users with the previous method . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . v 40 4.4 Results for motion recognition of unspecified users with the proposed method using LR . . . . . . . . . . . . . . . . . . . . . . . 4.5 Results for motion recognition of unspecified users with the proposed method using KNN . . . . . . . . . . . . . . . . . . . . . . 4.6 45 Average results for motion recognition of unspecified users with the proposed methods . . . . . . . . . . . . . . . . . . . . . . . . 4.8 44 Results for motion recognition of unspecified users with the proposed method using SVM . . . . . . . . . . . . . . . . . . . . . . 4.7 44 45 Average results for motion recognition of unspecified users with the previous method and the proposed methods . . . . . . . . . . vi 50 1. はじめに 1.1 研究背景 人の動作は筋収縮によって引き起こされる.筋収縮は,脳から伝達された神経電 位が筋線維に到達し,そこで電位が発生することで引き起こされる.このとき発 生する電位が筋電位である.筋電位には,表面電極を皮膚に貼付けて計測する表 面筋電位と針電極を筋に刺入して計測する針筋電位がある.筋電位は時系列デー タとして計測され,動作によってその波形パターンは異なる.よって,筋電位か ら動作を推定することが可能である. 筋電インタフェースは筋電位から動作を推定し,それに応じた制御を行うシ ステムである.針筋電位の計測は侵襲的であることから,筋電インタフェースに は,一般的に非侵襲に計測する表面筋電位が用いられる.筋電位は,筋収縮より 30-100ms 程度早く発生する [1] ため,動作に対して遅延の少ない操作が可能であ る.そのため,筋電インタフェースはリアルタイム性の高いウェアラブルインタ フェースとして期待が高まっている.そこで,筋電インタフェースの開発のため に,前腕の筋電位から手の動作を認識する研究 [2, 3, 4] が行われてきた.手は日 常生活の中で最も使用される身体部位であり,非常に自由度が高い.そのため手 の動作認識は,様々なアプリケーションへの応用が可能である. 動作の推定は,筋電位と動作を対応させる認識器により実現される.インタ フェースを利用するには,利用する前に認識器をあらかじめ用意する.筋電位は 個人差が大きいため,認識器の構築にはユーザを限定することが一般的である. つまり,利用対象者からあらかじめ計測した筋電位を用いて認識器を学習させ, 特定個人に適合させる. インタフェースのアクセシビリティの観点では,不特定多数のユーザがインタ フェースを利用できることが望ましい.不特定ユーザが利用できるインタフェー スを開発するには,未知のユーザに対しても動作を認識する機能が必要である. しかし,特定個人に適合させた認識器を用いると未知のユーザに対する認識性能 は下がる.未知のユーザを想定する場合,認識器の学習には対象ユーザの筋電位 を利用できないため,他者の筋電位で代用する.このとき,筋電位の個人差にロ 1 バストな認識器を構築することが重要となる. 1.2 研究目的 本研究では,不特定ユーザが利用できる筋電インタフェースの開発のため,未 知のユーザに対する動作認識の性能を改善することを目的とする.認識器に筋電 位の個人差を吸収させるには,個人差にロバストな特徴抽出を行うことが有効で あると考えられる.そこで,多層ニューラルネットワーク [5] による特徴抽出を 用いて,筋電位の個人差にロバストな認識器を構築する手法を提案する.提案手 法では,ロバストな特徴抽出を行うため,動作ラベル情報を用いて多層ニューラ ルネットワークを教師有り学習させる.また,複数人の筋電位データを用いて人 物を区別しない学習を行う.これにより,多層ニューラルネットワークによるロ バストな特徴抽出が期待できる. また,本研究では動作認識を関節角度を推定する「回帰」問題ではなく,筋電 位から動作ラベルに分類する「識別」問題として扱う.よって以降では,動作の クラス識別のための手法を議論する. 1.3 関連研究 筋電インタフェースのアプリケーションは電動義手を対象とするものが主要で ある.腕切断者の筋電位は残存筋から計測できる.そのため,残存筋の筋電位か ら動作意図を推定するための研究 [6, 7] が行われてきた.また,電動義手以外の 応用研究が進んでおり,ポインティングデバイスやテキスト入力システムとして 利用するための研究 [8, 9] がある. 筋電インタフェースの研究は応用研究が中心であり,パターン認識分野で研究 される時系列データにおける特徴抽出手法や識別手法を適用する.近年,画像認 識や音声認識の分野において,深層学習 [10] を用いた多層ニューラルネットワー クの利用が積極的に行われている. Hinton ら [11] は音声認識において,隠れマルコフモデル [12] の遷移確率と出力 確率を混合ガウス分布により推定する場合と多層ニューラルネットワークにより 2 推定する場合の検証を行った.具体的には,混合ガウス分布と深層学習を用いて 構築するディープボルツマンマシン [13] の生成モデルとの比較である.検証によ り,多層ニューラルネットワークにおいて構築するディープボルツマンマシンの 方が高い性能を示した. Pascal ら [14] は深層学習を用いて構築する多層ニューラルネットワークにおい て,教師有り学習の有効性の検証を行った.検証により,教師データを大量に利 用できる場合,ファインチューニング [10] を教師有り学習で行う方が教師無し学 習で行うよりも高い性能を示した. 1.4 本論文における構成 本論文では,以下の構成を取る.2 章では,従来において用いられる筋電位に 基づく動作認識手法について説明する.3 章では,本研究で提案する多層ニュー ラルネットワークを用いた不特定ユーザに対する動作認識手法について説明する. 4 章では,提案手法の有効性の検証のため行った実験と評価および考察について 述べる.最後に 5 章では,本論文のまとめと今後の課題について述べる. 3 2. 従来における動作認識手法 本章では,従来において用いられる動作認識のための一連の処理について説明 する.ここで,動作認識において,筋電位の計測から動作ラベルを出力するまで の処理を Fig. 2.1 に示す.動作認識における処理は Fig. 2.1 に示すように,筋電位 の計測,特徴抽出,ラベル識別に区分できる.筋電位の計測では,動作認識に有 効な筋電位を計測する.特徴抽出では,計測した筋電位から特徴ベクトルを抽出 する.ラベル識別では,抽出した特徴ベクトルを動作に分類する.以降では,こ れらについて順に説明する. 2.1 筋電位の計測 動作によって収縮する筋の組み合わせは異なる.動作認識に有効な筋電位を計 測するには,認識する対象動作において収縮する筋から計測する.以下,認識す る対象動作において収縮する筋を目標筋と呼ぶ.センサの配置位置としては,動 作認識に対して情報量が大きい筋電位の計測が期待できる箇所を選択する必要が ある.一般的に,目標筋と皮膚表面との距離が大きいほど筋電は減衰する.よっ て,センサの配置位置は,皮膚表面との距離が最短となる目標筋の直上とする. 筋電位を目標筋から計測する様子を Fig. 2.2 に示す.図は目標筋を右前腕におけ る Flexor carpi ulnaris(尺側手根屈筋)に定め,センサをその直上に配置した例 である.実際の計測では,特定のサンプリング周波数に基づき,複数のセンサを 用いて筋電位を時系列に計測する.以上の方法によって計測した時系列データは, 動作認識に有効な情報を含有すると考えられる. 4 Fig. 2.1 Motion recognition process from EMG Fig. 2.2 Location of the EMG sensor for flexor carpi ulnaris 5 2.2 筋電位の特徴抽出 計測によって取得した時系列データはクラス分離に不要な情報を含む.特徴抽 出は,時系列データからクラス分離に不要な情報を取り除き,ラベル識別を可能 とする空間へ変形することを目的に行う.そこで,特徴抽出はセンサごとに取得 する時系列データに対し,特定の時間幅に固定したフレーム単位で行う.また, フレームを時間軸方向に順にシフトさせることで,時系列に行う.ここで,ある センサから取得した時系列データに対し,フレーム単位で特徴抽出する様子を Fig. 2.3 に示す.Fig. 2.3 に示すように,一般的に,特徴抽出ではフレームをオー バーラップさせ,特徴ベクトルを抽出する. 次に,特徴抽出として一般的に用いられる方法について説明する.以降の説 明において,N 点のサンプリングに掛かる時間をフレーム幅とし,第 k フレー ムにおける処理について言及する.また,第 k フレームにおける第 i サンプル (i = 1, 2, · · · , N ) の筋電位を EM Gki ,積分筋電位を IEM Gki と表す.積分筋電位 は,一般的に筋の活動量を測る指標として用いられ,筋電位の絶対値を積分した 値として計算される.そこで,筋電位と積分筋電位を同一周波数によりサンプリ ングするには,より高い周波数によりサンプリングした筋電位を用いて積分筋電 位を計算し,筋電位と積分筋電位のサンプリング周波数を一致させる. ゼロクロス法 ゼロクロス法は,筋電位波形のフレーム内において 0V の軸を交叉する回数 を求める手法である.よって,特徴ベクトルは零交叉回数を用いて表され るスカラー値となる.次式によって第 k フレームから,符号関数 sgn(x) を 用いて特徴ベクトル ZC k を抽出する. 1 (x < 0) sgn(x) = 0 (otherwise) ZC k = N −1 ∑ ) ( sgn EM Gks · EM Gks+1 s=1 6 (2.1) (2.2) 平均積分筋電位法 平均積分筋電位法は,積分筋電位波形のフレーム内において平均値を求め る手法である.よって,特徴ベクトルは平均積分筋電を用いて表されるス カラー値となる.次式によって第 k フレームから特徴ベクトル AIEM Gk を 抽出する. N ∑ AIEM Gk = IEM Gks s=1 N (2.3) 振幅スペクトル解析 振幅スペクトル解析は,筋電位波形のフレーム内において周波数ごとの正 弦波の振幅を求める手法である.よって,特徴ベクトルは振幅スペクトル 係数によって構成するベクトルとなる.以下の処理により,第 k フレームか ら特徴ベクトル ADF T k を抽出する.まず,フレームに窓関数を掛け,離 散フーリエ変換により周波数スペクトル DF Tik を求める.窓関数は,一般 にハン窓 hann(x) が用いられる. 1 1 − cos 2πx 2 2 N ( s ) −j2πi(s−1) ∑ = EM Gks · hann ·e N N s=1 hann(x) = DF Tik (2.4) (2.5) 次に,周波数スペクトル DF Tik の絶対値を計算し,振幅スペクトル ADF Tik を求める. ADF Tik = |DF Tik | (2.6) 以上により,特徴ベクトル ADF T k は ADF Tik を第 i 成分とした N 次元ベ クトルとして求まる. 7 パワースペクトル解析 パワースペクトル解析は,筋電位波形のフレーム内において周波数ごとの 単位時間当たりの平均エネルギーを求める手法である.よって,特徴ベク トルはパワースペクトル係数によって構成するベクトルとなる.以下の処 理により,第 k フレームから特徴ベクトル P DF T k を抽出する.まず,式 (2.4),(2.5) に従い,周波数スペクトル DF Tik を求める.次に,周波数スペ クトル DF Tik の平方を取り,パワースペクトル P DF Tik を求める. P DF Tik = |DF Tik |2 (2.7) 以上により,特徴ベクトル P DF T k は P DF Tik を第 i 成分とした N 次元ベ クトルとして求まる. ケプストラム解析 ケプストラム解析は,筋電位波形のフレームから抽出する周波数スペクト ルを波形と見なし,そのスペクトルを求める手法である.よって,特徴ベク トルはケプストラム係数によって構成するベクトルとなる.以下の処理によ り,第 k フレームから特徴ベクトル CC k を抽出する.まず,式 (2.4)-(2.6) に従い,振幅スペクトル ADF Tik を求める.次に,振幅スペクトル ADF Tik の対数を取り,逆離散フーリエ変換により CCik を求める. CCik = N ( ) j2πi(s−1) 1 ∑ log ADF Tsk · e N N s=1 (2.8) 以上により,特徴ベクトル CC k は CCik を第 i 成分とした N 次元ベクトル として求まる. 8 Fig. 2.3 Feature extraction process from EMG 9 2.3 筋電位の識別 ラベル識別では,特徴ベクトルを動作に分類するため,動作ラベルへ対応付け を行う.そこで,動作ラベルへ対応付けを行うための数理モデルの選択し,これ に基づく学習により構築した識別器を用いる.識別器は,一般的に動作認識を行 う事前に用意する必要がある.数理モデルには,クラスに属するプロトタイプの 数に応じて識別する k-最近傍法 [15] や識別面とサポートベクトルとのマージン 最大化基準に基づく非線形関数により識別するサポートベクターマシン [16] 等が ある. 2.4 認識器の設計 認識器には,動作認識に有効な特徴抽出器と識別器の組み合わせを選択するべ きである.吉川ら [17, 18] の研究では,筋電位に基づく動作認識において,従来 において用いられる特徴抽出器と識別器の有効性を検証した.検証の結果,ケプ ストラムの低次係数と平均積分筋電位から構成する特徴量を用いてサポートベ クターマシンで識別する認識器が特定ユーザ認識おいて最も有効であることを示 した. 10 3. 多層ニューラルネットワークを用いた動作認識手法 本章では,本研究で提案する不特定ユーザに対する動作認識手法について説明 する.高い性能を備える認識器ではクラス分離に良い特徴抽出とラベル識別が行 われる.ラベル識別は特徴抽出の後続処理であるため,ラベル識別の性能は特徴 抽出の性能に左右される.そのため,認識の過程において特徴抽出の重要性は高 い.よって,動作認識の性能を改善するには,特徴抽出器を改善することが最も 有効であると考えられる.特に,不特定ユーザ認識の性能を改善するには,特徴 抽出器の改善によって,筋電位の個人差にロバストな特徴抽出を行うことが有効 であると考えられる.筋電位は個人差が大きいため,ロバストな特徴抽出には個 人差を低減するための複雑な非線形変換が必要であると考えられる.そこで本研 究では,複雑な非線形変換が可能である多層ニューラルネットワークを特徴抽出 器として用いることで,筋電位の個人差にロバストな特徴抽出を期待する.ここ で,提案手法における動作認識のための一連の処理を Fig. 3.1 に示す.以降では, 特徴抽出器として用いる多層ニューラルネットワークとそれを用いた認識器につ いて説明する. 3.1 多層ニューラルネットワークによる特徴抽出 ニューラルネットワークは入力を非線形変換する特徴抽出器 [19] と見なせる.提 案手法では,多層ニューラルネットワークにより入力を多段的に非線形変換した 特徴ベクトルを抽出する.つまり,識別器へ入力する特徴ベクトルは,多層ニュー ラルネットワークの最上位層から出力されるベクトルとする.また,多層ニュー ラルネットワークの学習において,人物を区別せず動作ラベル情報のみフィード バックさせる.これを複数人の筋電位を用いて行うことにより,筋電位の個人差 にロバストな特徴抽出が期待できる.ロバストな特徴抽出とは,人物に関する情 報を取り除き,動作に関する情報を保存する特徴抽出である. 多層ニューラルネットワークへの入力は,筋力等による動作の試行ごとの細か な変動が取り除かれた情報であることが望ましい.ケプストラム解析では波形の スペクトル微細構造とスペクトル包絡を解析する.特に,ケプストラムの低次係 11 数はスペクトル微細構造を取り除き,スペクトル包絡の情報を保存した情報であ る.よって,提案手法では多層ニューラルネットワークへの入力ベクトルを,ケ プストラムの低次係数で構成する. 入力層と出力層の二層で構成するニューラルネットワークのモデルを Fig. 3.2 に示す.Fig. 3.2 に示すように,ニューラルネットワークは方向を持ち,入力ベク トル x はその方向に非線形変換される.入力ベクトル x の非線形変換は活性化関 数 f (x) を用いて次式で表せる.ただし,出力ベクトルを y ,ニューロンに掛か る重み行列を W ,バイアスベクトルを b とする. y = f (W x + b) (3.1) 多層ニューラルネットワークは,Fig. 3.2 に示した二層のネットワークを多層に拡 張したネットワークである.ここで,l 層の多層ニューラルネットワークを Fig. 3.3 に示す.Fig. 3.3 に示すように,多層ニューラルネットワークは入力ベクトルを ネットワークの順方向に層の数だけ非線形変換する. 提案手法では,ニューラルネットワークの活性化関数としてシグモイド関数を 用いる.シグモイド関数は閾値関数を近似する微分可能な非線形関数である.シ グモイド関数は次式で計算する.ただし,α は関数の傾きの緩やかさを表す係数 である. 1 (3.2) 1 + e−αx また,Fig. 3.4 に α = 1 としたシグモイド関数を示す.Fig. 3.4 に示すように,シ sigmoid(x) = グモイド関数は与えられた入力を値域 (0,1) において,0 付近で急激に変化させる 非線形関数である.実際にはシグモイド関数をベクトル空間へ拡張した関数を用 いる.すなわち,次の関数 sigmoid(x) を用いる.ただし,入力ベクトル x を d 次元ベクトルとする. sigmoid(x1 ) .. sigmoid(x) = . sigmoid(xd ) (3.3) シグモイド関数 sigmoid(x) によって計算された各成分がそれぞれのニューロン の出力値に相当する.よって,多層ニューラルネットワークでは,シグモイド関 数の出力を次の層への入力と見なして,層の数だけ非線形変換する. 12 Fig. 3.1 Motion recognition process of the proposed method x1 y1 x2 y2 xn yn 1 input layer output layer Fig. 3.2 Neural networks of two layers 13 1 2 1 2 1 2 x1 x2 l-2 l-1 y1 3 l-2 l-1 l y2 3 l-2 l-1 l y1 y1 y2 y1 y2 y1 y2 y2 1 l 1 2 xn 3 yn 1 input layer l-1 yn 2 1 1 l-2 yn l-2 1 1 l yn yn l-1 1 hidden layer output layer Fig. 3.3 Multilayer neural networks of l layers Fig. 3.4 Behavior of the sigmoid function 14 3.2 多層ニューラルネットワークへの入力ベクトル 多層ニューラルネットワークへの入力ベクトルは,次に説明する方法によって 構成する.データの計測において r 個のセンサを用いるとする.それぞれのセン サから計測した r 個の時系列データにおいて,2.2 節で説明した方針に従いフレー ム単位でケプストラム係数ベクトルを抽出する.つまり,同一時刻において特徴 抽出するフレームは r 個となる.また,一フレームから抽出するケプストラム係 数ベクトルのうち低次 v 次元を多層ニューラルネットワークへの入力ベクトルと して用いるとする.よって,多層ニューラルネットワークへの入力ベクトルは, 同一時刻において r 個の時系列データから抽出する v 次元のケプストラム係数ベ クトルを連結した r × v 次元のベクトルとして構成する. 3.3 多層ニューラルネットワークの学習 多層ニューラルネットワークは,学習においてパラメータの初期値をランダム に決定すると過学習を起こす [10].そこで,多層ニューラルネットワークの学習手 法として深層学習を用いる.深層学習ではプレトレーニング [10] とファインチュー ニングを順に行う.プレトレーニングとファインチューニングの様子を Fig. 3.5 と Fig. 3.6 に示す.プレトレーニングは Greedy layer-wise training method[20] に 従い,隣接する二層のネットワークを下層から上層にかけて教師無し学習させ, ネットワーク全体の初期化を行う.ファインチューニングはネットワーク全体に 対して学習させる.提案手法では,ファインチューニングにおいて,動作ラベル 情報をフィードバックさせるため誤差逆伝搬法による教師有り学習を行う.また, プレトレーニングおよびファインチューニングでは,勾配降下法により学習を行 う.さらに,プレトレーニングとファインチューニングにおいて用いる学習デー タは同一とする. 15 training layer1 layer2 training layer2 layer3 Fig. 3.5 Basic illustration of pre-training calculate back propagate Fig. 3.6 Basic illustration of fine-tuning 16 training layern-1 layern 3.3.1 プレトレーニング 提案手法では,プレトレーニングにおいてノイズに対してロバストな性質を持 つ自己符号器であるデノイジング・オートエンコーダ [21] をスパース化したスパー ス・デノイジング・オートエンコーダを構築する.つまり,下層から上層にかけ て二層のネットワークがスパース・デノイジング・オートエンコーダを構成する ように学習させる.以下では,提案手法におけるスパース・デノイジング・オー トエンコーダの学習手法の説明のため,オートエンコーダ [10],デノイジング・ オートエンコーダ,スパース・デノイジング・オートエンコーダの順に説明する. その後,提案手法におけるスパース・デノイジング・オートエンコーダの学習手 法を説明する. オートエンコーダ オートエンコーダは,与えられた入力を特定の基準に基づきエンコードす る自己符号器である.オートエンコーダによる入力のエンコードとデコー ドの様子を Fig. 3.7 に示す.エンコードの基準として,デコードしたベクト ルが入力と同一の情報量を保つようにする.よって,エンコードベクトル は暗黙的に入力の情報量を近似するため,エンコードベクトルを入力の別 次元表現と見なせる. エンコードベクトル y とデコードベクトル z は入力ベクトル x から次式に より計算する.ただし,行列 W はニューロンに掛かる重み,ベクトル b は エンコードにおけるバイアス,b′ はデコードにおけるバイアスを表す. y = f (W x + b) ( ) z = f W T y + b′ (3.4) (3.5) 重み W ,エンコードバイアス b,デコードバイアス b′ は学習によって決定 するパラメータである.学習では勾配降下法により次の問題を解き,パラ メータを決定する. minimize |x − z|22 ′ W ,b,b 17 (3.6) Encode Decode Fig. 3.7 Encoding and decoding by auto-encoder 18 デノイジング・オートエンコーダ デノイジング・オートエンコーダは,ノイズに対してロバストな性質を備 えるオートエンコーダである.デノイジング・オートエンコーダにおける エンコードとデコードは,オートエンコーダと同様に式 (3.4),(3.5) に従う. 学習では崩壊率 µ を定め,勾配降下法における各更新ステップにおいて確 率 µ で入力にノイズを付与する.これにより,エンコードとデコードの汎 化能力を向上させる.つまり,各更新ステップにおいて確率 µ で入力ベク トル x にガウスノイズベクトル ϵ を付加した x + ϵ = x′ を用いてデコード ベクトル z ′ を計算する.そこから,勾配降下法により次の関数を最小化す る方向にパラメータを更新する. |x − z ′ |2 2 (3.7) また,確率 1 − µ で入力ベクトル x からデコードベクトル z を計算する.そ こから,勾配降下法により次の関数を最小化する方向にパラメータを更新 する. |x − z|22 (3.8) 以上により,勾配降下法における各更新ステップにおいて崩壊率 µ に基づ き式 (3.7),(3.8) を最小化することによって,重み W ,エンコードバイアス b,デコードバイアス b′ を決定する. スパース・デノイジング・オートエンコーダ スパース・デノイジング・オートエンコーダは,デノイジング・オートエ ンコーダのスパース表現 [22, 23] である.スパース・デノイジング・オート エンコーダによるエンコードとデコードの様子を Fig. 3.8 に示す.特徴量の スパース化は情報量の保存に効果的に働く.スパース・デノイジング・オー トエンコーダでは,出力層において活性化するニューロンが減少し,エン コードベクトルがスパースとなる.すなわち,エンコードベクトルの情報 量は向上する. 19 スパース・デノイジング・オートエンコーダにおけるエンコードとデコー ドは,デノイジング・オートエンコーダと同様に式 (3.4),(3.5) に従う.エ ンコードベクトルをスパースにするには,式 (3.7),(3.8) においてエンコー ドベクトルに対するスパース正則化項を追加して最小化問題を解く必要が ある.ここで,スパース正則化関数として対数関数を用いる.具体的には, 次の対数関数 g(x) を用いる.ただし,入力 x を d 次元ベクトルとする. g(x) = d ∑ ( ) log 1 + x2i (3.9) i=1 対数関数 g(x) により,入力 x の各成分は Fig. 3.9 に示すように緩やかに減 少し,入力が 0 に近づくほど出力は 0 へ向かって急激に減少する.よって, 対数関数 g(x) を十分小さくする入力 x はスパースな表現と言える. 学習では,デノイジング・オートエンコーダと同様に勾配降下法における 各更新ステップにおいて,崩壊率 µ で入力ベクトル x にガウスノイズベク トル ϵ を付加した x + ϵ = x′ を用いてデコードベクトル z ′ を計算する.そ こから,次の関数を最小化する方向にパラメータを更新する.ただし,定 数 λ はスパース正則化項に掛かる係数である. |x − z ′ |22 + λ ∑ ( ) log 1 + yi2 (3.10) i また,確率 1 − µ で入力ベクトル x からデコードベクトル z を計算する.そ こから,次の関数を最小化する方向にパラメータを更新する. |x − z|22 + λ ∑ ( ) log 1 + yi2 (3.11) i 以上により,勾配降下法における各更新ステップにおいて崩壊率 µ に基づ き式 (3.10),(3.11) を最小化することによって,重み W ,エンコードバイア ス b,デコードバイアス b′ を決定する. 20 Encode Stop Stop Active Stop Decode Fig. 3.8 Encoding and decoding by sparse denoising auto-encoder Fig. 3.9 Behavior of the logarithmic function 21 提案手法におけるスパース・デノイジング・オートエンコーダの学習 多層ニューラルネットワークへの入力を 1 CC とすると,入力層と第 2 層で 構成する二層ニューラルネットワークへの入力は,1 CC となる.そこで, 第 k 層への入力を k CC とすると,下から k 番目の二層ニューラルネット ワークへの入力は k CC と表せる.二層ニューラルネットワークにおける学 習では,学習データとして下層からの出力を用いる.よって,下から k 番 目の二層ニューラルネットワークにおける学習データは,学習済みである 直下の二層ニューラルネットワークからの出力 k CC を用いる.ただし,入 力層と第 2 層で構成する二層ニューラルネットワークにおける学習データ は,1 CC を用いる. 多層ニューラルネットワークへの入力はケプストラムであるため,入力の定 義域は負値を含む.しかし,シグモイド関数の値域は (0,1) であるため,エ ンコードおよびデコードにおいてシグモイド関数を用いるとスパース・デ ノイジング・オートエンコーダを構成できない可能性がある.よって,ケ プストラムの定義域を含むように,シグモイド関数の出力範囲を (-c,c) に変 更する.具体的には,式 (3.4),(3.5) を次のように調整する. ( ) 1 y = 2c sigmoid (W x + b) − 2 ( ) ( T ) 1 ′ z = 2c sigmoid W y + b − 2 (3.12) (3.13) 以下では,下から k 番目の二層ニューラルネットワークにおける学習に焦 点を当て説明する.学習では,デコードバイアス b′ に制限を掛け,重み W のスパース化を抑制する.具体的には,式 (3.10),(3.11) においてデコード バイアス b′ の全成分を p とする正則化項を追加する.つまり,勾配降下法 における各更新ステップにおいて,崩壊率 µ で入力ベクトル k CC にガウス ノイズベクトル ϵ を付加した k CC + ϵ = k CC ′ を用いてデコードベクトル z ′ を計算する.そこから,次の関数を最小化する方向にパラメータを更新 する.ただし,定数 λ1 , λ2 はスパース正則化項に掛かる係数である. 22 |k CC − z ′ |22 + λ1 ∑ ∑ ( ) ( ) log 1 + yi2 + λ2 log 1 + (p − b′i )2 i (3.14) i また,確率 1 − µ で入力ベクトル k CC からデコードベクトル z を計算する. そこから,次の関数を最小化する方向にパラメータを更新する. |k CC − z|22 + λ1 ∑ ∑ ( ) ( ) log 1 + (p − b′i )2 log 1 + yi2 + λ2 (3.15) i i 以上により,勾配降下法における各更新ステップにおいて崩壊率 µ に基づ き式 (3.14),(3.15) を最小化することによって,重み W ,エンコードバイア ス b,デコードバイアス b′ を決定する.これにより,下から k 番目の二層 ニューラルネットワークは入力 k CC の情報量を効果的に保存したエンコー ドベクトルを出力するスパースデノイジングオートエンコーダとして構築 される. よって,式 (3.12)-(3.15) に従い,下から順に上述した方法で二層ニューラ ルネットワークを学習させることで,プレトレーニングが果たされる. 3.3.2 ファインチューニング 提案手法では,ファインチューニングにおいて動作ラベル情報をフィードバッ クさせるため,ネットワーク全体において確率モデルを仮定し,筋電位に対する 動作の尤度を最大化する.具体的には,多層ニューラルネットワークの最上位層 へ新たにロジスティック回帰層 [15] を連結し,最尤推定を行う.最尤推定では,人 物を区別せず動作の尤度のみに着目する.以下では,提案手法における最尤推定 の説明のため,ロジスティック回帰法を説明する.その後,提案手法における最 尤推定の方法について説明する. 23 ロジスティック回帰法 ロジステック回帰法は,ロジステック関数により事象の生起確率を求め,確 率が最大の事象を生起した事象とする手法である.また,ロジステック回 帰法は,入力層と出力層の二層で構成するニューラルネットワークにより 計算する.観測データを x,起こりうる事象を Ck (k = 1, 2, · · · , m) とする と,観測データ x に対する事象 Ck の尤度は P (Ck |x) と表される.出力層に おけるニューロンを起こりうる事象の数だけ用意すると,尤度 P (Ck |x) は 出力層における各ニューロンからの出力に対応する.ここで,尤度 P (Ck |x) は次式に従い計算する.ただし,ベクトル wk はニューロンに掛かる重み, スカラー bk はバイアスベクトル b における第 k 成分を表す. T P (Ck |x) = ewk x+bk m ∑ T ewj x+bj (3.16) j=1 ロジステック回帰法の学習では,最尤推定を行う.最尤推定では,学習デー タを xi (i = 1, · · · , n) とし,これらに対する教師データを ti (i = 1, · · · , n) とすると,勾配降下法により次の問題を解き,パラメータを決定する.た だし,ti は xi が属する事象 Ck の位置に対応する成分 tik のみが 1 を取り, その他の成分が 0 を取る m 次元ベクトルとする. maximize w1 ,··· ,wm ,b n ∏ m ∏ P (Ck |xi )tik (3.17) i=1 k=1 提案手法における最尤推定 多層ニューラルネットワークへ新たに連結するロジステック回帰層は,認 識対象とする動作数と同数のニューロンで構成する 1 層のネットワークと する.つまり,ロジスティック回帰法は,ロジステック回帰層とその直下の 層によって行う.ロジステック回帰層を連結した後のネットワーク全体の層 数を l + 1 層とすると,ロジステック回帰層への入力は l CC と表せる.よっ て,認識対象とする動作を Ck (k = 1, 2, · · · , m) とすると,動作 Ck の尤度 24 P (Ck |l CC) は式 (3.16) と同様に次式に従う. ewk · CC+bk P (Ck | CC) = m ∑ Tl ewj · CC+bj T l l (3.18) j=1 最尤推定では,多層ニューラルネットワークの全体のパラメータを用いて 尤度を最大化する.勾配降下法における各更新ステップにおいて,尤度最 大化に基づいて誤差逆伝搬法によりネットワーク全体のパラメータを更新 する様子を Fig. 3.10 に示す.つまり,各更新ステップでは,最上位層とそ の直下の層によって求める尤度において,その勾配を計算し,そこから誤 差逆伝搬法によりネットワークの逆順へ伝搬する勾配を計算する.各層の パラメータはこれらの勾配を用いて更新する. 具体的には,学習データ 1 CCi (i = 1, · · · , n) に対応する教師データを ti (i = 1, · · · , n),対応するロジスティック回帰層への入力を l CCi (i = 1, · · · , n) とすると,勾配降下法により次の問題を解き,各層におけるパラメータを 決定する.ただし,ti は 1 CCi が属する動作 Ck の位置に対応する成分 tik のみが 1 を取り,その他の成分が 0 を取る m 次元ベクトルとする.また, 1 W , · · · , l W , 1 b, · · · , l b は多層ニューラルネットワークにおける層間のパラ メータである. maximize 1 W ,··· ,l W ,1 b,··· ,l b n ∏ m ∏ P (Ck |l CCi )tik (3.19) i=1 k=1 よって,式 (3.18),(3.19) に従い,上述した方法で多層ニューラルネットワー ク全体を学習させることで,ファインチューニングが果たされる. 25 calculate 1 2 l-2 l-1 1 1 2 1 3 1 l-2 1 l-1 1 l 1 1 2 2 2 3 2 l-2 2 l-1 2 l 2 1 n 2 n 3 n l-2 n l-1 n l n 2 1 l-2 l-1 1 1 1 1 1 layer layer layer layer layer layer logstic layer back propagate Fig. 3.10 Back propagation based on the likelihood maximization of multilayer neural networks 26 3.4 認識器の設計 提案手法では,認識器として次の構成を取る.特徴抽出器は,ケプストラム解 析器とファインチューニングにおいて連結したロジステック回帰層を取り除いた 多層ニューラルネットワークにより構築する.識別器は,多層ニューラルネット ワークにより抽出される特徴ベクトルの性質に合わせて適切な数理モデルを選択 し,それに基づく学習により構築する.ここで,識別器の数理モデルとして次の いずれかのモデルが考えられる.一つ目として,ロジスティック回帰法である.す なわち,ファインチューニングにおいて連結したロジステック回帰層を学習済み の識別器として用いる.二つ目として,ロジスティック回帰法以外の数理モデル である.この場合,多層ニューラルネットワークにより抽出される特徴ベクトル を学習データとして識別器を新たに構築する. 本研究では,多層ニューラルネットワークにより抽出される特徴ベクトルに対 し,最も有効な識別器を実験により選出し,これを用いた認識器を提案手法とす る.そこで,4 章において説明する実験の結果を踏まえ,同章の考察において有 効な識別器を示す. 27 4. 不特定ユーザ認識の評価実験 本章では,提案手法による不特定ユーザ認識の性能を検証するために行った実 験と評価について説明する.本実験では,認識器の有効性を検証するため,特定 ユーザ認識実験と不特定ユーザ認識実験を行った.特定ユーザ認識実験では,従 来手法を用いた実験を行った.具体的には,従来手法において学習データと評価 データを同一ユーザとすることで,認識器にとって既知のユーザの動作認識を行っ た.不特定ユーザ認識実験では,従来手法および提案手法を用いた実験を行った. 具体的には,従来手法および提案手法において学習データと評価データを異なる ユーザとすることで,認識器にとって未知のユーザの動作認識を行った.また,特 徴抽出器のロバストネスを検証するため,従来手法および提案手法における特徴 量を評価した.以上の実験と評価に基づき,提案手法の有効性について考察する. 本実験では従来手法として,2.4 節で説明した吉川ら [17, 18] の手法を用いた. 吉川らの手法は特定ユーザ認識において高い性能を示す.認識器は,ケプストラ ムと平均積分筋電位を抽出する特徴抽出器と,サポートベクターマシンによる識 別器で構成する. 4.1 認識動作 本実験では,動作認識の対象を次の 7 動作に定める.すなわち,Neutral(中立 位), Flexion(手関節掌屈),Extension(手関節背屈),Grasp(握る), Open (開く),Pronation(前腕回内),Supination(前腕回外)である.これらの動作 の様子を Fig. 4.1 に示す.7 動作はいずれも前腕部の筋収縮に関与する.Neutral は前腕部の筋が収縮しない動作であり,Neutral 以外の 6 動作は前腕部の筋が収 縮する動作である. 28 (a) Neutral (b) Flexion (c) Extension (d) Grasp (e) Open (f) Pronation (g) Supination Fig. 4.1 Motion types to be recognized in the experiment 29 4.2 筋電位の計測 本実験では,センサとして追坂電子機器社製の表面電極である乾式 2 極センサ [24],筋電位計測装置として同社製の Personal-EMG[25],A/D 変換器として日本 ナショナルインスツルメンツ社製の NI USB-6218[26] を用いて筋電位と積分筋電 位を計測した.計測では,筋電位計測装置により筋電位と積分筋電位を 16[bit] で 量子化した値を 2000[Hz] でサンプリングする.筋電位は,ハイパスフィルタによ り 10[Hz] 以下の成分を除去し,増幅器により 1000 倍した値としてサンプリング する.積分筋電位は,筋電位を遮断周波数 4.8[Hz] の 2 次ローパスフィルタによ り平滑化し,増幅器により 4000 倍した値としてサンプリングする. 本実験では,計測するデータが冗長自由度となることを回避するため,センサ の配置数を認識対象とする動作数より少なく取る.そこで,センサの配置数を動作 数の半数程度である 4 個に設定し,それぞれのセンサを Flexor carpi ulnaris(尺側 手根屈筋),Extensor carpi radialis(橈側手根伸筋),Flexor digitorum profundus (深指屈筋),Extensor digitorum(総指伸筋)の直上に配置する.ここで,これ らの 4 つの筋の位置を Fig. 4.2 に示す.さらに,これらの筋の収縮に関与する動作 を Table 4.1 に示す.Table 4.1 に示すように,Flexor carpi ulnaris, Extensor carpi radialis, Flexor digitorum profundus, Extensor digitorum は Flexion, Extension, Grasp, Open においてそれぞれ収縮する. 本実験では,計測を行う被験者を右利きの 20-40 代の男性 11 人とし,右前腕部 から計測を試みた.筋電位と積分筋電位は 60 秒単位で計測し,被験者ごとに 3 回 計測する.よって,計測は計 33 回行った.ここで,データを 1 回計測する様子を Fig. 4.3 に示す.1 回の計測では,被験者は順に Flexion, Extension, Grasp, Open, Pronation, Supination の 6 動作を試行する.これを 5 回繰り返し行う.ただし,6 動作の開始と終了及びその間は Neutral となるよう試行する.1 個のセンサにお ける 1 回の計測によって取得されるデータは,60 秒間の時系列データであるため 筋電位と積分筋電位が 2000Hz × 60 秒 = 120000 点サンプリングされたデータと して構成される. 30 (a) Flexor carpi ulnaris (b) Extensor carpi radialis (c) Flexor digitorum profundus (d) Extensor digitorum Fig. 4.2 Locations of the muscles targeted by the EMG sensor in the experiment Table 4.1 Relationship between muscles and motion Muscle Motion Flexor carpi ulnaris Flexion Extensor carpi radialis Extension Flexor digitorum profundus Grasp Extensor digitorum Open 31 Fig. 4.3 Series of movements performed during one run of the experiment 32 4.3 データセットの生成 4.3.1 データセットの定義 4.2 節に従い計測したデータから学習データと評価データを生成する.以降で は,全ての学習データと評価データを合わせてデータセットと呼ぶ.学習データ もしくは評価データは,計測したデータから抽出する特徴ベクトルの各々に対応 する.そのため,学習データもしくは評価データは,1 回の計測によって取得し たデータから複数生成される.ここで,1 回の計測によって取得したデータから 生成する学習データ群もしくは評価データ群をデータセットにおける 1 セットと する.計測は計 33 回行うため,データセットは 33 セットで構成される. 学習データもしくは評価データは,4 個のセンサから取得する時系列データに おいてフレーム単位でそれぞれ抽出する特徴ベクトルを統合したベクトルとする. 本実験では,フレームを 128 回のサンプリングに掛かる時間幅に固定し,32 回の サンプリングに掛かる時間ずつ移動させながら特徴ベクトルを抽出する.そのた め,1 セットは,(120000 ÷ 32) − (128 ÷ 32) + 1 = 3747 個 の学習データ群もしく は評価データ群となる.また,データセットは 33 セットで構成されるため,学習 データと評価データは合わせて 3747 個 × 33 セット = 123651 個 生成される. 4.3.2 従来手法におけるデータセットの生成 従来手法では,ケプストラムと平均積分筋電位を特徴量とするため,データセッ トはケプストラムと平均積分筋電位で構成する特徴ベクトルで構成する.ケプス トラムと平均積分筋電位は,2.2 節で説明した方法に従い抽出した.また,吉川ら [17, 18] の研究では,一つのフレームから抽出される 128 次元のケプストラム係数 ベクトルのうち,低次 3 次元を特徴ベクトルに用いることが従来手法において有 効であることを示した.よって,計測を 4 個のセンサを用いて行うことを踏まえ ると,学習データおよび評価データは,ケプストラムによる 3 次元 × 4 個 = 12 次 元 のベクトルと平均積分筋電位による 1 次元 × 4 個 = 4 次元 のベクトルを統合 し,計 16 次元のベクトルとなる.以上で説明した特徴ベクトルを計 33 回の計測 によって取得したデータから抽出し,33 セットのデータセットを生成した. 33 4.3.3 提案手法におけるデータセットの生成 提案手法では,ケプストラムを多層ニューラルネットワークへの入力とするた め,データセットはケプストラムで構成する特徴ベクトルで構成する.ケプスト ラムは,2.2 節で説明した方法に従い抽出した.本実験では,一つのフレームから 抽出される 128 次元のケプストラム係数ベクトルのうち,低次 6 次元を特徴ベク トルに用いた.よって,計測を 4 個のセンサを用いて行うことを踏まえると,学 習データおよび評価データは,ケプストラムによる 6 次元 × 4 個 = 24 次元 のベ クトルとなる.以上で説明した特徴ベクトルを計 33 回の計測によって取得した データから抽出し,33 セットのデータセットを生成した. 4.3.4 動作ラベルの付与 4.3.2 項と 4.3.3 項に従い生成したデータセットに対し,動作ラベルを付与する. そこで,計測によって取得した時系列データをセグメンテーションし,その領域 に含まれる特徴ベクトルに対して対応する動作ラベルを付与した.セグメンテー ションは,時系列データが動作を既定の順で試行して取得されたことを踏まえて 行う.次の手順により,特徴ベクトルに動作ラベルを付与した. Step1 1 回の計測によって取得した 4 個の筋電位の時系列データに着目する.それ ぞれの時系列データごとに 2.2 節で説明した方法に従い零交叉回数をフレー ム単位で求める.そこから,4 個の時系列データにおいて同一時刻のフレー ムから抽出される零交叉回数を合計する.これにより,時系列における零 交叉回数分布を作成する. Step2 零交叉回数分布において,値が大きい区間が筋収縮を起こした区間である ことを踏まえて,Neutral 以外の 6 動作に対応する区間を大まかに選定する. Step3 選定したそれぞれの区間において,零交叉回数分布から最大値を持つフレー 34 ムを検出する.最大値を持つフレームの両側から連続するフレームにおい て,零交叉回数が最大値の半分以上の値を持つフレームまでの区間をセグ メントする.ここでセグメントした領域内のフレームが Neutral 以外の 6 動 作に対応する. Step4 セグメントした領域を Flexion, Extension, Grasp, Open, Pronation, Supina- tion, Flexion, · · · , Supination の順に対応させる.セグメントした領域に含 まれる特徴ベクトルに対し,対応する動作ラベルを付与する.さらに,残 りの特徴ベクトルに対し Neutral に対応する動作ラベルを付与する. 4.4 認識性能の評価指標 本実験では,動作認識の性能を適合率,再現率,F 尺度により評価する.適合 率は,ある動作に対して真と認識した評価データおいて実際に真である割合を表 し,その動作に対する信頼性を示す指標である.再現率は,ある動作に属する評 価データにおいて認識した結果が真である割合を表し,その動作に対する応答性 を示す指標である.また,適合率と再現率は一般的にトレードオフの関係にある. そこで,F 尺度では両者の調和平均を取り,認識性能を評価する.つまり,F 尺 度は,ある動作に対する信頼性と応答性の両者を示す指標である.ここで,動作 Ck に対する適合率,再現率,F 尺度は次の式に従う. 適合率 = (Ck と認識した評価データにおいて真に Ck である評価データ数) (4.1) (Ck と認識した評価データ数) 再現率 = (Ck に属する評価データにおいて Ck と認識した評価データ数) (4.2) (Ck に属する評価データ数) F 尺度 = 2 ·(適合率)×(再現率) (適合率)+(再現率) 35 (4.3) 4.5 特定ユーザ認識実験 本実験では,従来手法における特定ユーザに対する認識実験を行った.つまり, 従来手法を用いて 11 個の認識器を構築し,これらの認識器によって既知のユー ザに対する動作認識実験を行った.具体的には,データセットにおいて 11 人そ れぞれの被験者から計測し生成した 3 セットのうち 2 セットを学習データ,残り 1 セットを評価データとした 11 回の認識実験を行い,これらの結果を総計し評価 した. 識別器の設計 識別器では,サポートベクターマシンを複数用意し,その投票によって識 別する.サポートベクターマシンは, 1 対 1 戦略に基づくソフトマージン識 ( ) 7 別器を = 21 個 用意し,それぞれを RBF カーネルを用いた非線形 2 サポートベクターマシンとして構成した.それぞれのサポートベクターマ シンでは,次の識別関数 s(x) に特徴ベクトル x を入力し,その正負により 投票を行う.ただし,ベクトル w は重み,ψ(x) は非線形写像関数,b はバ イアスを表す. s(x) = wT ψ(x) + b (4.4) 識別関数 s(x) は,実際にはカーネル関数を用いて計算することから重み w, 非線形写像 ψ(x),バイアス b は明示的に求められないため,識別関数への 入力ごとに RBF カーネルを用いて間接的に計算する. また,RBF カーネルは次の関数 k(x, x′ ) を用いた.ただし,定数 γ は RBF カーネルの広がりを制御する係数を表す.つまり,定数 γ が大きいほど広 範囲のサポートベクトルが識別に寄与する. ′ 2 k(x, x′ ) = e−γ|x−x | 36 (4.5) 識別器の学習 サポートベクターマシンの学習では,ソフトマージン識別器であることを 踏まえて,次の最小化問題を考える.ただし,定数 N は学習データ数,定 数 C は誤識別数に対するペナルティの強さ,変数 ξi はスラック変数,定数 ti は正例を 1 とし負例を −1 とした教師データを表す. ∑ 1 T w w+C ξi 2 i=1 ( ) ti · w T x + b − 1 + ξi ≥ 0 N minimize subject to ξi ≥ 0 (4.6) (4.7) (4.8) 実際には,式 (4.6)-(4.8) を主問題とした双対問題を解きパラメータを決定 した.すなわち,双対問題として式 (4.5) を用いて,次の最大化問題を解い た.ただし,αi は式 (4.7) の不等式制約に掛かるラグランジュの未定乗数を 表す. maximize N ∑ i=1 subject to N ∑ 1 ∑∑ αi αj ti tj · k(xi , xj ) αi − 2 i=1 j=1 N N (4.9) ti α i = 0 (4.10) 0 ≤ αi ≤ C (4.11) i=1 また,学習によって決定する変数以外の超変数は,学習データにおいて F 尺度が最大になるように格子探索により決定した.具体的には,RBF カー ネルの広がりを制御する係数 γ を 2i (i = −5, −4, · · · , 0),誤識別数に対す るペナルティの強さ C を 2i (i = 1, 2, · · · , 8) の範囲で探索した. 実験結果 従来手法における既知のユーザに対する動作認識の結果を Table 4.2 に示 す.Table 4.2 に示した値は,11 回の認識実験の結果を平均した値である. Table 4.2 において 7 動作の平均値に注目すると,適合率は 0.929,再現率は 0.969,F 尺度は 0.947 を示した. 37 Table 4.2 Results for motion recognition with training of the recognizer with the previous method to specific users Motion Precision Recall F-measure Neutral 0.987 0.960 0.973 Flexion 0.929 0.990 0.958 Extension 0.944 0.979 0.960 Grasp 0.928 0.976 0.951 Open 0.921 0.981 0.950 Pronation 0.888 0.940 0.910 Supination 0.907 0.957 0.931 Average 0.929 0.969 0.947 38 4.6 不特定ユーザ認識実験 本実験では,従来手法および提案手法における不特定ユーザに対する認識実験 を行った.つまり,従来手法および提案手法において 11 個の認識器を構築し,こ れらの認識器によって未知のユーザに対する動作認識実験を行った.具体的には, データセットにおいて被験者 10 人から計測し生成した 30 セットを学習データ,残 り 1 人の被験者から計測し生成した 3 セットを評価データとした 11 回の交差検証 を行い,これらの結果を総計し評価した.これを従来手法および提案手法におい て行った. 4.6.1 実験 1:従来手法における認識実験 識別器の設計 識別器では,4.4 節と同様に,1 対 1 戦略に基づくソフトマージン識別器を 21 個用意し,それぞれを RBF カーネルを用いた非線形サポートベクターマ シンとして構成した.また,識別関数 s(x) と RBF カーネル k(x, x′ ) はそれ ぞれ式 (4.4),(4.5) に従う. 識別器の学習 サポートベクターマシンの学習では,4.4 節と同様に,式 (4.9)-(4.11) で表 される最大化問題を解きパラメータを決定した.また,学習によって決定 する変数以外の超変数は,学習データにおいて F 尺度が最大になるように 格子探索により決定した.具体的には,4.4 節と同様に,RBF カーネルの広 がりを制御する係数 γ を 2i (i = −5, −4, · · · , 0),誤識別数に対するペナル ティの強さ C を 2i (i = 1, 2, · · · , 8) の範囲で探索した. 実験結果 従来手法における未知のユーザに対する動作認識の結果を Table 4.3 に示 す.Table 4.3 に示した値は,11 回の交差検証の結果を平均した値である. Table 4.3 において 7 動作の平均値に注目すると,適合率は 0.802,再現率は 0.891,F 尺度は 0.827 を示した.特に,再現率は適合率より 0.89 高い値を 示した. 39 Table 4.3 Results for motion recognition of unspecified users with the previous method Motion Precision Recall F-measure Neutral 0.982 0.888 0.930 Flexion 0.880 0.972 0.912 Extension 0.841 0.968 0.885 Grasp 0.847 0.947 0.883 Open 0.700 0.789 0.703 Pronation 0.675 0.847 0.726 Supination 0.694 0.838 0.741 Average 0.802 0.891 0.827 40 4.6.2 実験 2:提案手法における認識実験 特徴抽出器の設計 特徴抽出器では,多層ニューラルネットワークを入力層を含めた 6 層で構 成し,式 (3.2) におけるシグモイド関数のゲイン α を全ての層で α = 0.1 に 設定した.また,入力層におけるニューロンの数は,入力ベクトルの次元 数と同数の 24 個に設定した.入力層以外の層におけるニューロンの数は, 入力ベクトルの次元数の 2 倍とする 24 次元 × 2 = 48 個 に設定した.さ らに,ネットワークの出力範囲を入力ベクトルの定義域を含むように,式 (3.12),(3.13) におけるシグモイド関数に掛かる係数 c を全て層で c = 5.0 に 設定した.これにより,データセットとして用いたケプストラムの値の範 囲は (-5,5) に含まれていたため,ネットワークの出力範囲は入力ベクトル の値の範囲を含む. 特徴抽出器の学習 プレトレーニングでは,隣接する全ての二層ネットワークにおいて,勾配 降下法によるパラメータの更新ステップ数を 3000 回,学習率を e−2 ,崩壊 率 µ を µ = 0.2 とした.崩壊率 µ において付加するガウスノイズベクトル ϵ は,平均 0,標準偏差 e−5 であるガウス分布から抽出した標本値を成分とす るベクトルとした.また,式 (3.14),(3.15) における正則化項に掛かる係数 を全ての層で λ1 = 10−1 ,λ2 = 10−3 ,デコードバイアスの正則化に掛かる定 数 p を p = 10−5 とした.さらに,勾配降下法において更新に用いるバッチ サイズを全学習データ数 3747 個 × 30 セット = 112410 個 に対して 64 とす るミニバッチ更新を行った.よって,勾配降下法における各更新ステップ では,⌈112410 個 ÷ 64⌉ = 1757 回 のミニバッチ更新が行われる. ファインチューニングでは,最上位層に新たにロジスティック回帰層を連結 し,全 7 層において動作に対する尤度が最大となるよう式 (3.19) を最大化 した.そこで,ロジスティック回帰層におけるニューロンの数は動作認識 の対象と同数の 7 個とした.また,勾配降下法によるパラメータの更新ス テップ数を 1500 回,学習率を e−5 とした.さらに,勾配降下法において更 41 新に用いるバッチサイズを全学習データ数 112410 個に対して 256 とするミ ニバッチ更新を行った.よって,勾配降下法における各更新ステップでは, ⌈112410 個 ÷ 256⌉ = 440 回 のミニバッチ更新が行われる. 識別器の設計 識別器では,数理モデルとしてロジスティック回帰法,k-最近傍法,サポー トベクターマシンを選択した.識別器への入力は,ファインチューニング において連結したロジスティック回帰層を取り除いた全 6 層の多層ニューラ ルネットワークによって抽出される特徴ベクトルとした.ロジスティック回 帰法では,ファインチューニングにおいて連結したロジスティック回帰層を 用いた.k-最近傍法では,入力とプロトタイプとの距離をユークリッド距離 とした.サポートベクターマシンでは,4.5.1 項と同様に,1 対 1 戦略に基 づくソフトマージン識別器を 21 個用意し,それぞれを RBF カーネルを用 いた非線形サポートベクターマシンとして構成した.また,識別関数 s(x) と RBF カーネル k(x, x′ ) はそれぞれ式 (4.4),(4.5) に従う. 識別器の学習 ロジスティック回帰法では,ファインチューニングによって学習済みである ため,新たに学習を行わない. k-最近傍法の学習では,全学習データ 3747 個 × 30 セット = 112410 個 の特 徴ベクトルを特徴空間上に配置した.また,識別に用いるプロトタイプ数 は学習データにおいて F 尺度が最大となるように 1 から 100 の範囲で格子 探索により決定した. サポートベクターマシンの学習では,4.5.1 項と同様に,式 (4.9)-(4.11) で表 される最大化問題を解きパラメータを決定した.また,学習によって決定 する変数以外の超変数は学習データにおいて F 尺度が最大となるように格 子探索により決定した.具体的には,4.5.1 項と同様に,RBF カーネルの広 がりを制御する係数 γ を 2i (i = −5, −4, · · · , 0),誤識別数に対するペナル ティの強さ C を 2i (i = 1, 2, · · · , 8) の範囲で探索した. 42 実験結果 提案手法における未知のユーザに対する動作認識の結果を Table 4.4-4.6 に 示す.Table 4.4-4.6 に示した値は,識別器の数理モデルとしてロジスティッ ク回帰法,k-最近傍法,サポートベクターマシンを用いたそれぞれの方法 において,11 回の交差検証の結果を平均した値である. Table 4.4 において 7 動作の平均値に注目すると,ロジスティック回帰法を 用いた場合,適合率は 0.838,再現率は 0.863,F 尺度は 0.823 を示した.特 に,再現率は適合率より 0.25 高い値を示した. Table 4.5 において 7 動作の平均値に注目すると,k-最近傍法を用いた場合, 適合率は 0.855,再現率は 0.814,F 尺度は 0.814 を示した.特に,適合率は 再現率より 0.41 高い値を示した. Table 4.6 において 7 動作の平均値に注目すると,サポートベクターマシン を用いた場合,適合率は 0.812,再現率は 0.879,F 尺度は 0.819 を示した. 特に,再現率は適合率より 0.67 高い値を示した. Table 4.4-4.6 における 7 動作の平均値をまとめた結果を Table 4.7 に示す. Table 4.7 より,k-最近傍法を用いた認識器は最も適合率が高く,サポート ベクターマシンを用いた認識器は最も再現率が高く,ロジスティック回帰法 を用いた認識器は最も F 尺度が高い値を示した. 43 Table 4.4 Results for motion recognition of unspecified users with the proposed method using LR Motion Precision Recall F-measure Neutral 0.973 0.918 0.943 Flexion 0.924 0.935 0.924 Extension 0.900 0.941 0.912 Grasp 0.900 0.788 0.825 Open 0.734 0.770 0.687 Pronation 0.644 0.873 0.705 Supination 0.789 0.813 0.767 Average 0.838 0.863 0.823 Table 4.5 Results for motion recognition of unspecified users with the proposed method using KNN Motion Precision Recall F-measure Neutral 0.944 0.963 0.952 Flexion 0.957 0.927 0.937 Extension 0.934 0.936 0.932 Grasp 0.875 0.838 0.839 Open 0.672 0.700 0.679 Pronation 0.759 0.640 0.648 Supination 0.843 0.694 0.711 Average 0.855 0.814 0.814 44 Table 4.6 Results for motion recognition of unspecified users with the proposed method using SVM Motion Precision Recall F-measure Neutral 0.981 0.888 0.930 Flexion 0.881 0.978 0.925 Extension 0.855 0.966 0.901 Grasp 0.806 0.916 0.843 Open 0.765 0.738 0.671 Pronation 0.656 0.799 0.681 Supination 0.738 0.870 0.782 Average 0.812 0.879 0.819 Table 4.7 Average results for motion recognition of unspecified users with the proposed methods Method Precision Recall F-measure LR 0.838 0.863 0.823 KNN 0.855 0.814 0.814 SVM 0.812 0.879 0.819 Average 0.835 0.852 0.819 45 4.7 特徴量の評価 従来手法および提案手法における特徴抽出器の筋電位の個人差に対するロバス トネスを検証するため,これらの特徴抽出器によって抽出される特徴量を評価し た.特徴量の評価方法としてベイズ誤り確率による評価方法を選択した.ベイズ 誤り確率とは,特徴空間における各クラスに属するクラスタの重なりによって必 然的に引き起こされる誤りの割合を表す.ベイズ誤り確率は,特徴ベクトルを誤っ て識別する確率の期待値として計算される.よって,ベイズ誤り確率 eB は次式 で求める.ただし,ベクトル x は特徴ベクトル,条件付確率 P(Ci |x) は特徴ベク トル x が観測されたとき,それがクラス Ci (i = 1, 2, · · · , n) に属する確率,関数 p(x) は特徴ベクトルの確率密度関数を表す. ∫ eB = min{1 − P(Ci |x)}p(x)dx i (4.12) しかし,確率密度関数 p(x) は未知の分布であるため,実問題においてベイズ誤 り確率を直接求めることは不可能である.そこで本研究では,k-最近傍法により ベイズ誤り確率を推定する方法 [27] を用いる.k-最近傍法では,特徴ベクトル x の最近傍に位置する k 個のプロトタイプ X において,クラス Ci (i = 1, 2, · · · , n) に属するプロトタイプの割合を P(Ci |X) と表し,これを特徴ベクトル x がクラ ス Ci として生起する確率と見なす.よって,ある特徴ベクトル x における k-最 近傍法による誤り確率 eN (x) は,次式で計算する.ただし,条件付確率 P(Ci |x) は特徴ベクトル x がクラス Ci (i = 1, 2, · · · , n) として生起する真の確率を表す. eN (x) = n ∑ P(Ci |x) n ∑ i=1 P(Cj |X) (i ̸= j) (4.13) j=1 また,識別に用いるプロトタイプ数が十分大きいとき,条件付確率 P(Ci |X) は条 件付確率 P(Ci |x) を近似する.すなわち,式 (4.13) は次式として書き直せる. eN (x) = n ∑ P(Ci |X) i=1 n ∑ P(Cj |X) (i ̸= j) (4.14) j=1 k-最近傍法による誤り確率は,式 (4.14) を用いて評価データに対する期待値とし て求める.本実験では,動作認識の対象は 7 動作であるため,n = 7 として評価 データに対する期待値を求める. 46 ベイズ誤り確率を評価するには,一般的に下限値と上限値を推定し,その挟み 込みにより評価する.すなわち,学習データを評価データとして推定した値を下 限値,学習データと異なるデータを評価データとして推定した値を上限値とする. 本研究では,不特定ユーザに対する誤り確率,すなわち未知のユーザに対する誤 り確率を評価するため,学習データと異なるデータを評価データとして推定する ベイズ誤り確率の上限値のみによって評価する.そこで,4.6 節で説明した実験 と同様に,データセットにおいて被験者 10 人から計測し生成した 30 セットを学 習データ,残り 1 人の被験者から計測し生成した 3 セットを評価データとする 11 回の交差検証を行い,これらの結果を総計し評価した. 以上の方法によって求めた評価データに対する k-最近傍法による誤り確率の期 待値をベイズ誤り確率の推定値とし,その結果を Fig. 4.4 に示す.Fig. 4.4 に示し た値は,従来手法および提案手法において,k-最近傍法におけるプロトタイプ数 を 100 から 1000 としたときのベイズ誤り確率の推定値である.よって,Fig. 4.4 において,プロトタイプ数を 1000 としたときの推定値が最も信頼度が高い.プ ロトタイプ数を 1000 としたとき,その推定値は従来手法において 0.130,提案手 法において 0.118 を示した.つまり,提案手法における誤り確率は従来手法より 0.012 低い値を示した.しかし,Fig. 4.4 によって観察されるように,提案手法の 誤り確率はいずれのプロトタイプ数においても従来手法より低い値を取るが,そ の差は小さい.すなわち,筋電位の個人差に対するロバストネスの観点では,従 来手法と提案手法において差はないと考えられる. 47 1 Error rate using Previous feature Error rate using Proposed feature 0.8 Error rate 0.6 0.4 0.2 0 100 200 300 400 500 600 700 800 900 The number of prototypes Fig. 4.4 Bayes error rate estimated by the nearest neighbor method 48 1000 4.8 考察 まず,特定ユーザ認識実験と不特定ユーザ認識実験を踏まえて,不特定ユーザ 認識の有効性について考察する.Table 4.2,4.3,4.7 より,7 動作の平均値における F 尺度に注目すると,不特定ユーザ認識における四者いずれの手法を用いた場合 も,その性能は特定ユーザ認識の性能より 0.1 以上下回る.つまり,不特定ユー ザ認識における四者いずれの手法も筋電位の個人差に対するロバスト性は十分と は言えない.よって,不特定ユーザ認識をインタフェースに用いるためには,さ らなる改良が必要であると考えられる. 次に,不特定ユーザ認識実験を踏まえて,不特定ユーザ認識に対する従来手法 と提案手法の有効性について考察する.ここで,Table 4.3 の平均値と Table 4.7 を まとめた結果を Table 4.8 に示す.Table 4.8 より,提案手法において k-最近傍法 を用いた場合に適合率が最も高く,従来手法を用いた場合に再現率と F 尺度が最 も高い値を示した.F 尺度に注目すると,四者いずれの手法を用いた場合もこれ らの平均値との差は 0.01 未満であり,誤差によって変動する範囲と言える.よっ て,F 尺度において四者いずれの手法を用いた場合も同等の性能を有する考えら れる.つまり,これらの認識器の性能は適合率と再現率によって議論すべきであ る.提案手法において k-最近傍法を用いた認識器は,四者のうち最も高い適合率 を示したが,再現率は低い.従来手法を用いた認識器は,四者のうち最も高い再 現率を示したが,適合率は低い.以下では,インタフェースに用いる認識器とし て二者のいずれが有効であるか考察する. 四者の性能評価に用いた評価データは,データセットの計測方法および生成方 法から,Neutral に対応するデータが多数を占める.つまり,Neutral における誤 認識は他の 6 動作と比べて,性能評価への影響が小さい.そのため,性能評価の 結果は Neutral 以外の 6 動作に対する性能に大きく依存する.以上のことから,次 の二つが言える. • 適合率が高く再現率が低いとき,Neutral 以外の 6 動作に対する信頼性は高 いが応答性は低い. • 再現率が高く適合率が低いとき,Neutral 以外の 6 動作に対する応答性は高 49 いが信頼性は低い. つまり,提案手法において k-最近傍法を用いた認識器は,Neutral 以外の 6 動作 に対する信頼性は高いが応答性は低い.従来手法を用いた認識器は,Neutral 以 外の 6 動作に対する応答性は高いが信頼性は低い. 認識器がインタフェースへ送信するコマンドの観点から,次の事項が言える. コマンドは,インタフェースを使用する上で最も頻繁に用いられる基本コマンド と使用頻度の少ない特殊コマンドに分けられる.Neutral は筋収縮しない動作であ ることから頻繁に現れるため,一般的に基本コマンドとして用いられる.Neutral 以外の 6 動作は筋収縮する動作であることから現れる頻度が低いため,一般的に 特殊コマンドとして用いられる.基本コマンドは,その使用頻度の高さから安全 性が考慮され,インタフェースに停止状態や定常状態等を指示するコマンドとし て用いられる.一方,特殊コマンドは,現れる頻度の低さから,何らかのトリガー となるコマンドとして用いられる.ここで,インタフェースの安全性の観点から, 特殊コマンドを別の特殊コマンドと誤って認識することは危険性が高い考えられ る.つまり,特殊コマンドの信頼性が高いインタフェースは安全性が高いシステ ムであると言える.以上のことから,不特定ユーザ認識では,インタフェースの 安全性の観点において,提案手法において k-最近傍法を用いた認識器を用いるべ きであると考察する. Table 4.8 Average results for motion recognition of unspecified users with the previous method and the proposed methods Method Precision Recall F-measure Previous method 0.802 0.891 0.827 Proposed method using LR 0.838 0.863 0.823 Proposed method using KNN 0.855 0.814 0.814 Proposed method using SVM 0.812 0.879 0.819 Average 0.827 0.862 0.821 50 5. おわりに 5.1 本論文のまとめ 本論文では,不特定ユーザが使用できる筋電インタフェースの開発のため,筋 電位に基づく動作認識において不特定ユーザに対する認識性能の改善を目的とし, その手法を提案した.提案手法における動作認識は以下の手順で行われる.まず, 計測した筋電位の時系列データにおいてフレーム単位でケプストラムを抽出する. 次に,抽出したケプストラムにおいて,その低次係数から特徴ベクトルを構成す る.この特徴ベクトルを多層ニューラルネットワークへ入力し特徴抽出を行う. さらに,多層ニューラルネットワークから抽出した特徴ベクトルを用いてラベル 識別を行う.以上により,動作認識を果たす. 提案手法の有効性を検証するため,従来手法および提案手法を用いて認識器を 構築し,特定ユーザ認識実験と不特定ユーザ認識実験を行った.実験では,認識 対象とする動作を Neutral(中立位), Flexion(手関節掌屈),Extension(手関 節背屈),Grasp(握る), Open(開く),Pronation(前腕回内),Supination (前腕回外)の前腕によって実現する 7 動作とした.また,筋電位の計測を Flexor carpi ulnaris(尺側手根屈筋),Extensor carpi radialis(橈側手根伸筋),Flexor digitorum profundus(深指屈筋),Extensor digitorum(総指伸筋)の前腕部に位 置する 4 つの筋から試みた.特定ユーザ認識実験では,従来手法を用いてその性 能を検証した.不特定ユーザ認識では,従来手法および提案手法を用いてその性 能を検証した.そこで提案手法では,識別器の数理モデルをロジスティック回帰 法,k-最近傍法,サポートベクターマシンの三者から選択し,それぞれ検証した. 特定ユーザ認識実験と不特定ユーザ認識実験の結果を比較すると,不特定ユー ザ認識の性能は特定ユーザ認識の性能を 0.1 以上下回った.つまり,不特定ユー ザ認識をインタフェースに用いるためには,さらなる改良が必要であると考えら れる.また,不特定ユーザ認識実験における従来手法および提案手法の結果を比 較すると,提案手法において k-最近傍法を用いた認識器は,従来手法を用いた認 識器より応答性が低く信頼性が高い結果を示した.インタフェースの安全性の観 点では,応答性より信頼性を優先する.このことから,不特定ユーザ認識におい 51 て,提案手法における k-最近傍法を用いた手法により安全性の改善を確認した. 5.2 今後の課題 本研究では,多層ニューラルネットワークを用いた不特定ユーザのための動作 認識手法を提案し,従来の動作認識手法より高い信頼性を示した.しかし,特定 ユーザ認識実験と不特定ユーザ認識実験の結果を比較すると,提案手法を用いて 構築する認識器は,F 尺度の観点からインタフェースに用いる認識器として十分 とは言えない.すなわち,F 尺度における性能を向上させることにより,信頼性 と応答性の両者を向上させる必要がある.以上を今後の課題としたい. 52 謝辞 本論文は著者が奈良先端科学技術大学院大学 情報科学研究科 情報科学専攻 博 士前期課程在学中にロボティクス研究室で行った研究をまとめたものである.本 研究を遂行するにあたり,貴重な御指導と御助言を賜りました本学情報科学研究 科の小笠原司教授に深く感謝致します.また,研究以外におきましても進路相談 等,親身に御提案,御助言頂けましたこと,ここに深く感謝の意を表します. 論文執筆にあたり,丁寧な御検討,御教示を頂きました本学情報科学研究科の 池田和司教授に深く致します. 本研究の遂行, 論文執筆等において多くの適切な御助言,御指導を頂きました 本学情報科学研究科の高松淳准教授に深く感謝致します. 本研究の遂行, 論文執筆等において多くの御検討,御指導を頂きました本学情 報科学研究科の吉川雅博助教に深く感謝致します. 本研究室における勉強会等において直接の御指導を頂きました本学情報科学研 究科ロボティクス研究室の山口明彦特任助教に深く感謝致します. 研究会やグループミーティングにおいて多くの御助言,御指導を頂きました本 学情報科学研究科の池田篤俊助教に深く感謝致します. 事務処理の面で様々なサポートして頂きました本学情報科学研究科ロボティク ス研究室秘書の大脇美千代氏,池田美輝氏に深く感謝致します. 研究生活において様々な御助言や御協力を頂きました,本学情報科学研究科ロ ボティクス研究室博士後期課程の築地原里樹氏,Garcia Ricardez Gustavo Alfonso 氏,Lotfi El Hafi 氏並びに Felix von Drigalski 氏に深く御礼申し上げます. また, 本学情報科学研究科ロボティクス研究室博士前期課程の皆様にも研究生活を送る 上で多くの御協力を頂きました.ここに御礼申し上げます. 最後に,長年の学生生活を支えて頂いた両親,家族,そして友人達に深く感謝 致します. 53 参考文献 [1] 木塚朝博, 木竜徹, 増田正, 佐渡山亜兵. 表面筋電図. 東京電機大学出版局, 2006. [2] Mahdi Khezri and Mehran Jahed. Real-time intelligent pattern recognition algorithm for surface EMG signals. BioMedical Engineering OnLine, Vol. 6, No. 45, 2007. [3] Zeeshan O Khokhar, Zhen G Xiao, and Carlo Menon. Surface EMG pattern recognition for real-time control of a wrist exoskeleton. BioMedical Engineering OnLine, Vol. 9, No. 41, 2010. [4] Angkoon Phinyomark, Chusak Limsakul, and Pornchai Phukpattaranont. A novel feature extraction for robust EMG pattern recognition. Journal of Computing, Vol. 1, No. 1, pp. 71–80, 2009. [5] Geoffrey Hinton. Learning multiple layers of representation. Trends in Cognitive Sciences, Vol. 11, No. 10, 2007. [6] Alejandro Hernandez Arieta, Hiroshi Yokoi, Tamio Arai, and Wenwei Yu. Study on the effects of electrical stimulation on the pattern recognition for an EMG prosthetic application. IEEE Transactions on Biomedical Engineering, Vol. 52, No. 1, pp. 121–124, 2005. [7] Adrian D. C. Chan and KB Englehart. Continuous myoelectric control for powered prostheses using hidden markov models. IEEE Transactions on Biomedical Engineering, Vol. 52, No. 1, pp. 121–124, 2005. [8] 福田修, 有田潤, 辻敏夫. EMG 信号を利用した全方位型ポインティングデバ イス. 電子情報通信学会論文誌, Vol. 87, No. 10, pp. 1996–2003, 2004. [9] 辻敏夫, 重藤元暢, 岡本勝, 杉山利明, 柴建次. 筋電位信号で操作可能なテキ スト入力システム. ヒューマンインタフェース学会論文誌, Vol. 2, No. 9, pp. 97–104, 2007. 54 [10] Bengio Yoshua. Learning deep architectures for AI. Foundations and Trends in Machine Learning, Vol. 2, No. 1, pp. 1–127, 2009. [11] Geoffrey Hinton, Li Deng, Dong Yu, George Dahl, Abdel rahman Mohamed, Navdeep Jaitly, Andrew Senior, Vincent Vanhoucke, Patrick Nguyen, Tara Sainath, and Brian Kingsbury. Deep neural networks for acoustic modeling in speech recognition. IEEE Signal Processing Magazine, Vol. 29, No. 6, pp. 82–97, 2012. [12] 板橋秀一. 音声工学. 森北出版, 2005. [13] Ruslan Salakhutdinov and Geoffrey Hinton. Deep boltzmann machines. Twelfth International Conference on Artificial Intelligence and Statistics, Vol. 5, pp. 448–455, 2009. [14] Lamblin Pascal and Bengio Yoshua. Important gains from supervised finetuning of deep architectures on large labeled sets. NIPS 2010 Workshop on Deep Learning and Unsupervised Feature Learning Workshop, 2010. [15] Christopher M. Bishop. Pattern Recognition and Machine Learning. Springer, 2006. [16] Vladimir Vapnik. The Nature of Statistical Learning Theory. Springer, 1999. [17] Masahiro Yoshikawa, Masahiko Mikawa, and Kazuyo Tanaka. Real-time hand motion estimation using EMG signals with support vector machines. SICE-ICASE International Joint Conference 2006, pp. 593–598, 2006. [18] 吉川雅博. 筋電位を利用したヒューマンインタフェースに関する研究. PhD thesis, 筑波大学, 2010. [19] Jianchang Mao and A.K. Jain. Artificial neural networks for feature extraction and multivariate data projection. IEEE Transactions on Neural Networks, Vol. 6, No. 2, pp. 296–317, 1995. 55 [20] Yoshua Bengio, Pascal Lamblin, Dan Popovici, and Hugo Larochelle. Greedy layer-wise training of deep networks. Advances in Neural Information Processing Systems 19, 2006. [21] Vincent Pascal, Larochelle Hugo, Bengio Yoshua, and Manzagol PierreAntoine. Extracting and composing robust features with denoising autoencoders. Proceedings of the Twenty-fifth International Conference on Machine Learning, pp. 1096–1103, 2008. [22] Bruno A Olshausen and David J Field. Emergence of simple-cell receptive field properties by learning a sparse code for natural images. Nature, Vol. 381, pp. 607–609, 1996. [23] Bruno A Olshausen and David J Field. Sparse coding of sensory inputs. Current Opinion in Neurobiology, Vol. 14, pp. 481–487, 2004. [24] EMG-sensor. http://www.oisaka.co.jp/pemg sensor.html. [Online; accessed 31-January-2015]. [25] Personal-EMG. http://www.oisaka.co.jp/P-EMG.html. [Online; accessed 31-January-2015]. [26] NI USB-6218. http://sine.ni.com/nips/cds/view/p/lang/ja/nid/203484. [Online; accessed 31-January-2015]. [27] Thomas M. Cover and Peter E. Hart. Nearest neighbor pattern classification. IEEE Transactions on Information Theory, Vol. 13, No. 1, pp. 21–27, 1967. 56