Comments
Description
Transcript
会話情報学 4. 会話システムのアーキテクチャと構成法 その 2 西田豊明
会話情報学 4. 会話システムのアーキテクチャと構成法 その 2 西田豊明 4.2 情動コンピューティング 情動コンピューティングは,知的エージェントに情動モデルをもたせて,自分の行動の意思決定 に活用することにより,情動的に知的(emotionally intelligent)な行動する能力を実現することをね らったアプローチである.会話エージェントにおいては,情動コンピューティングの手法は,他の エージェントに対する情動表示,他のエージェントの情動解釈を行うために必要である. 情動モデルを実現する最も素朴な方法は,情動をもつかのようにふるまう「機械」をとにかく作り 出してしまうことである.こうした試みの有名なものは,Braitenberg vehicle [Breitenberg 1984]と呼ば れるものである.Braitenberg vehicle が作成したいくつかのセンサ駆動の vehicle のうちの一つは, 図 1 のようなものである.この vehicle のフロントには,光に感応するセンサが取り付けられており,セ ンサからの信号の強さに応じて車輪が駆動されるようにできている.図 1 のように,右のセンサは右 の車輪を駆動し,左のセンサが左の車輪を駆動するよう配線されている vehicle が光源に向かって 左に置かれると,右のセンサより左のセンサの方がわずかではあるが光源により近いので,右車輪 の方が強く駆動され,その結果,この自律模型自動車は左の方に動く.他の配置でも同様で,あた かも常に光源を恐れ,遠ざかろうとするように動作するので,この vehicle は光源を恐れる vehicle と 名付けられた. 図 1:光源を忌み嫌う vehicle 今度は,vehicle の配線を少し変えて,図 2 のようなものを作ると,同様のしくみにより,いつも光源に 近づこうとする. 図 2:光源を忌み嫌う vehicle 第 2 章でみてきた情動のモデルに照らしてみると,これは,1 次情動の実装として位置付けられ るかもしれないが,進化プロセスを経て実現された生物 vehicle の「配線」はもっとずっと複雑であろ う.またこうした配線は環境と深く結びついたものであろうから,素朴な方法で作り出すのは難しい だろう. 2013-07-26-0814 1/6 会話情報学 4. 会話システムのアーキテクチャと構成法 その 2 西田豊明 ALIVE (“Artificial Life Interactive Video Environment”)[Maes 1995]は,ユーザと人工ペットが 情動性のあるインタラクションをすることのできるシステムである.ALIVE では,大型ディスプレイに 表示された 3 次元コンピュータグラフィクスによって生成された仮想空間のなかにカメラで捉えられ たユーザの姿を投影して得られた合成ミラーイメージを通して,ユーザは仮想空間内に住まう人工 ペット(「人工犬」)と言語・非言語インタラクションをする.動物行動の模倣をするために,センシン グ機構やモーターアクションの実現に重点を置いている. Blumberg が構築した virtual creature である Silas T. Dog [Blumberg 1997]のアーキテクチャを図 3 に示す.センサによって獲得された外界情報は,解発メカニズム(releasing mechanism)に送られ てその刺激に対するアクションパターンが提案される.これと並行して,hunger, thirst, fear, aggression などを表す内部変数,興味のレベル,抑制(inhibition)の値が管理され,実際の行動を 生成するためのモーターコマンドは総合的に生成される. 図 3: Silas T. Dog のアーキテクチャ [Blumberg 1997] OCC モデルは,知的エージェントのもつ目標や信念と,外界で起きるイベントからどのようなタイ プの情動が生じるかを規定しているので,情動モデルとしては大変使いやすい.OCC モデルを用 いたシステムとして Affective Reasoner と ALIVE を紹介しよう. Affective Reasoner [Elliot 1992; 1994]は,ユーザと情動に基づくやりとりをする自然言語対話シ ステムであり,次のようなやり取りをする. (The agent has previously learned that the word “Ruth” is a female friend of the user) User: “Ruth is unhappy” Agent: “I am sorry to hear that. You must feel sorry for her.” (days later) Agent: “How is Ruth?” User: “Ruth is jealous of her rival.” Agent: “How much is Ruth feeling this resentment?” User: “Very much.” Agent: “Perhaps you are worried about Ruth?” 2013-07-26-0814 2/6 会話情報学 4. 会話システムのアーキテクチャと構成法 その 2 西田豊明 ユーザの最初の発話に対しては,エージェントはユーザと Ruth が友達であり,ユーザは Ruth が望 ましい状態にない(unhappy)ことを報告したので,ユーザが Ruth に対して,“sorry-for”= “displeased about an event undesirable for another”という情動状態にあるだろうと推定し,ユーザにそのことを告 げている.その情動を反映した発話が行われる. Ruth が jealous であるというユーザの 2 番目の発 話に対しては,エージェントは,jealousy=“resentment over a desired mutually exclusive goal”という 言い換えに基づいて,友達である Ruth が嫉妬のために非常にネガティブな状態にあることを推定 し,ユーザが Ruth のことを心配している(worried about)だろうと表明する. Affective Reasoner ではこのようにイベントの結果を解釈して情動を生成するために,談話解釈 の結果を,次のような属性(feature)から構成される Emotion Eliciting Condition (EEC) relations とし てまとめている. Self: 情動の主体となる登場人物 Other: Self の情動が向けられる対象となる登場人物(自分自身の場合は空値) Desire-self: 与えられた状況が Self にとって望ましいものであるかどうか. Desire-other: 与えられた状況が Other にとって望ましいものであるかどうか Pleased: Other の情動が自分にとってうれしいものかどうか Status: 状況が Self の期待通りのものか否か Evaluation: 状況が Self にとって,賞賛すべきものか,それとも非難すべきものか Responsible Agent: 賞賛や非難の原因となった登場人物が誰か Appealingness: 状況が Self にとって魅力的か否か これらの解釈が決まると,情動の主体となる登場人物のパーソナリティやそれまでの情動の流れ を考慮しつつ,情動を表現するアクションの生成が行われる. Picard の提唱する感情コンピューティングのモデル[Picard 1997]では,ダマシオの 1 次情動(生 得的であり,眼前の事態に対するすばやい反応を律する),2 次情動(目標,期待,嗜好などに関 わり,熟考的な推論をともなうゆっくりした反応を律する)の区別を考慮に入れて,図 4 のようなモデ ルを提唱している. 図 4:Picard モデル [Picard 1997] 情動は,顔表情,声の抑揚,しぐさや身体の動き,姿勢,瞳の収縮などのように相手に読み取れ る形で身体に表出される場合と,心的状態のさらに呼吸,心拍,体温,発汗,筋肉の収縮,血圧な どのように他人に読み取れない形で身体に現れる変化に分かれる.1 次情動の処理では,次のよう な点に着目した信号処理が中心となる. 2013-07-26-0814 3/6 会話情報学 4. 会話システムのアーキテクチャと構成法 その 2 西田豊明 図 5: WASABI アーキテクチャ [Becker 2008] - 応答の遅延.情動的な応答は比較的短期間であり,それが再活性化されない限り知覚レ ベルの下にある. 繰り返される出現.情動のすばやい繰り返しの活性化によってその知覚される強度は増加 する. 気質とパーソナリティの影響.個人の気質とパーソナリティは情動の活性化と応答に影響を 与える. 非線形.人間の情動的なシステムは非線形であるが,入出力のある範囲に対しては線形シ ステムとして近似できる. 時間的な不変性.人間の情動システムはある期間の間は時間に独立しているものとしてモ デル化される.短期的には習慣的な効果が生じる.長期的には,個人の生理的な体内リズ ムやホルモンのサイクルを考慮する必要がある. 活性化.必ずしも全ての情報が情動を活性化するわけではない.それらは十分な強度を持 つ必要がある.この強度は固定された値ではなく,ムードや体温や認知的な期待に依存す る. 飽和.情動がいかに頻繁に活性化されようともある時点でシステムは飽和し,人間の応答は もはや増加しなくなる. 認知的・物理的なフィードバック.システムへの入力は,内部の認知的あるいは物理的なプ ロセスである.例えば,情動の生理的な表現はシステムへのもう一つの入力として働き,もう 一つの情動的な応答を生成するフィードバックを提供する. 背景のムード.全ての入力は,それが情動の活性化レベルの下であるか否かに関わらず, 背景のムードに貢献する.最も新しい入力は現在のムードに最大の影響を及ぼす. 2 次情動処理では,1 次情動処理の結果得られた情報と,推論や意思決定に関わる高次の認知 情報を統合して自らの行動を調整する.いずれの場合も,情動の変化を記憶し,時間的にも一貫 した行動を生成する必要がある. Becker-Asano の WASABI アーキテクチャ(図 5)は情動エージェントのためのプラットフォームで あり,情動モジュールと認知モジュールから構成される.情動モジュールは,認知モジュールから 2013-07-26-0814 4/6 会話情報学 4. 会話システムのアーキテクチャと構成法 その 2 西田豊明 受け取った valence 値と社会的インタラクションのための dominance 値から,PAD モデルに基づい てエージェントの情動の状態とダイナミクスを決定する.その結果は,mood と awareness likelihood という変数で表され,認知モジュールに送られる.認知モジュールは,外界からの知覚,社会的な 文脈,それまでの活動の時系列を参照し,無意識的あるいは意識的に認知的な評価値を計算し, エージェントの行動を決定する一次情動と二次情動をつかさどるコンポーネントから構成されてい る. FAtiMA-PSI モデル(Lim, Dias, Aylett, & Paiva, 2010)は,情動をもつ会話エージェントを構成す るための汎用モデルであり,OCC モデルを中心とする認知評価モジュールと,動機とドライブを管 理する PSI モジュールから構成されている(図 6).FAtiMA-PSI モデルは従来は BDI (Believe Desire Intention)モデル[Rao 1995]を中心とする熟考型エージェントである.熟考レイヤでは,信念, 望み,意図の 3 つの側面からエージェントの心的状態をシミュレーションする.熟考の結果は評価 されて情動状態が更新される.反射レイヤでは,もっと直接的な方法で現状の評価が行われ,その 結果が情動状態の評価にも使われる.PSI モデルは,食料,水など生存に関わる物質の体内から の必要性,種の保存のための必要性,社会的な関係で生じる必要性,これから起きることの予測か らの必要性,自分の能力に関わる必要性を検知して,それを充足するための意図を発生させる.こ れにより,会話エージェントは生命性を感じるために必要となる能動的な行動をとれるようになる. 図 6: FAtiMA-PSI モデル (Lim, Dias, Aylett, & Paiva, 2010) 参考文献 [Becker-Asano 2008] Christian Becker-Asano. WASABI: Affect Simulation for Agents with Believable Interactivity, IOS Press, 2008. [Blumberg 1997] Bruce Mitchell Blumberg. Old Tricks, New Dogs: Ethology and Interactive Creatures, Doctoral Dissertation, MIT, 1997. [Breitenberg 1984] Breitenberg, V.: Vehicles: Experiments in Synthetic Psychology, Cambridge: MIT Press, 1984 2013-07-26-0814 5/6 会話情報学 4. 会話システムのアーキテクチャと構成法 その 2 西田豊明 [Elliot 1992] Clark Elliott. The Affective Reasoner: A Process Model of Emotions in a Multi-Agent System, PhD Thesis, Northwestern University, 1992 [Elliot 1994] Clark Elliott. Components of two-way emotion communciation between humans and computers using a broad, rudimentary, model of affect and personality, Cognitive Studies: Bulletin of the Japanese Cognitive Science Society, 1, 16-30. Lim, M. Y., Dias, J., Aylett, R., & Paiva, A. (2010). Creating adaptive affective autonomous NPCs. Autonomous Agents and Multi-Agent Systems, 24(2), 287–311. doi:10.1007/s10458-010-9161-2 [Maes 1995-IJCAI] Maes, P., Blumberg, B., Darrell, T., Pentland, A., Wexelblat, A.: Modeling Interactive Agents in ALIVE. IJCAI 1995, 2073-2074 (1995) [Picard 1997] Rosalind W. Picard. Affective Computing, The MIT Press, 1997. [Rao 1995] Anand S. Rao and Michael P. Georgeff. BDI Agents: From Theory to Practice, In Proceedings of the First International Conference on Multi-Agent Systems (ICMAS-95), pages 312–319, 1995. 2013-07-26-0814 6/6