...

人工知能の自然言語理解に関する哲学的検討‐Searle

by user

on
Category: Documents
23

views

Report

Comments

Transcript

人工知能の自然言語理解に関する哲学的検討‐Searle
007
SFC−SWP 2015−
研究会優秀論文
人
工知能の自然言語理解に
関する哲学的検討 ― Searleの「中国語の部屋」における
射程の分析を通じて ―
2015年度 秋学期
AUTUMN
水 上 拓 哉 環境情報学部 4年
宮代 康丈 研究会
慶應義塾大学湘南藤沢学会
人工知能の自然言語理解に関する哲学的検討
――Searle の「中国語の部屋」における射程の分析を通じて――
慶應義塾大学 環境情報学部 4 年
水上 拓哉
人工知能の自然言語理解に関する哲学的検討
――Searle の「中国語の部屋」における射程の分析を通じて――
論文要旨
人工知能は人間と同じような心をもつことができるのだろうか.本論文は,J. Searle の心の哲学に
依拠しながら,人工知能の形式的計算と人間の心的過程の本質的差異について哲学的に考察したもので
ある.
アメリカの哲学者 Searle は有名な思考実験「中国語の部屋」によって,機械が自然言語を適切に入
出力させるだけでは,心そのものを実装したことにはならないことを論じたが,これに対しては多くの
批判が既にある.しかし,その批判の多くは「中国語の部屋」における議論の射程を見誤っており,反
論として妥当性を欠いていると考えられる.本論文では,従来の「中国語の部屋」に対する批判がどう
いった点で Searle の議論の射程を捉え損なっているのかについて詳細に検討し,その作業を通じて「中
国語の部屋」において Searle は何を主張し,何を主張しなかったのかについて,正確に輪郭付けること
を試みる.そして,議論の射程が輪郭付けられた「中国語の部屋」を肯定的に捉えた場合,人工知能が
人間と同様の認知能力や思考能力を獲得するためには何が要請されるのかについても考察する.
キーワード
心の哲学,人工知能,自然言語理解,「中国語の部屋」
,コネクショニズム
慶應義塾大学 環境情報学部 4 年
水上 拓哉
i
Can AI Understand Natural Language? Philosophical Analysis
on J. Searle’s “Chinese room argument” and its Scope
Summary
Can artificial intelligence have a mind like humans? This paper aims to analyze the difference
between machine computation and human cognitive process, relying on J. Searle’s philosophy of
mind. According to this American philosopher, artificial intelligence cannot have a mind like humans, for human cognitive process must not be reduced to simple inputs and outputs of natural
language. This argument, called “Chinese room argument”, has been the subject of many criticisms. However, these reactions often misunderstand the scope of Searle’s argument. In this paper,
I will attempt to clear up these misunderstandings. Moreover, I will try to show what is required
if artificial intelligence may have a cognitive ability and a language capacity.
Keywords
philosophy of mind, artificial intelligence, natural language understanding, Chinese room argument, connectionism
Faculty of Environment and Information Studies
Keio University
Takuya Mizukami
ii
目次
第1章
序論
1
1.1
研究の概要 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1
1.2
研究の背景 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3
1.3
論文の構成 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4
準備
5
2.1
Searle の心の哲学 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
6
2.2
人工知能批判における「外的」批判・「内的」批判の区別 . . . . . . . . . . . . . . . .
13
2.3
人工知能研究における認知モデルの変遷 . . . . . . . . . . . . . . . . . . . . . . . . .
15
「中国語の部屋」を再検討する
18
3.1
J.Searle について
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
18
3.2
人工知能の誕生とチューリングテスト . . . . . . . . . . . . . . . . . . . . . . . . . .
18
3.3
チューリングテストの批判に対する Turing の再反論 . . . . . . . . . . . . . . . . . .
20
3.4
「中国語の部屋」の登場まで
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
21
3.5
「中国語の部屋」
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
21
3.6
「中国語の部屋」に対する初期の反論 . . . . . . . . . . . . . . . . . . . . . . . . . .
22
3.7
〈射程〉の確定作業 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
24
3.8
「中国語の部屋」からの帰結
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
34
第2章
第3章
第4章
結論
41
参考文献
43
iii
第1章
序論
Algorithms are essentially thoughtless. – Eric Meyer
1.1 研究の概要
手塚治虫の「鉄腕アトム」が作中で開発されたのは 2003 年のことである.2016 年の今,アトムのよ
うに自然言語によって私たちとコミュニケーションできる人工知能*1 は存在しない.これはなぜだろう
か.コンピュータのマシンパワーの問題だろうか.もしそうならば,藤子・F・不二雄の「ドラエもん」
が作中で開発される 2112 年には人工知能は私たちの言語を使いこなせるようになるかもしれない.し
*2 を理解することが,コンピュータの形式的な操作とは一線を画すような〈何
かし,もし言語の〈意味〉
か〉であるならば,2112 年になってもそういった人工知能はの登場は絶望的だろう.その場合,その
〈何か〉とは一体何だろうか.
本論文では,J. R. Searle の「中国語の部屋」の思考実験に依拠しながら,人間の自然言語理解にお
ける認知過程と人工知能の形式的過程の違いについて,哲学的に考察する.Searle は 1980 年,
「中国語
の部屋」によって,私たちの自然言語理解の認知過程が,コンピュータのような形式的過程ではないこ
とを示そうとした [Searle, 1980]*3 .この主張が正しければ,人工知能が自然言語を理解すること,そし
て人間並みの知性をもつということが不可能であることが示される.
*1
現在では,
「人工知能(artificial intelligence)」は多様な意味合いで用いられるので,本論文で「人工知能」がいかなるも
のを指すかについて付言しておきたい.『人工知能概論(第 2 版)
』[荒屋, 2004] によれば,人工知能とは「人間の知能を生
み出している諸機能をコンピュータ上に実現することを目的として生まれた学問」である.松尾 [2015] は,国内の著名な
人工知能研究者の「人工知能」の解釈をまとめている.それによれば,概ね,先述した「人間の知能をコンピュータで実現
させる学問」という解釈に加え,そういった知能を実現したコンピュータ・プログラムそのものという解釈,またその研究
によって人間の知性の本質について考える学問,という解釈もあった.本論文では,これらの解釈に沿って「人工知能」と
いう言葉を用いる.ただし,ここでいう「知能」というのは,現在ある程度実現されている推論や画像認識,自然言語処理
などの知的な処理のみに留まらず言及することにしたい.つまり,本論文で「人工知能」といえば,先述した知的な処理を
させるだけではなく,人間と同じような心的状態(意識状態や志向的状態)を機械の上で実現させることを念頭に置いて
いる.この点を「人工知能」の範疇に加えておかない場合,そもそも本論文の主題である「中国語の部屋」の思考実験は,
「人工知能」とは関係のない議論になる.
*2
本論文では山括弧〈〉を,引用目的の鉤括弧「」と区別するために,強調の意味合いで用いることがある.
*3
本論文では,文献から情報を引用する場合,年号は原典が出版された年を記す.ただし,ページ数を示す場合,邦訳のもの
があるときには,その邦訳版を参考文献欄に示した上で,邦訳版のページ数を記すことにする.
1
「中国語の部屋」は,哲学のトピックとしては既に〈終わった〉ものとされている.Searle は今でも
「中国語の部屋」に対する反論を認めようとはしていない.一方で,批判者たちも「中国語の部屋」の妥
当性はとうに失われているものだと確信している.現在,
「チューリングテスト」や「中国語の部屋」を
嬉々として引き合いに出す研究者は,哲学者ではなく,むしろ工学サイドの研究者である*4 .では哲学
の研究者が「中国語の部屋」を今改めて論じることには意味がないのだろうか?
そんなことはない,と私は思う.というのも,「中国語の部屋」の議論が現在でもなお平行線を辿っ
ているのには,明確な理由があるからである.その理由に迫ることで,「中国語の部屋」を正面から捉
え直し,この哲学的に洗練された議論を更に有意義なものにすることができるだろう.本論文はその一
試論である.
では,その理由とはなにか.それは,Searle の議論における〈射程〉を批判者が誤解したまま議論し
てしまっている,というものである.ここでいう〈射程〉とは,Searle による用語の定義,問題設定が
どのようなものであったか,そして,彼が何を主張し,何を主張しなかったか,という輪郭のことであ
る.結局,「中国語の部屋」を終わった議論だとしてお払い箱にする哲学者・人工知能研究者の多くは,
この〈射程〉を見誤っており,それがこの有益な思考実験の議論を無益なものにしてしまっている大き
な原因である.本論文では,この〈射程〉を明確に示すことを試みたい.この論文で私は,Searle の心
の哲学を肯定的に論じていくが,もちろん彼の議論に問題が全くないわけではないのは確かだ.とはい
え,先行研究における Searle 批判は,先述したような〈射程〉を誤解したまま批判に踏み切っており,
適切な反論ができているものはかなり少ないように思われる.ここは一旦,Searle を肯定的な立場で捉
えることで,〈射程〉の確定に迫ることこそが重要なのではないだろうか.その作業を通じてはじめて,
「中国語の部屋」を正しく,つまり有意義に批判することができるのである.Searle の〈射程〉を輪郭
付ける旅を通じて,私たちは「中国語の部屋」の新たな価値に気づくことができるだろう.
また,Searle が論文を発表した 1980 年時点では,いわゆる古典的計算主義的な認知観が支持されて
いた.Searle 自身も「中国語の部屋」を最初に発表したときには,古典的計算主義を前提としていた.
これは,彼が具体的な人工知能として Weizenbaum の ELIZA や Winograd の SHRDLU を挙げてい
たことからもわかるだろう.しかし,ちょうど 1980 年以降,人間の脳神経構造をモデルとする認知観
である,コネクショニズムが台頭した [信原, 2004].近年のニューラルネットワーク(コネクショニズ
ム)のような脳神経の過程をシミュレートするタイプの人工知能について,「中国語の部屋」がいかに
説得力を持ち続けるかについては議論の余地がある.本論文では,Searle とコネクショニストである
Churchland 夫妻(Paul Churchland, Patricia Churchland)との 1990 年代の論争を中心に,この点に
ついて検討する.ただし,先ほど述べたように,この議論は先述した〈射程〉をめぐる議論と独立して
はいない.むしろ,〈射程〉の確定からコネクショニズムからの再構築可能性の議論は,極めてスムー
ズに接続できる.本論文ではその点についても確認する.
以上の作業により,
「中国語の部屋」における〈射程〉が明確に示されることによって,私たちの心的
過程とコンピュータの形式的過程の本質的違いが確認されることになるだろう.本論文では,最後に,
*4
詳しくは第 3 章で取り上げるが,日本では 2011 年,人工知能学会誌 26 巻 1 号において「チューリングテスト」に関する
特集が組まれたのが記憶に新しい.その特集では,哲学者ではなく,工学系(人工知能系)の研究者が中心となって論文を
投稿していた.
2
この正確に輪郭付けられた「中国語の部屋」の議論を通じて,機械が人間と同じような心的状態をもつ
ことができるとすれば,一体何が要請されるのかということについて考えたい.また,この問題につい
ては,Searle 自身がコミットしていた言語行為論からもアプローチできることを確認したい.これらは
一見,独立したものであるように思えるが,実のところ正確に分析された「中国語の部屋」の議論のも
とでは,統一的・体系的に議論することができると私は考えている*5 .
1.2 研究の背景
人工知能に関する倫理的問題は,かつては SF の中だけで語られるテーマであったが,現在では,実
際に生じうる喫緊の問題になりつつある.特に軍事や医療の分野において,人工知能プログラムないし
人工知能が搭載されたロボットが高度に倫理的な判断をする場面が見られるようになった.こういった
判断は,人間の判断の代替となるだけではなく,むしろ人間よりも適切な判断を下すことも期待されて
いる一方で,道徳的行為者として不適切な判断をしてしまうのではないか,という不安も現実に現れ
始めている.ウェブデザインコンサルタントの Eric Meyer が 2014 年のクリスマス・イブに投稿した
ブログ記事は,そういったプログラムの道徳的軽率さの例の一つとして挙げることができる.Eric は,
Facebook が提供したアプリケーション “Year in Review” を利用していた.これは,ユーザの一年の
投稿を〈要約〉し,一年を振り返るカードを作成するというアプリケーションである.彼は,周囲の人
間がこのアプリケーションを利用したカードをシェアしているのを見て,自分のカードを作ろうと考え
た.そこにパーティー風の楽しげな装飾と一緒に表示されたのは,その年のはじめにがんで亡くした
Eric の最愛の娘,Rebecca の姿だった.彼はブログにそこで受けた悲しみや怒りといった精神的苦痛を
吐露したあと,以下のように続けた.
アルゴリズムは「考えなし」だ.アルゴリズムは与えられた条件に従って一連の決定を下す.し
かし,アルゴリズムを作動させると,当初は予想しなかったさまざまな「考え」が浮かぶ.ある
人を「考えなし」と呼んだとすれば,それは侮辱になるだろう.しかし,われわれはコンピュー
タの力によって,無数の「考えなし」なプロセスをわれわれの上に引き寄せている.*6
今,世界で活躍しているロボットには様々なタイプのものがあるが,この件のように,人工知能の
「知的な振る舞い」が,かえって人々に多大な精神的苦痛を強いる可能性がある.近年注目されている
自然言語処理を用いた対話システムの開発においても,この問題は無視できない.昨今,「技術的特異
*7 といった極端な未来モデルについても盛んに議論されるようになっ
点(Technological Singularity)」
*5
本論文は,2015 年度(平成 27 年度)に卒業論文として提出されたものに,若干の修正・加筆をしたものである.執筆に
あたっては,指導教員の宮代康丈先生から指導を賜った.また,堀茂樹先生,文学部哲学科の岡田光弘先生からも有益な助
言を頂いた.
*6
Meyer[2014] より.翻訳(http://jp.techcrunch.com/2014/12/26/20141225facebooks-year-in-review-feature-will-
*7
「技術的特異点(Technological Singularity)」とは,技術者・未来学者である Ray Kurzweil が,The Singularity Is
chronicle-your-2014-good-or-bad) (2016 年 2 月 13 日 閲覧)
Near: When Humans Transcend Biology で提唱した概念.いわゆる「強い人工知能(Strong AI)」が登場したとき,
そうした人間を凌駕する人工知能が私たちの未来を支配するようになり,科学技術史からは予測できないような状態にな
る,という未来モデルのことである [Kurzweil, 2005].このモデルが実現するためには,強い人工知能の実現が前提と
なっているため,本論文が主題としている人工知能の自然言語理解の可能・不可能性は,技術的特異点の可能・不可能性に
3
た.人工知能と共に私たちがよりよい社会のために何ができるかということを私たちは真剣に議論する
必要がある.そして,そのためには,そもそも人工知能が道徳的行為者であるためにはどのような問題
が解決(ないし解消)されなければならないかについても考えなければならないのである.
1.3 論文の構成
第 2 章以降の本論文の構成を説明する.第 2 章では,本論をなす第 3 章の議論において必要となる前
提知識をあらかじめまとめ,概要で示した議論そのものは,第 3 章で行う.
第 2 章は,あくまで歴史的な事実を述べるか,教科書的な議論を示すだけに留まる.具体的には,
Searle が心の哲学においてコミットする「生物学的自然主義(biological naturalism)」という立場につ
いて,哲学的人工知能批判における「外的」
・
「内的」批判の区別について,そして,古典的計算主義から
コネクショニズムへの認知モデルの変遷について説明する.これらの前提知識が既にある読者諸賢は,
第 3 章から読んでも問題がないように構成してある.一方,これらについて不案内な読者であっても,
第 2 章から第 3 章へという流れで読むことによって,ほとんど前提知識を必要とせずに読みこなせるよ
うに配慮した.
第 3 章は,本論である.ここではまず,1950 年に「チューリングテスト」が考案されたのをスタート
地点にして,歴史的に議論を展開する.この歴史的旅行が 1980 年の “Minds, brains, and programs”
まで到達し次第,概要で述べた「中国語の部屋」の議論における〈射程〉の確定作業に入る.この作業
が終わったら,輪郭付けられた「中国語の部屋」の議論から,人工知能が人間と同じような心的内容を
得るためには少なくとも何が要請されるのかについて検討する.最後に,その議論と関連させた形で,
自然言語の意味理解を語る上で,言語行為論や語用論的側面に言及することが避けられないことについ
て論じる.
最後に第 4 章で,本論文で示された結論について簡潔に述べることにしよう.
直結する.
4
第2章
準備
本章では、第 3 章での議論に入る前に,必要となる知識をあらかじめまとめる.
最初に,Searle 自身が心の哲学においていかなる立場にコミットしているかについて確認する.彼は
「生物学的自然主義」という立場を取っている.心の哲学において,「○○主義」という形で呼ばれる主
な立場は,Descartes 以来,心的なものと物理的なものを存在論的に明確に分ける心身二元論と,心的
なものか物理的なもののどちらかのみを認める心身一元論のどちらかに分類されるようになった.つま
り,現代の心の哲学における立場は,そのほとんどが大枠で心身二元論か心身一元論のどちらかに分類
されるということである.しかしながら,Searle の生物学的自然主義はこれら双方のいずれにも属さな
い点で興味深い.そして,この立場について理解することは,「中国語の部屋」の議論を正確に把握す
る上でも重要であると私は考える.
次に,哲学的人工知能批判における大きな分類についても言及する.Chalmers[1996] の用語を借り
れば,哲学的人工知能批判には「外的批判」と「内的批判」がある.この分類に従えば,
「中国語の部屋」
は内的批判に分類される.本論文では,「中国語の部屋」の議論を中心に据えるため,「外的批判」につ
いては深入りせずに議論を進める.私としては,より強い主張である「外的批判」には妥当性がないと
いう前提で議論を展開したい.というのも,この外的批判の主な論法については,Chalmers 自身が再
反論している内容がもっともらしい議論であるように思われるからである.ここでは彼の議論を借りな
がら,なぜ外的批判には問題があるのかについて言及する.
本章では最後に,人工知能(および心の哲学)における認知観の変遷についても歴史的に言及してお
きたい.第 1 章で既に言及したように,
「中国語の部屋」の思考実験が,古典的計算主義に当てはまるも
のだとしても,コネクショニズムにも当てはまるかについては議論の余地が残る.この点について議論
を展開することによって,「中国語の部屋」の射程はより正確に示されることになるが,これは第 3 章
で行う.ここでは,その前提知識として,古典的計算主義とコネクショニズムがどのような歴史的背景
で生まれたのか,そして両者の認知観としての差はどのような特徴に見いだせるのか,という点につい
てあらかじめ論じておく.
5
2.1 Searle の心の哲学
ここでは,Searle の「中国語の部屋」のベースとなっている彼の心の哲学について概観する.この作
業は,Searle の「中国語の部屋」における〈射程〉を明確に示すためにも重要な作業である.というの
も,彼の生物学的自然主義(biological naturalism)は「中国語の部屋」と十分に両立するものであり,
その点に着目することが,彼の「中国語の部屋」における真意に迫るために役立つからである.生物学
的自然主義とは,
(Descartes 以来の)心身二元論やそれと対を成す心身一元論(物的一元論)のそれぞ
れを排する立場である.ここでは,なぜ Searle にとって心身二元論・一元論の双方が妥当ではないのか
について述べることからはじめたい*1 .
2.1.1 デカルト的心身二元論批判
近代における心の哲学は,実質的には Descartes(1596-1650) の仕事をもってはじまる [p. 28].彼の
有名な立場は,心身二元論と呼ばれる.これは,世界はそれ自体で存在しうる二種類の実体*2 または存
在者に分かれているという考えである.心的な実体・物理的実体に存在者を分割した彼の立場は,「実
体二元論」とも呼ばれる.心の本質たる「意識」を Descartes は「思惟」と呼んだ.一方,身体の本質
たる物理的空間における三次元的な広がりのことを「延長」と呼んだ.
Descartes は,心と身体のそれぞれに異なる性質が見られると分析した.たとえば,身体の方は無限
に分割可能である.つまり,原則としてはより小さな部分に無限に分けられる.他方で心の方はという
と,分割不可能である.したがって,心は,身体が破壊されるような形では破壊され得ないのだ.また,
物理的存在者としての身体は物理法則に服する.振り下ろした腕が机をすり抜けることはないし,高い
ところから飛び降りれば,物理法則に従って(他の物体と同様に)落ちていく.一方,心には「自由意
志」があり,物理的法則に縛られない.私たちは自由に意志して論文を書いたり書かなかったりできる.
ここに物理的法則は介入しない(ように思われる).さらに,これらの実体を私たちがどのように知り
得るかについても大きく異なる.身体・物体を直接に知ることはできない.物体の存在と性質について
は,心の内容からの推論によって間接的に知られるにとどまる.目の前にある机は直接的に知覚されて
いるわけではなく,机の意識経験(=観念*3 )が知覚されているにすぎない.その経験から,机の存在
が〈推論〉されるのだ.一方,心の方はというと,これは直接的に知ることができる.心の存在とその
内容を直観的に知っており,そのテーゼは『方法序説』のあまりにも有名な一文,“Cogito ergo sum”
(我思う,故に我在り)で要約される.私たちは,自分の意識の存在について思い違えることはできず,
本質的に意識する・心をもつ存在なのである*4 .あなたが意識的であるとき,それは事実意識的である
*1
この節においては,Searle[2004] を中心に取り上げる.この節で本書から引用する場合は,それを明示しない.ページ数
は邦訳版を用いる.
*2
substances の和訳である.元はラテン語の substantia から来ており,下に(sub)立つもの(stantia)が原義である.
つまり,存在するために他のものを必要としない,それ自体で存在するものが,「実体」なのである.これは,元々は
Aristotele の用語である.
*3
現代の心の哲学の用語を使いたければ,センスデータという用語で置き換えてもよいだろう.
*4
cogito の指す範囲は広いが,ここで Searle は意識とほぼ同じ意味で用いているように思われる.Searle にとって,思惟
(思考)することと意識することは,切っても切り離せない関係である.
6
し,あなたが痛みを感じるとき,それは事実痛みを感じているのである*5 .
以上で,Searle が Descartes の心身二元論をどのように解釈しているかを要約した.彼の哲学は,そ
の後の心の哲学の流れを決定づけるだけでなく,科学史的にも重要なブレイクスルーであった.当時の
科学の進歩の様子は現在とは異なり,宗教との折り合いが重要であった.キリスト教をめぐる天動説と
地動説の関係はもちろん,この〈心〉に関する科学的探求も,同様にキリスト教といかに調和させる
か,という問題を抱えていた.そういった科学史的文脈の中で,Descartes の心身二元論は重要な役割
を担ってきたと Searle は積極的に評価している [p. 30].地動説もそうだが,新しい科学的発見はキリ
スト教の権威を揺るがしかねないものであった.しかし,Descartes の二元論は,物質的な身体(物体)
と心的な心をきっぱりと分離させることで,科学者には物質的な世界を,神学者には心的な世界を与え
ることに成功した.これによって,科学と宗教の対立はある程度緩和されたのである.
だが,Searle は,
「Descartes が心に関して真理を述べていたか」という観点からは,心身二元論に対
して批判的な態度を取っている.事実,彼は Descartes の見解を「解決よりも多くの問題を残した」と
酷評している [p. 32].実体を心的なものと物理的なものに二分した彼の仕事が,心の哲学上の難問を残
してしまったと考えているのだ.Searle は,そのうち 8 つの難問について彼自身の見解を述べている.
ここでは,彼の取り上げる「心身問題」について言及し,他の難問(批判点)については,まとめて論
じることにしよう.もちろん,「心身問題」をはじめとする Searle による批判は,彼がオリジナルでは
ないものも多く含んでいるが,本節で重要なのは,彼が Descartes 的な二元論に対してどのような見解
を持っていたかを整理することである.
(1)
心身問題
心身二元論に対する最も有名で,かつ最も有力とされている反論が,「心身問題」に関する反論であ
る.これは,心身二元論によって別々の世界に押し込まれた心的なものと物理的なものが,どのように
して因果関係を持つことができるか,という問いである.
物理的なものが,私たちの心に何かしらの結果を生み出すことは問題がないよう直観的には思われ
る.その逆,すなわち,心的なものが,私たちの身体に何かしらの結果を生み出すことも容易に理解で
きる.例えば,私が三田キャンパスで授業を終え正門を出ると,右側からラーメンの独特で何とも言え
ない匂いを感じる.ご存知の通り,匂いは〈物理的〉な対象である.そこで私は「よし,今日は二郎行
くか!」という〈心的〉状態を得る.その結果,私の〈物理的〉な身体は,お腹を満たしたいという〈心
的〉状態によってラーメン二郎に向かわされることになるのである.
ここで生じる問題は 2 つある.一つは,物理的な対象がなぜ心的な結果をもたらすことができるの
か.もう一つは,心的な性質がなぜ物理的な結果をもたらすことができるのか,ということである.心
身二元論においては,これらは完全に別のカテゴリーであるため,これらが双方行ったり来たりで因果
関係をもつためには,何かしらの説明を加えなければならない.
とはいえ,Searle は Descartes の哲学が現代の心身二元論者の主張とは異なることを指摘する [p.
*5
この点は Searle 自身の哲学を理解するためにも重要なものである.このあと,Searle は Descartes の心の哲学を強く批
判することになるが,この「心の存在,意識の存在は疑い得ない」という点についてはむしろ肯定的であるし,彼自身も生
物学的自然主義の構築のベースにこの主張を大いに利用している.
7
35].現代の心の哲学では,たとえ心身二元論者であっても,大抵は脳を備えた身体が意識をもつと考え
る傾向がある.しかし,Descartes にとっては,痛みを感じるだとか,ラーメンが食べたいだとか,そ
ういった特定の心的状態が脳とは完全に独立した形で実在している.彼は,テーブルや椅子が意識をも
たないのと同じように,身体や脳も意識をもちえないと考えた.そして,その区別された身体と心(身
体)は,どういうわけか因果関係で結びついているのである.ここに心身二元論の奇妙さがある.
(2)
その他の問題
Searle が心身問題以外に挙げた心身二元論の問題点は以下のとおりである [p. 35-46].
• 他人の心
• 外部世界の懐疑
• 知覚
• 自由意志
• 自己と人格の同一性
• 動物の心
• 睡眠
Searle によれば,これらの問題は独立したものではなく,相互に関連した問題である [p. 60].
Descartes の心身二元論はクラシックな二元論として理解されている.20-21 世紀にも二元論者は一
定数おり,有名な論者には J.Eccles がいる.とはいえ,現代の二元論であっても,Descartes の困難を
共有して抱えていることを Searle は指摘する.それは,どうしたら心的な心(魂)と物理的な身体(物
体)の因果関係を整合的に説明することができるか,ということであり,上で言及した「心身問題」は
その代表的な論点である.また,物理学によれば,宇宙に存在する物質やエネルギーの総量は一定であ
るにも関わらず,心身二元論はそういったものとは本質的に異なるような心的エネルギーを想定しなけ
ればならず,現代物理学との整合性も怪しい.
Searle の生物学的自然主義については後に詳述するが,彼の心の哲学における立場と実体二元論が
明らかに対立するのは,脳と身体が心にとってどれほど重要な要素であるかという点についてである.
Searle の立場では,心や意識にとって,脳神経構造が重要な役割を担っている.これ自体は穏当な考え
方だろう.一方,Descartes 流の実体二元論は脳神経構造も,それを備える身体も意識や心をもたない
と考えている.実体二元論にとって,これらの要素は関係のないものである.
では,なぜ現在に至ってもなお,心身二元論の立場を頑なに支持しようとする人が現れるのだろうか.
それは,心的な性質が,純粋に物理的で科学的な世界観とマッチしないだろうという直観が私たちには
あるからだ.しかし,そういった直観をもったからといって,心身二元論を必ず養護しなければならな
いとは限らない.このことを示す具体的な道筋が,Searle の生物学的自然主義なのである.この点は後
で詳述しよう.
8
2.1.2 心身一元論批判
さて,以上で Searle の心身二元論に対する見解について簡単に言及した.彼にとって,Descartes の
ような二元論は到底認められないものであった.しかし,では Searle は二元論に対立する心身一元論,
特に唯物論に加担しているのか,と聞かれれば,その答えは「ノー」となるだろう.本節では,Searle
の唯物論に対する批判的見解について整理することで,彼が心身二元論・唯物論の双方に対して批判的
であったことを確認する.
一元論には,心的な一元論と物質的な一元論があり,それぞれ「観念論」「唯物論」と呼ばれる [p.
72-].観念論によれば,心的な現象はすべて観念である.一方,唯物論によれば,物質的もしくは物理
的なものだけが唯一存在する.21 世紀に入ってからも,心の哲学で唯一最大の影響力を持ってきた学説
は,唯物論の方である.Searle は,この唯物論が哲学,心理学,認知科学など,心を研究する専門領域
の専門家たちの間で,あたかも〈宗教〉のように疑念なく受け入れられていると分析する.しかしその
一方で,それを裏付けるような,唯物論者から広く受け入れられるような説明を定式化することはでき
ずにいたのである.唯物論は,先述したような Descartes の存在者の区別における,物理的なもののみ
を認めている立場である.したがって,その純粋に物理的なものだけでは,私たちの誰もが意識や志向
性といった心的性質を備えているという事実を説明することができない.Sealre が唯物論を問題視する
理由はこの点にあり,もちろんこれは一般的な唯物論批判の論点と重なるのである.
2.1.3 生物学的自然主義までの準備
以上で確認したとおり,Searle は心身二元論だけではなく,唯物論をも受け入れがたいものだとして
批判している.しかし一方で,彼自身も二元論・唯物論がそれぞれ言わんとしていることについての正
しさは認めるのである.すなわち,唯物論が主張するように,世界とはもっぱら物理的な粒子からでき
ていることは妥当に思えるし,他方で二元論が主張するように,世界には物質的に還元も消去もできな
い心的な性質,とりわけ意識と志向性が存在するということも同じく妥当に思えるということだ.とは
いえ,両者の主張がどちらも正しいとなれば,これらを矛盾なく提示する方法がなければならないし,
その点がまさに心の哲学におけるアポリアなのである.伝統的な哲学的カテゴリーを前提とすると,ど
うしたらこの 2 つの見解が矛盾せずにありうるかを理解するのは容易なことではない.このジレンマを
解決するために Searle は,両者の見解を両立させるために,伝統的な語彙の背後にある前提を暴き出
し,それを捨てることを提案するのである.そして,その作業の上に構築されるのが,
「生物学的自然主
義(biological naturalism)
」という Searle の心の哲学上の立場である.本項では,その作業がどのよう
なものか,そしてその先にある生物学的自然主義がどのような立場であるのかについて,検討していく.
心身二元論と心身一元論の対立から脱却するために,Searle はまず,議論に使用されてきた用語と,
その用語によって作られた仮説について分析する.彼が問題視する〈用語〉は,例えば以下のようなも
のである.
• 「還元」
9
• 「因果」
• 「同一性」
• 「心」
• 「身体」
• 「心的」
• 「物質的」
• 「物理的」
そして,彼が疑問に感じている前提は,以下の前提である.
• 心的なものと物理的なものの区別
• 還元の概念
• 因果と出来事
• 同一性の自明視
以下で私は,これらの前提がどういった混乱を含んでいるのかについて,Searle の分析を要約する.
細かい議論は Searle[2004] を参照するとよいが,ここでは上記の 4 つの前提のうち,上 2 つの分析につ
いて紹介する.というのも,心的なものと物理的なものの区別,そして還元の概念をそのまま受け入れ
ないというのが,生物学的自然主義にとって最も大事な過程だからである.
(1)
心的なものと物理的なものの区別
まず,「心的なもの」と「物理的なもの」はそれぞれ排他的で相容れない存在物であり,存在論的な
カテゴリーとして別のものを指している,という仮説を取り上げる.この仮説に従えば,ある対象 X が
「心的なもの」である場合,X には「物理的なもの」の性質,例えば,分割可能である,破壊可能である
といった性質を認められないことになる.逆に,X が「物理的なもの」である場合,X には「心的なも
の」の性質,例えば,分割不可能である,破壊不可能であるといった性質が認められないことになる.
心的性質を物理的な世界のみで説明しようとするのが物的一元論の基本的な戦略であるが,その際に
は心的なものを物理的なものに〈還元〉することを試みる.つまり,自由意志だとか,延長をもたない
だとか,そういった心的な性質は,適切な分析をすれば実は物理的なものだったのだ,という論法であ
る.そして,そういった作業を終えた物的一元論者は,自らが二元論の「心的」
「物理的」の二分法に打
ち勝ったと考えがちである.
しかしながら,実際のところそのような物的一元論者の戦略は,二元論の二分法を受け入れてしまっ
ているのである.例えば,左に心的なものの性質を並べ,右に物理的なものの性質を並べた表を想像し
てみてほしい.このように,これらの性質を心的なもの,物理的なもの,といった具合に線引きするの
が,Descartes 以来の二分法であった.そして,物的一元論者のように「心的なものは全て物理的なも
のなのである」と主張するということは,先ほど作成した表の左側を手で隠すようなものなのだ.その
上で,心的なものとしての心的なものを認めず,物理的なもの以外には何も存在しないと主張する.し
かし,心的なものと物理的なものを区別した表は,他ならぬ心身二元論が提供した枠組みであった.一
10
元論は,(唯物論であれ観念論であれ,)この枠組みを受け入れた上で,表の左か右,すなわち心的なも
のか物理的なものを否定しようと試みるのである.したがって,一元論の戦略は,二元論の枠組みを前
提として成り立っていることがわかる.
(2)
還元の概念
Searle が次に分析するのは,「還元」という概念である.これは,哲学では特に断りなく使われるも
のであるし,心の哲学においては無批判に使われる概念である.例えば,意識が脳過程に還元されうる
ということは,意識とは脳過程に他ならないということになる.
しかし,Searle は,この還元にはいくつかの種類があり,それらを区別して論じることが重要である
と主張する.彼は以下のように還元の概念を詳細に分類する.
• 「因果的還元」と「存在論的還元」
• 「消去的な還元」と「消去的ではない還元」
まずは,「因果的還元」と「存在論的還元」の区別である.ここでは心の哲学に的を絞って例示しよ
う.意識は脳に還元される,という立場に「心脳同一説」があるが,これは,意識や心というものは,
脳過程に〈ほかならない〉と主張する立場である.この還元は,存在論的に同一であることを認めるた
め,
「存在論的還元」といってよい還元である.一方で,物体の固体性は,分子のふるまいへと〈因果的
に〉還元できる,ということができる.すなわち,不可入性だとか,他の個体を支えられるだとか,そ
ういった固体状の物体の性質は,ミクロな分子の振る舞いから因果的に説明でき,かつ固体性は分子の
因果的力以外に因果的な力をもたない.
意識に関して,Searle は,因果的な還元はできるものの,(心脳同一説のような)存在論的な還元を
することは不可能であると主張する.意識というものは,ニューロンの振る舞いから因果的に説明可能
である.「なぜ私たちが意識的であるか」と問われれば,それはニューロンの特定の振る舞いのためだ
と答えることができるだろう.しかし,このように答えられたからといって(つまり,因果的還元を認
めたところで,
)意識がニューロンの振る舞い〈そのもの〉だと主張すること(つまり,存在論的還元を
認めること)にはつながらない.これらは同じ〈還元〉という用語を使用しながらも,実際は大きく異
なるタイプの還元なのである.
ではこの区別は心の哲学に何をもたらすのか.それは先述した「心的なもの」と「物理的なもの」の
二分法にも関係する議論である.ある性質 X が物理的なものに〈還元〉できると主張したとしよう.こ
のとき,その〈還元〉は,存在論的(○○にほかならない型の還元)だとする.そのとき,X は物理的
なものにほかならないということになるため,たとえ X という性質の中に物理的には説明困難な性質が
あったとしても,その性質は物理的なものへの存在論的還元の過程で切り捨てられてしまうことになる
のだ.心や意識の場合もそうである.心脳同一説は,心を脳過程に存在論的に還元可能だとする立場で
あるが,このとき,心的な性質が物理的なニューロンの振る舞い〈そのもの〉だとされてしまう.この
とき,心脳同一説の論者は,心的な性質を無理やり物理的なカテゴリーの中で説明せざるを得なくなる
だろう.一方で,心や意識は,ニューロンの振る舞いそのものではないが,少なくともニューロンの振
る舞いから因果的に発生する,と主張した場合(つまり因果的還元を主張する場合),心脳同一説が抱
11
えたような困難に説明をつける必要はないのである.
また,Searle は還元について,それが消去的な還元であるのか,消去的ではない還元であるのかとい
う区別を導入する.消去的還元とは,あるものが還元された結果,そもそも存在しなかったものとして
扱われるような還元である.例えば,日没という現象は,実際に日が沈んでいるわけではない.周知の
とおり,これは地球の自転によって,日が沈んでいるように見えているだけであり,いわば〈錯覚〉で
ある.この場合は,日没は地球の自転に還元されるわけだが,その場合は日没という現象そのものが消
去されるため,消去的還元と呼ぶことができるだろう.一方,物質的なもの,例えば目の前にある机は,
より細かい分子に還元される,という場合,この還元は机を消去するものではない.これは,机がある
という現実の現象が世界の中でどのようにして現実化されているのかを示すタイプの還元である.この
区別が生物学的自然主義にとって重要であることは,次項にてすぐ述べることにしよう.
2.1.4 生物学的自然主義
上で述べたような,従来の前提を解体していく論法は,そのまま生物学的自然主義へと繋がっていく.
Searle が自らの立場を「生物学的自然主義(biological naturalism)」という名前で呼んでいるのは,伝
統的な心身問題を,生物学の知見に基づきつつ,自然主義の枠組みで解決を試みるためである.この生
物学的自然主義は,4 つのテーゼで表される.それぞれを要約しよう.
1 つ目は,意識状態は,現実世界における現実の現象である,というものである.例えば,喉の渇き
といった意識的状態は,人間の主観がそれを経験しないと存在しえない点で主観的であり,一人称的で
ある.しかし,喉が渇いているという状態は,まさしく現実に起きている現象である.そういった意味
で,意識というものを何かの錯覚だとして〈消去的に〉還元したり,脳神経の基盤に〈存在論的に〉還
元することもできない.なぜならば,そういった還元は,主観的で一人称的な性質を,三人称的な世界
に押しこむタイプの還元だからである.
2 つ目は,意識状態は,脳内におけるより低いレベルの神経生物学的過程によって引き起こされてい
る,というものである.例えば,体内の塩分の不均衡が特定の神経生物学的過程を引き起こし,「喉が
渇いている」という意識状態を作り出す.このとき,特定の神経生物学的過程が原因となって,特定の
意識状態が結果として生じている.これはすなわち,あらゆる意識状態は,神経生物学的過程に因果的
に還元することができる,ということである.
3 つ目は,意識状態は,脳内において脳組織の性質として現実化されている,というものである.し
たがって,意識状態はニューロンやシナプスよりも高レベルで存在している.あらゆる形式の意識は,
ニューロンの振る舞いによって引き起こされる,というのが 2 つ目のテーゼだったが,その引き起こさ
れた意識は,ニューロンで構成された脳という組織において現実化されているのである.個々のニュー
ロンは意識的ではないが,ニューロンから成る脳組織の諸部分は意識を備えている,ということになる.
4 つ目は,意識状態は,現実世界の中の現実の性質であるため,因果的に機能する,というものであ
る.事実,
「喉が渇いている」という意識状態は,因果的に機能し,目の前に水が出されればそれを飲む
という身体的(物理的な)結果をもたらす力をもつ.
本論文では,Searle の「中国語の部屋」における議論が,彼のとる生物学的自然主義の立場と無関係
12
ではなく,むしろ整合的で深い関係があることを示すことだけを念頭においている.これら 4 つのテー
ゼが「中国語の部屋」の議論と両立することは,第 3 章で詳しく論じる.
したがって,この「生物学的自然主義」が心の哲学においてどのような評価を得ているのか,そして
このそれぞれのテーゼは妥当であるのか,ということに関して論じることは,本論文の主旨からは外れ
るだろう.とはいえ,生物学的自然主義の妥当性について少しだけ触れるとすれば,やはり Descartes
以来の深遠な心身問題が,こうも簡単に解決できるのか,という疑問は抱かざるを得ない.Searle の議
論は〈素朴〉で〈単純明快〉であるが,裏を返せば〈皮相的〉であるという評価にも繋がりかねない.し
かし,議論の単純さに注目する前に,彼が Descartes 以来の二分法の呪縛から逃れようとしたこと,そ
して逃れるための具体的な解決策を提案できたことを先に評価すべきではないだろうか.二分法の範疇
で心身問題を語る際には,心的な性質か物理的な性質のどちらかを無視するか,心身二元論を(苦し紛
れに)取るしかなかった.それは,心には自由意志や主観性といった性質があるという直観と,この世
は物理的なもののみで出来上がっているという直観との戦いでもあった.しかし,Searle の論法を受け
入れれば,そもそもこの戦いは,戦う必要性すらなかったことがわかるだろう.物理的世界,科学的世
界,といった表現は無意味であり,ただ世界が存在するだけなのである.このような哲学的用語による
呪縛から離れることは,心の哲学のスタート地点の地盤を点検するためのよい契機となるだろう.
2.2 人工知能批判における「外的」批判・「内的」批判の区別
次に,人工知能批判における重要な区別について言及したい.心の哲学者である Chalmers の用語を
借りれば,人工知能を哲学的に批判する際,その批判は「外的な」批判と「内的な」批判に分類すること
が可能だろう.Chalmers は主著である The Conscious Mind[1996] の中で,人工知能の哲学的批判に
は,主に「外的な(external)
」批判と「内的な(internal)」批判があることを指摘した.外的な批判と
は,計算システムには認知システムのように振る舞うことすら決してできないという批判である.この
立場では,機械が人間と同じように振る舞うことは,表面上ですら不可能であると考える.一方で内的
な批判は,計算システムが人間の振る舞いをシミュレートし,人間と同じように振る舞う可能性を(少
なくとも議論のために)認めつつも,それでもなおコンピュータには心はない,という批判である.
このような枠組みで考えたとき,哲学的人工知能批判で知られるような哲学者の主張もより詳細に
分類することもできるだろう.例えば,哲学的人工知能批判でまず言及される哲学者といえば,H.
Dreyfus[1972] と J.Searle[1980] であるが,この枠組みでいえば Dreyfus はもっぱら外的な批判にコ
ミットしており,Searle は内的な批判にコミットしている,という対照を確認することができる.哲学
的人工知能批判のうち,内的批判の立場にたつ代表的人物である Searle の「中国語の部屋」を中心的に
検討する本論文は,まさにこの内的批判に重心を置いた考察なのである.
では,なぜ私は哲学的人工知能批判の中でもとりわけ「内的批判」について考察しようとするのか.
それは,
「外的批判」よりも「内的批判」の方が,人工知能研究にとってより解決するのが困難な問題を
提示しているからである.この考えは,外的・内的批判の区別を導入した Chalmers の見解とも一致す
る.本論文では,この外的批判については批判として説得力に欠け,妥当性を欠いているということを
前提にして議論を展開する.ただ,仮に外的批判が私の想像以上に難しい問題だったとしても,第 3 章
13
で行われる「中国語の部屋」の検討には直接影響がないと思う.外的批判に関しては,次節で簡単に言
及するに留めたい.
本節ではまず,外的批判にはどのような批判があるのかを概観する.その上で,それらの反論に
Chalmers がどのような再反論を展開しているのかについて紹介する.Chalmers の再反論は,外的批
判を斥けるだけの妥当な論拠を提示していると考えられる.
2.2.1 人間のある点における優位性を示す反論
人工知能に対する最も古くからある反論として, 人間は規則に制限される機械とは異なり特殊な能力
を備えている, という反論がある. 計算的システムは必ず規則に従う.それに対して, 人間の方は柔軟的
で創造的であり, 明らかに機械はそういった「人間的能力」に欠けている, というのである.
Chalmers はこの反論を, 非常に漠然としていて明快さに欠けると批判した上で, 最も脆弱な反論であ
ると述べた [Chalmers, 1996] . 彼によれば,そもそも, 人間の脳は神経科学のレベルにおいては極めて
機械的, 反射的である. しかし, それでも人間の柔軟性, 創造性を否定することはできないだろう. たしか
に, こういった「人間的能力」に言及して (漠然とした) 反論をすることは, 古典的 人工知能批判の雲を
つかむような議論の原因となっていたようにも思える. だが,その一方で, 神経科学レベルの機械的な要
素が, どのような過程を経て「創発」に至るのかについては, 未だに議論が絶えない領域であり, 結局の
ところこの部分についての明確な説明がされないかぎり, Chalmers の再反論も私たちの哲学的直観に
反するような印象を与えてしまうだろう.
さらに,ここでは,(Chalmers 自身も念頭に置いているとは思うが), 機械の計算的システムをどう
見なすかによって, この反論の印象も変わっていくことに注意しなければならない. 計算的システムを記
号計算的システム, すなわち高レベルの概念的表象の記号操作を行うシステムと同一視する場合, そのシ
ステムは頑なに一階述語論理(first-orderpredicate logic)の前提から結論を引き出すシステムになる.
この場合においては, Chalmers も認めるように, この種の反論は力を得ることになるだろう. この視点
は, 本論文の中心的内容である Searle の 人工知能批判とコネクショニズムとの論争においても決して
無関係ではない論点であるが, 計算システムのクラスというものは, 一階述語論理による記号操作よりも
はるかに広いものとして考えるべきなのではないだろうか. 認知科学におけるコネクショニストモデル
はその好例である. ミクロレベルではシステムが規則に従っていたとしても, それが行動に直接反映され
るわけではない, という観点をコネクショニズムは提供したと考えることもできるだろう.
2.2.2 機械に課された制限に言及する反論,あるいは不完全性定理
人工知能批判の典型的なもののもうひとつとして,機械は人間と異なった形で制限を受けている,と
いう反論がある.こういった批判をする人工知能研究者がよく根拠として引き合いに出すのが Gödel
の不完全性定理(Gödel’s incompleteness theorems,Gödelscher Unvollständigkeitssatz)である*6 .
*6
不完全性定理には,体系がω無不完全性定理矛盾であればゲーデル文が存在するという第一不完全性定理と,ある体系が
その体系内で無矛盾性を証明できないという第二不完全性定理があるが,この文脈においては第一不完全性定理を中心に
据えることにする.不完全性定理の議論のベースとして用いられる代表的な体系としてはペアノ算術(Peano arithmetic;
14
Gödel の不完全性定理は,ある種の計算が十分できる力をもつどんなω無矛盾*7 な形式的体系にも,
ゲーデル文(the Gödel sentence)
,すなわちその体系内で証明不可能な真である命題(言明)があるこ
とを示した.一方で,人間の方はというと,当然その命題が真であることを知ることができるため,形
式的システムには欠けている能力が存在する,というのが不完全性定理を論拠とする反論である*8 .
これに対し,Chalmers は,私たちに知ることが可能なのは,もし体系が無矛盾であればゲーデル文
は真であるということだけだと指摘する [Chalmers, 1996].つまり,任意の形式的体系における無矛盾
性の決定可能性について信じるべき理由はどこにもないのである.これは,数学基礎論の観点から見る
と違和感を感じるかもしれないが,The Conscious Mind の注釈を見る限りでは,彼が形式的体系の範
囲を広く構えて考えていたことがわかる [Ibid.].彼によれば,Penrose[1994] が(公理の真と推論規則
の有効性を決定できたように),形式的体系の無矛盾性を決定することができるに違いないと考えたの
は,計算システムは公理と規則の体系である,という前提があったためだと考えられる.Chalmers は,
この体系の構成法が十分でないと主張し,その典型例として脳神経科学的なコネクショニストモデルを
挙げるのである.したがって,Chalmers は,
(Searle とは対照的に)古典主義からコネクショニストモ
デルへの認知観のシフトが哲学的に無視することができないものだと捉えていることがわかる.
2.3 人工知能研究における認知モデルの変遷
最後に,人工知能研究における認知モデルの変遷について言及しよう.第 1 章の概要でも述べたと
おり,「中国語の部屋」は当時,古典的計算主義というパラダイムに基づいて議論されていた.これが
1980 年のことである.しかし,ちょうどその 1980 年代ごろから,古典的計算主義に変わって,コネク
ショニズムという認知観が台頭し始めた.これは古典的計算主義とは異なり,脳神経構造に重きを置く
認知観であり,その後の人工知能研究の方向性に大きな影響を与えた.実際,現在でも画像認識などの
分野においては,ニューラルネットワークのような脳神経構造をシミュレーションするタイプのプログ
ラムが成功を収めている.
では,この古典的計算主義からコネクショニズムへのパラダイムシフトに対して,
「中国語の部屋」は
その議論の妥当性を保ち続けることができるのだろうか.この点については,本論文の第 3 章で詳しく
論じよう.ここでは,信原 [2004] を中心的に依拠しながら,古典的計算主義とコネクショニズムがそれ
ぞれどういった認知観であるかをあらかじめ確認しておこう.
2.3.1 古典的計算主義
1940 年代に登場したコンピュータは,私たちの心に対する理解にも大きな影響を与えた.コンピュー
タが人間と同じような思考能力をもちうるか,という問題が検討されるようになったのである.チュー
PA)が挙げられるが,本研究の議論においても,そういった形式的体系を想定してもらえれば問題はないだろう.
*7
ω無矛盾とは,数学基礎論における公理系の性質のひとつである.ある公理系の矛盾性を証明するためには,任意の論理
式 P について,P ,¬P が同時に証明されなければならない.一方,ω矛盾性を証明する場合は,自然数 n によって定ま
る論理式 Q(n) について,Q(0), Q(1), Q(2), ... が全て証明可能であり,かつ「∃n : ¬Q(n)」も証明可能である必要があ
る.ω矛盾性が示されない体系のことをω無矛盾性であるという.通常,ω無矛盾性は無矛盾性よりも強い性質をもつ.
*8
Chalmers によれば,このタイプの典型的な論者は Lucas[1961], Penrose[1994] などが挙げられる.
15
リングテストはその代表的な例といってもよいだろう.
チューリングテストのようなコンピュータの思考可能性についての楽観論は,心も一種のコンピュー
タにすぎない,という直観に支えられている.コンピュータのハードウェアとソフトウェアの関係と,
人間の身体と心の関係は同じであるとみなすのである.そして,このアイデアは古典的計算主義の基盤
を形成しているものでもある.
1956 年,いわゆる「ダートマス会議」において,「人工知能研究」が旗揚げされた.このとき,採用
された認知観が,「心は適切にプログラムされたコンピュータである」というモデルである.この認知
観は現在,古典的計算主義と呼ばれている.
1960 年から 1970 年にかけての人工知能研究(翻訳,エキスパートシステム,対話システムなど)は,
いわば古典的計算主義的な人工知能研究であったといえよう.一方,古典的計算主義に関する哲学的な
検討については,1970 年代に J. Fodor の仕事によって始まった.
Fodor が指摘するように,古典的計算主義は「表象主義」に基づいている.心の哲学における「表象
主義」とは,心の状態には世界のあり方を表す「心的表象」が含まれる,というものである.X という
信念を抱いたとき,それは X であることを表し,かつそれに対して信じるという態度を取る状態であ
る.次項で言及するが,この特徴はコネクショニズムも備えている.
では,古典的計算主義はこの心的表象をどのように処理するのだろうか.古典的計算主義の枠組みで
は,心的表象は「構文論的構造」をもつものだとみなす.例えば,
「水上は卒業論文を書く」という表象
では,「水上」,「卒業論文」,
「書く」などといった単語が文法的に構文されている.これらの単語には
「文脈独立性」があるといわれる.別の表象,例えば,「ジョンは手紙を書く」という表象について考え
た場合も,「書く」という単語は文脈によらず共通で用いられている.このように文脈独立性のある語
を文法に従って組み立て,構文するような表象の作り方を古典的計算主義はするのである.その上で,
古典的計算主義は,私たちの認知過程を心的表象の構文論的構造に基づく形式的な過程(=狭義での計
算)であるとみなしている.古典的計算主義はかつて,
「計算主義」とも呼ばれたが,後にコネクショニ
ズムが台頭してからは「古典的」計算主義と呼ばれるようになった.
古典的計算主義への批判についてはここでは言及しないが,有名なものには H.Dreyfus[1972] の身体
性に基づく反論,そして本論文で扱う Searle[1980] の「中国語の部屋」の思考実験がある.
2.3.2 コネクショニズム
Searle が「中国語の部屋」を提案した 1980 年以降,古典的計算主義に代わって台頭した認知観が,
「コネクショニズム」である.前項で説明したように,古典的計算主義は,心をコンピュータとみなす
ような認知観であったが,コネクショニズムは,脳の神経ネットワークをモデルにした認知観である.
コネクショニズムのアイデアそのものは 1950 年代から存在したが,それが勢いづいたのは 1980 年の頃
であったし,具体的なプログラムとしての技術的成功はさらに先のこととなった.
コネクショニズムは,心の状態には心的表象が含まれている,という立場(=表象主義)にコミット
する点において,古典的計算主義と共通した主張をしている.しかし,その表象をどのように作り上げ
るかについては,古典的計算主義とは大きく異なる.コネクショニズムによれば,心は単純なユニット
16
(これがニューロンに相当する)を多数結合してできたネットワークである.ユニット同士は興奮を伝
達することが可能だ.ネットワークにインプットが与えられると,ユニットからユニットへと興奮が伝
達され,ネットワーク全体を駆け巡る.最終的にはネットワーク全体としてある興奮状態を形成し,そ
れをアウトプットとするのである.コネクショニズムでは,一群のユニットの興奮パターンが心的表象
だとされる.例えば,ジョンが手紙を書いているところを視覚的に知覚したとしよう.そのとき得られ
る表象は,ユニット群全体の興奮パターンを含んでいる.だが,この興奮パターンは,どの部分がジョ
ンを表していて,どの部分が手紙を表している,というような分離を許さない.あくまでも,ネット
ワークのパターン全体として,手紙を書いているジョンの知覚的表象を形成しているだけなのである.
このような表象の形成法は「分散表象」と呼ばれている.
コネクショニズムの分散表象は,古典的計算主義とは異なり,構文論的構造をもたない.先ほどの例
を繰り返すならば,古典的計算主義の構文論的構造においては,「水上は卒業論文を書く」という表象
と,「ジョンは手紙を書く」という表象は,「書く」という語は共通しており,それ以外の単語のみが異
なるのだと理解することができる.しかし,コネクショニズムの場合,これら双方の表象は,全く異な
るパターンとしてネットワーク上で表現されることになる.コネクショニズムにおいては,「書く」と
いう語が文脈独立的に用いられている事実をネットワークで表現できないのだ.そういう意味で,古典
的計算主義とコネクショニズムは,心的表象を作り上げるまでの過程が本質的に異なる.
第 3 章では,「中国語の部屋」の〈射程〉の確定作業として,この思考実験が古典的計算主義的な認
知観のみならずコネクショニズムのような認知観においても通用するかについても言及する.というの
も,以上で言及してきたように,古典的計算主義とコネクショニズムは心的表象を実現させる方法が異
なるため,「中国語の部屋」が古典的計算主義の枠組みで妥当だとしても,コネクショニズムの枠組み
でもなお妥当であるかは議論の余地があるためである.
17
第3章
「中国語の部屋」を再検討する
本章では,第 2 章で述べた知識を前提にして,「中国語の部屋」を再検討する.まずは,Searle 自身
について簡単に紹介した後,1950 年に A. Turing が「チューリングテスト」を発表してから Searle が
「中国語の部屋」を 1980 年に考案するまでは歴史に沿った形で論じていく.
その後は,「中国語の部屋」の〈射程〉の確定作業として 4 つのトピックについて論じていく.最後
は,この作業によって正確に輪郭付けられた「中国語の部屋」を肯定的に捉えたときに,いかなる帰結
がもたらされるかについて考える.「中国語の部屋」と両立する形で人工知能を論じた場合,機械が人
間と同じような心的内容をもつには何が要請されるのかについて考えたい.そこでは,Searle 自身も貢
献している言語行為論からのアプローチもこの議論には密接に関わってくることも確認する.
3.1 J.Searle について
まず,J. R. Searle について紹介する*1 .Searle は,心の哲学・言語哲学を専門とするアメリカの哲
学者である.1932 年 7 月 31 日,コロラド州デンバーに生まれる.1949 年にウィスコンシン大学に入
学し,1952 年から 1959 年までイングランドのオックスフォード大学に留学.オックスフォード滞在中
の 1955 年には文学修士号と哲学修士号を取得している.その後 1959 年にアメリカに帰国,カリフォ
ルニア大学バークリー校に赴任.助教授,准教授,教授を経て,現在でも同大学で教鞭を執り続けてい
る.研究と論文の発表に身を捧げる哲学者であると共に社会的事象への関心も高く,大学行政家として
も知られる.
3.2 人工知能の誕生とチューリングテスト
広く知られているように,Searle の「中国語の部屋」は,人工知能の誕生そしてチューリングテス
トというアイデアを背景に生み出された.そこで,次に人工知能という言葉が誕生してから Turing が
チューリングテストを考案するまでの流れを概観しよう.
現在では身近な「人工知能(Artificial Intelligence: AI)
」という言葉が公式に使われるようになった
*1
Searle のプロフィールについては,『MiND』,ジョン・R・サール,山本貴光・吉川浩満 訳 を参照した.
18
のは 1956 年,有名なダートマス会議においてである.人工知能の生みの親,ともいわれる J.McCarthy
によってこの言葉が使われ,会議では A. Newell, H. Simon らによって最初の人工知能ともいわれるロ
ジックセオリスト(Logic Theorist)のデモが行われた*2 .
しかしながら,「人工知能」という言葉が 1956 年に誕生した一方で,コンピュータが人間の知的活
動を模倣することの可能性はそれ以前に言及されていた.最も著名な成果は,計算機科学者・数学者
の A. Turing の「チューリングテスト(Turing Test)
」だろう.これは,Turing が 1950 年に哲学雑誌
『Mind』に載せた論文 “Computing Machinery and Intelligence”[Turing, 1950] において提案された
思考実験である.
Turing は,まず男性,女性,そして性別を問わない質問者の 3 人で「模倣ゲーム」を行うことを考え
る.質問者は他の 2 人とは別の部屋に入り,別の部屋にいる 2 人のどちらが男性でどちらが女性である
かを当てる.このとき,声の高さなどで男女が判別可能であることを避けるために,質問応答のやりと
りは紙に書いたり,タイプライターの使用を想定する.この場合,たとえば男性が女性のふりをして回
答すれば,質問者から見てどちらが男性でどちらが女性かを判断することは困難になる.というのも,
やりとりされるのは自然言語による回答であり,男性がうまく騙せれば,その情報だけで男女を判断す
ることは容易ではないからである.
Turing はこの男女の模倣ゲームを提示したあとで,次のように問う.「このゲームで機械が人間(の
男女どちらか)の役をうけもった場合,何が起こるだろうか」と.彼によれば,この問いがそのまま「機
械は考えることができるか」という問いの代替として問うことができる.この場合もやはり,男女での
模倣ゲームと同じように,機械が巧妙に人間を装うことで,質問者が人間と機械を判別することは原理
的には不可能になる.判別不能であるならば,それはすなわち,その機械が本当の意味で知性をもって
いることにほかならないのだ,というのがチューリングテストの基本的な主張だ.
Turing にとって,機械が知性をもつと呼べるのは,それがヒューリスティクスに基づいた自己修正的
なプログラムを持ち,
「過去の経験から学ぶ」ことが可能になったときである [水本, 2012].しかしなが
ら,そういった機械も結局は彼の提出した計算機械で実現可能なのであり,その意味においては(1936
年の段階で論じていた限りでの機械は知性をもたないとみなしていたとしても)非知性的な機械と真の
意味で知性をもつ機械の違いは,結局プログラムの複雑さに依存することになる [Ibid., p. 270].した
がって,Turing にとっては彼の機械が知性的になるかどうかは程度問題,ということになるだろう*3 .
では,正確には〈いつ〉,非知性的な機械は真に知的になるのか.その問いに対して提出されたのが,
1950 年の論文,ということになる.
先述したとおり,Turing がこの論文を提出したのは哲学雑誌であり,専門の哲学者ではない者の論
文が出版されることは当時としても異例のことであった.今日「チューリングテスト」と呼ばれている
*2
人工知能学会 HP,『人工知能の歴史』(https://www.ai-gakkai.or.jp/whatsai/AIhistory.html 2016 年 2 月 13 日
閲覧)より
*3
この見解を批判したのが L. Wittgenstein である.Turing が「少なくとも最も単純なステップにおいては人間も機械も
同じことをしている」ということを前提にしていたのに対して,Wittgenstein にとっては,単純さ・複雑さは知性・非知
性的という判断に与しないと考えた.人間が(たとえば脳神経のレベルで)規則に従うことと,機械の規則に従う因果的過
程は本質的に異なる,ということである.とはいえ,水本が指摘するように,Wittgenstein の規則順守の描像はあまりに
も主知主義的であり,複雑な手続きにおいては私たちは個々のステップを意識はしておらず,その必要もないと反論する
ことは可能であろう [水本, 2012, p. 270].
19
ものは,厳密には彼がこの論文で「イミテーション・ゲーム」と呼んでいたものである.「人間と同じ
ように知的に振る舞う場合,その機械は実際に知的なのである」という主張は,現在「強い AI(strong
AI)」という立場で知られている*4 .
3.3 チューリングテストの批判に対する Turing の再反論
Turing の論文が心の哲学史の中でどの程度のインパクトを与えたかについては議論の余地があるが,
少なくとも人工知能における哲学的考察の歴史という観点では大きな影響を持っていたといえる.本論
文では,このチューリングテストへの反論として有名である「中国語の部屋」の考察に取り組むわけだ
が,実は Searle が Turing の立場に痛烈な反論を寄せる以前から,それに近い議論は既にあった.それ
どころか,1950 年の Turing の論文そのものの中には,チューリングテストにおいてあらかじめ予想さ
れる反論を列挙し,それに対する再反論を彼自身が用意していたのである.
Turing が 1950 年の論文で相手取った反論には,さまざまなタイプのものがある.たとえば,「思考
は人間の永遠なる魂のなせる業である.神にすべての男女に永遠の魂を与えたが,動物や機械には与え
ていない.したがって,動物も機械も考えることなどできないのだ」という神学的反論や,
「機械が考え
るという結論は恐ろしい.したがって,機械が考えることなどないのだと信じるべきだ」という「知ら
んぷり」的反論などである.こういった反論はもはや論じるに値しないかもしれない.しかしながら,
同様に挙げられた「意識を拠り所にする反論(The Argument from Consciousness)」は,内的で現象
的な意識経験を重視する「中国語の部屋」の議論と似たところがあり,Turing がチューリングテストに
おいて意識が知性的な機械にどう関わってくるかを知ることができる点で有益であると考えられる.し
たがって,本章では,まず中国語の部屋の前にこの反論を検討しておきたい.
「機械による記号操作は,(偶然によるものではない状態で)ソネットや協奏曲を作曲したり,そう
いった作品を完成させる喜びを感じる,ということは決してなく,ただ単に人工的に(その喜びのよ
うな情報を)信号で知らせただけでも無意味である」.これが「意識を拠り所にする反論」の基本的な
主張である.これは,神経科学者の G. Jefferson が,1949 年のリスター記念公演(Lister Oration for
1949)において行った演説に代表される批判である [Turing, 1950].結局のところ,この批判は,機械
の反省的な自意識を問題としており,Searle の中国語をはじめとする哲学的反論の標準的な原型とみな
すこともできるだろう.Turing は,この議論がチューリングテストの妥当性を否定するように見える
ことを認める一方で,その議論を突き詰めていくと独我論に陥るため,機械だけに対する批判としては
あまり有効ではないと述べている [Ibid.].そして,彼によれば,結局彼らも独我論を捨てるようになら
ざるを得ないというのである.
ここで,Turing が,意識の謎はチューリングテストによって完全に消え失せたという立場にコミット
していないことは重要なポイントである.彼は,
「機械は考えることができるか」という問いを考える上
*4
しかしながら,このテストは「考える」という語の定義を与えているわけではないことに注意したい [水本, 2012].これ
は,「考える」という語の基準,すなわち十分条件を与えているにすぎない.とはいえ,イミテーション・ゲームにおいて
質問者が「考えている」と判断した以上,「考える」という語を機械に適用することによって機械に知性を認めたのではな
いか,という指摘は当然できることになる.後期 Wittgenstein のアイデアを引き合いに出せば,語の意味はまさに使用
であった.
20
で,意識の謎は存在したままだが,その謎が完全に解かれる必要性はない,という立場を取るのである.
つまり,チューリングにとって,現象的な意識経験を(存在論的にも因果的にも)還元することは完全
に問題意識の外にあり,あくまで心そのものはブラックボックス的な扱いを貫いている.したがって,
上記の「意識を拠り所にする反論」に類する反論を Turing に投げかけるためには,意識経験の存在を
ただ声を大にして主張するのではなく,意識が「機械が知的になること」にとって必須条件であること
を示さなければならず,それが欠けている場合には Turing を正しく批判したことにはならないだろう.
Turing にとって,知能は外的な行動のみでも判断可能であり,知能の本質は記号処理なのである*5 .
3.4 「中国語の部屋」の登場まで
1950 年の Turing の論文以降,人工知能に関する研究も着々と成果を出していった.具体的には,
1958 年には J. McCarthy が人工知能用プログラミング言語である LISP を開発し,同年に彼は Advice
Taker を開発した.これは,動作中でも新たな公理を受け入れることができ,新しい問題が出ても再プ
ログラムせずに対応することのできる,初の本格的な人工知能システムであった.また,1965 年には,
J. Weizenbaum が ELIZA を開発し,バラエティに富む話題についての会話ができるプログラムであっ
た.この頃は,Turing の楽観的な論文と人工知能に関する具体的成果の影響もあり,機械が人間の知
性をもつことについても真剣に考えられるようになった時期でもある.創作の世界においても,いわゆ
るロボット三原則が考えられたのが 1950 年のことであり,A. C. Clarke の小説『2001 年宇宙の旅』が
S. Kubrick によって映画化されたのは 1968 年のことであった.
おおよそ,1956-1960 年代は探索・推論が中心の人工知能が開発され,いわゆる第一次 AI ブームの
時代であったが,その後には冬の時代が訪れ,人工知能に対する期待は薄れていくこととなった.現在
でも人工知能の限界を指摘する場合によく言及される「フレーム問題」が McCarthy, P. J. Hayes に
よって指摘されるのも 1969 年のことであった.人工知能に対する暗いムードの中で,1980 年の Searle
の論文,“Minds, Brains, and Programs” は誕生し,機械が知性を得ることについての論争が巻き起こ
ることになる.
3.5 「中国語の部屋」
チューリングテストに対する最も有名な反論が,J. R. Searle の「中国語の部屋(Chinese Room
Argument: CRA)である.この思考実験は,1980 年に発表された “Minds, Brains, and Programs”
が初出であるが,当時は Schank[1977] らによる物語を理解するプログラムに関する研究を念頭に置い
たものである.したがって,Searle は 1980 年の論文の時点では,直接的に Turing の論文を批判してい
たわけではないが,「チューリングテスト」のアプローチが「強い AI」にコミットしており,Searle の
「中国語の部屋」はこの立場の代表的批判であることから,現在では「中国語の部屋」が「チューリング
*5
いわゆる「物理記号仮説」と呼ばれるものである.Simon,Newell[Newell, 1976] が定式化した立場だが,中島 [1996]
によれば最近ではこの立場をとる人工知能研究者は少なくなっている.現在では,むしろ,記号の実世界への記号接地
[Harnad, 1990] や,知能と環境の相互作用を考えたり,あるいは環境の中でしか知能は捉えられない [Brooks, 1991] と
いう立場が台頭している [中島, 2011].
21
テスト」の批判として挙げられるようになっていると思われる.
3.5.1 思考実験の概要
そもそも中国語の部屋には 1980 年に初出だったものを含めて様々なバージョンがある.ここでは,
“Minds, brains, and programs”[Searle, 1980] の中国語の部屋にのみ言及しよう.英語しか理解できな
い英国人が部屋の中に一人で閉じ込められている.部屋の中には,中国語で物語が書かれている本と,
英語で書かれたマニュアルが置いてある.そこへ,その中国語の本についての質問が中国語で書かれた
紙が外から渡される.部屋の中の人は,英語しか理解できず,中国語についてはその形だけを頼りに英
語で書かれたマニュアル通りに記号を操作・処理することで最終的に中国語の記号列を返す.これを部
屋の外から見た場合,中の人は英語だけでなく中国語も理解しているように見える.しかしながら,実
際には中の人は中国語を,それゆえ部屋の中にある中国語の物語を全く理解していない.もしそうであ
るならば,英語の物語について英語の質問に答える Schank のコンピュータは,中国語の部屋で中国語
の質問に答えている人とまったく同じである以上,物語をまったく理解していないことになる.彼の立
場では,コンピュータがチューリングテストをパスしたか否かは関係ないことになる.
3.6 「中国語の部屋」に対する初期の反論
さて,この「中国語の部屋」の議論は哲学史にどのような影響を与えているのだろうか.本節では,
Searle に対するクラシックな反論のいくつかについて見ていこう.Turing の 1950 年の論文の中に既に
典型的な反論に対する再反論が用意されていたように,Searle 自身も 1980 年の論文に典型的な反論に
対する彼の見解を述べている.まずはそこにフォーカスしよう.1980 年時点での初期の反論を概観す
る.Searle が論文内で言及した反論のバリエーションは多岐に渡るが,本項では,その中でも,「シス
テム説」,「ロボット説」を中心に取り上げる.というのも,これらの反論は,クラシックでありながら
未だに影響力を持ち続けている反論だからである.「システム説」と「ロボット説」は,現代の「中国語
の部屋」批判の文脈でも真っ先に言及される批判であり,中にはこれらが完全に妥当であると考えてい
る論者も少なくはない.したがって,これらの反論について考察しておくことは,「中国語の部屋」の
議論を正しく理解する上で役に立つと思われる.
3.6.1 システム説
現在でも典型的な反論として取り上げられ,Searle 自身も真っ先に論文中で言及していたのが,「シ
ステム説」というものである.これは,部屋の中の人は「脳の中の小人(ホムンクルス)
」に過ぎず,結
局は〈理解している〉と判断されるべきなのは部屋と中の人とマニュアルを合わせた全体としてのシス
テムであるという反論である.
なるほど一見すると,この反論は説得力があるように思える.「中国語を理解しているか」,という問
いはそのままに,〈誰が〉理解しているか,というように評価する対象をすり替えることによって反論
しているのだ.この思考実験において,部屋の中の人間は,実際の人間と同じ役割を担っているのでは
22
なく,コンピュータで喩えれば CPU に値するものを担当しているに過ぎない.CPU のみで理解して
いないとしても,CPU を含めたシステム全体ではきっと理解できているはずだ,というのがこの反論
の要点となる.
しかしながら,Searle は,この反論は最もばかげた反論だと断じている [Ibid.].彼によれば,たとえ
英語のマニュアルを完全に頭に入れて同じ手続きを頭の中で行う場合でも,その人はなお中国語を理解
できないのである.マニュアルを完全に頭の中に入れた場合であっても,そのマニュアルに従って記号
操作することと,母国語を話すことは,そもそも似通っていない処理である.ロボットそのものに意味
を理解する機構が存在しなければ,当然そのロボットにマニュアルを追加したとしても同様に意味を理
解する機構は現れ出ない,というのが彼の主張だ.
とはいえ,人間は事実,自然言語の意味を理解しているのである.ロボットにも,そしてロボット+
マニュアルにも意味の理解ができないのならば,一体〈いつ〉
,
〈どこで〉意味の理解は達成されるのか,
この点について Searle は答えなければならないだろう.
3.6.2 ロボット説
「システム説」と並んでよく言及されるのが,
「ロボット説」と呼ばれるものである.これは,
「中国語
の部屋」が想定するようなコンピュータはたしかに中国語を理解しているとは言えないが,人間と同じ
ような身体,つまり感覚器官や手足を備え,環境とインタラクションできるようなロボットの場合は意
味理解に到達することができるのではないかという反論である.
しかし,これは「中国語の部屋」そのものの反論としては不適格である.というよりむしろ,この反
論は「中国語の部屋」の議論を大筋認めている議論である.というのも,
「中国語の部屋」のコンピュー
タに何かを付け足す,というアイデアはすなわち,そのコンピュータそのものでは意味理解に足りない
ものがあることを認めていることになるからだ.この点は Searle も既に言及している [Searle, 1997].
服部 [2003b] はこの「ロボット説」について,強い AI の研究者が「人工知能」と言う場合には,このよ
うなロボット的システムを考えていると論じているが,これは少なくとも Searle の「強い AI」の意味
とは異なるため,不適切な議論である.「強い AI」の検討は後に詳しく行うが,少なくとも服部が指摘
するような立場は Searle が提唱した「強い AI」の立場とは大きく異なるものである.
以上で確認したように,
「ロボット説」は「中国語の部屋」の直接の反論としては不適格であった.し
かし,この議論は,広い意味での哲学的人工知能批判においては示唆的であると思われる.まず,この
議論は(先述したように)「強い AI」という立場と,手段は問わないがともかく人工知能が意識や心を
持ちうるという立場は本質的に異なることを強調する.Searle は前者に対して批判的であるが,後者に
対しては必ずしも批判的とは言えないことに注意したい.そして,
「ロボット説」が主張するように,人
工知能が自然言語を理解するためには,形式的計算のみならず環境との関わりが重要であることは間違
いないと思われる.この点については 3.8.2 で再度論じることにする.
23
3.7 〈射程〉の確定作業
さて,
「チューリングテスト」から「中国語の部屋」までの議論について歴史的に概観しつつ,それら
を再検討した.本節では,いよいよ「中国語の部屋」の〈射程〉を確認する作業に入る.
序論で述べたように,Searle の議論の射程はしばしば誤解されてきた.彼の用語の定義や問題設定は
曖昧に用いられ,結局「中国語の部屋」で Searle は何を主張し,そして何を主張しなかったのかについ
て,統一的な理解がされていないのが現状である.前節で取り上げた 1980 年代初期の反論についても
同じことがいえるだろう.
問題なのは,Searle の射程の誤解が,最近の「中国語の部屋」研究においても明示されないまま続い
ていることである.本節では,1980 年の初期の反論以降の比較的新しい反論にフォーカスしていこう.
これらの反論が含んでいる(Searle に対する)誤解を指摘していく過程で,その誤解が現在でもなお続
いていることにも言及し,そして,Searle の「中国語の部屋」における射程をより正確に輪郭付けるこ
とを試みる.
3.7.1 「強い AI」,「弱い AI」に対する誤解
さて,まずは Searle による用語である「強い AI(Strong AI)」,「弱い AI(Weak AI)」について,
再検討してみよう.私が考えるところでは,これらの用語が誤解されたまま「中国語の部屋」の議論を
進めてしまっていることが,Searle の議論の射程が誤解されていることの大きな原因である.
この用語を最初に提案したのは,もちろん Searle 自身であるが,現在では,本来の用法と異なる意味
で「強い AI」という言葉が使われている場面も少なくない.「中国語の部屋」を正しく理解するために
は,(現在人口に膾炙した)「強い AI」の意味と,Searle が本来使用していた「強い AI」の意味が異な
ることを明確に示す必要性がある*6 .
哲学,特に心の哲学以外の研究者は,
「弱い AI」と「強い AI」の区別を以下のように考えているかも
しれない.「弱い AI」とは,人工知能が人間の認知活動を少なくとも模倣することはできるという立場,
または模倣している人工知能そのものを指し,一方で「強い AI」とは,人工知能が人間の認知活動の模
倣を超え,人間の意識に相当するものを持ちうるという立場,あるいは持っている人工知能そのものを
指す,という使用法である.しかし,これらの使用法は,Searle のオリジナルの意味とは遠く離れてい
る.Searle によれば,「弱い AI」とは,人工知能が心をもつ必要はなく,限定された知能によって一見
知的な問題解決ができればよい,という立場である.そして,「強い AI」とは,適切にプログラムされ
たコンピュータは,実際,心に他ならないのだ,という立場である [Searle, 1980].
研究者たちの間で人工知能の〈一般的な〉話題について議論されるとき,「強い AI」,「弱い AI」と
いった用語が Searle の意味とは違った形で使用されていることについて批判するつもりは毛頭ない*7 .
*6
とはいえ,もちろん人工知能系の研究者であってもこれらの用語を正しく区別できている場合も多い.例えば,松尾
[2015].一方,後に言及する服部 [2003a] のように,哲学者ですら,これらの用語を誤解したまま使用している場合もあ
る.
*7
後期 Wittgenstein の哲学に依拠するまでもなく,個別の語の意味は不変的ではない.「敷居が高い」や「確信犯」といっ
24
たとえば,「人工知能が人間の心をもちうるか」という夢物語に花を咲かせる場合や,「人工知能が人間
を超える」といった類の,いわゆる「技術的特異点」に関する話題について議論する場合である.しか
しながら,私がここで問題にしたいのは,これらの本来とは異なる定義がそのまま「中国語の部屋」の
オリジナルの議論の吟味・批判に持ち込まれてしまっていることである.というのも,Searle が「中国
語の部屋」によって批判に晒しているのは,彼によるオリジナルの定義での「強い AI」の方だからで
ある.
少し整理してみよう.Searle が「強い AI」を批判したことは間違いない.しかし,このことは,人工
知能が人間と同じような意識をもつことを批判したとかいうことを意味するわけではない*8 .彼が批判
しているのは,あくまでもオリジナルの用法での「強い AI」だけである.
したがって,Searle による批判のより妥当な解釈は次のものだろう.すなわち,Searle は,適切にプ
ログラムされたコンピュータならば人間と同じ心をもちうる,という考え方を批判しているのである.
実際,Searle は 1980 年の論文で,
「機械は考えることができるか?」という問いに対して,
「明らかに
イエスである」と答えている [Searle, 1990].ここからも,Searle があらゆるアプローチの人工知能研究
を否定していたわけではないことが明らかだろう.そして,この点は,後に述べる「中国語の部屋」の
コネクショニズムからの批判可能性や再構築可能性を検討する上で有用な橋頭堡になると考えられる.
3.7.2 生物学的自然主義と「中国語の部屋」の両立
前項では,Searle の「強い AI」,「弱い AI」の本来の定義に立ち帰ることにより,彼があらゆるアプ
ローチの人工知能研究を否定していたわけではないことを論じた.この論点は,生物学的自然主義と
「中国語の部屋」が両立可能であることからも,補強することができる.
生物学的自然主義は,名前のとおり,
「自然主義」の枠組みで心身問題の解決を提供する.そして,自
然主義とは,この世に存在するものは全て自然のものであるという立場であり,あらゆる現象は自然科
学の枠組みで説明可能だとする立場である.当然,この「現象」には心的現象も含まれる.そして,人
工知能研究の基盤となるコンピュータ科学も,もちろん「自然科学の枠組み」に収まるはずである.一
方,「中国語の部屋」はコンピュータ科学によって心的現象を作り出すアプローチに異議を唱える思考
実験であるため,一見これらは対立するようにも見える.
2.1.4 で述べたように,Searle の生物学的自然主義は 4 つのテーゼで表すことができる.それぞれに
ついて,「中国語の部屋」との整合性を確認しよう.
1 つ目のテーゼは,主観的で一人称的存在論を伴った意識状態は,現実世界における現象であるとい
うものである.意識を消去的に還元するためには,それが錯覚であるということを示すだけでは不十分
であり,また神経生物学的な基盤に意識を還元することもできない.というのも,そういった三人称的
た言葉のように,もともと狭い意味で使われていたものが,利便性を求める過程でより広い意味で人口に膾炙することは
多々あるだろう.「強い AI」,「弱い AI」についても同じことがいえるだろう.ただ,後に述べるように,使用法が変化し
たことそれ自体は本論文の論点ではない.
*8
Searle は意識と心を独立して論じてはいない.むしろ,(思考能力を含む)心的能力のためには意識が要請されている.意
識を備えているものが心を備える可能性は開かれているが,意識をもつことが不可能であるならば,心を備えることも不
可能である.
25
還元は,意識の一人称的存在論を捨象してしまうからである.この主張は,「中国語の部屋」と容易に
両立するだろう.「中国語の部屋」は,意識を何か別のものに(存在論的な)還元を許すものではなく,
また意識が現実の現象であることも示唆しているようにも解釈することはできる.
2 つ目のテーゼは,意識状態は脳内におけるより低レベルの神経生物学的な過程によって引き起こさ
れるというものである.このとき,意識状態は,神経生物学的過程に因果的に還元することができる.
Searle がここで主張したいことは,あくまでも意識過程は神経生物学的過程をベースとしており,そこ
から独立的に意識状態が働く,ということは認められない,ということだ.これは「中国語の部屋」の
議論とも整合する.というよりはむしろ,神経生物学的過程を意識状態の原因と捉えている Searle に
とって,生物学的知見から離れ,独立した入出力だけをコンピュータによって取り繕うことによって心
そのものを作る立場こそが,「中国語の部屋」での標的であった.
3 つ目のテーゼは,意識状態は,脳内において脳組織の性質として現実化されている,というもので
ある.個々のニューロンは意識を備えていないが,ニューロンから成る脳組織の諸部分は意識を備えて
いる.これも「中国語の部屋」と両立可能だ.その様子は 2 つ目のテーゼと同様であるが,意識状態は
脳組織の性質として現実化されているのであって,コンピュータの統語論的過程から生まれるわけでは
ない,という説明ができる.
4 つ目のテーゼは,意識状態は,現実世界の中の現実の性質であるから因果的に機能する,というも
のである.たとえば,私の意識に現れる喉の渇きは,私が水を飲む原因となる.「中国語の部屋」および
「チューリングテスト」では,あくまで談話にフォーカスしており,喉の渇きという意識状態と水を飲
む行為については言及していない.そもそも私たちの身体は,中枢神経系と末梢神経系は独立している
ものではないから,談話だけにフォーカスすることに問題は無くはないのだが,「中国語の部屋」では
ロボット説,
「チューリングテスト」ではトータル・チューリング・テストへの拡張*9 がその点をカバー
していると見てもよいだろう.とはいえ,
「中国語の部屋」において「喉が渇いた」と記号処理すること
はできても,実際に水を飲みたいという欲求はない.Searle は,志向性を独立した心的性質ではなく,
あくまでも意識状態の性質の一つだと考えているから [Searle, 2004],
「中国語の部屋」で想定された人
工知能は,意識状態を持たず,したがって水に対する(欲求という)志向的状態も持たない,というこ
とになる.
以上のように,Searle の生物学的自然主義と「中国語の部屋」は相容れない立場ではなく,彼自身一
貫した主張をしている.生物学的自然主義は心的状態・意識状態を脳神経そのものに〈存在論的〉には
還元できないと主張しつつも,
〈因果的〉な還元は積極的に認めている立場である.私たちは意識的であ
り,(Searle が言うところでの)意味論をもつ.私たちが使っている記号は,ただの記号ではなく,現
実世界に〈接地〉している.それがなぜかは,神経科学の発展を待つしかないが,少なくともそれらの
意識状態の〈原因〉は脳神経にあると主張することは穏当だろう.つまり,極論ではあるが,人間と全
く同じ神経生物学的な構造を保ちながら,クローンのようなロボットを作ることができるならば,その
ロボットは意識状態を有するだろう.というのも,そのロボットは人間と全く同じ意識状態を得るため
の〈原因〉を得ているからである.一方,チューリングテストで想定されているような機能主義的な人
*9
トータルチューリングテストとは,人間そっくりのアンドロイドによってチューリングテストを行うというものである.
[石黒, 2011]
26
工知能は,神経生物学的ベースを欠き,したがって意識状態を得るための原因を有しない.以上で確認
したように,Searle が「中国語の部屋」で標的としている人工知能研究は,生物学的自然主義からも同
様に批判することが可能なのである.
3.7.3 マニュアル実装不可能性に関する誤解
さて,「中国語の部屋」の批判者たちは,様々な手法でこの思考実験を解体することを試みた.中で
も多かったアプローチが,部屋の中のマニュアルに関する批判である.たしかに,一冊のマニュアルが
(たとえ巨大なものだとしても)中国語のやりとりを実現させることは想像しづらい.この点は重要な
論点であり,私自身も 3.8.3 において詳述することにしよう.ただ,ここで述べておきたいのは,単純
にマニュアルの実現不可能性を主張するアプローチは,どうやらあまり説得力を持てないようだ,とい
うことである.マニュアル実装不可能性に関する批判を一つ検討する.
人工知能学会誌の 26 巻 1 号では,「チューリングテストを再び考える」という特集が組まれた.そ
の中で中島 [2011] は,Levesque の「足し算の部屋」という「中国語の部屋」に対する反論 [Levesque,
2009] が,画期的で決定的な反論であると評価した.これについて批判検討してみよう.
中島の説明を借りれば,Levesque の反論の特徴をなすのは,「行動(外見)だけをまねることは可能
か?」という問いに関する計算論的考察である.自然言語のやり取りをする中国語の部屋では,コン
ピュータの計算量が曖昧になるため,Levesque は「中国語の部屋」の単純なバージョンを考える.そ
れが,
「足し算の部屋」というものである.これは,10 桁の数を 20 個足すという単純なタスクを中国語
のやり取りの代わりに行わせるというものだ.計算のできない人間と足し算のマニュアルを考え,この
人間が足し算のマニュアルを完璧に記憶し,すべての操作を頭の中で行ったとしても,なお「足し算を
理解していない」といえるようなマニュアルが作れるか,と Levesque は問題設定する.
では,マニュアルにはどのようなものが書かれているのか.Levesque はまず,単純なマニュアルを
考える.これは以下のようなものだ.最初の数と同じ番号の章を開く.その章内で 2 番目の数と同じ番
号の節を開く.さらに,その節内で 3 番目と同じ番号の副節を開く.これを 20 個の数すべてにわたっ
て繰り返す.すべてが終わったらそこには最大で 12 桁の数が書いてあり,それを紙に写して部屋の外
へ返す.Levesque によると,この単純なやり方では,マニュアルには,1 番目の数に対応する 10 000
000 000(10 の 10 乗)の章が必要となる.さらに,各章には 2 番目の数に対応する 10 000 000 000 節
が含まれていなければならない.これを 20 段繰り返すことになるので,必要となるデータは 10 の 10
乗の 20 乗,すなわち 10 の 200 乗にもなる.Levesque はこのようなマニュアルを実際に作成すること
は難しいと考える.
そこで Levesque は,これらの手法をより効率化させることを考える.例えば,10 桁の数をそのまま
足すのではなく,1 桁ごとに分解,1 桁の数の 10 × 10 の表を使う方法や,サブルーチンを利用し,記
述量のオーダを減少させる方法を彼は提案した.
Levesque は,これらの工夫した方法は,最初に提示した方法とは本質的に異なると考える.という
のも,最初の方法では 20 個の数の足し算にしか使えない一方で,他に提示した方法であれば足すべき
数がいくつでも応用可能だからである.つまり,工夫された方法は〈一般性〉を有し,彼によれば,こ
27
の一般性が本質的な差なのである.足し算は,数を何らかの形で分解し,各々に一定の操作を加えて,
それらを再び結合するというのが本質であり,これらの一般性をもつ方法は足し算のアルゴリズムだと
認めることができると彼は主張する.つまり,「足し算の部屋」の実装に単純なアルゴリズムを適用す
るのは不可能であり,一般性をもったアルゴリズムを構築しなければならない.このことを引き合いに
出して中島は,Searle は思考実験を作り上げた際に計算量は無視したが,それは思考実験であっても無
視してはならないと主張する.
たしかに,足し算のマニュアルを作成するだけでも相当な計算量になり,現実にはそういったプログ
ラムを作成することは難しいかもしれない.そして,「中国語の部屋」は足し算よりはるかに複雑な自
然言語のやり取りをしているため,それをコンピュータ上でシミュレーションさせることは不可能かも
しれない.
しかしながら,この指摘は,一見正しいようで,実は Searle の「中国語の部屋」における論点を完全
に捉え損ねているのである.事実,Searle は「中国語の部屋」を実現するようなプログラムを作成する
ことの不可能性については,Levesque の議論よりもはるか前に認めているのだ [Searle, 1997].「中国
語の部屋」の議論の要点は,適切なプログラムがあったとしても,そのプログラムの統語論では,中国
語話者の心のなかにある意味論的内容,あるいは心的内容や意味にとって十分ではないという点を思い
出させることにある [Ibid.].足し算のアルゴリズムがどれだけ賢く,効率的であっても,それは統語論
的操作であることには変わりない.部屋でそのアルゴリズムに従って統語論的操作をする人は,足し算
に関する意味論を決して持ち得ないのだ.彼が「中国語の部屋」で主張したいのは,純粋に抽象的な統
語論的存在物として分析される記号と,そうした記号にあてはめられる意味との違いを認識することで
ある [Searle, 2004].記号形式の操作は,それだけでは意味を欠いている.それだけではなく,その記号
は何も表していないため,記号操作ですらないのである [Searle, 1980].
Levesque と中島は,Searle の思考実験が過度に単純化させられていることを指摘した.しかしなが
ら,そもそも,Searle は,日常言語学派の主要人物,言語行為論の祖である J. Austin の仕事を引き継
いだ哲学者であり,彼自身,言語行為論に多くの貢献を残している.その彼が,
(日常的な)自然言語の
やり取りの複雑性を見落としていたと考えることの方が不自然なのではないだろうか.
以上のように,Levesque と中島の議論は,「中国語の部屋」の射程を見誤っていたと考えられる.中
島は,同論文で Searle をはじめとする哲学者は計算量の概念を知らないと揶揄したが,彼らの方はそも
そも Searle の議論を正しく理解していなかったのである.
3.7.4 コネクショニズムからの批判
Searle の「中国語の部屋」における射程の確定作業の最終工程として,
「中国語の部屋」がコネクショ
ニズムの立場からいかに批判されうるのか,そして再構築されうるのかについて考えたい.本節で確認
したように,Searle は,人工知能研究の〈すべて〉のアプローチに批判的であったとは考えにくい.と
いうよりはむしろ,彼は特定のアプローチに対しては人工知能研究の〈擁護者〉であったとも考えるこ
とができる.
では,Searle はどのようなアプローチの人工知能研究であれば,内在的志向性をもつことや自然言語
28
理解に十分であると考えたのだろうか.ここでは脳神経構造をモデルとする認知観である,コネクショ
ニズムが「中国語の部屋」を再構築できるアプローチであるか否かということについて検討する.
既に言及したように,Searle 自身は機械が考える可能性を積極的に認めていた.とはいえ,まずここ
で注意したいのは,Searle が言う「機械」がすなわち人工物ではないということだ.実際,Searle に
とっては,機械は考えることができ,そしてまさに「私たちがそうした機械」なのである [Ibid.].では,
人工物である機械,つまり,私たちが通常考えるような機械は考えることはできるのだろうか.Searle
は,同論文の中で,神経構造をもった機械を人工的に作りだすことができるとするなら,つまり,軸索
と樹状突起とその他残りの全てを有し,私たちのニューロンにとても似たものをもった機械を作りだす
ことができるならば,この問いに対してもイエスと答えることができると考えている.Searle は生物学
的自然主義の立場,つまり意識や志向性の因果的還元が可能であるという立場であるため,原因を正確
に複製することができるようならば,結果も複製できるということになる*10 .彼にとって志向的な心
的状態,志向性は,まさしく生物学的現象であり,おそらくそれが発生するところの特定の生化学に因
果的に依存している [水本, 2012].しかし,単に正しい種類のプログラムを有したコンピュータである
というだけで,何かが考えたり,理解したりできることを意味するわけではない.プログラムのような
形式的過程のみでは決して志向性は生まれないのだ.記号形式の操作はそれだけでは志向性を有してい
ないだけではなく,その記号が何も指示していないという点でそもそもそれは記号操作ですらないので
ある.
以上より,Searle が 1980 年の論文で批判していたのは,単にあらゆる人工知能ということではなく,
機能主義的な人工知能プロジェクトであることがわかった.さらに彼は,機能主義的な人工知能とは本
質的に異なる,私たちの神経構造を完全に人工的に再現した機械が人間と同じように思考できるという
ことについては積極的に認めていたのである.
しかしながら,ここで新たな疑問が浮上する.それは,これらの両極端な人工知能の中間地点にある
ような人工知能プロジェクトのそれぞれについて,Searle はどのような判断をしているのか,というこ
とである.それは例えば,コネクショニズムのように脳神経構造を〈ある程度〉念頭に置くアプローチ
である.本項では,特にコネクショニズムのようなパラダイムを採用した場合に中国語の部屋がどのよ
うに再構築されるのか,またはされるべきなのかについて考える*11 .
服部 [2003a] が指摘するように,中国語の部屋が初期の段階で古典主義的な人工知能を想定していた
ことは間違いないだろう.事実,彼は論文の中で Schank のプロジェクトや Winograd の SHRDLU,
Weizenbaum の ELIZA が引き合いに出されている.だが,中国語の部屋の議論が古典的計算主義的な
人工知能の正しい批判になりうるとしても,その事実だけで直ちにコネクショニストモデルによる人工
知能研究が批判に晒されるわけではない.というのも,コネクショニストモデルによって実装されたシ
ステムにおいて計算は,統語論的構造をもった表象に対して統語論的規則を逐次適用するという仕方で
*10
既に確認したように,この意味において,中国語の部屋は生物学的自然主義と両立可能であり,中国語の部屋を一元論を反
駁するツールとして論じることは不適切である.
*11
これらのパラダイムでは表象の実現方法が大きく異なるのである.認知過程とは(コンピュータのような)記号処理に他
ならないという古典的計算主義では,文脈独立性のある語を文法に沿って構文するという構文論的構造で表象を作りあげ
る.一方,脳の神経ネットワークをモデルにした認知観であるコネクショニズムは,それぞれのシナプスに表象を分散さ
せることで全体としての表象を作りあげる(分散表象).
29
実行されるわけではないからである [服部, 2000].Searle 自身が否定していたのは,古典的計算主義,
およびチューリング機械をモデルとする機能主義に基づく強い人工知能プロジェクトであり,全く別の
アプローチによる人工知能の可能性については,むしろ認めていたともいえる [水本, 2012].Turing 自
身も 1950 年の論文内ではコネクショニズムに言及することはなかった*12 .とはいえ,コネクショニズ
ムのような認知観がその突破口になるかどうかには議論の余地がある.というのも,Searle の実際の議
論においては,中の人は全く中国語を理解していないにも関わらず,外から見ると理解しているように
見える,というのが最大のポイントであるため,この議論の射程が古典主義的な人工知能だけでなく,
コネクショニズムにも届いている可能性はあるからである.そして事実,Searle はその後「中国語のジ
ム(Chinese Gym)」という思考実験を提示し,そういった主張をすることになったのである [Searle,
1990].
1990 年,コネクショニストである Churchland は中国語の部屋をコネクショニズムの観点から批判
したが [Churchland, 1990],Searle はこの思考実験を「中国語のジム」に改築することによって再反論
した [Searle, 1990].「中国語のジム」は,部屋の中の構造を古典的計算主義からコネクショニズムに変
更する,というものである.つまり,ジムの中では,数えきれないほどの英国人が私たちの脳神経構造
を模倣し,部屋の外から来る中国語に対して中国語の答えをアウトプットするのである.
ここで Searle が主張したいのは,結局この思考実験においては,表象の実現方法は些細な違いに過ぎ
ず,そういう意味でコネクショニズムであっても Searle の基本的な考えが反駁されることはない,とい
うことである*13 .
Searle の「ジム」に関する検討に入る前に,Churchland の「中国語の部屋」批判が妥当なものであっ
たかどうかについて考えたい.Churchland の「中国語の部屋」への反論が果たして適切なものだった
のかについては疑問が残る.というのも,コネクショニズム的なパダライムは人工知能のすべてのタス
クに容易に適用することができないからである.確かに当時はコネクショニズムの勢いが強い時代だっ
たが,コネクショニズムでうまく行くタスクは,人間で言うところの〈思考〉ではなく〈知覚〉に近い.
事実,現在の人工知能研究でも,ニューラルネットワーク(や,その発展形としての深層学習)で主に
成功を収めているのは画像認識などの〈知覚〉に関する分野である.
では,思考と知覚は何が違うのだろうか.本質的な違いは,体系性の有無である.もし,「ジョンは
メアリーを愛する」ということを考えることができるならば,その人は「メアリーはジョンを愛する」
ということも自然に考えることができる.これが体系性であり,仮に前者を考えることができるのにも
関わらず後者を考えることができないのならば,それは私たちの思考とは異なるものだと考えられる.
一方,(一般的に)知覚の方には体系性がないと思われる.Fodor のように知覚の体系性を認める立場
もあるが [Fodor and Pylyshyn, 1988],信原 [2000] が指摘するように,Fodor の主張するような体系
性は見かけ上のものであり,本質的な体系性とは異なるものと考えられる.
*12
これは,Turing 自身が古典的計算主義の立場をとっていた,ということではない.誤解されがちだが,Turing は古典的
計算主義者であると同時にコネクショニストでもあった [水本, 2012].Turing は 1948 年の時点でニューラルネットワー
クの構想を発表しており,そこにおいては学習はもはや記号操作だけではなく,ニューロン間の結びつきの強さの変化に
よって説明されるのである.
*13
しかし,この場合,表象を前提としない認知観に対してはどのように Searle は答えるのだろうか.古典的計算主義もコネ
クショニズムも「表象」を前提とする部分では共通している.具体的には JJ. Gibson の反表象主義や V. Gelder の力学
的アプローチのように,表象を前提としない認知観は存在する.
30
さて,私たちはこれらの思考と知覚を同じ一つの脳神経科学的システムから実現する.そしてその実
現方法をめぐって古典的計算主義とコネクショニズムは対立してきた.しかしながら,先述したよう
に,思考と知覚はそれぞれ体系性という点で本質的に異なる.そして,〈思考〉に必要な体系性が古典
的計算主義のような構文論的構造によって実現され,そうではない〈知覚〉はコネクショニズムの分散
表象によって実現されている,ということも考えることはできる.コネクショニズムが一部のタスクで
うまくいくという事実だけで,全ての認知過程をコネクショニズムで説明できると考えるのは早計であ
り,どちらかの認知観を採用した場合に発生する問題は,未だに解決されていないのである.
Churchland の議論に戻ると,彼は中国語の部屋に体系性という点では難のあるコネクショニズムを
適用しようと試みた.中国語の部屋は,そもそも Schank の物語を理解するコンピュータや,Turing の
チューリングテストを念頭に置いており,これらのタスク(つまり自然言語処理的タスク)は知覚とい
うよりはむしろ思考であり,体系性が本質的に必要となってくる.この観点から考えると,Churchland
のコネクショニズムの適用そのものが不適切ではないだろうか.彼が自説を貫くためには,少なくとも
コネクショニズムによって思考の体系性が実現でき,認知過程のすべてをコネクショニズムで説明でき
ることを示さなければならない.
そして,この問題点は,1990 年の Searle の議論にも当てはまるだろう.Churchland に再反論する
際,Searle は上記で私が指摘した点については言及せず,Churchland の認知観を無批判に受け入れた
上で反論に踏み切ってしまったのである.その結果,「中国語のジム」は,ジムの中の具体的処理が隠
蔽されてしまい,説得力に欠ける思考実験になってしまったのではないだろうか.そして,この原因を
たどれば,やはり「中国語の部屋」の時点で具体的に中の人が何をどう処理するのかに関する記述が隠
れてしまっていることが元凶であるようにも思われる.この思考実験は,一見,私たちにも実際に行う
ことができ,想像することも(つまり,直観を引き出すことも)たやすいと思われがちだが,実際は認
知過程やコミュニケーションそのものの複雑さにも目を向けなければならないのである.
Searle は Churchland の議論に対応するために「中国語の部屋」を「中国語のジム」に拡張した.しか
し,この再反論は却って余計な混乱を招いてしまったように思われる.Searle は,コンピュータによっ
てなされる形式的記号操作と,脳によってなされる生物学的な心的内容を明確に区別している [Searle,
1990].コネクショニズムは,あくまで脳神経構造の〈シミュレーション〉であって,
〈複製〉ではない.
こちらの方が重要な論点ではないだろうか.
シミュレーションと複製は,一見似ているのだが,本質的に異なるものである.Searle 自身もこの点
を強調している [Searle, 1990].例えば,爆発のシミュレーションを行うプログラムをコンピュータで
走らせたところで,実際にそこで爆発が起きるわけではない.また,台風のシミュレーションをコン
ピュータ上で行ったとしても,周りが水浸しになることはない.これらはすべて記号的操作に過ぎず,
「弱いAI」的なアプローチの域を出ないのだ.爆発のシミュレーションが〈爆発そのもの〉でないの
と同様に,心的状態のシミュレーションも〈心的状態そのもの〉ではないのである.したがって,コネ
クショニズムはやはり形式的記号操作の域から出られないのである.
機械が心を持つとみなせるための条件として Searle が求めるのは,脳神経構造のシミュレーションで
はなく,複製である.これは,先述した生物学的自然主義のテーゼともよく馴染む主張だと思われる.
コネクショニズムが脳神経の〈複製〉ではなく〈シミュレーション〉であることから生じる弊害は,
31
上記の論点だけではない.その後 1997 年に Searle 自身が加えた論点も,この問題と密接に関わってい
ると考えられるのだ.この議論によって,コンピュータによる計算が,それだけでは意味論をもたない
という議論は補強される.
1997 年,Searle は The Mystery of Consciousness の中で,「中国語の部屋」に新しい議論を加えた
[Searle 1997].あるシステムの計算論的特性は,そのシステムの物理的性質にだけ内在しているのでは
なく,使用者や解釈者を必要としている.何かがコンピュータであるか否かは,それを観察する者の解
釈の付与に依存しているのだ.例えば,ドアの開閉やスイッチの ON と OFF のように,0 と 1 を割り
当てることができればそれは(チューリングの定義に従えば)コンピュータである.しかし,ある物理
的プロセスが計算であるかどうかは,観察者の解釈に左右されざるを得ない.私たちが計算を,レゴブ
ロックで作ったチューリングマシンで行おうが,ゲーム『Minecraft』のヴァーチャルな世界でレッド
ストーン回路を駆使して行おうが,そこには計算の解釈者の存在が必要とされているのである.
一方で,私たちが意識的に計算する場合は,解釈者を必要としない.つまり,解釈者・観測者から独
立しており,これらのプロセスは正真正銘の〈計算〉であるといえる.ここには本質的な差異がある.
この議論は,「中国語の部屋」とは独立しているが,統語論が物理的性質に内在していないといういっ
そう強い主張をもたらすのである.そして,この批判はコネクショニズムにも当てはまるものなのだ.
3.7.5 輪郭付けられた射程の確認
以上で「中国語の部屋」の射程に関する議論を終えたいと思う.最後に,本節で行った「中国語の部
屋」の射程の確定作業を振り返ることにする.The Mystery of Consciousness は,Searle が Chalmers
や Dennett の哲学的著作を批判検討したものと,彼らとの書簡をまとめたものであるが,その結論部で
は Searle が人工知能研究についてどのような哲学的立場を取っているかをまとまった形で読み取るこ
とができる.本項では,これに依拠しながら,本節で行った議論をまとめていく.
Q. 機械は意識を持ちうるのだろうか?
Searle によれば,これはイエスである.彼は,私たちの脳を機械とみなしている.これは何を意味す
るのかといえば,私たちの脳は決して特別な地位を持った器官ではなく,心臓や肝臓と同様に生物的な
〈機械〉である,ということだ.いくつかの機械は実際に思考し,意識状態を持つことができる.Searle
はその実例としてまさに私たち自身を取り上げるわけだが,(次に述べるように)人工的な機械にもこ
の可能性は開かれている.
Q. 脳が生物学的な機械であるとすれば,人工的な機械,すなわち自動車やコンピュータのような
機械は意識を持ちうるのだろうか?
Searle の心の哲学を理解する上で重要なのは,彼が脳という器官を他の(例えば心臓や肝臓といっ
た)器官と同じレベルとして扱っていることである.脳は意識を生み出すが,それは決して特別なこと
でも,神秘的なものでも,宗教的なものでもないのである.そして,心臓にフォーカスすれば,実際,
私たちはそれを複製することに成功している.このとき,脳を複製することに関しては,(脳神経科学
32
の研究が不十分である,脳を複製する技術が発達しきっていないといった)〈偶然的な〉不可能性はあ
るかもしれないが,これは〈論理的な〉・〈原理的な〉不可能性ではない.原理的には,人工心臓を作る
ことと人工脳を作ることは同じであり,そうであれば,人工的な機械が意識を持つことを阻害するもの
はもはや何もないことに気づかされる.私たちは,単純な無知の問題・科学の進歩の問題といった偶然
的な障害と形而上学的障害・論理的な障害を区別しなければならないのだ.
Q. 脳組織は意識にとって必要なものであるか?
「意識にとって脳組織は必要不可欠なものである」という立場は,Searle の生物学的自然主義とは異
なる立場であることに気をつけたい.Searle は,意識を引き起こすためには,何らかの脳内プロセスで
〈十分である〉と主張する [Ibid, p. 238].意識を因果的に引き起こす脳以外のシステムは少なくともそ
れと等価な因果的効力の閾値を持つことになるが,だからといってそのシステムが神経組織を必ず必要
とするかどうかについては,
「わからない」のである.とはいえ,少なくとも,コンピュータ・プログラ
ムは,そのプログラムを実装する媒体にまつわる因果的効力を超えた因果的効力は一切持たないため,
意識を引き起こすためのシステムの候補として形式的なコンピュータ・プログラムを挙げることは許さ
れないのだ.この論点は,Searle の人工知能研究批判の射程と綺麗に一致するので重要である.
Q. 意識と同じ外的な結果を生み出すことのできる機械はどうだろうか?もし,あたかも意識を
持つかのように行動する,コンピュータ制御のロボットを組み立てることができれば,意識を作
り出せるのではないだろうか?
これは「チューリングテスト」的な問いである.こういった立場こそが,
「中国語の部屋」の本来の標
的であった.彼は,この立場に対する簡潔な反論を述べている.
意識の本質は,それが内的で質的な,また主観的で心的なプロセスである,ということにある.Searle
自身が指摘したように,デカルト以来の心の哲学は,物理的な世界観とそういった心的内容との間の戦
いでもあった.内的で質的,主観的な心の性質を尊重した実体二元論は,科学的世界観を諦め,物理的
なものとは存在論的に異なる〈心的なもの〉を想定することになった.一方,科学的世界観を支持する
物的一元論は,その代償として客観的で物理法則に従う物理的世界観のみで内的で主観的な心の性質を
説明することを強いられることになった.
Searle の立場は,既に確認したように,自然科学の枠組みから離れない生物学的自然主義であった.
しかしながら,物的一元論と彼の立場が異なるのは,心の内的で主観的な心の性質を否定しない,とい
う点にあった.上記の問いの形は,あくまで観察可能な行動を模倣する方向性であり,しかし実現した
いのは主観的だったり内的だったりする性質なのである.したがって,そういった内的で質的なプロセ
スの観察可能な外的行動の結果を複製することによって,心的プロセスそのものを複製することにアプ
ローチすることはできない.Searle はこれを,腕時計を複製することに喩えている.腕時計の内的な機
構を複製しようとして,砂時計を組み立てることは,ばかばかしいだろう.出来上がった砂時計は,た
しかに,腕時計と同様に時を刻む可能性はある(つまり,外的な複製には成功しうる)が,その(完璧
かもしれない)外的な動作は,腕時計の〈内的な〉構造を理解することとは無関係である.
33
Searle がここで強調したいのは,行動主義をはじめとする〈行動〉を重要視する立場に対し,この
〈行動〉という外的な現れがさほど重要ではないのだ,ということである.意識の研究において行動が
重要なのは,私たちがその行動を内的な意識プロセスの表出,効果とみなす限りにおいてであり,〈行
動そのもの〉が重要であるわけではないのだ.意識の存在論が関わるところでは,外的行動は関係しな
い.例えば,人々の行動を見ることで,彼らが意識的であるか否かを判定することは可能かもしれない.
だが,それは,私たちがほとんど同じ生物学的構造を有しており,したがって因果的にも類似している
からである(因果的類似の重要性については,生物学的自然主義の話題で何度か触れたとおりである).
人が涙を流して,それを観察することによりその人が悲しんでいたり,あるいは(極度に)楽しんでい
ることを推測できるのは,その人と心的状態を推測する人が因果的に類似しているからこそであろう.
人からはやや離れるが,サルは人間に近い因果的類似を有しているから,サルの心的状態を行動から推
察することは(ある程度)できる.同様に,犬や猫にも近いことが言えるだろう.しかし,エビの場合,
マグロの場合,貝の場合.... となると難しい.
行動は,私たち人間同士の意識状態・心的状態を推察する場面においてこの上なく役に立つことは間
違いないだろう.行動主義心理学はその好例である.そして,Searle も指摘するように,多くの人々が
心の理解において行動主義に惹かれている [Searle, 1984].しかし,行動というものが非常に重要な意
味をもつのは,私たちが因果的類似性を有している場合に限る.人工的な機械によるシステムで,人間
の意識状態・心的状態を実装する,という研究プロジェクトにおいては,行動の価値は心理学のように
受け入れられるべきではない.行動そのものを複製することは,意識(の原因となる脳神経構造)を複
製するプロジェクトにとって何も進捗をもたらさないのである.
3.8 「中国語の部屋」からの帰結
前節では,「中国語の部屋」の議論の射程がしばしば誤解されていることに着目し,Searle の哲学的
人工知能批判の輪郭付けを行った.これは事実,非常に地味な作業であったし,大きな進捗を提供する
ものではない.しかし,以上の議論が革新的でなくても,既にある著名な議論の正しい解釈を示したこ
とで心の哲学のゆっくりとした進展にコミットすることはできたと考えられる.
「中国語の部屋」に対する標準的な反論の多くが,真っ当な反論としての資格を有していない可能性
が高い,ということを私は論じてきた.「中国語の部屋」が〈終わった〉議論だとされているのは,これ
らの反論が一見,Searle の議論を根本から覆しているように見え,それに対する Searle の目立った反論
も見えてこないからであった.しかしながら,私が示してきたように,これらの反論のいくつかについ
ては,Searle の議論の射程を捉え損ねていたと考えられる.
ではここから何が帰結されうるのか? 一つは,もちろん,Searle の「中国語の部屋」の思考実験は
批判者が考える以上に堅牢な議論である,ということである.彼の議論は,以下のような単純な推論に
言い換えることができる [Searle, 1997].
• プログラムは統語論的である
• 心は意味論的内容をもつ
• 統語論それ自体は,意味論的内容とは同じではないし,意味論的内容にとって十分でもない
34
結局,「中国語の部屋」の論法を適切に反駁するためには,これらの前提を真正面から反駁していく
必要があるのである.
一方で,
「中国語の部屋」があらゆる機械の思考可能性を否定したわけではないことも(しつこく)確
認した.この思考実験が標的としているのは,「強い AI」,すなわち,適切なインプットとアウトプッ
トを備えたプログラムは〈心に他ならない〉という立場であった.したがって,「強い AI」が否定され
たとしても,機械が意識や思考といった心的内容をもつ可能性が完全に閉じたわけではなかった.しか
し,少なくともコネクショニズムのようなアプローチでは,「中国語の部屋」の議論の射程内に入って
しまうことも確認した.
以上をまとめると,この思考実験は,容易に反駁できない強固さを持っている一方で,機械が人間と
同じような心をもちうる可能性(=人工知能の可能性)については,極めて狭い範囲での主張しかして
いない,ということになる.
さて,「機械が人間と同様に心をもつためには何が必要なのか」という今となってはありふれた問い
について,正確に輪郭付けられた「中国語の部屋」は何を帰結することになるのだろうか.本節では,
最後にその点について考える.形式的なプログラムが心そのものではないとして,心そのものが機械に
宿るためには,何が要請されなければならないのだろうか.Searle の「中国語の部屋」の議論,そして
言語の意味に関する彼の言語哲学(すなわち言語行為論)を肯定的に論じた場合,人工知能研究にはど
のようなことを主張することができるのだろうか.
3.8.1 記号接地と志向性の問題
「中国語の部屋」では,自然言語の統語論と意味論の乖離が強調されたが,具体的に統語論には一体何
が欠けているというのだろうか.まず考えられるのが,統語論的な存在は志向性を持たず,外部の世界
に接地しないという点である.この問題は,人工知能研究において「記号接地問題(symbol grounding
problem)」として知られている.
私たちが言語を操るとき,一つ一つの言葉は現実世界の像として機能している.「あなたの名前は?」
と尋ねられ,私が「水上拓哉です」と答えたとき,
「水上拓哉」という記号は空虚な存在物ではなく,実
際に現実世界の私自身を指しており,記号とそれが意味するものの対応関係が確かにある.この対応関
係が理解できているからこそ,私は先の問いに責任をもって答えることができるのだ.
記号接地問題は,単純に記号を計算するだけの人工知能が上記のような対応関係を認識するにはどう
したらよいか,という問題である.馬を見たことがない人工知能が「馬」という記号だけを見つめても
何も得られないだろう.この場合「馬」という記号は現実世界に接地せず,純粋に統語論的な存在であ
る.
「ぼくは馬が好きです」と発言したロボットに対して「馬」の意味を尋ねれば,賢いロボットであれ
ば,馬の画像を表示したり,言葉巧みに馬の辞書的説明をつらつらと並べるかもしれないが,それらは
現実世界との実際的な関わりによって得られた知識ではなく,単なるデータであるかもしれない.この
記号接地という機能だけを従来のアプローチで実装することは困難だろう.というのも,この性質は,
私たちの意識の性質と深く関係しているからだ.
この問題には「志向性(intentionality)」という意識の性質が関わっている.私たちが心的状態をも
35
つとき,それは何かについての心的状態であることが多い.例えば,
「怒り」という心的状態は「漠然と
した怒り」であることはほとんどなく,むしろ何かに対しての怒りである.これは「喜び」でも「悲し
み」でも同様だ.消費税が上がること〈に対する〉怒り,大学を卒業できたこと〈に対する〉喜び,就
職できないこと〈に対する〉悲しみといったように,私たちの心的状態は何かについての心的状態であ
ることが多い.このように,ある心的状態が何かについてのものであるとき,それを志向的といい,そ
のような意識の性質のことを志向性という.
人工知能が記号接地を本当の意味で解決するためには,この志向性の問題も解決されなければならな
い.私が人工知能の自然言語理解に的を絞った本論文の中で意識について中心的に扱ったのは,まさに
この志向性が自然言語理解のための重要なファクターであり,志向性は意識の性質であるからである.
私たちは志向性によって外の世界に働きかけることができる.心的状態をもったときに,それが自分の
身体の中で完結するような心的状態ではなく,まさに外部の現実世界についての心的状態であるために
は,志向性が必要なのであった.仮に人間が記号とその記号が現実世界の何についての記号であるかの
関係を志向性において把握するのならば,当然人工知能研究における記号接地問題の解決に関しても,
志向性が重要な役割を担う可能性は高いと考えられるのだ.
Searle は,この志向性が意識の性質であることを積極的に認めているが,彼によれば全ての意識が志
向的であるわけではない [Searle, 1992].というのも,漠然とした不安だとか,なんとなく気分が悪い
という心的状態も想像できるからである.しかし,少なくとも志向性を得るためには意識経験が要請さ
れることとなるだろう.
3.8.2 脳組織は要請されるのか
先述したように,意識経験をもつことは自然言語理解の全ての課題を解決するわけではないが,少な
くとも記号接地問題の解決にとっては必要なものだということがいえる.なぜなら,意識経験が記号接
地に重要な志向性を担保する可能性が高いからである.では,この意識経験を得るために,人工知能は
必ず私たちと同じような脳組織そのものをもたなければならないのだろうか.
Searle の考えによれば,心的現象は生物学的に基礎付けられ,意識や志向性といった心的特徴も,生
物学的な構造が原因となって生まれてくる事になる.ここでいう生物学的構造とは,心的性質において
は脳組織の構造である.消化活動や血液循環と同様に,人間の生物学的なものの一部分として,意識や
志向性は理解される [Searle, 1983].しかし,3.7.5 で確認したように,「意識にとって脳組織は必要不
可欠なものである」という立場は,Searle の生物学的自然主義とは異なる立場である.意識を引き起こ
すためには脳組織から生まれるプロセスで十分であるというのと,意識には脳組織が要請されるという
のは異なる主張である.脳組織と同じ因果関係を持つことができるものを作ることができれば,それは
脳組織によるプロセスと同様の結果(つまり意識)を生むことになるだろう.結局のところ具体的にど
ういったものがその役割をこなせるかはわからない.シリコンチップでもできるかもしれないし,でき
ないかもしれない.とはいえ,少なくとも脳組織そのものであれば〈十分〉であり,形式的記号操作は
(コネクショニズムも含めて)不十分なのだ.
36
3.8.3 身体
さて,自然言語理解における難問である記号接地問題の解決のためには,少なくとも意識経験が必要
であり,その意識経験は必ずしも私たちの脳組織そのものを持たずとも生み出すことができることを論
じた.しかし,それだけで全てが解決されるほど記号接地問題は簡単な話ではないだろう.この難問を
乗り越えるために要請されるもの全てを列挙することは本論文では到底できないが,この問題の解決に
は志向性,すなわち意識の問題だけではなく,身体性の議論が必要になることだけを論じたい.ここで
は,
「中国語の部屋」の古典的な反論である「ロボット説」を足がかりに,身体的行為と記号接地の関係
について考える.
1980 年代の初期の反論であった「ロボット説」は,
「中国語の部屋」を〈頭〉だと考え,それに手足や
胴体といった〈身体〉を用意する,というものである.出来上がったロボットは,単純な統語論的過程
をこなすだけではなく,実世界(外的な環境)とインタラクションすることによって人間と同じような
〈意味〉を得るだろう,というのが「ロボット説」の概要である.既に確認したように,この立場は「中
国語の部屋」の反論にはなっていない.というのも,形式的なプログラムに〈身体〉を付け足せば意味
論を獲得できると主張することは,形式的なプログラムは意味論的内容に達するには不十分である,と
いうことを事実上認めているからである.これは Searle も既に言及している点である [Searle, 1997].
しかし,
「ロボット説」が「中国語の部屋」の反論として不的確であったとしても,機械が心をもつため
の条件を考える上では非常に重要なアイデアなのではないだろうか.
幼児が発達する過程で,単語とその意味(現実世界における対象との「接地」
)を学ぶ場面を考えると
き,そこには身体が要請されることがわかるだろう.ここではシンプルに一語文で考えてみよう.私た
ちは,発達の過程で,現実世界の存在を(文字通り)指差しながら語の意味を習得していくだろう.生
まれて数カ月の赤ちゃんに両親は(そこにいる人を指さして)
「ママ!」ということで「ママ」という語
の意味(つまりその語が接地する現実世界の対象)を把握していくことになるのである.「イヌ」,
「ネ
コ」といった語も同様だ.そして,これはなにも子供だけに当てはまる話ではない.事実,私たちは大
人になっても,新しい語を学ぶときは,(それが対象として指し示すことができるものについては,)さ
ほど変わらないプロセスを経て語を習得していくだろう.友人に知らない人を紹介された時には「こち
らは X さんです」と言われることで「X さん」という語と現実世界の X さんが結びつくことになる.
現実世界において指さしで示せる対象以外のもの,例えば,概念の場合はどうだろうか.これもそこ
まで上記のような語の理解と本質的には変わらないと私は考える.指し示すことができる語の理解を拡
張するような形で,概念を理解することも可能である.例えば,先ほど挙げた例を使えば,
「ママ」とい
う語を理解した赤ちゃんは,その後,実はその語が概念であることを知るだろう.母 X から生まれた赤
ちゃん x は,X が自分自身を指し示して「ママ!」と言う姿を見て,「ママ」という語と X の接地を学
ぶ.しかし,赤ちゃん x が成長すると,公園デビューを果たし,他の子供(a,b,c.... としよう)と出会
う.当然,その子供たちには対応する母(A,B,C.... としよう)がいるはずである.ここで,ママさんコ
ミュニティが形成されるわけだが,彼女たちは,互いを識別するために「ママ」という語ではなく,「x
ちゃんのママ」だとか「x ママ」といった語を使うことになるだろう.ここで x ははじめて,
「ママ」と
いう語が X だけを指すわけではないのだと知る.
「a ママ」
,
「b ママ」
,
「c ママ」という語に現れる「マ
37
マ」の共通性を悟ることにより,
「ママ」の概念を得ることになるのだ.あるいは,
「A は a ちゃんを産
んでママになった」というように,辞書的な定義を教えられることもあるだろう.
いずれにせよ,やはり語の意味論的内容を得るためには,「ロボット説」が主張するような環境との
インタラクションが必須であるように思える.環境との関わりがなければ,先述したような「指さしで
の指示による学習」ができず,意味論的内容の把握のスタートラインにすら立つことができないからで
ある.「指差し」するには対象を指し示す身体と,それをセンスデータとして受け取れる感覚器官が少
なくとも要請されることとなるだろう.
3.8.4 意味と意図
さて,前項ではある語が現実世界のある対象に接地する,という意味合いでの〈意味〉の獲得には,
身体性が必要であることを確認した.この議論があまりにも単純であるのは確かだが,ここでは意味の
獲得に少なくとも何が必要かだけ判明すればよいのである.とはいえ,前項の議論では,語や文の意味
が,文脈によって変わることについて説明できない.また,自然言語の文は,無味乾燥な世界にぽかん
と浮かぶものではなく,実際に私たちの身体から発話されるものである.
仮に「中国語の部屋」のシチュエーションにおいて,マニュアルに従っている英国人が,(どういう
わけか)記号接地の問題もクリアしているとしよう.つまり,中国語を処理する場合は,中国語話者が
それをするのと同じような心的内容を持つことができることを考えてみよう.この場合,その部屋は私
たちと同様にコミュニケーションすることが可能だろうか.少し考えれば,この奇妙な部屋がコミュニ
ケーションするには不十分であることに気づかされるだろう.というのも,私たちのコミュニケーショ
ンの文脈において発話は,
「そこにりんごがある」だとか「雨が降ってますか?」といった,現実世界の
有り様を単純に記述するものだけではないからである.
「チューリングテスト」で行われる自然言語のやりとりに,発話者の意図が考慮されることはあまり
ないかもしれない.しかし,私たちの豊かなコミュニケーションにおいて,発話者の意図は,自然言語
の文の意味の決定に大いに役立つだろう.実際,この件について Searle は,Speech Acts において,自
然言語が実際に発話されることで発話者の意図が意味にどう関わってくるのかについても言及している
[Searle, 1969].
例えば,
「文字通りの意味」と,
「それを発話する行為者の意図」は異なる.これについての Searle[Ibid.]
における例を少しわかりやすく改変し,以下のように例示したい.私が戦争の最前線で戦闘していたと
する.こちらは日本軍と中国軍でアメリカ軍に対して共闘していたとしよう.私はそこそこ健闘してい
たが,やがて敵兵に囚われてしまう.この敵兵が Searle だったとしよう.国際的事情で,Searle は中国
人は見逃し,日本人は殺すことになっている.ここでその事情を知っている私は,必死に自分が中国人
であることをアピールするだろう.私はたまたま唯一知っている中国語「我有点儿不舒服」を連呼する.
ところで,Searle は中国語を理解できないため*14 ,私の中国語を聞いても「文字通りの意味」はわから
ないのだが,少なくとも私が日本人でないことを推測するため,私は釈放されることになるだろう.さ
て,この例の場合,「我有点儿不舒服」の文字通りの意味は,「私は少し具合が悪い」という〈意味〉で
*14
余談だが,Searle は事実,中国語を知らないと自称している [Searle, 1980].
38
ある.しかしながら,ではここで私はそういう意味内容を伝えたかったのかといえば,明らかにそうで
はない.私は,上記のような状況下で,
「私は日本人ではない,だから釈放してほしい」という意味合い
で,唯一覚えている中国語の文を唱えたのである.ここでは「文字通りの意味」は何も本当の意味に貢
献しないことがわかるだろう.敵兵の Searle には,私がともかく中国語話者であることさえ伝わればよ
いのである.このように,自然言語が特定の文脈において発話される場合,その発話における行為者の
意図を加味することが,意味の決定と理解にとって重要であることがわかるだろう.
また,Austin が提示した言語行為論における基礎概念も同様に,私たちの自然言語によるコミュニ
ケーションの複雑さを示唆している.言語哲学者の J. L. Austin は,それまでの(分析)哲学における
伝統を批判しつつ,「陳述文(statement)」は何らかの事態(state of affairs)を記述する(describe)
こと,あるいは何らかの事実(fact)を陳述する(state)すること以外にも役割があることを示した
[Austin, 1962].真偽の形での検証が不可能であるにも関わらず,ナンセンスともいえない文がたしか
に存在するのである.例えば,ニュース番組中にテロップが間違っていた場合にアナウンサーが言う
「お詫び申し上げます」という発言は,真偽のどちらでもないにも関わらず,ナンセンスな発言ではな
い.また,この発言は「現在は午前 6 時です」や「今日はクリスマスです」といった文のように,何か
を記述したり報告したりするものでもない.そして,この「お詫び申し上げます」という発言は,
「お詫
びをする」という行為〈そのもの〉である.「私はその件についてお詫びします」と発言した場合,もう
その「詫びる」という行為は遂行されている(遂行された)のである.一方,
「私は卒業論文を執筆しま
す」と発言したところで,
「卒業論文を執筆する」という行為が完了するわけではない(もしそうだった
らどれほど嬉しいことか).Austin は,このような発話が行為そのもの,あるいは行為の一部となって
いるような性質のことを「行為遂行的(performative)
」と表現し,事実確認的(constative)な文と対
比させた.
上の例では,もちろん,アナウンサーが「お詫び申し上げます」と発言しておきながら,実際には心
的内容として全く反省していない,という状況を考えることも可能である.その場合は「お詫び申し上
げます」という文が〈偽〉になるのだろうか.そうではない.Austin によれば,この場合でも行為その
ものは事実として遂行されているため,偽であるということにはならない.この場合,その「お詫び」
は偽なのではなく,「不誠実」だということになる [Ibid.].こういった自然言語の機能の豊かさは,20
世紀の分析哲学由来の真理条件意味論では掬いきれない点である.
発話が行為そのものであるならば,
「チューリングテスト」が想定しているような自然言語のインプッ
トとアウトプットのみしか備えていない機械にとって,行為が関わる自然言語のやりとりをこなすこと
は,極めて困難なことだろう.例えば,
「隣のマンションが火事だ」という文は,白い紙にインクで文字
を印刷するといった極めて無味乾燥な状況であれば,事実確認的であり,その文に対して真偽を付与す
ることができるだろう.しかしながら,アパートの隣人が急いで私の家のインターホンを押し,「隣の
マンションが火事だ!」と発言した場合,これは事実確認的だろうか.そうではない.この場合はもち
ろん,
「隣が火事だから避難せよ」という意味であり,これは警告という行為そのものである.では,こ
の発話行為に対する正しい「アウトプット」は何だろうか.例えばそれは〈逃げる〉ことだろう.すな
わち,インプットが言語行為であった場合,そのアウトプットも行為である可能性は十分に考えられる
のである.
39
「チューリングテスト」の思考実験や「強い AI」には,ある前提が含意されているように思われる.
それは,自然言語によるやりとりは,私たちの身体的行為と独立した形で問うことができるのだという
前提だ.だが,以上で確認してきたように,言語行為論の皮相を撫でるだけでも,自然言語のやりとり
はしばしば行為と無関係ではいられないものであり,(極めて単純なタスクをこなす質問応答システム
ならまだしも,)私たちが行うのと同じように日常的で豊かなコミュニケーションができるような機械
を実装するためには,やはり実際に身体を備えたエージェントが実世界と関わることが要請されること
になるだろう.
とはいえ,以上で言及した問題,すなわち自然言語理解やコミュニケーションにおける意図の問題,
そして言語行為論の問題を,どのようにして機械の具体的な実装に落としこんで解決していけばよいの
かについては,まだわからないと言わざるを得ない.というのも,言語行為論の研究は,あくまで私た
ち人間のコミュニケーション,さらにいえば(Austin による初期の研究成果については)英語でのコ
ミュニケーションを前提としており,本来的に言語でコミュニケーションしない機械に同様のことを実
現させることについては,言語行為論の基本的関心の範疇外だからである.あるいは,そもそも哲学の
問題ですらないのかもしれない.実際,石崎 [2001] が紹介するような形で意図の理論や共通理解,そし
て言語行為を論理の側からモデル化・形式化するアプローチは示唆に富んでいる*15 .しかし,それでも
なお問題となるのは,実際に行為に及ぶ身体性の問題である.
Searle は私たちの意識を脳神経システムに因果的に還元することは可能だと論じたが,同様のことが
言語行為論にも言える可能性はある.生物学的自然主義では,意識にとって脳神経構造は要請されはし
ない.しかし,少なくとも脳組織があるならば,意識経験は可能になる.これは,仮に意識を備える人
間以外の存在を考えたとき,その存在者は私たちと同じ脳神経構造を必ずしも備えている必要はない
が,少なくとも私たちと同じ脳神経構造を備えている存在者については,意識の可能性を認めることが
できるということを意味する*16 .脳組織を持つならば意識経験が可能になるのと同様に,脳組織を含む
身体を備えた私たちが存在するならば言語行為は可能になるのである.その場合は,脳神経のシステム
のみに因果的に還元されるのではなく,脳組織とそれと連続的につながる末梢神経のシステム,すなわ
ち身体に因果的に還元されることになるだろう.言語行為を含めたコミュニケーションの実現に,私た
ちの(脳を含めた)身体は要請されないかもしれない.しかし,生物学的自然主義の論法を敷衍するな
らば,身体性を備えた私たちが存在することによって,この広い意味での自然言語の〈意味〉の理解は
可能になり,豊かなコミュニケーションが実現するのである.そして,これがある程度でも真実を述べ
ているのであれば,言語を操る脳と,実際に行為を行う身体の連関について解き明かし,機械に落とし
こむことができる形でモデル化させることは,人工知能が真に考えるために有意義なアプローチとなり
得るだろう.それに対して,機能主義的な人工知能研究,すなわち自然言語のやり取りの皮相を取り繕
うようなアプローチに,私たちの豊かなコミュニケーションやそれを担保するであろう意識を作り上げ
ることを期待することは全くのお門違いであるのではないだろうか.
*15
具体的には,例えば,Levesque[1990] などの研究が挙げられる.
*16
私たちの意識に関する因果関係より.生物学的自然主義では意識が脳神経に因果的還元されることを認めていた.
40
第4章
結論
本論文では,Searle の「中国語の部屋」の議論を肯定的に論じた場合,機械が人間と同じような認知
能力を備えるためには何が必要かという問題について考察した.そのために,私は彼の議論の射程を正
確に捉え直すことから検討し始めた.
射程の確定作業を通じて,Searle は全ての人工知能研究に対して批判的態度を取ってはいなかったこ
とが明らかになった.生物学的自然主義を理解すれば,彼が意識状態や心的状態に対して決して神秘主
義的ではないことが理解できるし,「中国語の部屋」の人工知能批判もその枠組みの中で解釈すること
は可能である.Searle は,特定の人工知能研究に対してはむしろ擁護者であったのであった.この点を
捉え損ねていたことが,「中国語の部屋」に対する大きな誤解の一つをなしている.
では,Searle が擁護する人工知能研究とは何か.それは,私たちに意識的経験をもたらす原因となる
ような過程を複製することを目指すアプローチであった.生物学的自然主義によれば,心的状態は脳神
経過程に〈存在論的には〉還元できないが,
〈因果的には〉還元できたのであった.意識経験が成り立つ
ために脳組織は必ずしも要請されるわけではないが,脳組織が存在すれば意識が成立するには〈十分〉
であり,このことは人間でも機械でも同様に当てはまるのである.
一方,一見生物学的な基盤を共有しているかに見える,コネクショニズムのようなアプローチに対し
て,Searle は批判的であったことも確認した.Churchland との論争から推察するに,コネクショニズ
ムは「中国語の部屋」の射程内であった.コネクショニズムは脳神経のシミュレーションに過ぎず,そ
の本質は,やはり(古典的計算主義とは変わらぬ)形式的計算であった.脳組織の複製が意識経験のた
めの因果的力をもつのに対し,脳神経構造のシミュレーションではその力をもたないという点で,コネ
クショニズムもやはり古典的計算主義と同様の困難を抱えてしまうのであった.
Wittgenstein の『論理哲学論考』の要点をはじめ Russel が誤解していたように,哲学の理論はし
ばしば誤解されがちである.私が本論文で強調してきたように,それは何も深淵な議論に留まらない.
Searle のような素朴で明快な議論で評判の哲学者ですら,その議論の射程を誤解されてしまうことは実
際にあるのだ.私が論じてきたように,
「中国語の部屋」の思考実験は,システム説やロボット説といっ
た安易な反論を寄せ付けるものではなかった.ロボット説に至っては,むしろこの思考実験を肯定する
ような議論である.一方,多くの人工知能研究者が考えている以上に,この思考実験の射程範囲は狭い
もので,「機械は人間と同じような心をもつことができるか」という問いについては,ごく限られた範
41
囲での主張しかしていないことも確認した.彼の議論は,より堅牢で,より狭い議論であるということ
が本論文で示したかった点の一つである.
脳組織があると意識が可能になり,身体性を有した私たちが存在すると言語行為が可能になるなら
ば,それらの中にあるエッセンスは何だろうか.私たちの豊かな言語コミュニケーションを身体性が担
保しているのは身体性のどのような性質によるものなのか.これに関してはもはや哲学の及ぶ範囲では
ないのかもしれない.少なくとも,言語行為を行う(脳組織を除いた)身体と言語を操作する脳神経構
造の関係を科学的に解明し,それをモデルに落としこむことは無駄ではないだろう.だが,機能主義的
な人工知能研究は,一部のタスクにおいてたしかに実用的で期待を感じさせるが,それがそのままコ
ミュニケーションを実現させるだとか,意識を作り上げるだとかといったプロジェクトにはスムーズに
は移行できないのである.
本論文は,心の哲学のフロンティアに立つ Searle の「中国語の部屋」という有名な議論について再検
討した.このよく知られている議論が,発表当時から誤解を免れず,それが現在まで続いてしまってい
ることを示し,「中国語の部屋」以外の心の哲学,そして言語行為論の文献に証拠を求めながら彼の議
論の射程を輪郭付けたという意味で,本論文は心の哲学,特に哲学的人工知能批判において僅かながら
寄与できたと思う.
しかし,本論文の主張がある程度でも正しいのであれば,私たちは意識や心の探求においては脳神経
構造のみならず,身体の探求も同時に行わなければならないだろう.生物,特に私たち人間は,進化の
過程で(下級)動物的な身体を獲得し,その後に現在のような高度に発達した脳神経を備えるに至った.
今後の人工知能はちょうど私たちの進化を遡行するように進化(退化?)していくのかもしれない.
42
参考文献
[荒屋, 2004] 荒屋真二: 『人工知能概論:コンピュータ知能から Web 知能まで』, 共立出版, 2004.
[Austin, 1962] Austin, J. L.: How to do Things with Words, Oxford University Press, 1962. (坂
本百大 訳『言語と行為』,大修館書店,1978)
[石黒, 2011] 石黒浩: “アンドロイドによるトータルチューリングテストの可能性” 『人工知能学会誌
26.1』, 2011: 50-54.
[Brooks, 1991] Brooks, R. A.: “Intelligence without representation” Artificial Intelligence, Vol.
47, 1991:139-160.
[Chalmers, 1996] Chalmers, D.: The Conscious Mind: In Search of a Fundamental Theory, Oxford
University Press, 1996.
[Churchland, 1990] Churchland, Paul M., and Churchland, Patricia S.: “Could a Machine Think?”
Scientific American 262.1, 1990:32-37.
[Dreyfus, 1972] Dreyfus, H. L.: What Computers Can’t Do, MIT Press, 1972.
[Fodor and Pylyshyn, 1988] Fodor, Jerry A. and Pylyshyn, Zenon W.: “Connectionism and cognitive architecture: A critical analysis” Cognition 28, 1988:3-71.
[Harnad, 1990] Harnad, S.: “The symbol grounding problem” Physica D, Vol. 42, 1990:335-346.
[服部, 2000] 服部裕幸: “コネクショニズムとは何か?” 『科学哲学 33-2』, 2000:15-28.
[服部, 2003a] 服部裕幸: “「中国語の部屋」とその後” 『コネクショニズムの哲学的意義の研究』,
2003:1-11.
[服部, 2003b] 服部裕幸: “AI 研究および認知科学に対するジョン・サールの批判” 『アカデミア(南山
大学紀要人文・社会科学編)』第 77 号, 2003:81-103.
[石崎, 2001] 石崎雅人, 伝康晴: 『談話と対話』, 東京大学出版会, 2001.
[Kurzweil, 2005] Kurzweil, Ray: The singularity is near: When humans transcend biology, Penguin, 2005.
[Levesque, 1990] Levesque, Hector J. and Nunes, J. H. T.: “On acting together” Proceedings of
the 4th National Conference on Artificial Intelligence, 1990:94-99.
[Levesque, 2009] Levesque, Hector J.: “Is it enough to get the behavior right?” Proc. of IJCAI-09,
Pasadena, CA, 2009.
[Lucas, 1961] Lucas, J. R.: “Minds, machines and Gödel” Philosophy 36, 1961:112-127.
[松尾, 2015] 松尾 豊: 『人工知能は人間を超えるか』, KADOKAWA/中経出版, 2015.
[Meyer, 2014] Meyer, Eric:
“Inadvertent Algorithmic Cruelty”
43
http://meyerweb.com/eric/
thoughts/2014/12/24/inadvertent-algorithmic-cruelty, 2014(2016 年 2 月 13 日閲覧).
[水本, 2012] 水本正晴: 『ウィトゲンシュタイン VS. チューリング ― 計算, AI, ロボットの哲学』, 勁
草書房, 2012.
[中島, 1996] 中島秀之, 有馬 淳, 佐藤理史, 諏訪正樹, 橋田浩一, 浅田 稔: “新しい AI 研究を目指して”
『人工知能学会誌 11.5』, 1996: 37-48.
[中島, 2011] 中島秀之: “中国語の部屋再考” 『人工知能学会誌 26.1』, 2011: 45-49.
[Newell, 1976] Newell, A. and Simon, H.: “Computer science as empirical inquiry: Symbols and
search“ Commun. ACM archive, Vol. 19, 1976:113-126.
[信原, 2000] 信原幸弘: “コネクショニズムと消去主義” 『科学哲学 33-2』, 2000:1-14.
[信原, 2004] 信原幸弘(編): 『シリーズ心の哲学 II ロボット編』, 勁草書房, 2004.
[Penrose, 1994] Penrose, R.: Shadows of the Mind, Oxford University Press, 1994.
[Schank, 1977] Schank, Roger C, Robert P. Abelson, and Plans Scripts: “Goals and understanding” Erlbanum: Eksevier Science, 1977.
[Searle, 1969] Searle, John R.: Speech acts: An essay in the philosophy of language, Vol. 626,
Cambridge university press, 1969.(坂本百大 訳『言語行為』,勁草書房,1986)
[Searle, 1980] Searle, John R.:
“Minds, brains, and programs” Behavioral and brain sciences
3.03,1980:417-424.
[Searle, 1983] Searle, John R.: Intentionality, CUP, 1983.(坂本百大 訳 『志向性―心の哲学』,誠信
書房,1997)
[Searle, 1984] Searle, John R.: Minds, Brains and Science, BBC, 1984.(土屋俊 訳 『心・脳・科
学』,岩波書店,2015)
[Searle, 1990] Searle, John R.: “Is the brain’s mind a computer program?” Scientific American
262.1, 1990: 26-31.
[Searle, 1992] Searle, John R.: The rediscovery of the mind, MIT press, 1992.(宮原勇 訳 『ディス
カバー・マインド!―哲学の挑戦』, 筑摩書房, 2008)
[Searle, 1997] Searle, John R., Daniel Clement Dennett, and David John Chalmers: The Mystery
of consciousness, New York Review of Books, 1997.(菅野盾樹 監訳 『意識の神秘 生物学的自然
主義からの挑戦』,新曜社,2015)
[Searle, 2004] Searle, John R.: Mind: a brief introduction, Oxford University Press, 2004. (山本
貴光・吉川浩満 訳『マインド―心の哲学』,朝日出版社,2006)
[Turing, 1950] Turing, A. M.: “Computing Machinery and Intelligence” Mind 49, 1950.
44
人工知能の自然言語理解に関する哲学的検討
― Searleの「中国語の部屋」における射程の分析を通じて ―
2016年 3 月 10 日 初版発行
著者 水上拓哉
監修 宮代康丈
発行 慶應義塾大学 湘南藤沢学会
〒252-0816 神奈川県藤沢市遠藤5322
TEL:0466-49-3437
Printed in Japan 印刷・製本 ワキプリントピア
SFC-SWP 2015-007
本論文は研究会において優秀と認められ、
出版されたものです。
■
Fly UP