中国語の部屋(Chinese room)とは、「うまく質問に答えられる存在でも、質問を理解しているとは限らない」事を示すための思考実験である。
この思考実験に関する論考・議論を英語で「Chinese Room Argument」、略して「CRA」ともいう。
元々は「質問に答える機能を持った人工知能」を念頭においた話だった。
しかし議論していくうちに「人間の脳」にも話題が広がっていくため、これを読んでいるあなたにも関係する話になっていく。
部屋の場合
中国語は全然わからない、けれど英語は理解できる人が、ある部屋の中に入れられている。
- 部屋の中に、外部から中国語の質問が入れられる。
- 中の人は中国語を知らないので、全然わからん!でもその部屋の中には「中国語の意味は全然書いてないが、膨大な漢字と英語で解説された「ルール」が載っていて、そのルールに従って何も考えずに手を動かして処理すれば、質問に対する答えとして正しい組み合わせの中国語の回答になる、超すごいマニュアル」が置いてあった。
- 中の人はとりあえずそのマニュアルにしたがって手を動かして、彼にとっては全く意味の分からない漢字を並び替え、その結果、部屋の中には正しい組み合わせの中国語の回答が完成した。
- 質問に対する答えが、部屋の外に出された。
この部屋を外から見れば、「中国語の質問を入れたら中国語の正しい回答が返ってきたので、この部屋は中国語を理解している」ようにも見える。
しかし、部屋の中の人は中国語を理解していない。ルールに従って並び替えただけである。この部屋の中には中国語を理解しているものなど誰も居ない。
あなたもそう思うだろう?
あなたの場合
※便宜上、あなたが日本語話者であるという仮定の元に話を進める。
- あなたは日本語で質問され、回答を脳で考え始めた。
- あなたの脳の中では、脳の神経細胞やその間のシナプスなど、様々な微細な存在・構造が処理を始めた。脳の中にあるそれら微細なものたちは、各々が日本語を知っているわけもない。だが、各々が持つ個別の役割を果たすことはできる。人間の脳はそれらが役割を果たせば機能するようになっている。
- 脳の中の微細な存在・構造たちは、各々自身は日本語など何もわからないままに役割を果たし、その結果として、あなたは質問に対する日本語の回答を思いついた。
- あなたは質問に対する回答を日本語で答えた。
あなたの外から見れば、「日本語の質問に日本語で答えたので、あなたは日本語を理解している」ようにも見える。
しかし、あなたの脳の中に存在している神経細胞やシナプス各々は、日本語を理解していない。個別の機能を果たしただけである。あなたの脳の中に、「日本語を理解している単独の何か」など存在しない。
だからあなたは日本語を理解しているとは言えない。
あなたもそう思うだろう?
概要
上記のうち、「部屋の場合」の部分が本来の「中国語の部屋」の思考実験である。
「あなたの場合」の方は、この「中国語の部屋」の思考実験に対する批判として用いられる論法。詳細は後述。
「部屋の場合」を読んで「そうかも……」と思った人も、「あなたの場合」の方を読むと「んっ?」とひっかかったのではないだろうか。この二つの論法の間には、本質的な差は存在しているだろうか?
起源
元々はジョン・サール(John Searle)という哲学者が、1980年に発表した論文『心・脳・プログラム』(Minds, brains, and programs)[1]という論文中で提唱したもの。
当時、ロジャー・シャンク(Roger Schank)という人工知能学者やそのなかまたちによって、自然言語の文章をコンピューターに理解させる技術、例えば「文章を読ませた後、その文章に関する質問に答えさせる」と言ったような技術が進歩しつつあった。
これに対して「たとえ質問に答えられても、質問を「理解してる」とは言えないよな」とか言い出したのがこの論文である。
現在では、コンピューターの知性を問う「チューリング・テスト」と関連付けて語られることが多い。確かに上記の『脳・心・プログラム』でもチューリング・テストについては触れられている。しかし上記のように、本来は「チューリング・テスト」よりもシャンクの人工知能を念頭においたものであった。
反論
上記の「部屋の場合」の説明を読んで、納得がいかなかった人も居るだろう。
多くの人がこの話には頭をかしげ、ジョン・サールに対して様々な反論がなされ、大いに議論を招いた。
ここではジョン・サール自身が紹介している「反論」をいくつか紹介する。
I. The systems reply(システムの反論)
「部屋の中に居る人はシステムの一部に過ぎない。その人だけで見れば中国語を理解していないかもしれない。しかし、部屋にあるその長大な「マニュアル」、そのマニュアルに従って回答を計算するための鉛筆や紙、中国語の漢字を大量に備えたデータバンク、などもこの部屋が機能するためには必要だろう。これらすべてがシステムとなって、システム全体としては中国語を理解しているのだ。」
という反論である。
これに対するサールの再反論は、
「では、中に居る人が超天才で、それらのマニュアルやデータバンクを彼が全て暗記したとしよう。計算もすべて暗算でするのだ。つまり彼のみでシステムが完結しており、彼がシステム全体であるという場合を考える。しかしそれでも、中国語の「意味」についてはこのマニュアルについては一切書いていないので、彼も中国語の意味については無知のままだ。彼は中国語について理解していないのに、中国語の質問に回答できてしまう。つまり、システム全体で見たとしても中国語を理解していない。」
というものであった。
ちなみにこのような人物がもし実在したらと仮定すると、「中国語で話しかけると全く問題なく中国語で会話しており、行動面で見れば中国語を理解している人物と全く変わりが無いのに、本人の内面としては中国語の会話の意味を全く理解できていない」という非常に奇妙な存在となる。「哲学的ゾンビ」の亜種と言えるかもしれない。
II. The Robot Reply(ロボットの反論)
「シャンクのプログラムのやることが入力(質問)と出力(回答)に限ってるからこういう妙な話になってくるんじゃないか?プログラムを実行するコンピューターをロボットの中に入れて、カメラで回りのものを「視て」、手足で「動き回れる」ようにすればいい。そのロボットの「脳」になったコンピューターはちゃんと「理解」できるようになったり、他の精神状態だって持つようになるだろう」
という反論である。
これに対するサールの再反論は、
「では、中国語の部屋にロボットを追加しよう。ロボットに付けられたテレビカメラで捉えた外の中国語が部屋の中に入力され、出力した中国語がロボットの手足を動かすようにするのだ。それでも何も変わるまい。中の人が中国語を理解できるようになるわけではない。」
というものであった。
III. The brain simulator reply(脳シミュレーターの反論)
「本物の中国人の脳を忠実にシミュレートするようなコンピューターを想像することができる。人間の脳と全く同じ方式で、質問を処理して回答を出すのだ。このコンピューターは中国語の質問を理解しているだろう?それを否定するなら、ネイティブの中国語話者が中国語を理解していることすら否定しないといけなくなるぞ」
という反論である。
ちなみに、本記事の上方にある「あなたの場合」は、上記の反論のうち下線部の部分を切り出してアレンジしたものと思ってもらえればよい。
これに対するサールの再反論は、
「部屋の中にいる人が行う操作を「中国人の脳のシナプスを忠実に再現した水路」を操作することに変更してみよう。水路につながったバルブを操作することでシナプスの働きを真似るのだ。そのための英語で書かれた完全なマニュアルをもらっている。中国人の脳のシミュレートを完全に果たした結果として、中国語の質問に答える中国語の回答が出てくるが……。この操作をしている人は中国語を理解していないし、「水路」だってそうだろう。脳の形式的な構造を再現するだけでは、脳が意識を生み出す因果的な特性を再現したり、志向的状態を生み出すことはできないだろう。」
というものであった。
だが、本当にそうだろうか?
水路で作った脳のシミュレーターは、意識を持ったり言葉を理解したりしないのだろうか?
この問題については、「中国脳」の記事も参照されたい。
その他
これらI~IIIの後にも、
- IV. The combination reply 上記のI~IIIを組み合わせて「脳を再現した機構で情報処理して、ロボットに組み込まれていて、それを全体的に見ればどうだ?」という反論
- V. The other minds reply 「そんなに「理解している」ということのハードルを上げていたら、コンピューターに限らず、自分以外の人間全てが「何か理解している」ってことが怪しくなるんじゃないのか?」という反論
- VI. The many mansions reply 「今のコンピューターではサールの言う通りかもしれないが、いつか技術が進めば脳の因果的な特性を再現したり、志向的状態を生み出すことができるコンピューターが作られるようになるでしょう」という反論
などなどがサールによって取り挙げられている。
それ以後も、21世紀になっても新たな論法での「中国語の部屋」への批判・反論が考え出され続けているという。
関連動画
関連商品
関連項目
脚注
- 7
- 0pt