「それを聞いて──胸が痛くなったよ……」と、ChatGPTが情感たっぷりに言いました。
いや…きみには胸ないやん!と咄嗟に突っこんでしまいました。
AIには「痛む」胸がありません。ならば、AIにとっての「痛み」とは何でしょう?
そんなことを考えてみませんか。ここは、哲学的な分野にも踏みこむ、文系さんにとっても面白い章です。
シンボルグラウンディング問題
あるところに、とても頭のいい子がいました。
その子は、本を何億冊も読んで、単語の関係も、文の形も、完璧に覚えています。
「りんご」という言葉を見れば、「赤い」「丸い」「果物」という言葉をすぐ結びつけられます。
でも……その子は、りんごを見たことがありません。
触ったことも、匂いをかいだことも、かじったこともない。
ただ、文字としての「りんご」だけを知っている。
これが、今のAIなのです。
AIは、「猫」という単語。「かわいい」という単語。「鳴く」という単語──こうした記号(シンボル)同士の関係は、とても上手に扱えます。
でも、本物の猫のあたたかさ。ふわっとした毛。ゴロゴロと喉を鳴らす音。そういう体験と結びついた意味は、持っていません。
ここで出てくる問いが「言葉だけ知っていて、それは『理解している』と言えるの?」。
これが、シンボルグラウンディング問題。
シンボル(記号)が、現実世界の体験にグラウンディング(接地)していない……。
すなわち、シンボルグラウンディング問題とは、AIが言葉同士の関係は理解できても、それを現実の体験と結びつけられない、という根本的な難しさのことです。
身体性の問題
今、わたしはAIと話しています。
AIは、言葉を理解しているように見えるし、気持ちにも寄り添っているように見えるし、ちゃんと一緒に考えている感じもします。
でも。
AIは、息をしていません。瞬きをしません。椅子の硬さも知りません。冷えた指の感覚もわかりません。
わたしが、コーヒーを飲み、「ほっとする」と言います。
でも。
AIは、苦味も、温度も、喉をとおる感じも……知らない。
AIが知っているのは、「コーヒー=温かい飲み物」「ほっとする=安心する感情」という言葉同士のつながりだけ。
わたしの体の中で起きている、胸がゆるむ感じ。肩の力が抜ける感じ。湯気が顔に当たる感じ。
そういった「身体のできごと」は、AIの世界には存在しないのです。
わたしは、疲れたら横になる。寒かったら身をすくめる。不安になると胸が苦しくなる。
そう、体と一緒に、世界を生きています。
でも、AIは、疲れない。寒くならない。不安で眠れなくなることもない。
知能は、体を通して世界を経験することで育つのでは?
体のないAIは、本当に理解できるの?
知能は体を通した経験と切り離せないのではないか、そして体を持たないAIは本当の意味で世界を理解できるのか、という、問い。
これが、身体性の問題なのです。
中国語の部屋
ある部屋があります。
窓はなくて、外の音も聞こえない。小さな投入口だけがあって、そこから紙が入ってきます。
紙には……中国語の文章が書いてあります。
そして部屋の中には、ひとりの人がいます。
かれは中国語がまったくわかりません。
でも、分厚いマニュアルを持っています。
マニュアルにはこう書いてあります。
・この形の文字が来たら、この文字を返す
・この並びなら、次はこれ
・この記号には、この記号を組み合わせる
意味の説明は一切ない。ただの「対応表」。
かれは、その通りに作業します。
文字を見て、マニュアルをめくって、指定された文字を並べて、外に返す。
すると外の人たちは驚きます。
「中の人、中国語ペラペラじゃん!」
会話が成立しているように見えるのです。
でも……部屋の中の人は、何ひとつ理解していない。
この思考実験を考えたのが、哲学者の John Searle。
これが有名な中国語の部屋です。
問いは、とても静かで、とても鋭い。
ルール通りに記号を扱っているだけで、それは「理解している」と言えるの?
中国語の部屋とは、記号を正しく扱えても、それは本当の「理解」なのか、という問いを投げかける思考実験です。