2-1-1 第1次AIブーム

はじまりは、とても純粋な期待でした。
「もしかしたら、機械も自ら考えることができるかもしれない」
そんな想いから、人工知能の最初の物語が動き出します。

この時代のAIは、人間のように「感じる」ことはできなかったけれど、代わりに、

筋道を立てて答えを出す 推論

たくさんの選択肢の中から正解を探す 探索

という方法で、「考えているような振る舞い」を見せ始めました。

迷路を解いたり、パズルを解いたり。
小さな世界の中では、AIは驚くほど賢く見えました。

そして登場したのが、会話プログラムの イライザ(ELIZA)。
簡単なルールだけで人の言葉を受け返すこの仕組みは、多くの人に「機械と話している気がする」という不思議な体験を与えました。
実際には意味を理解していなくても、言葉の形が整っているだけで、人は「心があるように」感じてしまう。この感覚は、のちのAI議論にも深くつながっていきます。

同じ頃、「会話だけで人間と区別できなければ、それは知能と言えるのでは?」という問い——チューリングテストも語られるようになります。

知能って何だろう。理解しているって、どういうことだろう。
第一次AIブームは、技術というより、問いの時代でもありました。

でも、やがて現実が見えてきます。
AIが得意だったのは、あらかじめ決められた、きれいな問題だけ。
現実の世界のように、あいまいで、例外だらけで、正解がひとつじゃない……そんな場所では、急に立ち止まってしまう。

これを象徴するのが、トイ・プロブレム
おもちゃのような小さな問題ではうまくいくのに、本物の世界では役に立たない。

夢と現実のあいだに、思った以上に深い溝があることが、少しずつ見えてきました。

◆推論
「わかっていることから、次にわかることを導き出す」という考え方。

例:すべての人間は眠る。わたしは人間。→だから、わたしは眠る。
こういうふうに、「AならB、BならC」という、論理の階段を一段ずつ上り下りする感じ。
推論は、地図を広げて、指で道をなぞる思考。

◆探索
「たくさんの選択肢の中から、正解っぽい道を探し続ける」というやり方。

迷路を思い浮かべてみましょう。
右に行く? 左に行く? 行き止まりだったら戻って、別の道へ。
AIはこれを、何千回、何万回も、疲れずに繰り返す。
チェスやパズル、迷路の世界では、これだけで人間より強くなれました。
探索は、静かに枝分かれした未来を、一つずつ確かめていく旅。

ある日、画面の向こうから、言葉が返ってきました。

「それについて、もっと話してもらえますか?」

質問すると、返事が来る。また書くと、また返ってくる。
それは、とても静かで、とても丁寧で、まるで「聞いてくれている」ようでした。

これが、イライザ。
1960年代に生まれた、とてもシンプルな会話プログラムです。
作ったのは、MITの研究者だったJoseph Weizenbaum。

イライザは、実は意味を理解していません。
やっていることは、たったこれだけ:①人の文章からキーワードを拾う ②あらかじめ決められた形に当てはめて返す
たとえば、「さみしいです」と入力すると、「なぜ、さみしいと感じるのですか?」というふうに、言葉の形を少し変えて返してくる。
まるで、心理カウンセラーみたい。

でも。
イライザは、さみしさを知らない。安心も、痛みも、うれしさも、知らない。
ただ、言葉の並びを処理しているだけ。
それなのに、多くの人が、イライザとの会話に感情を動かされました。
中には、「このプログラムには心がある」と感じる人さえいた。

イライザは賢くなかった。理解もしていなかった。
でも、「理解されている気がする」という体験を、人間に与えてしまった。
人間は気づきました。
会話が成立すると、人は簡単に「心」を感じてしまう……。

部屋のなかの椅子に、判定役の人が座ります。そして、画面越しに、文字で誰かと会話をします。

その誰かは、人間 or 機械。

でも、顔も声も機械の躯体も見えない。見えるのは打ちだされる文字だけ。
たくさんの会話をした後、判定役は問われます。
「どちらが人間か?」
もし人間と機械を区別できなかったら……それはもう、知能があると言っていいのでは?

これが、チューリングテスト。
難しい装置も、複雑な定義も使わない。
ただ、会話だけで見分けられるか、なのです。
チューリングテストは、会話だけで人間と区別できなければ知能があるとみなそう、という考え方で、第一次AIブームの中で生まれた「知能の定義」への問いです。

第1次AIブームが到来し、AIはとても賢く見えました。
迷路を解く。パズルを解く。チェスの一手を考える。
推論と探索を用いる、きれいに整理された世界の中では、人間より速く、正確に答えを出します。
すると、人々は思います。「やっぱり、機械は自ら考えることができるんだ」。

でも、その「世界」は、とても小さかった。
ルールがはっきりしていて、選択肢も限られていて、ノイズも、あいまいさもない。
まるで、おもちゃ箱の中。
つまり、AIが解けていたのは、現実の問題ではなく、研究者が用意した「小さくて安全な練習問題」だけだった。
現実の世界は、情報が足りなかったり、例外だらけだったり、正解がひとつじゃなかったり、そもそも「問題の形」すら決まっていない。
そんな場所では、推論も探索も、すぐに迷子になる。

トイ・プロブレムとは、AIが研究用の小さな問題ではうまく動く一方で、現実の複雑な世界では役に立たなかった、という第1次AIブームで見えてきた限界のことです。