意味ネットワーク
頭の中に、白い紙を思い浮かべてみましょう。
そこに、ぽつんと「猫」と書きます。
少し離れたところに「動物」。
さらに「しっぽ」「目」「耳」。
それぞれを、細い線でつないでいきます。
猫 —— is-a —— 動物
猫 —— has-a —— しっぽ
しっぽ —— part-of —— 猫
これが、意味ネットワークです。
意味ネットワークは、知識を「文章」で書く代わりに、「点(もの)と線(関係)」で表す方法なのです。
ひとつひとつの点は「概念」。線は「つながり」。
ここで大事なのが、この三つの基本のつながりです。
◆ is-a の関係(〜は〜である)
これは「仲間」の線。
猫 is-a 動物
犬 is-a 動物
バラ is-a 花
つまり、これはそのグループの一員だよ、という意味。
AIはここから「猫も犬も動物だから、共通点があるかも」と推測できるようになる。
◆ has-a の関係(〜は〜を持っている)
これは「持ち物」の線。
猫 has-a しっぽ
車 has-a タイヤ
これは、これを持っている。
◆ part-of の関係(〜は〜の一部)
これは「部品」の線。
しっぽ part-of 猫
タイヤ part-of 車
has-a と似ているけど、こちらは「構造」の話。
この三つを組み合わせると、AIの中に、小さな世界の模型ができあがります。
猫がいて、動物がいて、体の部品があって……。
ばらばらの単語じゃなく、つながった意味として保存される。
第2次AIブームの人たちは、こう考えていました。
「知識は、リストじゃない。網みたいにつながっているはず」
だからネットワーク。
でも、ここにも壁がありましたた。
世界は広すぎる。関係は増えすぎる。例外は無限にあります。全部つなごうとすると、ネットはすぐ絡まってしまいます。
これが、知識獲得のボトルネックにもつながっていくのです。
オントロジー
意味ネットワークは、「単語」と「関係」を線でつなぐ地図でした。
でも、人々はだんだん思うようになります。
「つなぐだけじゃ足りない。これは何で、どういう存在なのかを、もっと厳密に決めたい」
そこで生まれたのが、オントロジー。
オントロジーは、何が存在して、それらはどう分類され、どんな関係を持つのかを、はっきりしたルール付きで定義する方法です。
意味ネットワークが「ゆるい地図」なら、オントロジーは「かっちりした設計図」。
さて、オントロジーには2つの流れがあります。
◆ ヘビーウェイト・オントロジー
こちらは、厳密な論理、きっちりした定義、矛盾のない体系を、とことん追求するタイプです。
哲学寄りで、学術的。
世界を、完全な論理で閉じ込めようとしたオントロジー。
とても美しいけれど、作るのも維持するのも大変すぎるのです。
◆ ライトウェイト・オントロジー
こちらは現実派です。
多少あいまいでもOK。実用できればOK。スピード重視。完璧より「使える」を選ぶ。
このライトウェイト側の代表例としてよく挙げられるのが、
IBM Watson。
ワトソンは、世界中の文章や知識を読み込みながら、医療、クイズ、専門文書といった分野で、質問に答えられるAIになっていきました。
ここで使われているのは、哲学レベルの厳密さじゃなく、「現実の情報を整理して使う」ためのオントロジー。
そして、ここから話は、個々のAIを超え、インターネット全体へ広がっていきます。
人々は考えました。
「せっかく知識を構造化できるなら、Webの情報同士も、意味でつなげられない?」
こうして生まれたのがセマンティックウェブです。
これは、Web上のデータに意味を与えて機械同士が理解できる形で、相互につなげようという構想。
その具体的な形のひとつが LOD(Linked Open Data)。
LODは、公開されたデータを、共通ルールで記述して、リンクで結びつける仕組み。
たとえば、ある国の統計データと、別の機関の地理データと、また別の文化データが、意味付きでどんどんつながっていきました。
オントロジーは、AIに世界の定義を教えようとした技術。
ヘビーウェイトは、完璧な世界を目指し。ライトウェイトは、使える世界を選びました。
その流れは、やがてセマンティックウェブへつながり、知識はAIの中だけでなく、インターネット全体に広がっていくのです。
◆ Question-Answering
質問すると、知識の中から答えを取り出してくれる仕組み。
例:「富士山の高さは?」→「3776mです」
会話の気持ちを読むわけじゃなく、情報検索+整形が中心。
◆ インタビューシステム
AIが人間に質問して、専門知識を集める仕組み。
例:医師に「この症状のときは何を確認しますか?」と順番に聞いて、判断ルールを作っていく。
第2次AIブームで、エキスパートシステム用の知識集めに使われました。
◆ データマイニング
大量データの中から、傾向やパターンを見つける技術。
例:「この商品とこの商品、よく一緒に買われてる」「この時間帯、アクセスが多い」
◆ ウェブマイニング
インターネット上の文章・リンク・行動ログなどを分析する、データマイニングのWeb版。
例:SNS投稿や検索履歴から、流行や関心の流れを読む。
Web上のデータを対象にしたデータマイニング。
ある日、人はとても大胆な問いを立てました。
「もしAIが、人間と同じ受験問題に挑戦したら、どうなるだろう?」
こうして始まったのが、東ロボくん。
正式には「東大ロボットプロジェクト」。
目標は、東京大学に合格できるAIを作ること。
でもこれは、単なる話題づくりではありませんでした。
東ロボくんは、人間のように「ひらめく」AIではありません。
代わりに使ったのは、大量の知識、問題文の構造理解、ルール化された判断、質問応答の仕組み。
つまり、知識を整理して使うAI。
国語では、文の構造や言い換えを解析し、数学では、問題の型を見分け、世界史では、知識のネットワークをたどる。
すべて、「知識表現」と「それを使った推論」の組み合わせ。
結果として、東ロボくんは東大合格には届かなかった。
でも、それは失敗ではありません。
むしろ、AIが何を得意として、何が苦手かを、はっきり見せてくれたのです。
知識量、定型問題、論理構造には強い。
でも、文脈の深い理解、暗黙の前提、常識の飛躍は苦手。
東ロボくんは、「知識を集めて使うAI」の到達点を、はっきり可視化した存在。
そしてそれは、ワトソンから続く実用重視の知識型AIの系譜にあるのです。