6-6-3 Few-shot学習と自己教師あり学習 少ないデータで賢くなる

AIの学習には、大量のデータが必要だ——そう思われてきた時代がありました。
確かに、ディープラーニングの躍進を支えたのは、膨大なラベル付きデータでした。しかし現実の世界では、大量のデータが都合よく手に入る場面ばかりではありません。
医療の現場では、希少な病気の症例データは少ない。新しい製品の不良品画像は、まだほとんど存在しない。特定の方言の音声データは、集めること自体が難しい——。「データが少ない」という制約は、AIを実社会に活かそうとするとき、いたるところで立ちはだかります。

この章では、その制約を乗り越えるための技術を見ていきます。少ないお手本から学ぶ力、そしてそもそもお手本なしで学ぶ力——AIが「少ないデータで賢くなる」ための知恵です。

Few-shot学習とOne-shot学習

Few-shot学習とは、ごく少数の例(数枚〜数十枚程度)だけを見せることで、新しいタスクに対応できるようにする学習手法です。
そしてOne-shot学習は、その極限——たった一つの例だけから学ぶ手法です。

人間にとって、これは当たり前のことです。
「これがトラです」と一枚の写真を見せられれば、次からトラを見分けられる。新しい言葉を一度聞いただけで、文脈から意味をつかんで使えるようになる——人間はもともと、少ない情報から素早く学ぶことが得意な生き物です。

しかしAIにとって、これは長らく難しい問題でした。従来のディープラーニングは、大量のデータがあってはじめて力を発揮するアプローチだったからです。

具体的な場面を想像してみましょう。
新種の植物を識別するAIを作りたいとします。従来の手法なら、その植物の写真を何千枚も用意しなければなりません。しかしFew-shot学習なら、たった数枚の写真を見せるだけで「これが新種の植物だ」と認識できるようになります。One-shot学習ならさらに極端で——一枚見せるだけで十分です。まるで「これが犯人の顔写真です」と一枚の写真を渡された名探偵が、街中からその人物を見つけ出すような能力です。

Few-shot学習の鍵は、「学び方を学ぶ」という発想にあります。
多様なタスクをあらかじめ大量に経験させることで、「新しいタスクに少ない例で素早く適応する能力」そのものをAIに身につけさせます。

具体的な知識を教えるのではなく、「学ぶという行為のコツ」を学ばせる——そんな発想の転換です。
ChatGPTのような大規模言語モデルは、Few-shot学習の力を如実に示しています。「これが良い文章の例です」と数例を提示するだけで、同じスタイルの文章を生成できるようになる。その背景には、事前学習によって身についた膨大な知識と、少ない例から素早くパターンをつかむ力があります。

半教師あり学習

学習データには、二つの種類があります。
正解ラベルが付いているラベルありデータと、ラベルのないラベルなしデータです。
ラベルありデータは学習に使いやすい反面、人間が一つひとつ正解を付けなければならないため、大量に用意するにはコストがかかります。
一方、ラベルなしデータは、インターネット上の画像や文章など、比較的簡単に大量に集められます。

半教師あり学習は、少量のラベルありデータと、大量のラベルなしデータを組み合わせて学習する手法です。
ラベルなしデータからデータの全体的な構造やパターンを学び、少量のラベルありデータでその学びを正しい方向に調整していく——両者の長所を活かすアプローチです。

たとえば、医療画像の診断AIを作りたい場合を考えてみましょう。
医師が正解ラベルを付けた画像は100枚しかないが、ラベルなしのX線画像は10万枚ある——そんな状況で、半教師あり学習は特に威力を発揮します。
10万枚の画像から「X線画像の一般的なパターン」を学んでおき、100枚の正解データでそのパターンを「病気の診断」という目的に合わせて調整する。
少ないラベルありデータを最大限に活かす、現実的な知恵です。

自己教師あり学習

自己教師あり学習は、ラベルなしデータだけを使って、データそのものから教師信号を自動的に作り出して学習する手法です。

仕組みをひと言でいえば、「AIが自分でクイズを作って、自分で解く」学習です。
具体的にはこうです。

今日は天気が良いので、散歩に出かけた。

という完成した文章があります。
AIはこの文章の一部を自分で隠します。

今日は天気が____ので、散歩に出かけた。


そして「空欄に入る言葉は何か?」を自分で予測して答えます。
正解はすでに元の文章の中にあるので、人間がラベルを付ける必要がありません。
AIが問題を作り、AIが解き、正解と照らし合わせて学ぶ——この繰り返しだけで、言葉の意味と文脈の関係を深く学んでいくのです。

BERTはまさにこの仕組みで事前学習されています。
インターネット上の膨大なテキストに対して、自分で穴埋めクイズを作っては解くことを繰り返すことで、誰かに正解を教えてもらわなくても、言語の深い理解を自然に身につけていきます。

人間の子供が、誰かに正解を教えてもらわなくても、世界を観察しながら自然に言葉と概念を学んでいく——自己教師あり学習は、その学び方に最も近いAIの学習スタイルといえるかもしれません。

まとめ

Few-shot学習 → ごく少数の例だけを見せることで、新しいタスクに対応できるようにする学習手法。「学び方を学ぶ」という発想が核心にある
One-shot学習 → Few-shot学習の極限。たった一つの例だけから学ぶ手法
半教師あり学習 → 少量のラベルありデータと大量のラベルなしデータを組み合わせて学習する手法。両者の長所を活かして効率的に学習できる
自己教師あり学習 → ラベルなしデータからデータ自身を使って教師信号を自動生成し学習する手法。BERTの事前学習などに採用されている
ラベルありデータ → 正解情報が付与された学習データ。用意にコストがかかる反面、学習に直接活用しやすい
ラベルなしデータ → 正解情報のない生のデータ。大量に集めやすいが、そのままでは通常の教師あり学習には使えない

next ▶ マルチモーダルとは何か 複数の感覚を持つAIへ