ディープラーニングの概要

4-1 ニューラルネットワークとディープラーニング

ニューラルネットワークの基本構造

入力層・隠れ層・出力層という「思考の階層」。AIは、一度に答えを出すのではなく、いくつもの層を通りながら少しずつ「考えて」いきます。▶続きを読む

ニューラルネットワークとディープラーニングの関係

「深くなる」とはどういうことか。層が増えることで、AIはより抽象的で複雑な特徴を捉えられるようになります。▶続きを読む

ディープラーニングに必要なデータと計算資源

AIはなぜ「経験」を大量に必要とするのか。ディープラーニングは、大量のデータと膨大な計算を通して、少しずつ精度を高めていく仕組みです。▶続きを読む

CPU・GPU・TPUの特徴

AIを動かすエンジンの違い。ディープラーニングを支えているのは、目的に応じて設計された計算装置の力です。▶続きを読む

4-2 活性化関数

活性化関数とは何か

ニューラルネットワークは、そのままではただの計算の重なりにすぎず、そこに「ひと工夫」を加えることで、はじめて複雑な世界を表現できるようになります。▶続きを読む

代表的な活性化関数

シグモイド、tanh、ReLU、Leaky ReLU……活性化関数にはいくつかの種類があり、それぞれ性格の違う「反応のしかた」を持っています。▶続きを読む

ソフトマックス関数

最後の判断をどう出すか。多くの選択肢の中からひとつを選ぶとき、出力層では「確率」という形で答えを整えます。▶続きを読む

勾配消失問題と活性化関数の進化

なぜReLUが広まったのか。活性化関数の選び方は、学習のしやすさを大きく左右し、その歴史の中で“勾配消失問題”という壁が現れました。▶続きを読む

4-3 誤差関数

誤差関数とは何か

ニューラルネットワークは、ただ答えを出すだけではなく、「どれくらい間違っていたか」を知ることで学習を進めていきます。その「間違いの大きさ」を測るものが誤差関数です。▶続きを読む

代表的な誤差関数

誤差の測り方は一つではなく、目的に応じてさまざまな方法があります。ここではディープラーニングでよく使われる代表的な誤差関数を見ていきます。▶続きを読む

タスクによって変わる誤差関数

AIが解く問題には、数値を予測するものもあれば、分類や特徴の距離を学習するものもあります。そのため、タスクに応じて適切な誤差関数を選ぶ必要があります。▶続きを読む

4-4 正則化

正則化とは何か

AIのモデルは複雑になりすぎると、学習データにはよく当てはまるものの、新しいデータにはうまく対応できなくなることがあります。こうした過学習を防ぐために導入されるのが正則化です。▶続きを読む

代表的な正則化手法

正則化にはいくつかの方法があり、モデルの重みに制約を与えたり、学習のしかたを工夫したりすることで、モデルが複雑になりすぎるのを防ぎます。▶続きを読む

4-5 誤差逆伝播法

誤差逆伝播法とは何か

ニューラルネットワークでは、予測の間違いを手がかりにしてモデルを修正していきますが、その「間違い」をネットワークの後ろから前へ伝えながら学習する仕組みが誤差逆伝播法です。▶続きを読む

誤差が伝わるときの問題

誤差逆伝播法は強力な学習方法ですが、ネットワークが深くなると誤差がうまく伝わらなくなることがあり、勾配消失問題や勾配爆発問題、信用割当問題といった課題が生じることがあります。▶続きを読む

4-6 最適化手法

勾配降下法とは何か

AIは学習の中で「よりよい答え」を探し続けますが、そのとき使われる代表的な方法が勾配降下法です。▶続きを読む

勾配降下法の学習方法

勾配降下法では、データをどのような単位で使って学習するかによって、バッチ学習やミニバッチ学習などいくつかの方法があります。▶続きを読む

勾配降下法を改良するアルゴリズム

勾配降下法にはいくつかの課題があるため、それを改善するためのさまざまな最適化アルゴリズムが提案されています。▶続きを読む

ハイパーパラメータと調整

AIの学習では、学習率などのハイパーパラメータを適切に設定することが、モデルの性能を左右する重要なポイントになります。▶続きを読む