4-1 ニューラルネットワークとディープラーニング
入力層・隠れ層・出力層という「思考の階層」。AIは、一度に答えを出すのではなく、いくつもの層を通りながら少しずつ「考えて」いきます。▶続きを読む
「深くなる」とはどういうことか。層が増えることで、AIはより抽象的で複雑な特徴を捉えられるようになります。▶続きを読む
AIはなぜ「経験」を大量に必要とするのか。ディープラーニングは、大量のデータと膨大な計算を通して、少しずつ精度を高めていく仕組みです。▶続きを読む
AIを動かすエンジンの違い。ディープラーニングを支えているのは、目的に応じて設計された計算装置の力です。▶続きを読む
4-2 活性化関数
なぜReLUが広まったのか。活性化関数の選び方は、学習のしやすさを大きく左右し、その歴史の中で“勾配消失問題”という壁が現れました。▶続きを読む
4-3 誤差関数
AIが解く問題には、数値を予測するものもあれば、分類や特徴の距離を学習するものもあります。そのため、タスクに応じて適切な誤差関数を選ぶ必要があります。▶続きを読む
4-4 正則化
AIのモデルは複雑になりすぎると、学習データにはよく当てはまるものの、新しいデータにはうまく対応できなくなることがあります。こうした過学習を防ぐために導入されるのが正則化です。▶続きを読む
4-5 誤差逆伝播法
ニューラルネットワークでは、予測の間違いを手がかりにしてモデルを修正していきますが、その「間違い」をネットワークの後ろから前へ伝えながら学習する仕組みが誤差逆伝播法です。▶続きを読む
誤差逆伝播法は強力な学習方法ですが、ネットワークが深くなると誤差がうまく伝わらなくなることがあり、勾配消失問題や勾配爆発問題、信用割当問題といった課題が生じることがあります。▶続きを読む
4-6 最適化手法
勾配降下法では、データをどのような単位で使って学習するかによって、バッチ学習やミニバッチ学習などいくつかの方法があります。▶続きを読む
勾配降下法にはいくつかの課題があるため、それを改善するためのさまざまな最適化アルゴリズムが提案されています。▶続きを読む
AIの学習では、学習率などのハイパーパラメータを適切に設定することが、モデルの性能を左右する重要なポイントになります。▶続きを読む