ディープラーニングの実用化技術

ディープラーニングが現実の社会で使われるためには、「賢いこと」だけでなく、「わかりやすいこと」と「扱いやすいこと」も必要です。予測の理由を人に説明するための解釈性、そして限られた計算資源でも動かせるようにする軽量化は、そのための重要な技術です。LIMEやSHAPのような解釈手法、量子化や知識蒸留のような軽量化手法を入り口にしながら、このページでは実用化のための工夫を整理していきます。

6-8 モデルの解釈性

◆説明可能AI(XAI)とは何か 解釈性が求められる理由

AIはなぜその答えを出したのか——ブラックボックスの中身を開こうとする試みの、出発点となるページです。▶続きを読む

◆CAMとGrad-CAM AIの判断を画像で可視化する

画像のどこに注目して答えを出したのかを、AIが自ら可視化して見せてくれる技術です。▶続きを読む

◆SHAP・LIME・Permutation Importance AIの予測根拠を探る

どの情報がAIの予測に影響を与えたのかを、数値と言葉で明らかにする手法たちです。▶続きを読む

6-9 モデルの軽量化