過学習:AIモデルの落とし穴
人工知能を作る際には、たくさんの例題を使って学習させます。これは、子供に勉強を教えるのと似ています。たくさんの問題を解かせることで、子供は問題の解き方を学び、新しい問題にも対応できるようになります。しかし、もし子供が過去問ばかりを繰り返し解き、その問題の答えだけを丸暗記してしまったらどうなるでしょうか。おそらく、その過去問と全く同じ問題であれば満点を取れるでしょう。しかし、少しだけ問題が変わると、途端に解けなくなってしまうはずです。
人工知能でも同じことが起こります。これを過学習と言います。過学習とは、人工知能が学習用の例題に過剰に適応しすぎてしまい、新しいデータに対してうまく対応できなくなる現象です。まるで例題の答えを丸暗記しているかのように、学習用のデータの細かな特徴や、たまたま含まれていた間違い(ノイズ)までをも学習してしまうのです。
過学習が起こると、学習用のデータに対する精度は非常に高くなりますが、それ以外のデータに対する精度は非常に低くなります。これは、人工知能が学習用のデータだけに特化してしまい、一般的な問題を解く能力を失ってしまうからです。例えるなら、特定の病気の診断に特化した人工知能が、その他の病気の診断を全く行えなくなるようなものです。
過学習は人工知能開発における大きな問題です。なぜなら、人工知能は様々な状況で使えるように作られるべきだからです。特定の状況だけでしか役に立たない人工知能は、実用性が低く、広く使われることはありません。そのため、過学習を防ぐための様々な工夫が凝らされています。例えば、学習用のデータの一部を検証用として取っておき、学習中に過学習が起こっていないかを確認する方法などがあります。このように、過学習を防ぐ工夫は、人工知能を正しく育てる上で非常に重要なのです。