機械学習 リッジ回帰:過学習を抑える賢い方法
たくさんの情報から将来を予想することを目的とした計算方法の一つに、リッジ回帰というものがあります。
時折、集めた情報にぴったり合うように予想のやり方を覚えてしまうと、新しい情報に対してはうまく予想できないことがあります。
これは、いわば覚えることに集中しすぎて、応用する力が身についていない状態です。
このような状態を過学習と呼びます。リッジ回帰は、この過学習を防ぐための工夫です。
リッジ回帰は、基本的な予想方法である線形回帰を発展させたものです。
線形回帰は、データを直線で表すような単純な予想方法ですが、リッジ回帰は直線を少し曲げることで、より複雑な状況にも対応できるようにしています。
しかし、あまりに複雑にしすぎると、過学習を起こしてしまいます。
そこで、リッジ回帰は複雑さを調整する仕組みを導入しています。
具体的には、予想のやり方を決める要素(パラメータ)が大きくなりすぎないように制限を加えます。
この制限は、パラメータの大きさの二乗に比例する罰則として与えられます。
この罰則を正則化項と呼びます。
予想の精度は、集めた情報とのずれの小ささと、正則化項の大きさのバランスで決まります。
リッジ回帰は、ずれを小さくしつつ、パラメータが大きくなりすぎないように調整することで、過学習を防ぎ、新しい情報に対しても適切な予想ができるようになります。
このように、リッジ回帰は過学習を防ぎ、より確かな予想を立てるための優れた方法と言えるでしょう。
