ダブルDQNで強化学習を改良
人工知能の分野で注目を集めている強化学習は、機械が試行錯誤を通して学習していく仕組みです。まるで人間が新しい技術を習得する過程のように、機械も周囲の状況を観察し、様々な行動を試しながら、より良い結果に繋がる行動を覚えていきます。この学習を行う主体は「エージェント」と呼ばれ、与えられた環境の中で行動し、その結果として報酬を受け取ります。エージェントの目的は、試行錯誤を通して、受け取る報酬を最大にする行動を見つけることです。
この学習プロセスにおいて、行動価値関数という概念が重要な役割を果たします。行動価値関数は、ある状況下で特定の行動をとった時に、将来どれだけの報酬が得られるかを予測するものです。例えば、将棋を例に考えると、「この局面でこの駒をここに動かすと、最終的にどれくらい有利になるか」を予測する関数に相当します。この関数が正確であれば、エージェントは常に最良の手を選択できます。しかし、従来の学習手法であるDQN(ディープ・キュー・ネットワーク)では、この行動価値関数の予測値が実際よりも大きくなってしまう、つまり過大評価してしまうという問題がありました。過大評価は、エージェントが実際には良くない行動を、良い行動だと誤解して選択してしまう原因となります。この問題を解決するために、ダブルDQNという新しい手法が開発されました。ダブルDQNは、行動価値関数の過大評価を抑え、より正確な学習を可能にする手法です。