AIを狙う 敵対的攻撃とは
近頃、機械の知恵とも呼ばれる人工知能の技術は、目覚ましい進歩を遂げており、私たちの暮らしに様々な良い影響を与えています。例えば、車は人の手を借りずに走るようになり、医者は病気を診断する際に機械の助けを借り、お金のやり取りも機械によって自動で行われるようになっています。こうした多くの場面で、人工知能はなくてはならないものとなっています。しかし、それと同時に、人工知能の弱点を利用した攻撃、いわゆる「敵対的攻撃」の危険性も増しています。これは、人工知能が物事を正しく認識するのを邪魔し、誤った動作をさせる悪意のある攻撃です。
この敵対的攻撃は、まるで人工知能の目をくらますかのように、わずかな変化を加えることで行われます。例えば、人の目には全く同じに見える写真に、ごく小さな変更を加えることで、人工知能はそれを全く違うものと認識してしまうことがあります。自動運転の車を例に挙げると、標識にシールを貼るなど、人が気づかない程度の細工をすることで、人工知能は標識を誤認識し、事故につながる可能性があります。
この攻撃は、人工知能がどのように学習しているかという仕組みにつけこむものです。人工知能は大量のデータから規則性や特徴を学びますが、敵対的攻撃は、この学習過程の隙を突いて、人工知能を騙そうとします。具体的には、画像認識の例では、画像にノイズと呼ばれる、一見ランダムに見えるわずかな変化を加えることで、人工知能に誤った判断をさせます。このノイズは、人の目にはほとんど分からない程度のごく小さな変化ですが、人工知能にとっては大きな影響を与えます。
こうした敵対的攻撃から人工知能を守るためには、様々な対策が必要です。例えば、より多くのデータで学習させることで、人工知能の認識精度を高める方法や、敵対的攻撃を想定した特別な訓練を行う方法などが考えられます。また、人工知能が誤った判断をした場合でも、安全に動作を続けられるような仕組みを作ることも重要です。この敵対的攻撃への対策は、人工知能を安全に利用していく上で、極めて重要な課題となっています。