Adversarial Attack

記事数:(1)

機械学習

敵対的攻撃:AIの弱点

人工知能は、まるで人のように画像を見分けたり、声を聞き取ったりすることができるようになり、様々な分野でめざましい成果をあげています。自動運転や医療診断など、私たちの暮らしを大きく変える可能性を秘めています。しかし、人工知能にはまだ弱点も存在します。その一つが、人工知能をだます攻撃、いわゆる「敵対的な攻撃」です。 この攻撃は、人工知能が認識するデータに、まるで気づかないような小さな変化を加えることで、人工知能を間違った判断に導くというものです。例えば、パンダの絵を人工知能に見せるとします。この絵に、人にはまったく見えないようなごく小さなノイズを加えます。すると、人工知能は、パンダの絵をテナガザルだと誤って認識してしまうのです。まるで、人工知能の目に魔法をかけて、実際とは違うものを見せているかのようです。 このような小さな変化は、人間には全く分かりません。パンダの絵は、ノイズが加えられても、私たちには変わらずパンダの絵に見えます。しかし、人工知能にとっては、このノイズが大きな意味を持ち、判断を狂わせる原因となるのです。これは、人工知能がデータの特徴を捉える仕方が、人間とは大きく異なることを示しています。 敵対的な攻撃は、人工知能の安全性を脅かす重大な問題です。例えば、自動運転車を考えてみましょう。もし、道路標識に敵対的な攻撃が仕掛けられた場合、自動運転車は標識を誤認識し、事故につながる可能性があります。また、医療診断の分野でも、画像診断に敵対的な攻撃が加えられると、誤診につながる恐れがあります。このように、人工知能の実用化が進むにつれて、敵対的な攻撃への対策はますます重要になっています。人工知能の安全性を高めるためには、このような攻撃を防ぐ技術の開発が不可欠です。