fbpx
  1. HOME
  2. ブログ
  3. IT技術
  4. 人工知能が騙される?Adversarial Examplesとは?

人工知能が騙される?Adversarial Examplesとは?

人口知能には欠点や問題がある

近年、人口知能技術が注目されています。

みなさんは、どのような人工知能技術に期待していますか?

注目度の高い技術の1つと言えば、やはり、車の「自動運転技術」ですよね。

自動運転車と画像処理技術

自動運転技術は、注目度に比例して性能の方も、最近はかなり精度が向上してきています。

また、GPUで有名なNVIDIAは、この技術に特に力を入れていることでも有名です。

【参考記事】
自動運転車のテクノロジとソリューション – NVIDIA Automotive

自動運転で重要な要素といえば、何といっても画像処理技術」です。

車に取り付けられたカメラやセンサーで、環境を読み込みそれに合わせた行動をとるわけなので、この画像処理がうまくいかなければ自動運転実現は不可能ということができます。

一般的に優秀な画像処理能力を持つと言われている人口知能ですが、前回の記事「人工知能の欠点、破局的忘却とは?」でもお話ししたように、「人間では考えられないような欠点や問題」があります。

この記事では、そんな人工知能の欠点の中から有名な事例を一つをご紹介したいと思います。

人口知能が騙される画像とは?

さて、いきなりですが、下の二つの画像を見てください。

【図 2つのパンダの画像(Goodfellow et al., “Explaining and Harnessing Adversarial Examples”, ICLR 2015, arXiv:1412.6572)】

…パンダの画像が2つあります。

どこからどう見ても、どちらも只の「パンダ」です。

しかし、人口知能にこれらの画像を与えると・・・

人工知能が出した答え

【図 不可解な答えを出す人工知能】

まさか・・・!

このように、右の画像を99.3%の確率で「gibbon(テナガザル)」と誤認識してしまっています。

私たち人間には、どこからどう見ても「サル」には見えませんよね。

なぜ人工知能は、このような誤認識をしてしまうのでしょうか?

それでは、次に、こうなってしまったこの画像のカラクリをお教えしましょう!

Adversarial Examples

実は、右の画像には、下の図で表すように小さなノイズが乗っています。

【図 元々の画像に意図的にノイズを加える】

このような画像をAdversarial Examples (訳すとしたら、敵対的画像)と呼びます。

実はこの、Adversarial Examplesには、いくつか種類があります。

では、その中でも面白いものをいくつかご紹介していきましょう!

FGSM(Fast Gradient Sign Method)

【引用元論文】
Goodfellow et al., Explaining and Harnessing Adversarial Examples, arXiv:1412.6572, 2014

先ほどから紹介している「パンダ」の話は、この論文から引用してきたものです。

特徴としては、とても高速にAdversarial Examplesを作成することができます。

これは、もっとも主流なAdversarial Examplesの生成方法です。

通常、誤差関数(損失関数)を最小化することで学習していきますが、FGSMは逆に誤差関数(損失関数)が最大となるようなノイズを見つけて、元々の画像に上乗せするというものです。

すると、他クラスに分類されるような「もともとのクラスによく似た画像が出来上がる」というわけです。

現実世界でのAdversarial Examples

【引用元論文】
A. Kurakin et al., Adversarial examples in the physical world, arXiv:1607.02533, 2017

先ほどの例では、画像データに直接ノイズを加えてネットワークに流していました。

しかし、現実問題では、そのようなことはなかなか起こりえません。

しかし、この論文では、Adversarial Examplesを実際に紙に印刷したものをカメラで撮影しても誤認識をさせるというものです。

下の図は、このようになっています。

  1. 左から(a)データセットの元々の画像
  2. (b)ノイズなしの画像を印刷したもの
  3. (c)ノイズを少し加えたAdversarial Exampleを印刷したもの
  4. (d)さらにノイズを加えたもの

【図 Adversarial Examplesを印刷して撮影する(Kurakin et al. “Adversarial examples in the physical world”, ICLR 2017, arXiv:1607.02533)】

図を見ていただくとお分かりになられると思いますが、(b)は、ノイズなしのため「washer(洗濯機)」ともちろん識別できています。

しかし、ノイズを加えた(c)と(d)のAdversarial Exampleでは、「safe(金庫)」とカメラ越しでも誤認識が起きているという面白い結果が出たのです。

交通標識のAdversarial Examples

【引用元論文】
D. Song et al., Robust Physical-World Attacks on Deep Learning Models, arXiv:1707.08945, 2017

現在、自動運転技術が世界中で研究されています。

そんな中、もし、自動運転車が、交通標識を誤認識したら重大な事故に繋がりかねません。

そのような「誤認識を現実世界でさせてみる」というのが、この論文です。

この論文では、実際に交通標識に物理的にノイズを加え、様々な角度から画像を取り込んだ場合でも誤認識させてしまうというものです。

【図 ノイズが付与された交通標識(Eykholt et al. “Robust Physical-World Attacks on Deep Learning Models”, CVPR 2017, arXiv:1707.08945)】

上の図では、「STOP」標識にノイズを加えて「Speed Limit 45」標識に騙すというもの。

しかも、様々な角度から標識を処理しても騙すことができるようなのです。

さすがに、先ほどのパンダより目立つノイズではありますが、誰かが意図的に交通標識を物理的にハッキングできるということを意味しています。

まとめ

いかがだったでしょうか。

この記事では、人工知能の現状としてAdversarial Examplesをご紹介しました。

現在、人工知能はとても優秀になってきています。

しかし、まだまだ完璧とまでは言えません。

今回ご紹介したAdversarial Examplesですが、逆に、Adversarial Examplesへの対策研究も沢山あります。

実際のところ、「騙す側」と「守る側」のイタチごっこのようなところはありますが、お互いの性能が少しずつ上がってきています。

また、そのおかげでディープラーニングのブラックボックスな部分の解明が進んできています。

待ち遠しくもありますが、画像認識を大事とする自動運転技術の実現は、もう少し先といえるでしょう。

一緒に働いてくれる仲間を募集しております!

ライトコードでは、仲間を募集しております!

当社のモットーは「好きなことを仕事にするエンジニア集団」「エンジニアによるエンジニアのための会社」。エンジニアであるあなたの「やってみたいこと」を全力で応援する会社です。

また、ライトコードは現在、急成長中!だからこそ、あなたにお任せしたいやりがいのあるお仕事は沢山あります。「コアメンバー」として活躍してくれる、あなたからのご応募をお待ちしております!

なお、ご応募の前に、「話しだけ聞いてみたい」「社内の雰囲気を知りたい」という方はこちらをご覧ください。

ライトコードでは一緒に働いていただける方を募集しております!

採用情報はこちら

関連記事