人工知能が騙される?Adversarial Examplesとは?
IT技術
人口知能には欠点や問題がある
近年、人口知能技術が注目されています。
みなさんは、どのような人工知能技術に期待していますか?
注目度の高い技術の1つと言えば、やはり、車の「自動運転技術」ですよね。
自動運転車と画像処理技術
自動運転技術は、注目度に比例して性能の方も、最近はかなり精度が向上してきています。
また、GPUで有名なNVIDIAは、この技術に特に力を入れていることでも有名です。
【参考記事】
自動運転車のテクノロジとソリューション - NVIDIA Automotive
自動運転で重要な要素といえば、何といっても「画像処理技術」です。
車に取り付けられたカメラやセンサーで、環境を読み込みそれに合わせた行動をとるわけなので、この画像処理がうまくいかなければ自動運転実現は不可能ということができます。
一般的に優秀な画像処理能力を持つと言われている人口知能ですが、前回の記事「人工知能の欠点、破局的忘却とは?」でもお話ししたように、「人間では考えられないような欠点や問題」があります。
この記事では、そんな人工知能の欠点の中から有名な事例を一つをご紹介したいと思います。
人口知能が騙される画像とは?
さて、いきなりですが、下の二つの画像を見てください。
【図 2つのパンダの画像(Goodfellow et al., "Explaining and Harnessing Adversarial Examples", ICLR 2015, arXiv:1412.6572)】
...パンダの画像が2つあります。
どこからどう見ても、どちらも只の「パンダ」です。
しかし、人口知能にこれらの画像を与えると・・・
人工知能が出した答え
【図 不可解な答えを出す人工知能】
まさか・・・!
このように、右の画像を99.3%の確率で「gibbon(テナガザル)」と誤認識してしまっています。
私たち人間には、どこからどう見ても「サル」には見えませんよね。
なぜ人工知能は、このような誤認識をしてしまうのでしょうか?
それでは、次に、こうなってしまったこの画像のカラクリをお教えしましょう!
Adversarial Examples
実は、右の画像には、下の図で表すように小さなノイズが乗っています。
【図 元々の画像に意図的にノイズを加える】
このような画像をAdversarial Examples (訳すとしたら、敵対的画像)と呼びます。
実はこの、Adversarial Examplesには、いくつか種類があります。
では、その中でも面白いものをいくつかご紹介していきましょう!
FGSM(Fast Gradient Sign Method)
【引用元論文】
Goodfellow et al., Explaining and Harnessing Adversarial Examples, arXiv:1412.6572, 2014
先ほどから紹介している「パンダ」の話は、この論文から引用してきたものです。
特徴としては、とても高速にAdversarial Examplesを作成することができます。
これは、もっとも主流なAdversarial Examplesの生成方法です。
通常、誤差関数(損失関数)を最小化することで学習していきますが、FGSMは逆に誤差関数(損失関数)が最大となるようなノイズを見つけて、元々の画像に上乗せするというものです。
すると、他クラスに分類されるような「もともとのクラスによく似た画像が出来上がる」というわけです。
現実世界でのAdversarial Examples
【引用元論文】
A. Kurakin et al., Adversarial examples in the physical world, arXiv:1607.02533, 2017
先ほどの例では、画像データに直接ノイズを加えてネットワークに流していました。
しかし、現実問題では、そのようなことはなかなか起こりえません。
しかし、この論文では、Adversarial Examplesを実際に紙に印刷したものをカメラで撮影しても誤認識をさせるというものです。
下の図は、このようになっています。
- 左から(a)データセットの元々の画像
- (b)ノイズなしの画像を印刷したもの
- (c)ノイズを少し加えたAdversarial Exampleを印刷したもの
- (d)さらにノイズを加えたもの
【図 Adversarial Examplesを印刷して撮影する(Kurakin et al. "Adversarial examples in the physical world", ICLR 2017, arXiv:1607.02533)】
図を見ていただくとお分かりになられると思いますが、(b)は、ノイズなしのため「washer(洗濯機)」ともちろん識別できています。
しかし、ノイズを加えた(c)と(d)のAdversarial Exampleでは、「safe(金庫)」とカメラ越しでも誤認識が起きているという面白い結果が出たのです。
交通標識のAdversarial Examples
【引用元論文】
D. Song et al., Robust Physical-World Attacks on Deep Learning Models, arXiv:1707.08945, 2017
現在、自動運転技術が世界中で研究されています。
そんな中、もし、自動運転車が、交通標識を誤認識したら重大な事故に繋がりかねません。
そのような「誤認識を現実世界でさせてみる」というのが、この論文です。
この論文では、実際に交通標識に物理的にノイズを加え、様々な角度から画像を取り込んだ場合でも誤認識させてしまうというものです。
【図 ノイズが付与された交通標識(Eykholt et al. "Robust Physical-World Attacks on Deep Learning Models", CVPR 2017, arXiv:1707.08945)】
上の図では、「STOP」標識にノイズを加えて「Speed Limit 45」標識に騙すというもの。
しかも、様々な角度から標識を処理しても騙すことができるようなのです。
さすがに、先ほどのパンダより目立つノイズではありますが、誰かが意図的に交通標識を物理的にハッキングできるということを意味しています。
まとめ
いかがだったでしょうか。
この記事では、人工知能の現状としてAdversarial Examplesをご紹介しました。
現在、人工知能はとても優秀になってきています。
しかし、まだまだ完璧とまでは言えません。
今回ご紹介したAdversarial Examplesですが、逆に、Adversarial Examplesへの対策研究も沢山あります。
実際のところ、「騙す側」と「守る側」のイタチごっこのようなところはありますが、お互いの性能が少しずつ上がってきています。
また、そのおかげでディープラーニングのブラックボックスな部分の解明が進んできています。
待ち遠しくもありますが、画像認識を大事とする自動運転技術の実現は、もう少し先といえるでしょう。
人工知能の欠点の記事はこちら
2019.07.12人工知能の欠点、破局的忘却とは?一度覚えたことを忘れる?破局的忘却とは?現在、「人工知能(AI)」技術は至る所で耳にするようになりました。例えば工場で...
こちらの記事もオススメ!
2020.07.17ライトコード的「やってみた!」シリーズ「やってみた!」を集めました!(株)ライトコードが今まで作ってきた「やってみた!」記事を集めてみました!※作成日が新し...
2020.07.28機械学習 特集知識編人工知能・機械学習でよく使われるワード徹底まとめ!機械学習の元祖「パーセプトロン」とは?【人工知能】ニューラルネ...
ライトコードでは、エンジニアを積極採用中!
ライトコードでは、エンジニアを積極採用しています!社長と一杯しながらお話しする機会もご用意しております。そのほかカジュアル面談等もございますので、くわしくは採用情報をご確認ください。
採用情報へ
「好きを仕事にするエンジニア集団」の(株)ライトコードです! ライトコードは、福岡、東京、大阪、名古屋の4拠点で事業展開するIT企業です。 現在は、国内を代表する大手IT企業を取引先にもち、ITシステムの受託事業が中心。 いずれも直取引で、月間PV数1億を超えるWebサービスのシステム開発・運営、インフラの構築・運用に携わっています。 システム開発依頼・お見積もり大歓迎! また、現在「WEBエンジニア」「モバイルエンジニア」「営業」「WEBデザイナー」を積極採用中です! インターンや新卒採用も行っております。 以下よりご応募をお待ちしております! https://rightcode.co.jp/recruit
おすすめ記事
immichを知ってほしい
2024.10.31