論文の概要: Exploring Adversarial Examples via Invertible Neural Networks
- arxiv url: http://arxiv.org/abs/2012.13111v1
- Date: Thu, 24 Dec 2020 05:17:21 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-25 08:07:12.732905
- Title: Exploring Adversarial Examples via Invertible Neural Networks
- Title(参考訳): 可逆ニューラルネットワークによる逆例探索
- Authors: Ruqi Bai and Saurabh Bagchi and David I. Inouye
- Abstract要約: 逆の例(AEs)は、原画像にわずかな摂動を導入することによって、ディープニューラルネットワーク(DNN)分類器を誤解させることのできるイメージである。
このセキュリティ脆弱性は、ニューラルネットワークに依存するシステムに現実世界の脅威をもたらす可能性があるため、近年、大きな研究につながった。
本稿では,リプシッツ連続写像関数を用いたインバータブルニューラルモデル(invertible neural model)の入力から出力への新たな理解方法を提案する。
- 参考スコア(独自算出の注目度): 10.320129984220857
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Adversarial examples (AEs) are images that can mislead deep neural network
(DNN) classifiers via introducing slight perturbations into original images.
This security vulnerability has led to vast research in recent years because it
can introduce real-world threats into systems that rely on neural networks.
Yet, a deep understanding of the characteristics of adversarial examples has
remained elusive. We propose a new way of achieving such understanding through
a recent development, namely, invertible neural models with Lipschitz
continuous mapping functions from the input to the output. With the ability to
invert any latent representation back to its corresponding input image, we can
investigate adversarial examples at a deeper level and disentangle the
adversarial example's latent representation. Given this new perspective, we
propose a fast latent space adversarial example generation method that could
accelerate adversarial training. Moreover, this new perspective could
contribute to new ways of adversarial example detection.
- Abstract(参考訳): 逆の例(AEs)は、原画像にわずかな摂動を導入することによって、ディープニューラルネットワーク(DNN)分類器を誤解させることのできるイメージである。
このセキュリティ脆弱性は、ニューラルネットワークに依存するシステムに現実世界の脅威をもたらす可能性があるため、近年、大きな研究につながった。
しかし、敵の例の特徴の深い理解はいまだ解明されていない。
本稿では,リプシッツ連続写像関数を用いたインバータブルニューラルモデル(invertible neural model)の入力から出力への新たな理解方法を提案する。
任意の潜在表現を対応する入力画像に反転させる能力により、より深いレベルで敵の例を調査し、敵の潜在表現を乱すことができる。
このような新たな視点から,高速な空間対向例生成手法を提案し,対向訓練を高速化する。
さらに、この新しい視点は、逆のサンプル検出の新しい方法に貢献するかもしれない。
関連論文リスト
- Searching for the Essence of Adversarial Perturbations [73.96215665913797]
本稿では,ニューラルネットワークの誤予測の原因となる,人間の認識可能な情報を含む対人摂動について述べる。
この人間の認識可能な情報の概念は、敵の摂動に関連する重要な特徴を説明できる。
論文 参考訳(メタデータ) (2022-05-30T18:04:57Z) - Collaborative Adversarial Training [82.25340762659991]
本研究は, 対人的, 良性的な両例とほぼ区別できない, 協調的な事例が, 対人的訓練の強化に有効であることを示す。
そこで,コラボレーティブ・ディベザリ・トレーニング(CoAT)と呼ばれる新しい手法が提案され,新たな最先端技術が実現された。
論文 参考訳(メタデータ) (2022-05-23T09:41:41Z) - Adversarial Attack via Dual-Stage Network Erosion [7.28871533402894]
ディープニューラルネットワークは敵の例に弱いため、微妙な摂動を加えることでディープモデルを騙すことができる。
本稿では, 既存モデルに2段階の特徴レベル摂動を適用し, 多様なモデルの集合を暗黙的に生成する手法を提案する。
我々は、非残留ネットワークと残留ネットワークの両方で包括的な実験を行い、最先端の計算手法と同様の計算コストで、より伝達可能な逆の例を得る。
論文 参考訳(メタデータ) (2022-01-01T02:38:09Z) - Generating Adversarial Examples with Graph Neural Networks [26.74003742013481]
両手法の強みを生かしたグラフニューラルネットワーク(GNN)に基づく新たな攻撃を提案する。
PGDアタック,MI-FGSM,Carini,Wagnerアタックなど,最先端の敵攻撃に勝っていることを示す。
我々は、敵攻撃のより実証的な比較を可能にするために特別に設計された、新しい挑戦的なデータセットを提供する。
論文 参考訳(メタデータ) (2021-05-30T22:46:41Z) - Detecting Adversarial Examples with Bayesian Neural Network [68.4910524652765]
ランダム成分が予測器の平滑性を向上できるという観測によって動機づけられた逆例を検出するための新しいフレームワークを提案する。
本研究では,BATector の略であるベイジアン逆例検出器を,逆例検出の性能向上のために提案する。
ポピュラーな攻撃のいくつかのデータセットに関する実証結果から、BATectorが逆例検出における最先端の検出器を上回っていることが示された。
論文 参考訳(メタデータ) (2021-05-18T15:51:24Z) - Explainable Adversarial Attacks in Deep Neural Networks Using Activation
Profiles [69.9674326582747]
本稿では,敵対的事例に基づくニューラルネットワークモデルを検討するためのビジュアルフレームワークを提案する。
これらの要素を観察することで、モデル内の悪用領域を素早く特定できることを示す。
論文 参考訳(メタデータ) (2021-03-18T13:04:21Z) - And/or trade-off in artificial neurons: impact on adversarial robustness [91.3755431537592]
この問題をより深く理解することで、情報がどのように処理され、ニューラルネットワークでエンコードされるかの理解を深めることができる。
敵対的回復力を高めるという私たちの考えは、人工ニューロンがAND様ニューロンとOR様ニューロンの2つの広いカテゴリーに分けられるという観察から始まります。
我々の仮説は、十分な数のOR様ニューロンのネットワークの存在は、分類「脆さ」につながり、ネットワークが敵対攻撃に対する感受性を高めることができるということです。
論文 参考訳(メタデータ) (2021-02-15T08:19:05Z) - Detecting Adversarial Examples by Input Transformations, Defense
Perturbations, and Voting [71.57324258813674]
畳み込みニューラルネットワーク(CNN)は、視覚認識タスクにおいて超人的性能に達することが証明されている。
CNNは敵の例、すなわち不正な出力をネットワークに強制する悪意のある画像によって簡単に騙される。
本稿では,画像変換による敵例の検出を幅広く検討し,新しい手法を提案する。
論文 参考訳(メタデータ) (2021-01-27T14:50:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。