論文の概要: Exploring Adversarial Examples via Invertible Neural Networks
- arxiv url: http://arxiv.org/abs/2012.13111v1
- Date: Thu, 24 Dec 2020 05:17:21 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-25 08:07:12.732905
- Title: Exploring Adversarial Examples via Invertible Neural Networks
- Title(参考訳): 可逆ニューラルネットワークによる逆例探索
- Authors: Ruqi Bai and Saurabh Bagchi and David I. Inouye
- Abstract要約: 逆の例(AEs)は、原画像にわずかな摂動を導入することによって、ディープニューラルネットワーク(DNN)分類器を誤解させることのできるイメージである。
このセキュリティ脆弱性は、ニューラルネットワークに依存するシステムに現実世界の脅威をもたらす可能性があるため、近年、大きな研究につながった。
本稿では,リプシッツ連続写像関数を用いたインバータブルニューラルモデル(invertible neural model)の入力から出力への新たな理解方法を提案する。
- 参考スコア(独自算出の注目度): 10.320129984220857
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Adversarial examples (AEs) are images that can mislead deep neural network
(DNN) classifiers via introducing slight perturbations into original images.
This security vulnerability has led to vast research in recent years because it
can introduce real-world threats into systems that rely on neural networks.
Yet, a deep understanding of the characteristics of adversarial examples has
remained elusive. We propose a new way of achieving such understanding through
a recent development, namely, invertible neural models with Lipschitz
continuous mapping functions from the input to the output. With the ability to
invert any latent representation back to its corresponding input image, we can
investigate adversarial examples at a deeper level and disentangle the
adversarial example's latent representation. Given this new perspective, we
propose a fast latent space adversarial example generation method that could
accelerate adversarial training. Moreover, this new perspective could
contribute to new ways of adversarial example detection.
- Abstract(参考訳): 逆の例(AEs)は、原画像にわずかな摂動を導入することによって、ディープニューラルネットワーク(DNN)分類器を誤解させることのできるイメージである。
このセキュリティ脆弱性は、ニューラルネットワークに依存するシステムに現実世界の脅威をもたらす可能性があるため、近年、大きな研究につながった。
しかし、敵の例の特徴の深い理解はいまだ解明されていない。
本稿では,リプシッツ連続写像関数を用いたインバータブルニューラルモデル(invertible neural model)の入力から出力への新たな理解方法を提案する。
任意の潜在表現を対応する入力画像に反転させる能力により、より深いレベルで敵の例を調査し、敵の潜在表現を乱すことができる。
このような新たな視点から,高速な空間対向例生成手法を提案し,対向訓練を高速化する。
さらに、この新しい視点は、逆のサンプル検出の新しい方法に貢献するかもしれない。
関連論文リスト
- A Survey on Transferability of Adversarial Examples across Deep Neural Networks [53.04734042366312]
逆の例では、機械学習モデルを操作して誤った予測を行うことができます。
敵の例の転送可能性により、ターゲットモデルの詳細な知識を回避できるブラックボックス攻撃が可能となる。
本研究は, 対角移動可能性の展望を考察した。
論文 参考訳(メタデータ) (2023-10-26T17:45:26Z) - Mitigating Adversarial Attacks in Deepfake Detection: An Exploration of
Perturbation and AI Techniques [1.0718756132502771]
敵の例は微妙な摂動で きれいな画像やビデオに 巧みに注入される
ディープフェイクは世論を操り、世論の評判を損なう強力なツールとして登場した。
この記事では、多面的な敵の例の世界を掘り下げ、ディープラーニングアルゴリズムを騙す能力の背後にある原則を解明する。
論文 参考訳(メタデータ) (2023-02-22T23:48:19Z) - Searching for the Essence of Adversarial Perturbations [73.96215665913797]
本稿では,ニューラルネットワークの誤予測の原因となる,人間の認識可能な情報を含む対人摂動について述べる。
この人間の認識可能な情報の概念は、敵の摂動に関連する重要な特徴を説明できる。
論文 参考訳(メタデータ) (2022-05-30T18:04:57Z) - Collaborative Adversarial Training [82.25340762659991]
本研究は, 対人的, 良性的な両例とほぼ区別できない, 協調的な事例が, 対人的訓練の強化に有効であることを示す。
そこで,コラボレーティブ・ディベザリ・トレーニング(CoAT)と呼ばれる新しい手法が提案され,新たな最先端技術が実現された。
論文 参考訳(メタデータ) (2022-05-23T09:41:41Z) - Adversarial Attack via Dual-Stage Network Erosion [7.28871533402894]
ディープニューラルネットワークは敵の例に弱いため、微妙な摂動を加えることでディープモデルを騙すことができる。
本稿では, 既存モデルに2段階の特徴レベル摂動を適用し, 多様なモデルの集合を暗黙的に生成する手法を提案する。
我々は、非残留ネットワークと残留ネットワークの両方で包括的な実験を行い、最先端の計算手法と同様の計算コストで、より伝達可能な逆の例を得る。
論文 参考訳(メタデータ) (2022-01-01T02:38:09Z) - Adversarial Examples Detection with Bayesian Neural Network [57.185482121807716]
本稿では,ランダムな成分が予測器の滑らかさを向上できるという観測によって動機づけられた敵の例を検出するための新しい枠組みを提案する。
本稿では,BATer を略した新しいベイズ対向型サンプル検出器を提案し,対向型サンプル検出の性能を向上させる。
論文 参考訳(メタデータ) (2021-05-18T15:51:24Z) - Explainable Adversarial Attacks in Deep Neural Networks Using Activation
Profiles [69.9674326582747]
本稿では,敵対的事例に基づくニューラルネットワークモデルを検討するためのビジュアルフレームワークを提案する。
これらの要素を観察することで、モデル内の悪用領域を素早く特定できることを示す。
論文 参考訳(メタデータ) (2021-03-18T13:04:21Z) - Detecting Adversarial Examples by Input Transformations, Defense
Perturbations, and Voting [71.57324258813674]
畳み込みニューラルネットワーク(CNN)は、視覚認識タスクにおいて超人的性能に達することが証明されている。
CNNは敵の例、すなわち不正な出力をネットワークに強制する悪意のある画像によって簡単に騙される。
本稿では,画像変換による敵例の検出を幅広く検討し,新しい手法を提案する。
論文 参考訳(メタデータ) (2021-01-27T14:50:41Z) - Adversarial Examples on Object Recognition: A Comprehensive Survey [1.976652238476722]
深層ニューラルネットワークは、機械学習研究の最前線にある。
敵の例は、ネットワークの分散ドリフトに対する感度をテストするために意図的に設計されています。
ニューラルネットワークの安全性,安全性,堅牢性に対する敵の例の影響について論じる。
論文 参考訳(メタデータ) (2020-08-07T08:51:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。