論文の概要: Internal Wasserstein Distance for Adversarial Attack and Defense
- arxiv url: http://arxiv.org/abs/2103.07598v1
- Date: Sat, 13 Mar 2021 02:08:02 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-16 13:49:19.457885
- Title: Internal Wasserstein Distance for Adversarial Attack and Defense
- Title(参考訳): 敵対攻撃と防衛のための内部Wasserstein距離
- Authors: Jincheng Li, Jiezhang Cao, Shuhai Zhang, Yanwu Xu, Jian Chen, Mingkui
Tan
- Abstract要約: 本研究では,サンプルと対比例の画像類似度を測定するための内部Wasserstein距離(IWD)を提案する。
原試料中のパッチの分布を捉えた新しい攻撃手法を開発した。
我々はまた,未知の敵の例から守るためのロバストなモデルを学ぶための新しい防御手法も構築する。
- 参考スコア(独自算出の注目度): 40.27647699862274
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep neural networks (DNNs) are vulnerable to adversarial examples that can
trigger misclassification of DNNs but may be imperceptible to human perception.
Adversarial attack has been an important way to evaluate the robustness of
DNNs. Existing attack methods on the construction of adversarial examples use
such $\ell_p$ distance as a similarity metric to perturb samples. However, this
kind of metric is incompatible with the underlying real-world image formation
and human visual perception. In this paper, we first propose an internal
Wasserstein distance (IWD) to measure image similarity between a sample and its
adversarial example. We apply IWD to perform adversarial attack and defense.
Specifically, we develop a novel attack method by capturing the distribution of
patches in original samples. In this case, our approach is able to generate
semantically similar but diverse adversarial examples that are more difficult
to defend by existing defense methods. Relying on IWD, we also build a new
defense method that seeks to learn robust models to defend against unseen
adversarial examples. We provide both thorough theoretical and empirical
evidence to support our methods.
- Abstract(参考訳): ディープニューラルネットワーク(DNNs)は、DNNの誤分類を引き起こす可能性があるが、人間の知覚には受け入れられない可能性がある逆の例に対して脆弱である。
敵攻撃はDNNの堅牢性を評価する重要な方法である。
攻撃例の構築における既存の攻撃方法は、摂動サンプルとの類似度指標として$\ell_p$ 距離を用いる。
しかし、この種の計量は、基礎となる現実世界の画像形成や人間の視覚知覚と相容れない。
本稿では,まず,サンプルとその逆例としての画像類似性を測定する内部wasserstein距離(iwd)を提案する。
我々はiwdを攻撃と防御に応用する。
具体的には,原試料中のパッチの分布を捉えた新しい攻撃手法を開発した。
この場合,本手法は,既存の防御手法により防御が困難である,意味的に類似するが多様な敵の例を生成することができる。
iwdに依拠して、我々はまた、目に見えない敵の例から防御するための堅牢なモデルを学ぶための新しい防御方法を構築します。
理論的および実証的な証拠を徹底して提供し、方法をサポートします。
関連論文リスト
- Detecting Adversarial Examples [24.585379549997743]
本稿では,Deep Neural Networks の層出力を解析して,敵のサンプルを検出する手法を提案する。
提案手法はDNNアーキテクチャと互換性が高く,画像,ビデオ,オーディオなど,さまざまな領域にまたがって適用可能である。
論文 参考訳(メタデータ) (2024-10-22T21:42:59Z) - Improving Adversarial Robustness to Sensitivity and Invariance Attacks
with Deep Metric Learning [80.21709045433096]
対向ロバスト性の標準的な方法は、サンプルを最小に摂動させることによって作られたサンプルに対して防御する枠組みを仮定する。
距離学習を用いて、最適輸送問題として逆正則化をフレーム化する。
予備的な結果から, 変分摂動の規則化は, 変分防御と敏感防御の両方を改善することが示唆された。
論文 参考訳(メタデータ) (2022-11-04T13:54:02Z) - TREATED:Towards Universal Defense against Textual Adversarial Attacks [28.454310179377302]
本稿では,様々な摂動レベルの攻撃に対して,仮定なしに防御できる汎用的対向検出手法であるTREATEDを提案する。
3つの競合するニューラルネットワークと2つの広く使われているデータセットの大規模な実験により、本手法はベースラインよりも優れた検出性能が得られることが示された。
論文 参考訳(メタデータ) (2021-09-13T03:31:20Z) - Searching for an Effective Defender: Benchmarking Defense against
Adversarial Word Substitution [83.84968082791444]
ディープニューラルネットワークは、意図的に構築された敵の例に対して脆弱である。
ニューラルNLPモデルに対する敵対的単語置換攻撃を防御する様々な方法が提案されている。
論文 参考訳(メタデータ) (2021-08-29T08:11:36Z) - Improving the Adversarial Robustness for Speaker Verification by Self-Supervised Learning [95.60856995067083]
この研究は、特定の攻撃アルゴリズムを知らずにASVの敵防衛を行う最初の試みの一つである。
本研究の目的は,1) 対向摂動浄化と2) 対向摂動検出の2つの視点から対向防御を行うことである。
実験の結果, 検出モジュールは, 約80%の精度で対向検体を検出することにより, ASVを効果的に遮蔽することがわかった。
論文 参考訳(メタデータ) (2021-06-01T07:10:54Z) - Learning Defense Transformers for Counterattacking Adversarial Examples [43.59730044883175]
ディープニューラルネットワーク(DNN)は、小さな摂動を伴う逆例に対して脆弱である。
既存の防御メソッドは、特定のタイプの敵の例に焦点を当てており、現実世界のアプリケーションでは防御に失敗する可能性がある。
敵対例を元のクリーンな分布に戻すことで、敵対例に対して防御できるかどうかという新たな視点から、敵対例を研究します。
論文 参考訳(メタデータ) (2021-03-13T02:03:53Z) - Advocating for Multiple Defense Strategies against Adversarial Examples [66.90877224665168]
ニューラルネットワークを$ell_infty$敵の例から保護するために設計された防御機構が、性能の低下を実証的に観察されている。
本稿では,この観測を検証した幾何学的解析を行う。
そこで本研究では,この現象の実際的影響を説明するための実証的な知見を多数提示する。
論文 参考訳(メタデータ) (2020-12-04T14:42:46Z) - TEAM: We Need More Powerful Adversarial Examples for DNNs [6.7943676146532885]
敵対的な例はディープニューラルネットワーク(DNN)の誤分類につながる可能性がある
本稿では,従来の手法よりも強力な逆例を生成する新しい手法を提案する。
攻撃成功率100% (ASR) の逆例を, より小さい摂動のみで確実に生成することができる。
論文 参考訳(メタデータ) (2020-07-31T04:11:02Z) - A Self-supervised Approach for Adversarial Robustness [105.88250594033053]
敵対的な例は、ディープニューラルネットワーク(DNN)ベースの視覚システムにおいて破滅的な誤りを引き起こす可能性がある。
本稿では,入力空間における自己教師型対向学習機構を提案する。
これは、反逆攻撃に対する強力な堅牢性を提供する。
論文 参考訳(メタデータ) (2020-06-08T20:42:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。