論文の概要: Adversarial Attack via Dual-Stage Network Erosion
- arxiv url: http://arxiv.org/abs/2201.00097v1
- Date: Sat, 1 Jan 2022 02:38:09 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-04 15:25:32.904443
- Title: Adversarial Attack via Dual-Stage Network Erosion
- Title(参考訳): デュアルステージネットワークエロージョンによる敵攻撃
- Authors: Yexin Duan, Junhua Zou, Xingyu Zhou, Wu Zhang, Jin Zhang, Zhisong Pan
- Abstract要約: ディープニューラルネットワークは敵の例に弱いため、微妙な摂動を加えることでディープモデルを騙すことができる。
本稿では, 既存モデルに2段階の特徴レベル摂動を適用し, 多様なモデルの集合を暗黙的に生成する手法を提案する。
我々は、非残留ネットワークと残留ネットワークの両方で包括的な実験を行い、最先端の計算手法と同様の計算コストで、より伝達可能な逆の例を得る。
- 参考スコア(独自算出の注目度): 7.28871533402894
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Deep neural networks are vulnerable to adversarial examples, which can fool
deep models by adding subtle perturbations. Although existing attacks have
achieved promising results, it still leaves a long way to go for generating
transferable adversarial examples under the black-box setting. To this end,
this paper proposes to improve the transferability of adversarial examples, and
applies dual-stage feature-level perturbations to an existing model to
implicitly create a set of diverse models. Then these models are fused by the
longitudinal ensemble during the iterations. The proposed method is termed
Dual-Stage Network Erosion (DSNE). We conduct comprehensive experiments both on
non-residual and residual networks, and obtain more transferable adversarial
examples with the computational cost similar to the state-of-the-art method. In
particular, for the residual networks, the transferability of the adversarial
examples can be significantly improved by biasing the residual block
information to the skip connections. Our work provides new insights into the
architectural vulnerability of neural networks and presents new challenges to
the robustness of neural networks.
- Abstract(参考訳): 深層ニューラルネットワークは、微妙な摂動を追加することで深層モデルを騙すことができる敵の例に弱い。
既存の攻撃は有望な結果を得たが、ブラックボックス設定で転送可能な敵の例を生成するには長い道のりが残されている。
そこで本研究では,既存のモデルに2段階の特徴レベル摂動を適用して,多様なモデルの集合を暗黙的に生成する手法を提案する。
そして、これらのモデルはイテレーション中に縦アンサンブルによって融合される。
提案手法はDual-Stage Network Erosion (DSNE)と呼ばれる。
我々は,非再現性ネットワークと残留性ネットワークの両方について包括的実験を行い,最先端手法と類似した計算コストでより転送可能な逆例を得る。
特に、残差ネットワークでは、残差ブロック情報をスキップ接続にバイアスすることで、敵の例の転送可能性を大幅に改善することができる。
私たちの研究は、ニューラルネットワークのアーキテクチャ上の脆弱性に関する新たな洞察を提供し、ニューラルネットワークの堅牢性に新たな課題を提示します。
関連論文リスト
- A Survey on Transferability of Adversarial Examples across Deep Neural Networks [53.04734042366312]
逆の例では、機械学習モデルを操作して誤った予測を行うことができます。
敵の例の転送可能性により、ターゲットモデルの詳細な知識を回避できるブラックボックス攻撃が可能となる。
本研究は, 対角移動可能性の展望を考察した。
論文 参考訳(メタデータ) (2023-10-26T17:45:26Z) - Samples on Thin Ice: Re-Evaluating Adversarial Pruning of Neural
Networks [15.55615069378845]
近年の研究では、逆算法はスパースネットワークを生成できるが、逆算例に対する堅牢性は維持できると主張している。
本研究は,まず,3つの最先端逆算法を再評価し,その頑健さが実際に過大評価されたことを示す。
我々は,この直感が今後の作業において,より効果的な対向的プルーニング手法の設計につながる可能性について論じる。
論文 参考訳(メタデータ) (2023-10-12T06:50:43Z) - Pruning in the Face of Adversaries [0.0]
ニューラルネットワークのプルーニングがL-0,L-2,L-infinity攻撃に対する対向的ロバスト性に及ぼす影響を評価する。
その結果,ニューラルネットワークのプルーニングと対向ロバスト性は相互に排他的ではないことが確認された。
分析を敵のシナリオに付加的な仮定を取り入れた状況にまで拡張し、状況によって異なる戦略が最適であることを示す。
論文 参考訳(メタデータ) (2021-08-19T09:06:16Z) - Residual Error: a New Performance Measure for Adversarial Robustness [85.0371352689919]
ディープラーニングの広く普及を制限する大きな課題は、敵の攻撃に対する脆弱さである。
本研究は,ディープニューラルネットワークの対角強靭性を評価するための新しい性能尺度である残留誤差の概念を提示する。
画像分類を用いた実験結果から,提案手法の有効性と有効性を示した。
論文 参考訳(メタデータ) (2021-06-18T16:34:23Z) - Explainable Adversarial Attacks in Deep Neural Networks Using Activation
Profiles [69.9674326582747]
本稿では,敵対的事例に基づくニューラルネットワークモデルを検討するためのビジュアルフレームワークを提案する。
これらの要素を観察することで、モデル内の悪用領域を素早く特定できることを示す。
論文 参考訳(メタデータ) (2021-03-18T13:04:21Z) - Detecting Adversarial Examples by Input Transformations, Defense
Perturbations, and Voting [71.57324258813674]
畳み込みニューラルネットワーク(CNN)は、視覚認識タスクにおいて超人的性能に達することが証明されている。
CNNは敵の例、すなわち不正な出力をネットワークに強制する悪意のある画像によって簡単に騙される。
本稿では,画像変換による敵例の検出を幅広く検討し,新しい手法を提案する。
論文 参考訳(メタデータ) (2021-01-27T14:50:41Z) - On the Transferability of Adversarial Attacksagainst Neural Text
Classifier [121.6758865857686]
テキスト分類モデルの逆例の転送可能性について検討する。
本稿では,ほとんどすべての既存モデルを騙すために,敵の例を誘導できるモデル群を見つける遺伝的アルゴリズムを提案する。
これらの逆例からモデル診断に使用できる単語置換規則を導出する。
論文 参考訳(メタデータ) (2020-11-17T10:45:05Z) - Dynamically Computing Adversarial Perturbations for Recurrent Neural
Networks [33.61168219427157]
畳み込みと繰り返しのニューラルネットワークは、分類タスクにおける最先端のパフォーマンスを達成するために広く利用されている。
また、これらのネットワークは、入力に対して慎重に加法摂動を作れば、相対的に容易に操作可能であることも指摘されている。
我々は,このような事例に対して,敵例の存在とネットワークのロバスト性マージンを理論的に保証する。
論文 参考訳(メタデータ) (2020-09-07T03:37:03Z) - Improving Adversarial Robustness by Enforcing Local and Global
Compactness [19.8818435601131]
敵の訓練は、広範囲の攻撃に一貫して抵抗する最も成功した方法である。
本稿では,局所的・言語的コンパクト性とクラスタリングの仮定を強制する分散分散化ネットワークを提案する。
実験の結果,提案するコンポーネントによる対人訓練の強化は,ネットワークの堅牢性をさらに向上させる可能性が示唆された。
論文 参考訳(メタデータ) (2020-07-10T00:43:06Z) - Bridging Mode Connectivity in Loss Landscapes and Adversarial Robustness [97.67477497115163]
我々は、モード接続を用いて、ディープニューラルネットワークの対角的堅牢性を研究する。
実験では、異なるネットワークアーキテクチャやデータセットに適用される様々な種類の敵攻撃について取り上げる。
以上の結果から,モード接続は,敵の強靭性を評価・改善するための総合的なツールであり,実用的な手段であることが示唆された。
論文 参考訳(メタデータ) (2020-04-30T19:12:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。