論文の概要: Disrupting Adversarial Transferability in Deep Neural Networks
- arxiv url: http://arxiv.org/abs/2108.12492v1
- Date: Fri, 27 Aug 2021 20:27:38 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-01 10:08:42.091836
- Title: Disrupting Adversarial Transferability in Deep Neural Networks
- Title(参考訳): 深層ニューラルネットワークにおける逆移動性乱れ
- Authors: Christopher Wiedeman, Ge Wang
- Abstract要約: 本研究では,異なるモデル間の転送性は,異なるディープニューラルネットワークが抽出する特徴間の高い線形相関に起因することを示唆する。
潜在空間において抽出された特徴を相関付けする特徴相関損失を適用することで、モデル間の敵攻撃の伝達可能性を大幅に低減できることを示す。
- 参考スコア(独自算出の注目度): 3.0185354692089708
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Adversarial attack transferability is a well-recognized phenomenon in deep
learning. Prior work has partially explained transferability by recognizing
common adversarial subspaces and correlations between decision boundaries, but
we have found little explanation in the literature beyond this. In this paper,
we propose that transferability between seemingly different models is due to a
high linear correlation between features that different deep neural networks
extract. In other words, two models trained on the same task that are seemingly
distant in the parameter space likely extract features in the same fashion,
just with trivial shifts and rotations between the latent spaces. Furthermore,
we show how applying a feature correlation loss, which decorrelates the
extracted features in a latent space, can drastically reduce the
transferability of adversarial attacks between models, suggesting that the
models complete tasks in semantically different ways. Finally, we propose a
Dual Neck Autoencoder (DNA), which leverages this feature correlation loss to
create two meaningfully different encodings of input information with reduced
transferability.
- Abstract(参考訳): adversarial attack transferabilityはディープラーニングにおいてよく認識される現象である。
先行研究は、共通の逆部分空間と決定境界の間の相関を認識させることで、転送可能性について部分的に説明してきたが、それ以上の文献ではほとんど説明されていない。
本稿では,異なるモデル間の転送性は,異なるディープニューラルネットワークが抽出する特徴間の高い線形相関に起因することを提案する。
言い換えれば、パラメータ空間のように見える同じタスクで訓練された2つのモデルは、潜在空間間の自明なシフトと回転とともに、同じ方法で特徴を抽出する可能性が高い。
さらに, 潜在空間で抽出された特徴の相関を解消する特徴相関損失を適用することで, モデル間の敵攻撃の伝達可能性を大幅に低減し, モデルが意味的に異なる方法でタスクを完了することを示唆する。
最後に、この特徴相関損失を利用して、2つの有意義に異なる2つの入力情報のエンコードを生成するDual Neck Autoencoder (DNA)を提案する。
関連論文リスト
- Using Degeneracy in the Loss Landscape for Mechanistic Interpretability [0.0]
機械的解釈可能性(Mechanistic Interpretability)は、ニューラルネットワークによって実装されたアルゴリズムを、その重みとアクティベーションを研究することによってリバースエンジニアリングすることを目的としている。
逆エンジニアリングニューラルネットワークの障害は、ネットワーク内の多くのパラメータが、ネットワークによって実装されている計算に関与していないことである。
論文 参考訳(メタデータ) (2024-05-17T17:26:33Z) - A Study on Transferability of Deep Learning Models for Network Intrusion
Detection [11.98319841778396]
我々は、特定の攻撃クラスでディープラーニングモデルを訓練し、個別の攻撃クラスでテストすることで、攻撃クラスの転送可能性を評価する。
実データおよび合成データ拡張技術が伝達性に及ぼす影響を観察する。
論文 参考訳(メタデータ) (2023-12-17T05:06:20Z) - Leveraging Low-Rank and Sparse Recurrent Connectivity for Robust
Closed-Loop Control [63.310780486820796]
繰り返し接続のパラメータ化が閉ループ設定のロバスト性にどのように影響するかを示す。
パラメータが少ないクローズドフォーム連続時間ニューラルネットワーク(CfCs)は、フルランクで完全に接続されたニューラルネットワークよりも優れています。
論文 参考訳(メタデータ) (2023-10-05T21:44:18Z) - Investigating Human-Identifiable Features Hidden in Adversarial
Perturbations [54.39726653562144]
我々の研究では、最大5つの攻撃アルゴリズムを3つのデータセットにわたって探索する。
対人摂動における人間の識別可能な特徴を同定する。
画素レベルのアノテーションを用いて、そのような特徴を抽出し、ターゲットモデルに妥協する能力を実証する。
論文 参考訳(メタデータ) (2023-09-28T22:31:29Z) - Why Does Little Robustness Help? Understanding and Improving Adversarial
Transferability from Surrogate Training [24.376314203167016]
DNNの逆例(AE)は転送可能であることが示されている。
本稿では,敵対的伝達可能性の理解に向けてさらなる一歩を踏み出す。
論文 参考訳(メタデータ) (2023-07-15T19:20:49Z) - Decomposing neural networks as mappings of correlation functions [57.52754806616669]
本研究では,ディープフィードフォワードネットワークによって実装された確率分布のマッピングについて検討する。
ニューラルネットワークで使用できる異なる情報表現と同様に、データに不可欠な統計を識別する。
論文 参考訳(メタデータ) (2022-02-10T09:30:31Z) - Data-driven emergence of convolutional structure in neural networks [83.4920717252233]
識別タスクを解くニューラルネットワークが、入力から直接畳み込み構造を学習できることを示す。
データモデルを慎重に設計することにより、このパターンの出現は、入力の非ガウス的、高次局所構造によって引き起こされることを示す。
論文 参考訳(メタデータ) (2022-02-01T17:11:13Z) - Adversarial Attack via Dual-Stage Network Erosion [7.28871533402894]
ディープニューラルネットワークは敵の例に弱いため、微妙な摂動を加えることでディープモデルを騙すことができる。
本稿では, 既存モデルに2段階の特徴レベル摂動を適用し, 多様なモデルの集合を暗黙的に生成する手法を提案する。
我々は、非残留ネットワークと残留ネットワークの両方で包括的な実験を行い、最先端の計算手法と同様の計算コストで、より伝達可能な逆の例を得る。
論文 参考訳(メタデータ) (2022-01-01T02:38:09Z) - Exploring Transferable and Robust Adversarial Perturbation Generation
from the Perspective of Network Hierarchy [52.153866313879924]
敵の例の移動可能性と堅牢性は、ブラックボックスの敵攻撃の実用的かつ重要な2つの性質である。
伝送可能で頑健な逆生成法(TRAP)を提案する。
我々のTRAPは、ある種の干渉に対して印象的な伝達性と高い堅牢性を実現する。
論文 参考訳(メタデータ) (2021-08-16T11:52:41Z) - Learning Interpretable Models for Coupled Networks Under Domain
Constraints [8.308385006727702]
脳ネットワークの構造的エッジと機能的エッジの相互作用に着目して,結合ネットワークの概念を検討する。
相互作用を推定しながらノイズ項にハードネットワークの制約を課す新しい定式化を提案する。
ヒトコネクトームプロジェクトから得られたマルチシェル拡散およびタスク誘発fMRIデータセットの手法を検証する。
論文 参考訳(メタデータ) (2021-04-19T06:23:31Z) - Bridging Mode Connectivity in Loss Landscapes and Adversarial Robustness [97.67477497115163]
我々は、モード接続を用いて、ディープニューラルネットワークの対角的堅牢性を研究する。
実験では、異なるネットワークアーキテクチャやデータセットに適用される様々な種類の敵攻撃について取り上げる。
以上の結果から,モード接続は,敵の強靭性を評価・改善するための総合的なツールであり,実用的な手段であることが示唆された。
論文 参考訳(メタデータ) (2020-04-30T19:12:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。