論文の概要: Subspace Defense: Discarding Adversarial Perturbations by Learning a Subspace for Clean Signals
- arxiv url: http://arxiv.org/abs/2403.16176v1
- Date: Sun, 24 Mar 2024 14:35:44 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-26 17:15:57.951334
- Title: Subspace Defense: Discarding Adversarial Perturbations by Learning a Subspace for Clean Signals
- Title(参考訳): サブスペースディフェンス:クリーン信号のサブスペース学習による対向的摂動の認識
- Authors: Rui Zheng, Yuhao Zhou, Zhiheng Xi, Tao Gui, Qi Zhang, Xuanjing Huang,
- Abstract要約: 敵の攻撃は、正常な例に基づいて慎重に摂動を行い、ディープニューラルネットワーク(DNN)を騙す
まず,低次元線形部分空間において,クリーン信号と逆方向の摂動の特徴が冗長であり,重なりが最小であることを示す。
これにより、DNNは、摂動が破棄されている間、クリーン信号の特徴のみが存在する部分空間を学習することができる。
- 参考スコア(独自算出の注目度): 52.123343364599094
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep neural networks (DNNs) are notoriously vulnerable to adversarial attacks that place carefully crafted perturbations on normal examples to fool DNNs. To better understand such attacks, a characterization of the features carried by adversarial examples is needed. In this paper, we tackle this challenge by inspecting the subspaces of sample features through spectral analysis. We first empirically show that the features of either clean signals or adversarial perturbations are redundant and span in low-dimensional linear subspaces respectively with minimal overlap, and the classical low-dimensional subspace projection can suppress perturbation features out of the subspace of clean signals. This makes it possible for DNNs to learn a subspace where only features of clean signals exist while those of perturbations are discarded, which can facilitate the distinction of adversarial examples. To prevent the residual perturbations that is inevitable in subspace learning, we propose an independence criterion to disentangle clean signals from perturbations. Experimental results show that the proposed strategy enables the model to inherently suppress adversaries, which not only boosts model robustness but also motivates new directions of effective adversarial defense.
- Abstract(参考訳): ディープニューラルネットワーク(Deep Neural Network, DNN)は、DNNを騙すために通常の例に対して注意深く摂動を発生させる敵の攻撃に弱いことで知られている。
このような攻撃をよりよく理解するためには、敵の例による特徴のキャラクタリゼーションが必要である。
本稿では,スペクトル分析によりサンプル特徴のサブスペースを検査することで,この問題に対処する。
まず, 従来の低次元部分空間投影は, クリーン信号のサブ空間内における摂動特性を抑制できることを示す。
これにより、DNNは、摂動が破棄されている間、クリーン信号の特徴のみが存在する部分空間を学習することができ、敵の例の区別を容易にすることができる。
サブスペース学習において避けられない残差摂動を防止するため,摂動から清浄な信号を引き離す独立基準を提案する。
実験結果から,提案手法は,モデルの堅牢性を向上するだけでなく,効果的な対人防御の新たな方向性を動機付ける。
関連論文リスト
- AFLOW: Developing Adversarial Examples under Extremely Noise-limited
Settings [7.828994881163805]
ディープニューラルネットワーク(DNN)は、敵の攻撃に対して脆弱である。
本稿では,AFLOW と呼ばれる新しい正規化フローベースのエンドツーエンドアタックフレームワークを提案する。
既存の手法と比較すると、AFLOWは認識不能性、画質、攻撃能力に優れていた。
論文 参考訳(メタデータ) (2023-10-15T10:54:07Z) - Semi-signed neural fitting for surface reconstruction from unoriented
point clouds [53.379712818791894]
より優れた符号付き距離場を再構成するためのSN-Fittingを提案する。
SSNフィッティングは半署名の監督と損失に基づく領域サンプリング戦略で構成されている。
我々は,SSN-Fittingが,異なる設定下で最先端の性能を達成することを示す実験を行う。
論文 参考訳(メタデータ) (2022-06-14T09:40:17Z) - Origins of Low-dimensional Adversarial Perturbations [17.17170592140042]
分類における低次元対向摂動現象について検討した。
目標は、分類器を騙して、指定されたクラスからの入力のゼロではない割合でその決定を反転させることである。
任意の部分空間のばかばかし率の低いバウンドを計算する。
論文 参考訳(メタデータ) (2022-03-25T17:02:49Z) - Dencentralized learning in the presence of low-rank noise [57.18977364494388]
ネットワーク内のエージェントが収集した観測は、観測ノイズや干渉のために信頼性が低い。
本稿では,各ノードが自身の観測の信頼性を向上させる分散アルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-03-18T09:13:57Z) - Adversarially Robust One-class Novelty Detection [83.1570537254877]
既存のノベルティ検出器は敵の例に感受性があることが示される。
本稿では, 新規性検知器の潜伏空間を制御し, 敵に対する堅牢性を向上する防衛戦略を提案する。
論文 参考訳(メタデータ) (2021-08-25T10:41:29Z) - Removing Adversarial Noise in Class Activation Feature Space [160.78488162713498]
クラスアクティベーション機能空間において,自己監視型対人訓練機構を実装することにより,対人雑音の除去を提案する。
クラスアクティベーション機能空間における敵対例と自然な例の間の距離を最小にするために、デノイジングモデルを訓練する。
経験的評価により, 従来の手法と比較して, 敵対的堅牢性が有意に向上できることが示された。
論文 参考訳(メタデータ) (2021-04-19T10:42:24Z) - Generating Out of Distribution Adversarial Attack using Latent Space
Poisoning [5.1314136039587925]
本稿では,実際の画像が破損しない敵の例を生成する新しいメカニズムを提案する。
潜在空間表現は、画像の固有構造を改ざんするために利用される。
勾配ベースの攻撃とは対照的に、潜時空間中毒は、トレーニングデータセットの独立かつ同一分布をモデル化する分類器の傾きを利用する。
論文 参考訳(メタデータ) (2020-12-09T13:05:44Z) - Learning to Separate Clusters of Adversarial Representations for Robust
Adversarial Detection [50.03939695025513]
本稿では,最近導入された非破壊的特徴を動機とした新しい確率的対向検出器を提案する。
本稿では,非ロバスト特徴を逆例の共通性と考え,その性質に対応する表現空間におけるクラスターの探索が可能であることを推定する。
このアイデアは、別のクラスタ内の逆表現の確率推定分布を導出し、その分布を確率に基づく逆検出器として活用する。
論文 参考訳(メタデータ) (2020-12-07T07:21:18Z) - An Analysis of Robustness of Non-Lipschitz Networks [35.64511156980701]
小さな入力摂動は、しばしばネットワークの最終層の特徴空間において大きな動きを引き起こす。
我々のモデルでは、敵対者は特徴空間において任意の距離でデータを移動することができるが、ランダムな低次元部分空間においてのみである。
データ駆動方式を用いて,アルゴリズムパラメータの設定を精度保持トレードオフよりも最適化するための理論的保証を提供する。
論文 参考訳(メタデータ) (2020-10-13T03:56:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。