論文の概要: Latent Feature Relation Consistency for Adversarial Robustness
- arxiv url: http://arxiv.org/abs/2303.16697v1
- Date: Wed, 29 Mar 2023 13:50:01 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-30 14:41:17.856653
- Title: Latent Feature Relation Consistency for Adversarial Robustness
- Title(参考訳): 可逆的ロバスト性に対する潜在的特徴関係一貫性
- Authors: Xingbin Liu, Huafeng Kuang, Hong Liu, Xianming Lin, Yongjian Wu,
Rongrong Ji
- Abstract要約: 深層ニューラルネットワークは、人間の知覚できない敵のノイズを自然の例に付加する敵の例を予測するときに、誤分類が起こる。
textbfLatent textbfFeature textbfRelation textbfConsistency (textbfLFRC)を提案する。
LFRCは、潜在空間における逆例の関係を、自然例と整合性に制約する。
- 参考スコア(独自算出の注目度): 80.24334635105829
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep neural networks have been applied in many computer vision tasks and
achieved state-of-the-art performance. However, misclassification will occur
when DNN predicts adversarial examples which add human-imperceptible
adversarial noise to natural examples. This limits the application of DNN in
security-critical fields. To alleviate this problem, we first conducted an
empirical analysis of the latent features of both adversarial and natural
examples and found the similarity matrix of natural examples is more compact
than those of adversarial examples. Motivated by this observation, we propose
\textbf{L}atent \textbf{F}eature \textbf{R}elation \textbf{C}onsistency
(\textbf{LFRC}), which constrains the relation of adversarial examples in
latent space to be consistent with the natural examples. Importantly, our LFRC
is orthogonal to the previous method and can be easily combined with them to
achieve further improvement. To demonstrate the effectiveness of LFRC, we
conduct extensive experiments using different neural networks on benchmark
datasets. For instance, LFRC can bring 0.78\% further improvement compared to
AT, and 1.09\% improvement compared to TRADES, against AutoAttack on CIFAR10.
Code is available at https://github.com/liuxingbin/LFRC.
- Abstract(参考訳): ディープニューラルネットワークは多くのコンピュータビジョンタスクに適用され、最先端のパフォーマンスを達成した。
しかし、DNNが自然の例に人間に知覚できない敵対的ノイズを加える敵の例を予測すると、誤分類が起こる。
これはセキュリティクリティカルな分野におけるdnnの適用を制限する。
この問題を緩和するために、我々はまず、逆例と自然例の両方の潜伏特徴の実証分析を行い、自然例の類似性行列が逆例よりもコンパクトであることを発見した。
この観測に動機づけられて、潜在空間における逆例の関係を制約し、自然例と整合性を持つような \textbf{L}atent \textbf{F}eature \textbf{R}elation \textbf{C}onsistency (\textbf{LFRC}) を提案する。
LFRCは従来の手法と直交しており,それらと容易に組み合わせてさらなる改善を図ることができる。
LFRCの有効性を示すために、ベンチマークデータセット上で異なるニューラルネットワークを用いて広範な実験を行う。
例えば、LFRC は AT に比べて 0.78 % 改善され、TRADES に比べて 1.09 % 改善され、CIFAR10 では AutoAttack に対抗できる。
コードはhttps://github.com/liuxingbin/lfrcで入手できる。
関連論文リスト
- Evaluating Model Robustness Using Adaptive Sparse L0 Regularization [5.772716337390152]
敵の例は、機能の最小限のサブセットを変更することで、既存の防御に挑戦します。
現在のL0標準攻撃手法は、精度と効率のトレードオフに直面している。
本稿では,L0ノルムを基準として,新たな,スケーラブルで効果的な逆例生成手法を提案する。
論文 参考訳(メタデータ) (2024-08-28T11:02:23Z) - Improving Adversarial Training using Vulnerability-Aware Perturbation
Budget [7.430861908931903]
敵対的訓練(AT)は、敵対的攻撃に対するディープニューラルネットワーク(DNN)の堅牢性を効果的に改善する。
本稿では,AT の逆例に摂動境界を割り当てる簡易で安価な脆弱性認識型再重み付け関数を提案する。
実験の結果,提案手法は様々な攻撃に対してATアルゴリズムの頑健さを真に向上させることがわかった。
論文 参考訳(メタデータ) (2024-03-06T21:50:52Z) - Robustness Against Adversarial Attacks via Learning Confined Adversarial
Polytopes [0.0]
ディープニューラルネットワーク(DNN)は、クリーンサンプルの人間の知覚できない摂動を発生させることによって、騙される可能性がある。
本稿では,クリーンサンプルに追加されるノルム束縛摂動によって到達可能な出力のセットを制限することで,堅牢なDNNの訓練を目指す。
論文 参考訳(メタデータ) (2024-01-15T22:31:15Z) - Noisy Correspondence Learning with Self-Reinforcing Errors Mitigation [63.180725016463974]
クロスモーダル検索は、実際は精力的な、十分に整合した大規模データセットに依存している。
我々は、新しい雑音対応学習フレームワーク、textbfSelf-textbfReinforcing textbfErrors textbfMitigation(SREM)を導入する。
論文 参考訳(メタデータ) (2023-12-27T09:03:43Z) - Enhancing Robust Representation in Adversarial Training: Alignment and
Exclusion Criteria [61.048842737581865]
対人訓練 (AT) は, 頑健な特徴の学習を省略し, 対人的頑健さの低下を招いた。
非対称な負のコントラストと逆の注意によって、頑健な表現を得るためのATの一般的なフレームワークを提案する。
3つのベンチマークデータセットの実証評価により,ATの堅牢性を大幅に向上し,最先端の性能を実現することができた。
論文 参考訳(メタデータ) (2023-10-05T07:29:29Z) - Hessian-Free Second-Order Adversarial Examples for Adversarial Learning [6.835470949075655]
厳密に設計された敵の例による敵の学習は、そのような攻撃に対して最も効果的な方法の1つである。
既存のほとんどの逆例生成法は1次勾配に基づいており、モデルのロバスト性を改善することはほとんどできない。
そこで我々は,この問題をKrylov部分空間の最適化に変換することで,計算複雑性を著しく低減し,学習手順を高速化する近似法を提案する。
論文 参考訳(メタデータ) (2022-07-04T13:29:27Z) - Latent Boundary-guided Adversarial Training [61.43040235982727]
モデルトレーニングに敵の例を注入する最も効果的な戦略は、敵のトレーニングであることが証明されている。
本稿では, LAtent bounDary-guided aDvErsarial tRaining という新たな逆トレーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2022-06-08T07:40:55Z) - On the Convergence and Robustness of Adversarial Training [134.25999006326916]
Project Gradient Decent (PGD) によるアドリアリトレーニングが最も効果的である。
生成した逆数例の収束性を向上させるためのテクトダイナミックトレーニング戦略を提案する。
その結果,提案手法の有効性が示唆された。
論文 参考訳(メタデータ) (2021-12-15T17:54:08Z) - Explaining and Improving Model Behavior with k Nearest Neighbor
Representations [107.24850861390196]
モデルの予測に責任のあるトレーニング例を特定するために, k 近傍表現を提案する。
我々は,kNN表現が学習した素因関係を明らかにするのに有効であることを示す。
以上の結果から,kNN手法により,直交モデルが逆入力に対してより堅牢であることが示唆された。
論文 参考訳(メタデータ) (2020-10-18T16:55:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。