論文の概要: Zero-Sacrifice Persistent-Robustness Adversarial Defense for Pre-Trained Encoders
- arxiv url: http://arxiv.org/abs/2602.11204v1
- Date: Tue, 10 Feb 2026 07:41:34 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-13 21:07:25.442801
- Title: Zero-Sacrifice Persistent-Robustness Adversarial Defense for Pre-Trained Encoders
- Title(参考訳): 事前学習エンコーダのゼロサクリフパーシスタント・ロバストネス対策
- Authors: Zhuxin Lei, Ziyuan Yang, Yi Zhang,
- Abstract要約: ZePAD(Zero-Sacrifice Persistent-Robustness Adversarial Defense)を紹介する。
ZePADは、データ特性に対するニューラルネットワーク固有の感度にインスパイアされている。
敵の抵抗を強化するために2つの敵の微調整エンコーダを使用する。
- 参考スコア(独自算出の注目度): 5.00483763729881
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The widespread use of publicly available pre-trained encoders from self-supervised learning (SSL) has exposed a critical vulnerability: their susceptibility to downstream-agnostic adversarial examples (DAEs), which are crafted without knowledge of the downstream tasks but capable of misleading downstream models. While several defense methods have been explored recently, they rely primarily on task-specific adversarial fine-tuning, which inevitably limits generalizability and causes catastrophic forgetting and deteriorates benign performance. Different with previous works, we propose a more rigorous defense goal that requires only a single tuning for diverse downstream tasks to defend against DAEs and preserve benign performance. To achieve this defense goal, we introduce Zero-Sacrifice Persistent-Robustness Adversarial Defense (ZePAD), which is inspired by the inherent sensitivity of neural networks to data characteristics. Specifically, ZePAD is a dual-branch structure, which consists of a Multi-Pattern Adversarial Enhancement Branch (MPAE-Branch) that uses two adversarially fine-tuned encoders to strengthen adversarial resistance. The Benign Memory Preservation Branch (BMP-Branch) is trained on local data to ensure adversarial robustness does not compromise benign performance. Surprisingly, we find that ZePAD can directly detect DAEs by evaluating branch confidence, without introducing any adversarial exsample identification task during training. Notably, by enriching feature diversity, our method enables a single adversarial fine-tuning to defend against DAEs across downstream tasks, thereby achieving persistent robustness. Extensive experiments on 11 SSL methods and 6 datasets validate its effectiveness. In certain cases, it achieves a 29.20% improvement in benign performance and a 73.86% gain in adversarial robustness, highlighting its zero-sacrifice property.
- Abstract(参考訳): 自己教師型学習(SSL)から広く公開されている事前トレーニングエンコーダの使用は、ダウンストリームのタスクを知らずに構築され、下流モデルの誤解を招く可能性のある、下流に依存しない敵例(DAE)への感受性という、重大な脆弱性を露呈した。
近年、いくつかの防衛手法が検討されているが、それらは主にタスク固有の敵の微調整に依存しており、それは必然的に一般化性を制限し、破滅的な忘れ込みを生じさせ、良心的な性能を低下させる。
従来の研究と異なり,DAEに対する防御と良質な性能を維持するために,下流の多様なタスクに対して,単一のチューニングのみを必要とする,厳格な防衛目標を提案する。
この防衛目標を達成するために、ニューラルネットワークが持つデータ特性に対する感受性にインスパイアされたゼロサクリフパーシスタント・ロバストネス・ディフェンス(ZePAD)を導入する。
具体的には、ZePADは二重分岐構造であり、Multi-Pattern Adversarial Enhancement Branch (MPAE-Branch) で構成される。
Benign Memory Preservation Branch (BMP-Branch) は、敵の堅牢性が良質なパフォーマンスを損なわないよう、ローカルデータに基づいて訓練されている。
意外なことに、ZePADは、訓練中に相手のサンプル識別タスクを導入することなく、枝の信頼度を評価することによって直接DAEを検出することができる。
特に,特徴多様性を充実させることにより,下流タスク間のDAEを防御する単一対向微調整が可能となり,永続的な堅牢性を実現することができる。
11のSSLメソッドと6つのデータセットに関する大規模な実験は、その有効性を検証する。
特定のケースでは、良心性能が29.20%向上し、敵の堅牢性が73.86%向上し、ゼロサクリフ特性が強調される。
関連論文リスト
- Debiased Dual-Invariant Defense for Adversarially Robust Person Re-Identification [52.63017280231648]
人物再識別(ReID)は、歩行者軌道追跡などの現実の多くの応用において、基本的な課題である。
Person ReIDモデルは、歩行者画像に対する知覚不能な摂動が完全に誤った予測を引き起こすような、敵の攻撃に非常に敏感である。
本稿では,2つの相からなる二重不変防衛フレームワークを提案する。
論文 参考訳(メタデータ) (2025-11-13T03:56:40Z) - Diversifying Counterattacks: Orthogonal Exploration for Robust CLIP Inference [45.723695657400576]
反撃の多様性とカバレッジの向上は、テスト時間防衛における敵の堅牢性向上に不可欠である。
直交直交対向攻撃(DOC)は、傾き方向と運動量に基づく更新を組み込むことで、対向最適化を強化する。
平均コサイン類似度に基づく指向性感度スコアを,サンプル識別を改善し,反撃強度を適応的に調節することによりDOCを増強する。
論文 参考訳(メタデータ) (2025-11-12T07:40:16Z) - Deep Positive-Negative Prototypes for Adversarially Robust Discriminative Prototypical Learning [0.24999074238880484]
本稿では,Adv-DPNP(Adversarially Training Deep Positive-Negative Prototypes)という新しいフレームワークを提案する。
Adv-DPNPは、差別的プロトタイプベースの学習と敵対訓練を統合している。
以上の結果から,Adv-DPNPは重大度および汚職種別の平均精度が最も高いことを示す。
論文 参考訳(メタデータ) (2025-04-03T15:42:58Z) - Meta Invariance Defense Towards Generalizable Robustness to Unknown Adversarial Attacks [62.036798488144306]
現在の防衛は主に既知の攻撃に焦点を当てているが、未知の攻撃に対する敵意の強固さは見過ごされている。
メタ不変防衛(Meta Invariance Defense, MID)と呼ばれる攻撃非依存の防御手法を提案する。
MIDは高レベルの画像分類と低レベルの頑健な画像再生における攻撃抑制において,知覚不能な逆方向の摂動に対して同時に頑健性を実現する。
論文 参考訳(メタデータ) (2024-04-04T10:10:38Z) - Securely Fine-tuning Pre-trained Encoders Against Adversarial Examples [28.947545367473086]
本稿では,下流モデルのロバスト性向上を目的とした2段階逆微調整手法を提案する。
Gen-AFは最先端のDAEに対して高い試験精度と堅牢な試験精度を達成できることを実証した。
論文 参考訳(メタデータ) (2024-03-16T04:23:46Z) - Perturbation-Invariant Adversarial Training for Neural Ranking Models:
Improving the Effectiveness-Robustness Trade-Off [107.35833747750446]
正統な文書に不可避な摂動を加えることで 敵の例を作れます
この脆弱性は信頼性に関する重大な懸念を生じさせ、NRMの展開を妨げている。
本研究では,NRMにおける有効・損耗トレードオフに関する理論的保証を確立する。
論文 参考訳(メタデータ) (2023-12-16T05:38:39Z) - Improving Adversarial Robustness to Sensitivity and Invariance Attacks
with Deep Metric Learning [80.21709045433096]
対向ロバスト性の標準的な方法は、サンプルを最小に摂動させることによって作られたサンプルに対して防御する枠組みを仮定する。
距離学習を用いて、最適輸送問題として逆正則化をフレーム化する。
予備的な結果から, 変分摂動の規則化は, 変分防御と敏感防御の両方を改善することが示唆された。
論文 参考訳(メタデータ) (2022-11-04T13:54:02Z) - Exploring Robustness of Unsupervised Domain Adaptation in Semantic
Segmentation [74.05906222376608]
クリーンな画像とそれらの逆の例との一致を、出力空間における対照的な損失によって最大化する、逆向きの自己スーパービジョンUDA(ASSUDA)を提案する。
i) セマンティックセグメンテーションにおけるUDA手法のロバスト性は未解明のままであり, (ii) 一般的に自己スーパービジョン(回転やジグソーなど) は分類や認識などのイメージタスクに有効であるが, セグメンテーションタスクの識別的表現を学習する重要な監視信号の提供には失敗している。
論文 参考訳(メタデータ) (2021-05-23T01:50:44Z) - Rethinking Uncertainty in Deep Learning: Whether and How it Improves
Robustness [20.912492996647888]
対人訓練(AT)は、クリーンな例と他の種類の攻撃の両方において、パフォーマンスの低下に悩まされる。
エントロピー(EntM)やラベルスムーシング(LS)のような不確実な出力を促進する正規化器は、クリーンな例で精度を維持し、弱い攻撃下での性能を向上させることができる。
本稿では,逆学習分野において,EntMやLSを含む不確実性向上レギュレータを再検討する。
論文 参考訳(メタデータ) (2020-11-27T03:22:50Z) - A Self-supervised Approach for Adversarial Robustness [105.88250594033053]
敵対的な例は、ディープニューラルネットワーク(DNN)ベースの視覚システムにおいて破滅的な誤りを引き起こす可能性がある。
本稿では,入力空間における自己教師型対向学習機構を提案する。
これは、反逆攻撃に対する強力な堅牢性を提供する。
論文 参考訳(メタデータ) (2020-06-08T20:42:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。