論文の概要: Rectifying Adversarial Sample with Low Entropy Prior for Test-Time Defense
- arxiv url: http://arxiv.org/abs/2507.03427v1
- Date: Fri, 04 Jul 2025 09:35:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-08 15:46:34.730023
- Title: Rectifying Adversarial Sample with Low Entropy Prior for Test-Time Defense
- Title(参考訳): テスト時間防衛に先立って低エントロピーを有する逆数サンプルの定形化
- Authors: Lina Ma, Xiaowei Fu, Fuxiang Huang, Xinbo Gao, Lei Zhang,
- Abstract要約: 既存の防御方法は未知の攻撃に対して防御できない。
本研究は, 様々な逆転サンプルで示される, 一般的に見過ごされる低エントロピーを明らかにする。
本稿では,2段階のREAL手法を提案する。
- 参考スコア(独自算出の注目度): 44.263763516566996
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Existing defense methods fail to defend against unknown attacks and thus raise generalization issue of adversarial robustness. To remedy this problem, we attempt to delve into some underlying common characteristics among various attacks for generality. In this work, we reveal the commonly overlooked low entropy prior (LE) implied in various adversarial samples, and shed light on the universal robustness against unseen attacks in inference phase. LE prior is elaborated as two properties across various attacks as shown in Fig. 1 and Fig. 2: 1) low entropy misclassification for adversarial samples and 2) lower entropy prediction for higher attack intensity. This phenomenon stands in stark contrast to the naturally distributed samples. The LE prior can instruct existing test-time defense methods, thus we propose a two-stage REAL approach: Rectify Adversarial sample based on LE prior for test-time adversarial rectification. Specifically, to align adversarial samples more closely with clean samples, we propose to first rectify adversarial samples misclassified with low entropy by reverse maximizing prediction entropy, thereby eliminating their adversarial nature. To ensure the rectified samples can be correctly classified with low entropy, we carry out secondary rectification by forward minimizing prediction entropy, thus creating a Max-Min entropy optimization scheme. Further, based on the second property, we propose an attack-aware weighting mechanism to adaptively adjust the strengths of Max-Min entropy objectives. Experiments on several datasets show that REAL can greatly improve the performance of existing sample rectification models.
- Abstract(参考訳): 既存の防御方法は未知の攻撃に対して防御に失敗し、敵の堅牢性の一般化問題を提起する。
この問題を解決するために,様々な攻撃の根底にある共通点を探索する。
本研究は, 様々な対向サンプルに暗黙の低エントロピー前(LE)が暗示し, 推論フェーズにおける未知の攻撃に対する普遍的ロバスト性に光を当てた。
LE pre は、Fig 1 と Fig 2 に示すように、様々な攻撃にまたがる2つの特性として詳述される。
1)反対サンプルの低エントロピー誤分類及び
2) 攻撃強度の低いエントロピー予測を行う。
この現象は自然分布のサンプルとは対照的である。
LEプリエントは、既存のテスト時防御手法を指示できるので、2段階のREALアプローチを提案する。
具体的には, 逆最大化予測エントロピーにより, 逆エントロピーで誤分類された逆アントロピーを補正し, 逆アントロピーを除去することを提案する。
修正標本を低エントロピーで正しく分類するために,予測エントロピーを前方に最小化することで二次補正を行い,Max-Minエントロピー最適化手法を作成する。
さらに,第2の特性に基づいて,Max-Minエントロピー目標の強度を適応的に調整する攻撃対応重み付け機構を提案する。
いくつかのデータセットの実験により、REALは既存のサンプル修正モデルの性能を大幅に改善できることが示された。
関連論文リスト
- Minimax rates of convergence for nonparametric regression under adversarial attacks [3.244945627960733]
非パラメトリック回帰設定における敵攻撃に対する堅牢性の限界を理論的に解析する。
我々の研究は、入力中の敵攻撃時の最小値レートが2項の和と同じであることを明らかにした。
論文 参考訳(メタデータ) (2024-10-12T07:11:38Z) - Enhancing the Antidote: Improved Pointwise Certifications against Poisoning Attacks [30.42301446202426]
毒殺攻撃は、トレーニングコーパスに小さな変更を加えることで、モデル行動に不当に影響を及ぼす可能性がある。
限られた数のトレーニングサンプルを修正した敵攻撃に対して,サンプルの堅牢性を保証することを可能とする。
論文 参考訳(メタデータ) (2023-08-15T03:46:41Z) - Improving Adversarial Robustness to Sensitivity and Invariance Attacks
with Deep Metric Learning [80.21709045433096]
対向ロバスト性の標準的な方法は、サンプルを最小に摂動させることによって作られたサンプルに対して防御する枠組みを仮定する。
距離学習を用いて、最適輸送問題として逆正則化をフレーム化する。
予備的な結果から, 変分摂動の規則化は, 変分防御と敏感防御の両方を改善することが示唆された。
論文 参考訳(メタデータ) (2022-11-04T13:54:02Z) - Versatile Weight Attack via Flipping Limited Bits [68.45224286690932]
本研究では,展開段階におけるモデルパラメータを変更する新たな攻撃パラダイムについて検討する。
有効性とステルスネスの目標を考慮し、ビットフリップに基づく重み攻撃を行うための一般的な定式化を提供する。
SSA(Single sample attack)とTSA(Singr sample attack)の2例を報告した。
論文 参考訳(メタデータ) (2022-07-25T03:24:58Z) - Rethinking Textual Adversarial Defense for Pre-trained Language Models [79.18455635071817]
文献レビューでは、事前訓練された言語モデル(PrLM)が敵の攻撃に弱いことが示されている。
本稿では、現在の敵攻撃アプローチにより、より自然で知覚不能な敵の例を生成するための新しい指標(異常の度合い)を提案する。
我々は,我々のユニバーサル・ディフェンス・フレームワークが,他の特定のディフェンスと同等あるいはそれ以上のアフターアタック・ディフェンスの精度を達成することを示す。
論文 参考訳(メタデータ) (2022-07-21T07:51:45Z) - Adversarial Attacks and Defense for Non-Parametric Two-Sample Tests [73.32304304788838]
本稿では,非パラメトリックTSTの障害モードを逆攻撃により系統的に明らかにする。
TST非依存的な攻撃を可能にするために,異なる種類のテスト基準を協調的に最小化するアンサンブル攻撃フレームワークを提案する。
そこで本研究では,TSTの強化のために,逆対を反復的に生成し,深層カーネルを訓練する最大最小最適化を提案する。
論文 参考訳(メタデータ) (2022-02-07T11:18:04Z) - Adaptive Feature Alignment for Adversarial Training [56.17654691470554]
CNNは通常、敵攻撃に対して脆弱であり、セキュリティに敏感なアプリケーションに脅威をもたらす。
任意の攻撃強度の特徴を生成するための適応的特徴アライメント(AFA)を提案する。
本手法は任意の攻撃強度の特徴を自動的に整列するように訓練されている。
論文 参考訳(メタデータ) (2021-05-31T17:01:05Z) - Adversarial robustness via stochastic regularization of neural
activation sensitivity [24.02105949163359]
両防衛目標を同時に扱う新しい防衛機構を提案する。
損失面の勾配を平坦化し、逆例を見つけるのが難しくなる。
さらに、ジャコビアン正則化を利用して、正しく分類された入力から決定を遠ざける。
論文 参考訳(メタデータ) (2020-09-23T19:31:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。