論文の概要: ShapePuri: Shape Guided and Appearance Generalized Adversarial Purification
- arxiv url: http://arxiv.org/abs/2602.05175v1
- Date: Thu, 05 Feb 2026 01:07:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-06 18:49:08.69185
- Title: ShapePuri: Shape Guided and Appearance Generalized Adversarial Purification
- Title(参考訳): ShapePuri: 形状ガイドと汎用対向浄化
- Authors: Zhe Li, Bernhard Kainz,
- Abstract要約: ディープ・ニューラル・ネットワークは、視覚的認識において顕著な性能を示すが、人間には認識できない敵の攻撃に弱いままである。
モデル表現を安定な構造不変量に整列させることにより変換を強化する新しい防御フレームワークであるShapePuriを導入する。
実験では、ShapePuriは8.4.06%のクリーンな精度と81.64%の堅牢な精度をAutoAttackプロトコルで達成した。
- 参考スコア(独自算出の注目度): 12.803436797824268
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Deep neural networks demonstrate impressive performance in visual recognition, but they remain vulnerable to adversarial attacks that is imperceptible to the human. Although existing defense strategies such as adversarial training and purification have achieved progress, diffusion-based purification often involves high computational costs and information loss. To address these challenges, we introduce Shape Guided Purification (ShapePuri), a novel defense framework enhances robustness by aligning model representations with stable structural invariants. ShapePuri integrates two components: a Shape Encoding Module (SEM) that provides dense geometric guidance through Signed Distance Functions (SDF), and a Global Appearance Debiasing (GAD) module that mitigates appearance bias via stochastic transformations. In our experiments, ShapePuri achieves $84.06\%$ clean accuracy and $81.64\%$ robust accuracy under the AutoAttack protocol, representing the first defense framework to surpass the $80\%$ threshold on this benchmark. Our approach provides a scalable and efficient adversarial defense that preserves prediction stability during inference without requiring auxiliary modules or additional computational cost.
- Abstract(参考訳): ディープ・ニューラル・ネットワークは、視覚的認識において顕著な性能を示すが、人間には認識できない敵の攻撃に弱いままである。
敵の訓練や浄化といった既存の防衛戦略は進歩しているが、拡散ベースの浄化には高い計算コストと情報損失が伴うことが多い。
これらの課題に対処するために,モデル表現を安定な構造不変量に整列させることにより,ロバスト性を高める新しい防御フレームワークであるShapePuriを導入する。
ShapePuriは、Signed Distance Functions(SDF)を通じて密集した幾何学的ガイダンスを提供するShape Encoding Module(SEM)と、確率変換による外観バイアスを軽減するGlobal Outearance Debiasing(GAD)モジュールの2つのコンポーネントを統合している。
われわれの実験では、ShapePuriは、AutoAttackプロトコルの下で、84.06\%のクリーンな精度と81.64\%のロバストな精度を達成した。
提案手法は,補助モジュールや追加計算コストを必要とせず,推論中の予測安定性を保ちながら,スケーラブルで効率的な対角防御を実現する。
関連論文リスト
- Adversarial Robustness in One-Stage Learning-to-Defer [7.413102772934999]
Learning-to-Defer(L2D)は、入力を予測者または外部の専門家にルーティングすることで、ハイブリッドな意思決定を可能にする。
有望ではあるが、L2Dは敵の摂動に対して非常に脆弱であり、予測を反転させるだけでなく、遅延決定を操作できる。
第一段階のL2Dでは, 分類と回帰の両方を網羅し, 対向ロバスト性に関する最初の枠組みを紹介した。
論文 参考訳(メタデータ) (2025-10-13T03:55:55Z) - REFINE: Inversion-Free Backdoor Defense via Model Reprogramming [60.554146386198376]
ディープニューラルネットワーク(DNN)に対するバックドア攻撃は、重大なセキュリティ脅威として浮上している。
モデル再プログラミングに基づく逆フリーバックドア防御手法であるREFINEを提案する。
論文 参考訳(メタデータ) (2025-02-22T07:29:12Z) - PuriDefense: Randomized Local Implicit Adversarial Purification for Defending Black-box Query-based Attacks [17.613736258543096]
ブラックボックスクエリベースの攻撃は機械学習・アズ・ア・サービス(ML)システムに脅威を与える。
低レベルの推論コストで軽量な浄化モデルのアンサンブルでランダムなパッチワイズ処理を施した効率的な防御機構であるPuriDefenseを提案する。
我々の理論的分析は、ランダム性を浄化に組み込むことで、クエリベースの攻撃の収束を遅くすることを示唆している。
論文 参考訳(メタデータ) (2024-01-19T09:54:23Z) - Learn from the Past: A Proxy Guided Adversarial Defense Framework with
Self Distillation Regularization [53.04697800214848]
敵対的訓練(AT)は、ディープラーニングモデルの堅牢性を固める上で重要な要素である。
AT方式は、目標モデルの防御のために直接反復的な更新を頼りにしており、不安定な訓練や破滅的なオーバーフィッティングといった障害に頻繁に遭遇する。
汎用プロキシガイド型防衛フレームワークLAST(bf Pbf astから学ぶ)を提案する。
論文 参考訳(メタデータ) (2023-10-19T13:13:41Z) - Blending adversarial training and representation-conditional purification via aggregation improves adversarial robustness [6.484231366444063]
CARSOは、防御のために考案された適応的なエンドツーエンドのホワイトボックス攻撃から自身を守ることができる。
提案手法は,Cifar-10,Cifar-100,TinyImageNet-200の最先端技術により改善されている。
論文 参考訳(メタデータ) (2023-05-25T09:04:31Z) - Improving Adversarial Robustness to Sensitivity and Invariance Attacks
with Deep Metric Learning [80.21709045433096]
対向ロバスト性の標準的な方法は、サンプルを最小に摂動させることによって作られたサンプルに対して防御する枠組みを仮定する。
距離学習を用いて、最適輸送問題として逆正則化をフレーム化する。
予備的な結果から, 変分摂動の規則化は, 変分防御と敏感防御の両方を改善することが示唆された。
論文 参考訳(メタデータ) (2022-11-04T13:54:02Z) - Adaptive Feature Alignment for Adversarial Training [56.17654691470554]
CNNは通常、敵攻撃に対して脆弱であり、セキュリティに敏感なアプリケーションに脅威をもたらす。
任意の攻撃強度の特徴を生成するための適応的特徴アライメント(AFA)を提案する。
本手法は任意の攻撃強度の特徴を自動的に整列するように訓練されている。
論文 参考訳(メタデータ) (2021-05-31T17:01:05Z) - RobustBench: a standardized adversarial robustness benchmark [84.50044645539305]
ロバストネスのベンチマークにおける主な課題は、その評価がしばしばエラーを起こし、ロバストネス過大評価につながることである。
我々は,白箱攻撃と黒箱攻撃のアンサンブルであるAutoAttackを用いて,敵対的ロバスト性を評価する。
分散シフト,キャリブレーション,アウト・オブ・ディストリビューション検出,フェアネス,プライバシリーク,スムースネス,転送性に対するロバスト性の影響を解析した。
論文 参考訳(メタデータ) (2020-10-19T17:06:18Z) - A Self-supervised Approach for Adversarial Robustness [105.88250594033053]
敵対的な例は、ディープニューラルネットワーク(DNN)ベースの視覚システムにおいて破滅的な誤りを引き起こす可能性がある。
本稿では,入力空間における自己教師型対向学習機構を提案する。
これは、反逆攻撃に対する強力な堅牢性を提供する。
論文 参考訳(メタデータ) (2020-06-08T20:42:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。