論文の概要: Do Perceptually Aligned Gradients Imply Adversarial Robustness?
- arxiv url: http://arxiv.org/abs/2207.11378v1
- Date: Fri, 22 Jul 2022 23:48:26 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-26 14:24:36.146007
- Title: Do Perceptually Aligned Gradients Imply Adversarial Robustness?
- Title(参考訳): 対人ロバスト性は知覚に影響を及ぼすか?
- Authors: Roy Ganz, Bahjat Kawar and Michael Elad
- Abstract要約: ディープラーニングネットワークは、敵の例としても知られる小さな悪意のある摂動によって、容易に騙される。
このセキュリティの弱点は、堅牢なモデルを得るための広範な研究につながった。
いくつかの研究は、パーセプティカル・アラインド・グラディエント(PAG)を堅牢なトレーニングの副産物とみなしているが、独立した現象とはみなしていない。
本研究では,この特徴に着目し,知覚的指向性がロバスト性を意味するかどうかを検証する。
- 参考スコア(独自算出の注目度): 17.929524924008962
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In the past decade, deep learning-based networks have achieved unprecedented
success in numerous tasks, including image classification. Despite this
remarkable achievement, recent studies have demonstrated that such networks are
easily fooled by small malicious perturbations, also known as adversarial
examples. This security weakness led to extensive research aimed at obtaining
robust models. Beyond the clear robustness benefits of such models, it was also
observed that their gradients with respect to the input align with human
perception. Several works have identified Perceptually Aligned Gradients (PAG)
as a byproduct of robust training, but none have considered it as a standalone
phenomenon nor studied its own implications. In this work, we focus on this
trait and test whether Perceptually Aligned Gradients imply Robustness. To this
end, we develop a novel objective to directly promote PAG in training
classifiers and examine whether models with such gradients are more robust to
adversarial attacks. Extensive experiments on CIFAR-10 and STL validate that
such models have improved robust performance, exposing the surprising
bidirectional connection between PAG and robustness.
- Abstract(参考訳): 過去10年間、ディープラーニングベースのネットワークは、画像分類を含む多くのタスクで前例のない成功を収めてきた。
この顕著な成果にもかかわらず、近年の研究では、そのようなネットワークは小さな悪意のある摂動(adversarial examples)によって簡単に騙されることが示されている。
このセキュリティの弱点は、堅牢なモデルを得るための広範な研究につながった。
このようなモデルの明確な頑健さの利点に加えて、入力に対するそれらの勾配が人間の知覚と一致することも観察された。
いくつかの研究は、パーセプティカル・アラインド・グラディエント(PAG)を堅牢なトレーニングの副産物とみなしているが、独立した現象と見なしたり、独自の意味を研究することはなかった。
本研究では,この特徴に注目し,知覚的指向性がロバスト性を意味するかどうかをテストする。
そこで本研究では,訓練用分類器のPAGを直接促進し,そのような勾配を持つモデルが敵攻撃に対してより堅牢であるかどうかを検討する。
CIFAR-10とSTLの大規模な実験により、これらのモデルがロバスト性能を改善し、PAGとロバストネスの間の驚くべき双方向接続を明らかにした。
関連論文リスト
- Ensemble Adversarial Defense via Integration of Multiple Dispersed Low Curvature Models [7.8245455684263545]
本研究では,攻撃伝達性を低減し,アンサンブルの多様性を高めることを目的とする。
損失曲率を表す2階勾配を, 対向的強靭性の重要な要因として同定する。
本稿では,複数変数の低曲率ネットワークモデルをトレーニングするための新しい正規化器を提案する。
論文 参考訳(メタデータ) (2024-03-25T03:44:36Z) - Extreme Miscalibration and the Illusion of Adversarial Robustness [66.29268991629085]
敵の訓練は、しばしばモデルの堅牢性を高めるために使用される。
我々は、この観測されたロバストネスの利得はロバストネスの錯覚(IOR)であることを示した。
我々は,NLPコミュニティに対して,試験時間温度のスケーリングを堅牢性評価に組み込むよう促す。
論文 参考訳(メタデータ) (2024-02-27T13:49:12Z) - Enhancing Robust Representation in Adversarial Training: Alignment and
Exclusion Criteria [61.048842737581865]
対人訓練 (AT) は, 頑健な特徴の学習を省略し, 対人的頑健さの低下を招いた。
非対称な負のコントラストと逆の注意によって、頑健な表現を得るためのATの一般的なフレームワークを提案する。
3つのベンチマークデータセットの実証評価により,ATの堅牢性を大幅に向上し,最先端の性能を実現することができた。
論文 参考訳(メタデータ) (2023-10-05T07:29:29Z) - Which Models have Perceptually-Aligned Gradients? An Explanation via
Off-Manifold Robustness [9.867914513513453]
知覚的に整列した勾配(PAG)は、堅牢なコンピュータビジョンモデルに初歩的な生成能力をもたらす。
このことは、モデルがオンマンフォールドであるよりも、データ多様体よりもロバストでなければならないことを述べています。
我々は、知覚的アライメントとモデル精度の両方に影響を与える3つの異なるロバスト性(弱ロバスト性、ベイズ整合ロバスト性、過剰ロバスト性)を識別する。
論文 参考訳(メタデータ) (2023-05-30T15:06:02Z) - Semantic Image Attack for Visual Model Diagnosis [80.36063332820568]
実際には、特定の列車およびテストデータセットに関する計量分析は、信頼性や公正なMLモデルを保証しない。
本稿では,セマンティック・イメージ・アタック(SIA)を提案する。
論文 参考訳(メタデータ) (2023-03-23T03:13:04Z) - Explicit Tradeoffs between Adversarial and Natural Distributional
Robustness [48.44639585732391]
実際、モデルは信頼性を確保するために両方のタイプの堅牢さを享受する必要があります。
本研究では, 対角線と自然分布の強靭性の間には, 明らかなトレードオフが存在することを示す。
論文 参考訳(メタデータ) (2022-09-15T19:58:01Z) - Adversarially Robust Classification by Conditional Generative Model
Inversion [4.913248451323163]
本稿では,攻撃の事前知識を仮定することなく,勾配を難読化せず,構造的に堅牢な分類モデルを提案する。
提案手法は,未成熟な自然画像に基づいて訓練された条件生成器を「反転」する最適化問題である。
我々のモデルはブラックボックス攻撃に対して非常に堅牢であり、ホワイトボックス攻撃に対するロバスト性を改善したことを実証する。
論文 参考訳(メタデータ) (2022-01-12T23:11:16Z) - Adaptive Feature Alignment for Adversarial Training [56.17654691470554]
CNNは通常、敵攻撃に対して脆弱であり、セキュリティに敏感なアプリケーションに脅威をもたらす。
任意の攻撃強度の特徴を生成するための適応的特徴アライメント(AFA)を提案する。
本手法は任意の攻撃強度の特徴を自動的に整列するように訓練されている。
論文 参考訳(メタデータ) (2021-05-31T17:01:05Z) - Robust Pre-Training by Adversarial Contrastive Learning [120.33706897927391]
近年の研究では、敵の訓練と統合されると、自己監督型事前訓練が最先端の堅牢性につながることが示されている。
我々は,データ強化と対向的摂動の両面に整合した学習表現により,ロバストネスを意識した自己指導型事前学習を改善する。
論文 参考訳(メタデータ) (2020-10-26T04:44:43Z) - Quantifying the Preferential Direction of the Model Gradient in
Adversarial Training With Projected Gradient Descent [4.8035104863603575]
逆行訓練の後、入力に対するモデルの勾配は優先的な方向を持つ。
決定空間における最も近い不正確なクラスのサポートの最も近い点を指すベクトルの方向として、この方向の新たな定義を提案する。
我々は,我々の測定値が競合する計量定式化よりも高いアライメント値を示し,このアライメントがモデルのロバスト性を高めることを示す。
論文 参考訳(メタデータ) (2020-09-10T07:48:42Z) - On the Benefits of Models with Perceptually-Aligned Gradients [8.427953227125148]
敵攻撃に対する強靭性を示さないモデルにおいても,解釈的かつ知覚的に整合した勾配が存在することを示す。
解釈可能な知覚整合性を持つモデルを活用し、最大摂動境界の低い対角トレーニングがゼロショットおよび弱教師付きローカライゼーションタスクのモデルの性能を向上させることを示す。
論文 参考訳(メタデータ) (2020-05-04T14:05:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。