論文の概要: Robust Proxy: Improving Adversarial Robustness by Robust Proxy Learning
- arxiv url: http://arxiv.org/abs/2306.15457v1
- Date: Tue, 27 Jun 2023 13:22:19 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-28 13:22:09.410892
- Title: Robust Proxy: Improving Adversarial Robustness by Robust Proxy Learning
- Title(参考訳): robust proxy: robust proxy learningによる敵対的ロバスト性の改善
- Authors: Hong Joo Lee, Yong Man Ro
- Abstract要約: 本稿では,ロバストプロキシ学習という新しい学習フレームワークを提案する。
提案手法では,ロバストなプロキシを持つロバストな特徴表現を明示的に学習する。
- 参考スコア(独自算出の注目度): 37.44874343584898
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recently, it has been widely known that deep neural networks are highly
vulnerable and easily broken by adversarial attacks. To mitigate the
adversarial vulnerability, many defense algorithms have been proposed.
Recently, to improve adversarial robustness, many works try to enhance feature
representation by imposing more direct supervision on the discriminative
feature. However, existing approaches lack an understanding of learning
adversarially robust feature representation. In this paper, we propose a novel
training framework called Robust Proxy Learning. In the proposed method, the
model explicitly learns robust feature representations with robust proxies. To
this end, firstly, we demonstrate that we can generate class-representative
robust features by adding class-wise robust perturbations. Then, we use the
class representative features as robust proxies. With the class-wise robust
features, the model explicitly learns adversarially robust features through the
proposed robust proxy learning framework. Through extensive experiments, we
verify that we can manually generate robust features, and our proposed learning
framework could increase the robustness of the DNNs.
- Abstract(参考訳): 近年、ディープニューラルネットワークは敵の攻撃によって非常に脆弱で容易に破壊されることが広く知られている。
敵の脆弱性を軽減するため、多くの防御アルゴリズムが提案されている。
近年, 敵対的ロバスト性を改善するため, 識別的特徴に対してより直接的な監督を行うことで, 特徴表現の強化を試みている。
しかし、既存のアプローチでは、逆向きに堅牢な特徴表現を学習する理解が欠如している。
本稿では,ロバストプロキシ学習と呼ばれる新しい学習フレームワークを提案する。
提案手法では,ロバストなプロキシを持つロバストな特徴表現を明示的に学習する。
この目的のために,まず,クラス毎にロバストな摂動を追加することで,クラス表現型ロバストな特徴を生成できることを実証する。
次に、クラス代表機能を堅牢なプロキシとして使用します。
クラスレベルでの堅牢な機能では、提案された堅牢なプロキシ学習フレームワークを通じて、逆向きの堅牢な機能を明示的に学習する。
広範な実験を通じて、手動で堅牢な特徴を生成できることを確認し、提案する学習フレームワークにより、DNNの堅牢性を高めることができる。
関連論文リスト
- Improving Adversarial Robustness via Decoupled Visual Representation Masking [65.73203518658224]
本稿では,特徴分布の観点から,ロバストな特徴の2つの新しい特性を強調した。
現状の防衛手法は、上記の2つの問題にうまく対処することを目的としている。
具体的には、分離された視覚的表現マスキングに基づく、シンプルだが効果的な防御法を提案する。
論文 参考訳(メタデータ) (2024-06-16T13:29:41Z) - Adversarial Examples Are Not Real Features [55.5802648842869]
citetilyas 2019adversarialのよく知られた理論は、データの観点から敵の脆弱性を説明する。
我々は、複数の学習パラダイムを取り入れることで、理論をより大きな文脈から再検討する。
論文 参考訳(メタデータ) (2023-10-29T08:50:27Z) - Enhancing Robust Representation in Adversarial Training: Alignment and
Exclusion Criteria [61.048842737581865]
対人訓練 (AT) は, 頑健な特徴の学習を省略し, 対人的頑健さの低下を招いた。
非対称な負のコントラストと逆の注意によって、頑健な表現を得るためのATの一般的なフレームワークを提案する。
3つのベンチマークデータセットの実証評価により,ATの堅牢性を大幅に向上し,最先端の性能を実現することができた。
論文 参考訳(メタデータ) (2023-10-05T07:29:29Z) - Disentangled Text Representation Learning with Information-Theoretic
Perspective for Adversarial Robustness [17.5771010094384]
敵の脆弱性は信頼性の高いNLPシステムを構築する上で大きな障害である。
最近の研究は、モデルの敵意的な脆弱性は教師あり訓練における非破壊的な特徴によって引き起こされると主張している。
本稿では,不整合表現学習の観点から,敵対的課題に取り組む。
論文 参考訳(メタデータ) (2022-10-26T18:14:39Z) - Adversarial GLUE: A Multi-Task Benchmark for Robustness Evaluation of
Language Models [86.02610674750345]
AdvGLUE(Adversarial GLUE)は、様々な種類の敵攻撃の下で、現代の大規模言語モデルの脆弱性を調査し評価するための新しいマルチタスクベンチマークである。
GLUEタスクに14の逆攻撃手法を適用してAdvGLUEを構築する。
テストしたすべての言語モデルとロバストなトレーニングメソッドは、AdvGLUEではパフォーマンスが悪く、スコアは明確な精度よりもはるかに遅れています。
論文 参考訳(メタデータ) (2021-11-04T12:59:55Z) - Opportunities and Challenges in Deep Learning Adversarial Robustness: A
Survey [1.8782750537161614]
本稿では,機械学習アルゴリズムの安全性を保証するために,強靭に訓練されたアルゴリズムを実装するための戦略について検討する。
我々は、敵の攻撃と防衛を分類し、ロバスト最適化問題をmin-max設定で定式化し、それを3つのサブカテゴリに分類する。
論文 参考訳(メタデータ) (2020-07-01T21:00:32Z) - Rethinking Clustering for Robustness [56.14672993686335]
ClusTRは、ロバストモデルを学ぶためのクラスタリングベースの、対向のないトレーニングフレームワークである。
textitClusTRは、強いPGD攻撃の下で、敵に訓練されたネットワークを最大4%上回ります。
論文 参考訳(メタデータ) (2020-06-13T16:55:51Z) - Class-Aware Domain Adaptation for Improving Adversarial Robustness [27.24720754239852]
学習データに敵の例を注入することにより,ネットワークを訓練するための敵の訓練が提案されている。
そこで本研究では,対人防御のための新しいクラスアウェアドメイン適応法を提案する。
論文 参考訳(メタデータ) (2020-05-10T03:45:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。