論文の概要: Decoder-free Robustness Disentanglement without (Additional) Supervision
- arxiv url: http://arxiv.org/abs/2007.01356v1
- Date: Thu, 2 Jul 2020 19:51:40 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-14 12:50:59.676464
- Title: Decoder-free Robustness Disentanglement without (Additional) Supervision
- Title(参考訳): Decoder-free Robustness Disentanglement without (Additional) Supervision
- Authors: Yifei Wang, Dan Peng, Furui Liu, Zhenguo Li, Zhitang Chen, Jiansheng
Yang
- Abstract要約: 提案手法は, 頑健さの監視を伴わずに, 頑健さと非ロバスト表現を確実に切り離すことができる。
実験結果から,本手法は2つの表現を組み合わせることで精度を向上するだけでなく,従来の手法よりもはるかに優れたアンタングル化を実現していることがわかった。
- 参考スコア(独自算出の注目度): 42.066771710455754
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Adversarial Training (AT) is proposed to alleviate the adversarial
vulnerability of machine learning models by extracting only robust features
from the input, which, however, inevitably leads to severe accuracy reduction
as it discards the non-robust yet useful features. This motivates us to
preserve both robust and non-robust features and separate them with
disentangled representation learning. Our proposed Adversarial Asymmetric
Training (AAT) algorithm can reliably disentangle robust and non-robust
representations without additional supervision on robustness. Empirical results
show our method does not only successfully preserve accuracy by combining two
representations, but also achieve much better disentanglement than previous
work.
- Abstract(参考訳): 対向訓練(adversarial training, at)は、入力からロバストな特徴のみを抽出することによって、機械学習モデルの敵対的脆弱性を軽減するために提案されているが、非ロバストで有用な特徴を捨てることにより、必然的に正確性が低下する。
これにより、ロバストな特徴と非ロバストな特徴の両方を保存し、対立する表現学習でそれらを分離するモチベーションが生まれます。
提案する逆非対称トレーニング(aat)アルゴリズムはロバスト表現と非ロバスト表現を確実に分離することができる。
実験結果から,本手法は2つの表現を組み合わせることで精度を保っただけでなく,従来の作業よりもはるかに良好な絡み合いを実現できることがわかった。
関連論文リスト
- Enhancing Robust Representation in Adversarial Training: Alignment and
Exclusion Criteria [61.048842737581865]
対人訓練 (AT) は, 頑健な特徴の学習を省略し, 対人的頑健さの低下を招いた。
非対称な負のコントラストと逆の注意によって、頑健な表現を得るためのATの一般的なフレームワークを提案する。
3つのベンチマークデータセットの実証評価により,ATの堅牢性を大幅に向上し,最先端の性能を実現することができた。
論文 参考訳(メタデータ) (2023-10-05T07:29:29Z) - Annealing Self-Distillation Rectification Improves Adversarial Training [0.10241134756773226]
我々は、ロバストモデルの特徴を分析し、ロバストモデルがよりスムーズでよく校正された出力を生成する傾向があることを特定する。
より優れた誘導機構としてソフトラベルを生成するアニーリング自己蒸留法を提案する。
我々は、広範囲な実験とデータセット間の強力なパフォーマンスを通して、ADRの有効性を実証する。
論文 参考訳(メタデータ) (2023-05-20T06:35:43Z) - Confidence-aware Training of Smoothed Classifiers for Certified
Robustness [75.95332266383417]
我々は「ガウス雑音下での精度」を、入力に対する対角的ロバスト性の容易に計算可能なプロキシとして利用する。
実験の結果, 提案手法は, 最先端の訓練手法による信頼性向上を継続的に示すことがわかった。
論文 参考訳(メタデータ) (2022-12-18T03:57:12Z) - Robustness of Unsupervised Representation Learning without Labels [92.90480374344777]
モデルとタスクに依存しない,ラベルのない,教師なしのロバストネス尺度のファミリーを提案する。
本研究は, 線形プローブによる検証を行い, MOCOv2の場合, 対向トレーニングの結果が3倍の精度で得られたことを示す。
論文 参考訳(メタデータ) (2022-10-08T18:03:28Z) - How many perturbations break this model? Evaluating robustness beyond
adversarial accuracy [28.934863462633636]
入力点と摂動方向の制約の両方が与えられた摂動を成功させることがいかに困難であるかを定量化する。
空間性は、ニューラルネットワークに関する貴重な洞察を、複数の方法で提供することを示す。
論文 参考訳(メタデータ) (2022-07-08T21:25:17Z) - Improving the Adversarial Robustness of NLP Models by Information
Bottleneck [112.44039792098579]
非破壊機能は敵によって容易に操作でき、NLPモデルを騙すことができる。
本研究では,情報ボトルネック理論を用いて,タスク固有のロバストな特徴を捕捉し,非ロバストな特徴を除去する可能性を検討する。
情報ボトルネックに基づく手法を用いてトレーニングしたモデルでは,ロバストな精度で大幅な改善が達成できることを示す。
論文 参考訳(メタデータ) (2022-06-11T12:12:20Z) - Robust Pre-Training by Adversarial Contrastive Learning [120.33706897927391]
近年の研究では、敵の訓練と統合されると、自己監督型事前訓練が最先端の堅牢性につながることが示されている。
我々は,データ強化と対向的摂動の両面に整合した学習表現により,ロバストネスを意識した自己指導型事前学習を改善する。
論文 参考訳(メタデータ) (2020-10-26T04:44:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。