論文の概要: To be Robust or to be Fair: Towards Fairness in Adversarial Training
- arxiv url: http://arxiv.org/abs/2010.06121v2
- Date: Tue, 18 May 2021 23:32:55 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-07 22:53:40.952793
- Title: To be Robust or to be Fair: Towards Fairness in Adversarial Training
- Title(参考訳): ロバストか公正か:対人訓練の公正性を目指して
- Authors: Han Xu, Xiaorui Liu, Yaxin Li, Anil K. Jain, Jiliang Tang
- Abstract要約: 逆行訓練アルゴリズムは、異なるデータ群間の精度と堅牢性に深刻な違いをもたらす傾向がある。
本稿では、敵防衛を行う際の不公平問題を軽減するためのFair-Robust-Learning(FRL)フレームワークを提案する。
- 参考スコア(独自算出の注目度): 83.42241071662897
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Adversarial training algorithms have been proved to be reliable to improve
machine learning models' robustness against adversarial examples. However, we
find that adversarial training algorithms tend to introduce severe disparity of
accuracy and robustness between different groups of data. For instance, a PGD
adversarially trained ResNet18 model on CIFAR-10 has 93% clean accuracy and 67%
PGD l-infty-8 robust accuracy on the class "automobile" but only 65% and 17% on
the class "cat". This phenomenon happens in balanced datasets and does not
exist in naturally trained models when only using clean samples. In this work,
we empirically and theoretically show that this phenomenon can happen under
general adversarial training algorithms which minimize DNN models' robust
errors. Motivated by these findings, we propose a Fair-Robust-Learning (FRL)
framework to mitigate this unfairness problem when doing adversarial defenses.
Experimental results validate the effectiveness of FRL.
- Abstract(参考訳): 敵のトレーニングアルゴリズムは、敵の例に対する機械学習モデルの堅牢性を改善するために信頼できることが証明されている。
しかし, 逆行訓練アルゴリズムは, 異なるデータ群間の精度と頑健さの相違が生じやすいことがわかった。
例えば、cifar-10の対向的に訓練されたresnet18モデルは、クラス"automobile"では93%のクリーン精度と67%のpgd l-infty-8ロバスト精度を持つが、クラス"cat"では65%と17%しかない。
この現象はバランスの取れたデータセットで発生し、クリーンサンプルのみを使用すると自然に訓練されたモデルには存在しない。
本研究では,DNNモデルのロバストな誤差を最小限に抑える一般対角訓練アルゴリズムにおいて,この現象が生じることを実証的,理論的に示す。
これらの知見に触発されて、敵防衛を行う際の不公平問題を軽減するためのFair-Robust-Learning(FRL)フレームワークを提案する。
FRLの有効性を実験的に検証した。
関連論文リスト
- MeanSparse: Post-Training Robustness Enhancement Through Mean-Centered Feature Sparsification [32.70084821901212]
MeanSparseは、敵の例に対する畳み込みと注意に基づくニューラルネットワークの堅牢性を改善する方法である。
実験の結果,MeanSparseは75.28%の新しいロバストネス記録を達成した。
論文 参考訳(メタデータ) (2024-06-09T22:14:55Z) - Pre-trained Model Guided Fine-Tuning for Zero-Shot Adversarial Robustness [52.9493817508055]
我々は,モデルがゼロショットの逆方向のロバスト性を高めるために,事前訓練されたモデル誘導逆方向の微調整(PMG-AFT)を提案する。
私たちのアプローチは、平均8.72%のクリーンな精度を継続的に改善します。
論文 参考訳(メタデータ) (2024-01-09T04:33:03Z) - Perturbation-Invariant Adversarial Training for Neural Ranking Models:
Improving the Effectiveness-Robustness Trade-Off [107.35833747750446]
正統な文書に不可避な摂動を加えることで 敵の例を作れます
この脆弱性は信頼性に関する重大な懸念を生じさせ、NRMの展開を妨げている。
本研究では,NRMにおける有効・損耗トレードオフに関する理論的保証を確立する。
論文 参考訳(メタデータ) (2023-12-16T05:38:39Z) - Improving Robust Fairness via Balance Adversarial Training [51.67643171193376]
対人訓練 (AT) 法は, 対人攻撃に対して有効であるが, 異なるクラス間での精度と頑健さの相違が激しい。
本稿では,頑健な公正性問題に対処するために,BAT(Adversarial Training)を提案する。
論文 参考訳(メタデータ) (2022-09-15T14:44:48Z) - Two Heads are Better than One: Robust Learning Meets Multi-branch Models [14.72099568017039]
本稿では,従来の対人訓練用データセットのみを用いて,最先端のパフォーマンスを得るために,分岐直交補助訓練(BORT)を提案する。
我々は, CIFAR-10, CIFAR-100, SVHN に対する Epsilon = 8/255 の ell_infty ノルム束縛摂動に対するアプローチを評価した。
論文 参考訳(メタデータ) (2022-08-17T05:42:59Z) - Efficient Adversarial Training With Data Pruning [26.842714298874192]
我々は,データプルーニングが,対人訓練の収束と信頼性の向上につながることを示す。
一部の設定では、データのプルーニングは両方の世界の利点をもたらします。
論文 参考訳(メタデータ) (2022-07-01T23:54:46Z) - FairIF: Boosting Fairness in Deep Learning via Influence Functions with
Validation Set Sensitive Attributes [51.02407217197623]
本稿では,FAIRIFという2段階の学習アルゴリズムを提案する。
サンプル重みが計算される再重み付きデータセットの損失を最小限に抑える。
FAIRIFは、様々な種類のバイアスに対して、フェアネスとユーティリティのトレードオフを良くしたモデルが得られることを示す。
論文 参考訳(メタデータ) (2022-01-15T05:14:48Z) - Deep Repulsive Prototypes for Adversarial Robustness [3.351714665243138]
本研究では,大規模なクラス分離を伴う出力空間上でのモデル学習を提案し,対角的トレーニングを伴わずに頑健性を得る。
出力空間を大分離したクラスプロトタイプに分割する手法を導入し,それを保存するためのモデルを訓練する。
実験結果から, これらの試作機で訓練したモデルは, 対人訓練と競争力を持つことがわかった。
論文 参考訳(メタデータ) (2021-05-26T09:30:28Z) - Adversarial Feature Stacking for Accurate and Robust Predictions [4.208059346198116]
Adversarial Feature Stacking (AFS)モデルは、さまざまなレベルの堅牢性と精度を持つ機能を共同で活用することができる。
CIFAR-10およびCIFAR-100データセット上でのAFSモデルの評価を行った。
論文 参考訳(メタデータ) (2021-03-24T12:01:24Z) - Overfitting in adversarially robust deep learning [86.11788847990783]
トレーニングセットへの過度な適合は、実際には、逆向きの堅牢なトレーニングにおいて、非常に大きなロバストなパフォーマンスを損なうことを示す。
また, 2重降下曲線のような効果は, 逆向きに訓練されたモデルでもまだ起こるが, 観測された過度なオーバーフィッティングを説明できないことを示す。
論文 参考訳(メタデータ) (2020-02-26T15:40:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。