論文の概要: Improving Robust Fairness via Balance Adversarial Training
- arxiv url: http://arxiv.org/abs/2209.07534v1
- Date: Thu, 15 Sep 2022 14:44:48 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-19 12:05:32.624759
- Title: Improving Robust Fairness via Balance Adversarial Training
- Title(参考訳): バランス対抗訓練によるロバストフェアネスの改善
- Authors: Chunyu Sun, Chenye Xu, Chengyuan Yao, Siyuan Liang, Yichao Wu, Ding
Liang, XiangLong Liu, Aishan Liu
- Abstract要約: 対人訓練 (AT) 法は, 対人攻撃に対して有効であるが, 異なるクラス間での精度と頑健さの相違が激しい。
本稿では,頑健な公正性問題に対処するために,BAT(Adversarial Training)を提案する。
- 参考スコア(独自算出の注目度): 51.67643171193376
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Adversarial training (AT) methods are effective against adversarial attacks,
yet they introduce severe disparity of accuracy and robustness between
different classes, known as the robust fairness problem. Previously proposed
Fair Robust Learning (FRL) adaptively reweights different classes to improve
fairness. However, the performance of the better-performed classes decreases,
leading to a strong performance drop. In this paper, we observed two unfair
phenomena during adversarial training: different difficulties in generating
adversarial examples from each class (source-class fairness) and disparate
target class tendencies when generating adversarial examples (target-class
fairness). From the observations, we propose Balance Adversarial Training (BAT)
to address the robust fairness problem. Regarding source-class fairness, we
adjust the attack strength and difficulties of each class to generate samples
near the decision boundary for easier and fairer model learning; considering
target-class fairness, by introducing a uniform distribution constraint, we
encourage the adversarial example generation process for each class with a fair
tendency. Extensive experiments conducted on multiple datasets (CIFAR-10,
CIFAR-100, and ImageNette) demonstrate that our method can significantly
outperform other baselines in mitigating the robust fairness problem (+5-10\%
on the worst class accuracy)
- Abstract(参考訳): 敵対的訓練(adversarial training, at)法は、敵の攻撃に対して有効であるが、ロバストフェアネス問題として知られる、異なるクラス間の正確性と堅牢性の厳密な格差をもたらす。
以前提案されたfair robust learning (frl)は、フェアネスを改善するために異なるクラスを適応的に重み付けする。
しかし、高性能なクラスのパフォーマンスは低下し、パフォーマンスが低下する。
本稿では,各クラスから敵意生成の難しさ(ソース・クラス・フェアネス)と,敵意生成時の異なるターゲット・クラス傾向(ターゲット・クラスフェアネス)の2つの不公平な現象を観察した。
そこで本研究では,バランス適応学習(BAT)を提案し,ロバスト公正性問題に対処する。
ソースクラスフェアネスについては、より容易でフェアなモデル学習のために、各クラスが決定境界付近でサンプルを生成するための攻撃強度と難易度を調整し、ターゲットクラスフェアネスを考慮して、一様分布制約を導入することにより、公平な傾向を持つ各クラスに対する敵対的なサンプル生成プロセスを奨励する。
複数データセット (CIFAR-10, CIFAR-100, ImageNette) で実施した大規模な実験により, 本手法はロバストフェアネス問題(最悪のクラス精度では+5-10\%)を緩和する上で, 他のベースラインを著しく上回り得ることを示した。
関連論文リスト
- Towards Fairness-Aware Adversarial Learning [13.932705960012846]
フェアネス・アウェア・アドバーサリアル・ラーニング(FAAL)という新しい学習パラダイムを提案する。
提案手法は,異なるカテゴリ間で最悪の分布を求めることを目的としており,高い確率で上界性能が得られることを保証している。
特にFAALは、不公平なロバストモデルを2つのエポックで公平に調整できるが、全体的なクリーンで堅牢なアキュラシーを損なうことはない。
論文 参考訳(メタデータ) (2024-02-27T18:01:59Z) - DAFA: Distance-Aware Fair Adversarial Training [34.94780532071229]
敵対的攻撃の下では、最悪のクラスからのサンプルに対するモデルの予測の大半は、最悪のクラスと同様のクラスに偏っている。
本稿では,クラス間の類似性を考慮し,頑健な公正性に対処するDAFA手法を提案する。
論文 参考訳(メタデータ) (2024-01-23T07:15:47Z) - Improving Adversarial Robust Fairness via Anti-Bias Soft Label Distillation [14.163463596459064]
ディープニューラルネットワーク(DNN)の対向的強靭性を改善するための効果的な手法として、対戦型トレーニング(AT)が広く証明されている。
ATの変種として、小学生モデルの堅牢性を改善する上で、ARD(Adversarial Robustness Distillation)が優れた性能を示した。
本稿では, 知識蒸留(KD)の枠組みにおいて, 対向性頑健性問題を軽減するためのアンチバイアスソフトラベル蒸留(ABSLD)法を提案する。
論文 参考訳(メタデータ) (2023-12-09T09:08:03Z) - CFA: Class-wise Calibrated Fair Adversarial Training [31.812287233814295]
我々は、クラスごとに個別のトレーニング設定を自動的にカスタマイズする、CFAという名前の textbfClass-wise calibrated textbfFair textbfAdversarial training frameworkを提案する。
我々の提案したCFAは、他の最先端手法よりも、全体的な堅牢性と公正性の両方を改善することができる。
論文 参考訳(メタデータ) (2023-03-25T13:05:16Z) - Enhancing Adversarial Training with Feature Separability [52.39305978984573]
本稿では,特徴分離性を備えた対人訓練(ATFS)により,クラス内特徴の類似性を向上し,クラス間特徴分散を増大させることができる,新たな対人訓練グラフ(ATG)を提案する。
包括的な実験を通じて、提案したATFSフレームワークがクリーンかつロバストなパフォーマンスを著しく改善することを示した。
論文 参考訳(メタデータ) (2022-05-02T04:04:23Z) - Towards Equal Opportunity Fairness through Adversarial Learning [64.45845091719002]
逆行訓練は、自然言語処理におけるバイアス緩和の一般的なアプローチである。
本稿では、よりリッチな特徴を生み出すために、ターゲットクラスをインプットとして利用する、対位訓練のための拡張判別器を提案する。
論文 参考訳(メタデータ) (2022-03-12T02:22:58Z) - Analysis and Applications of Class-wise Robustness in Adversarial
Training [92.08430396614273]
敵の訓練は、敵の例に対するモデルロバスト性を改善するための最も効果的な手法の1つである。
従来の研究は主にモデルの全体的な堅牢性に焦点を当てており、各クラスの役割に関する詳細な分析はいまだに欠落している。
MNIST, CIFAR-10, CIFAR-100, SVHN, STL-10, ImageNetの6つのベンチマークデータセットに対して, 逆トレーニングの詳細な診断を行う。
対戦型学習におけるより強力な攻撃手法は、主に脆弱なクラスに対するより成功した攻撃から、性能の向上を達成することを観察する。
論文 参考訳(メタデータ) (2021-05-29T07:28:35Z) - Robust Pre-Training by Adversarial Contrastive Learning [120.33706897927391]
近年の研究では、敵の訓練と統合されると、自己監督型事前訓練が最先端の堅牢性につながることが示されている。
我々は,データ強化と対向的摂動の両面に整合した学習表現により,ロバストネスを意識した自己指導型事前学習を改善する。
論文 参考訳(メタデータ) (2020-10-26T04:44:43Z) - To be Robust or to be Fair: Towards Fairness in Adversarial Training [83.42241071662897]
逆行訓練アルゴリズムは、異なるデータ群間の精度と堅牢性に深刻な違いをもたらす傾向がある。
本稿では、敵防衛を行う際の不公平問題を軽減するためのFair-Robust-Learning(FRL)フレームワークを提案する。
論文 参考訳(メタデータ) (2020-10-13T02:21:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。