論文の概要: CFA: Class-wise Calibrated Fair Adversarial Training
- arxiv url: http://arxiv.org/abs/2303.14460v1
- Date: Sat, 25 Mar 2023 13:05:16 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-28 19:32:18.578645
- Title: CFA: Class-wise Calibrated Fair Adversarial Training
- Title(参考訳): cfa: 階級別に調整した公正な対向訓練
- Authors: Zeming Wei, Yifei Wang, Yiwen Guo, Yisen Wang
- Abstract要約: 我々は、クラスごとに個別のトレーニング設定を自動的にカスタマイズする、CFAという名前の textbfClass-wise calibrated textbfFair textbfAdversarial training frameworkを提案する。
我々の提案したCFAは、他の最先端手法よりも、全体的な堅牢性と公正性の両方を改善することができる。
- 参考スコア(独自算出の注目度): 31.812287233814295
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Adversarial training has been widely acknowledged as the most effective
method to improve the adversarial robustness against adversarial examples for
Deep Neural Networks (DNNs). So far, most existing works focus on enhancing the
overall model robustness, treating each class equally in both the training and
testing phases. Although revealing the disparity in robustness among classes,
few works try to make adversarial training fair at the class level without
sacrificing overall robustness. In this paper, we are the first to
theoretically and empirically investigate the preference of different classes
for adversarial configurations, including perturbation margin, regularization,
and weight averaging. Motivated by this, we further propose a
\textbf{C}lass-wise calibrated \textbf{F}air \textbf{A}dversarial training
framework, named CFA, which customizes specific training configurations for
each class automatically. Experiments on benchmark datasets demonstrate that
our proposed CFA can improve both overall robustness and fairness notably over
other state-of-the-art methods. Code is available at
\url{https://github.com/PKU-ML/CFA}.
- Abstract(参考訳): 敵対的トレーニングは、ディープニューラルネットワーク(DNN)の敵に対する敵対的堅牢性を改善する最も効果的な方法として広く認識されている。
これまでのところ、ほとんどの研究はモデル全体の堅牢性の向上に重点を置いており、各クラスをトレーニングフェーズとテストフェーズの両方で等しく扱います。
クラス間の堅牢性の違いを明らかにする一方で、全体的な堅牢性を犠牲にすることなく、クラスレベルで敵のトレーニングを公平にしようとする研究はほとんどない。
本稿では,摂動マージン,正規化,平均化など,対角的構成に対する異なるクラスの選択を理論的・実験的に検討した最初の事例である。
そこで我々はさらに,各クラスごとに個別のトレーニング設定を自動的にカスタマイズする,CFA(CFA)という,‘textbf{C}lass-wise calibrated \textbf{F}air \textbf{A}dversarial training frameworkを提案する。
ベンチマークデータセットにおける実験により,提案するcfaは,他の最先端手法に比べて,全体としてのロバスト性と公平性の両方を改善することができることが示された。
コードは \url{https://github.com/PKU-ML/CFA} で入手できる。
関連論文リスト
- Learning Fair Robustness via Domain Mixup [8.471466670802817]
本研究では,公平なロバストな分類器の学習問題に対するmixupの利用を提案する。
本研究は, 対人訓練と組み合わせることで, クラスレベルでの頑健さの相違を確実に軽減できることを示す。
論文 参考訳(メタデータ) (2024-11-21T18:56:33Z) - Towards Fairness-Aware Adversarial Learning [13.932705960012846]
フェアネス・アウェア・アドバーサリアル・ラーニング(FAAL)という新しい学習パラダイムを提案する。
提案手法は,異なるカテゴリ間で最悪の分布を求めることを目的としており,高い確率で上界性能が得られることを保証している。
特にFAALは、不公平なロバストモデルを2つのエポックで公平に調整できるが、全体的なクリーンで堅牢なアキュラシーを損なうことはない。
論文 参考訳(メタデータ) (2024-02-27T18:01:59Z) - Enhancing Compositional Generalization via Compositional Feature Alignment [14.289836081158615]
我々は、既存の実世界の画像データセットから派生したCGベンチマークスイートであるCG-Benchを開発した。
簡単な2段階ファインタニング手法であるコンポジション・フィーチャーアライメント(CFA)を提案する。
CG-Bench for CLIP and DINOv2, two powerful pretrained vision foundation model。
論文 参考訳(メタデータ) (2024-02-05T10:06:24Z) - TWINS: A Fine-Tuning Framework for Improved Transferability of
Adversarial Robustness and Generalization [89.54947228958494]
本稿では,様々な分類タスクにおいて,逆向きに事前訓練されたモデルの微調整に焦点を当てる。
本稿では,TWINS(Two-WIng NormliSation)ファインチューニングフレームワークを提案する。
TWINSは、一般化とロバスト性の両方の観点から、幅広い画像分類データセットに有効であることが示されている。
論文 参考訳(メタデータ) (2023-03-20T14:12:55Z) - Learning Sample Reweighting for Accuracy and Adversarial Robustness [15.591611864928659]
本稿では,クラス条件付きマージンの概念に基づいて,個々のトレーニングサンプルによる損失の軽減を学習する,新たな逆トレーニングフレームワークを提案する。
我々の手法は、関連する手法や最先端のベースラインと比較して、クリーンかつ堅牢な精度を一貫して改善する。
論文 参考訳(メタデータ) (2022-10-20T18:25:11Z) - Improving Robust Fairness via Balance Adversarial Training [51.67643171193376]
対人訓練 (AT) 法は, 対人攻撃に対して有効であるが, 異なるクラス間での精度と頑健さの相違が激しい。
本稿では,頑健な公正性問題に対処するために,BAT(Adversarial Training)を提案する。
論文 参考訳(メタデータ) (2022-09-15T14:44:48Z) - Distributed Adversarial Training to Robustify Deep Neural Networks at
Scale [100.19539096465101]
現在のディープニューラルネットワーク(DNN)は、入力に対する敵の摂動が分類を変更したり操作したりする敵の攻撃に対して脆弱である。
このような攻撃を防御するために、敵の訓練(AT)として知られる効果的なアプローチが、堅牢な訓練を緩和するために示されている。
複数のマシンにまたがって実装された大規模バッチ対逆トレーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2022-06-13T15:39:43Z) - Enhancing Adversarial Training with Feature Separability [52.39305978984573]
本稿では,特徴分離性を備えた対人訓練(ATFS)により,クラス内特徴の類似性を向上し,クラス間特徴分散を増大させることができる,新たな対人訓練グラフ(ATG)を提案する。
包括的な実験を通じて、提案したATFSフレームワークがクリーンかつロバストなパフォーマンスを著しく改善することを示した。
論文 参考訳(メタデータ) (2022-05-02T04:04:23Z) - Sparsity Winning Twice: Better Robust Generalization from More Efficient
Training [94.92954973680914]
スパース対位訓練の代替として, (i) スタティック・スパシティと (ii) ダイナミック・スパシティの2つを紹介した。
いずれの方法も、ロバストな一般化ギャップを大幅に縮小し、ロバストなオーバーフィッティングを緩和する。
我々のアプローチは既存の正規化器と組み合わせて、敵の訓練における新たな最先端の成果を確立することができる。
論文 参考訳(メタデータ) (2022-02-20T15:52:08Z) - Analysis and Applications of Class-wise Robustness in Adversarial
Training [92.08430396614273]
敵の訓練は、敵の例に対するモデルロバスト性を改善するための最も効果的な手法の1つである。
従来の研究は主にモデルの全体的な堅牢性に焦点を当てており、各クラスの役割に関する詳細な分析はいまだに欠落している。
MNIST, CIFAR-10, CIFAR-100, SVHN, STL-10, ImageNetの6つのベンチマークデータセットに対して, 逆トレーニングの詳細な診断を行う。
対戦型学習におけるより強力な攻撃手法は、主に脆弱なクラスに対するより成功した攻撃から、性能の向上を達成することを観察する。
論文 参考訳(メタデータ) (2021-05-29T07:28:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。