論文の概要: To be Robust and to be Fair: Aligning Fairness with Robustness
- arxiv url: http://arxiv.org/abs/2304.00061v1
- Date: Fri, 31 Mar 2023 18:23:57 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-04 19:59:17.824756
- Title: To be Robust and to be Fair: Aligning Fairness with Robustness
- Title(参考訳): 公平で公平である:公平さと堅牢さを合わせること
- Authors: Junyi Chai, Xiaoqian Wang
- Abstract要約: 両指標の対人訓練と対人攻撃の問題について検討する。
グループフェアネスの共通概念をまとめるフェアネス攻撃のための統一構造を提案する。
フェアネスと精度攻撃のアライメントを示し、一方のロバストネス w.r.t. がもう一方のロバストネス w.r.t. の利点を理論的に示す。
- 参考スコア(独自算出の注目度): 17.656873309017076
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Adversarial training has been shown to be reliable in improving robustness
against adversarial samples. However, the problem of adversarial training in
terms of fairness has not yet been properly studied, and the relationship
between fairness and accuracy attack still remains unclear. Can we
simultaneously improve robustness w.r.t. both fairness and accuracy? To tackle
this topic, in this paper, we study the problem of adversarial training and
adversarial attack w.r.t. both metrics. We propose a unified structure for
fairness attack which brings together common notions in group fairness, and we
theoretically prove the equivalence of fairness attack against different
notions. Moreover, we show the alignment of fairness and accuracy attack, and
theoretically demonstrate that robustness w.r.t. one metric benefits from
robustness w.r.t. the other metric. Our study suggests a novel way to unify
adversarial training and attack w.r.t. fairness and accuracy, and experimental
results show that our proposed method achieves better performance in terms of
robustness w.r.t. both metrics.
- Abstract(参考訳): 敵の訓練は、敵のサンプルに対する堅牢性を改善する上で信頼性が高いことが示されている。
しかし、フェアネスの観点からの対人訓練の問題は未だ十分に研究されておらず、フェアネスと精度攻撃の関係はいまだ不明である。
公平性と正確性の両方を同時に改善できるか?
この問題に対処するために,本稿では,両指標の対人訓練と対人攻撃の問題について検討する。
我々は,集団フェアネスの共通概念を結合するフェアネス攻撃の統一構造を提案し,理論上,異なる概念に対するフェアネス攻撃の等価性を証明する。
さらに,公平性と正確性が一致していることを示し,理論上は,強靭性 w.r.t. は強靭性 w.r.t. のもう1つの指標から得られることを実証する。
本研究は, 対人訓練と攻撃の公正度と精度を統一する新たな手法を提案するとともに, 実験結果から, 両指標の堅牢性の観点から, 提案手法がより良い性能を達成することを示す。
関連論文リスト
- Learning Fair Robustness via Domain Mixup [8.471466670802817]
本研究では,公平なロバストな分類器の学習問題に対するmixupの利用を提案する。
本研究は, 対人訓練と組み合わせることで, クラスレベルでの頑健さの相違を確実に軽減できることを示す。
論文 参考訳(メタデータ) (2024-11-21T18:56:33Z) - FAIR-TAT: Improving Model Fairness Using Targeted Adversarial Training [16.10247754923311]
FAIR-TAT(Fair Targeted Adversarial Training)と呼ばれる新しいアプローチを導入する。
敵の対人訓練(標的外攻撃ではなく)に標的の対人攻撃を使用することで、敵の対人公正性に関してより有利なトレードオフが可能になることを示す。
論文 参考訳(メタデータ) (2024-10-30T15:58:03Z) - DAFA: Distance-Aware Fair Adversarial Training [34.94780532071229]
敵対的攻撃の下では、最悪のクラスからのサンプルに対するモデルの予測の大半は、最悪のクラスと同様のクラスに偏っている。
本稿では,クラス間の類似性を考慮し,頑健な公正性に対処するDAFA手法を提案する。
論文 参考訳(メタデータ) (2024-01-23T07:15:47Z) - Perturbation-Invariant Adversarial Training for Neural Ranking Models:
Improving the Effectiveness-Robustness Trade-Off [107.35833747750446]
正統な文書に不可避な摂動を加えることで 敵の例を作れます
この脆弱性は信頼性に関する重大な懸念を生じさせ、NRMの展開を妨げている。
本研究では,NRMにおける有効・損耗トレードオフに関する理論的保証を確立する。
論文 参考訳(メタデータ) (2023-12-16T05:38:39Z) - Measuring Equality in Machine Learning Security Defenses: A Case Study
in Speech Recognition [56.69875958980474]
この研究は、学習したシステムを守るためのアプローチと、異なるサブ人口間でのセキュリティ防衛がパフォーマンス上の不平等をもたらす方法を検討する。
提案された多くの手法は、虚偽の拒絶やロバストネストレーニングの不平等といった直接的な害を引き起こす可能性がある。
本稿では, ランダム化スムースメントとニューラルリジェクションの2つの防御法の比較を行い, マイノリティ集団のサンプリング機構により, ランダム化スムースメントがより公平であることを見出した。
論文 参考訳(メタデータ) (2023-02-17T16:19:26Z) - Improving Robust Fairness via Balance Adversarial Training [51.67643171193376]
対人訓練 (AT) 法は, 対人攻撃に対して有効であるが, 異なるクラス間での精度と頑健さの相違が激しい。
本稿では,頑健な公正性問題に対処するために,BAT(Adversarial Training)を提案する。
論文 参考訳(メタデータ) (2022-09-15T14:44:48Z) - Poisoning Attacks on Fair Machine Learning [13.874416271549523]
本稿では, モデル精度とアルゴリズムフェアネスの両方に対処するために, 有毒なサンプルを生成するフレームワークを提案する。
我々は,3つのオンラインアタック,対向サンプリング,対向ラベル付け,対向特徴修正を開発する。
本フレームワークでは,攻撃者が予測精度や公平性に着目して攻撃の焦点を柔軟に調整し,各候補点の影響を精度損失と公平性違反の両方に対して正確に定量化することができる。
論文 参考訳(メタデータ) (2021-10-17T21:56:14Z) - Analysis and Applications of Class-wise Robustness in Adversarial
Training [92.08430396614273]
敵の訓練は、敵の例に対するモデルロバスト性を改善するための最も効果的な手法の1つである。
従来の研究は主にモデルの全体的な堅牢性に焦点を当てており、各クラスの役割に関する詳細な分析はいまだに欠落している。
MNIST, CIFAR-10, CIFAR-100, SVHN, STL-10, ImageNetの6つのベンチマークデータセットに対して, 逆トレーニングの詳細な診断を行う。
対戦型学習におけるより強力な攻撃手法は、主に脆弱なクラスに対するより成功した攻撃から、性能の向上を達成することを観察する。
論文 参考訳(メタデータ) (2021-05-29T07:28:35Z) - Adversarial Robustness under Long-Tailed Distribution [93.50792075460336]
敵対的ロバスト性はディープネットワークの脆弱性と本質的特徴を明らかにすることで近年広く研究されている。
本研究では,長尾分布下における敵対的脆弱性と防御について検討する。
我々は、スケール不変とデータ再分散という2つの専用モジュールからなるクリーンで効果的なフレームワークであるRoBalを提案する。
論文 参考訳(メタデータ) (2021-04-06T17:53:08Z) - Geometry-aware Instance-reweighted Adversarial Training [78.70024866515756]
敵対的機械学習では、堅牢性と正確性がお互いを傷つけるという共通の信念があった。
本稿では,自然データ点の攻撃がいかに難しいかに基づいて,幾何対応のインスタンス再重み付き対向訓練を提案する。
実験の結果,本提案は標準的な対人訓練の堅牢性を高めることが示唆された。
論文 参考訳(メタデータ) (2020-10-05T01:33:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。