論文の概要: On the Fairness ROAD: Robust Optimization for Adversarial Debiasing
- arxiv url: http://arxiv.org/abs/2310.18413v1
- Date: Fri, 27 Oct 2023 18:08:42 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-31 18:45:44.714290
- Title: On the Fairness ROAD: Robust Optimization for Adversarial Debiasing
- Title(参考訳): Fairness ROAD: 対向的デバイアスに対するロバスト最適化について
- Authors: Vincent Grari, Thibault Laugel, Tatsunori Hashimoto, Sylvain Lamprier,
Marcin Detyniecki
- Abstract要約: ROADは、局所的に不公平である可能性のある入力を優先するように設計されている。
所与のグローバルフェアネスレベルに対する局所的公正度と正確性に関して優位性を達成する。
また、分布シフトの下での公正な一般化も促進する。
- 参考スコア(独自算出の注目度): 46.495095664915986
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In the field of algorithmic fairness, significant attention has been put on
group fairness criteria, such as Demographic Parity and Equalized Odds.
Nevertheless, these objectives, measured as global averages, have raised
concerns about persistent local disparities between sensitive groups. In this
work, we address the problem of local fairness, which ensures that the
predictor is unbiased not only in terms of expectations over the whole
population, but also within any subregion of the feature space, unknown at
training time. To enforce this objective, we introduce ROAD, a novel approach
that leverages the Distributionally Robust Optimization (DRO) framework within
a fair adversarial learning objective, where an adversary tries to infer the
sensitive attribute from the predictions. Using an instance-level re-weighting
strategy, ROAD is designed to prioritize inputs that are likely to be locally
unfair, i.e. where the adversary faces the least difficulty in reconstructing
the sensitive attribute. Numerical experiments demonstrate the effectiveness of
our method: it achieves Pareto dominance with respect to local fairness and
accuracy for a given global fairness level across three standard datasets, and
also enhances fairness generalization under distribution shift.
- Abstract(参考訳): アルゴリズム的公平性の分野では、人口統計学的パリティや等化オッズといった集団的公平性基準が注目されている。
それにもかかわらず、これらの目標がグローバル平均として測定され、センシティブなグループ間の永続的な局所的格差に対する懸念が高まっている。
本研究は,人口全体に対する期待だけでなく,訓練時未知の機能空間のどの部分領域においても予測者が偏っていないことを保証する,局所的公平性の問題に対処する。
この目的を達成するために,敵が予測からセンシティブな属性を推論しようとする対面学習目的において,分散ロバスト最適化(DRO)フレームワークを活用する新しいアプローチであるROADを導入する。
ROADはインスタンスレベルの再重み付け戦略を用いて、局所的に不公平である可能性のある入力を優先順位付けするように設計されている。
数値実験により,3つの標準データセットにまたがる大域的公正度レベルに対する局所的公正度と精度に関してパレート優位性を実現し,分布シフトの下での公平性一般化を向上する。
関連論文リスト
- Editable Fairness: Fine-Grained Bias Mitigation in Language Models [52.66450426729818]
個々人の社会的偏見をきめ細かなキャリブレーションを可能にする新しいデバイアス・アプローチであるFairness Stamp(FAST)を提案する。
FASTは最先端のベースラインを超え、デバイアス性能が優れている。
これは、大きな言語モデルにおける公平性を達成するためのきめ細かいデバイアス戦略の可能性を強調している。
論文 参考訳(メタデータ) (2024-08-07T17:14:58Z) - Achieving Fairness Across Local and Global Models in Federated Learning [9.902848777262918]
本研究は,フェデレート学習環境における局所的およびグローバル的公正性を高めるために設計された,新しいアプローチであるtextttEquiFLを紹介する。
textttEquiFLは、フェアネスという用語を局所最適化の目的に取り入れ、局所的なパフォーマンスとフェアネスを効果的にバランスさせる。
textttEquiFLは、各クライアントにおいて、精度と公平性のバランスが良くなるだけでなく、グローバル公正性も達成できることを示す。
論文 参考訳(メタデータ) (2024-06-24T19:42:16Z) - Algorithmic Fairness in Performative Policy Learning: Escaping the Impossibility of Group Fairness [19.183108418687226]
我々は,社会分類問題におけるグループフェアネス保証の強化を実現するために,演奏性を活用するアルゴリズム的フェアネスプラクティスを開発した。
このアプローチの重要な利点は、矛盾するグループフェアネス定義の不整合を解決することができることである。
論文 参考訳(メタデータ) (2024-05-30T19:46:47Z) - Adaptive Global-Local Representation Learning and Selection for
Cross-Domain Facial Expression Recognition [54.334773598942775]
ドメインシフトは、クロスドメイン顔表情認識(CD-FER)において重要な課題となる
適応的グローバルローカル表現学習・選択フレームワークを提案する。
論文 参考訳(メタデータ) (2024-01-20T02:21:41Z) - Mitigating Group Bias in Federated Learning for Heterogeneous Devices [1.181206257787103]
フェデレートラーニング(Federated Learning)は、分散エッジアプリケーションにおけるプライバシ保護モデルトレーニングアプローチとして登場している。
本研究は,プライバシを維持しながら,資源利用のオーバーヘッドを伴わずにグループバイアスを最小限に抑えるグループフェアFLフレームワークを提案する。
論文 参考訳(メタデータ) (2023-09-13T16:53:48Z) - Chasing Fairness Under Distribution Shift: A Model Weight Perturbation
Approach [72.19525160912943]
まず,分布シフト,データ摂動,モデルウェイト摂動の関連性を理論的に検証した。
次に、ターゲットデータセットの公平性を保証するのに十分な条件を分析します。
これらの十分な条件により、ロバストフェアネス正則化(RFR)を提案する。
論文 参考訳(メタデータ) (2023-03-06T17:19:23Z) - Unified Group Fairness on Federated Learning [22.143427873780404]
フェデレートラーニング(FL)は、グローバルモデルが分散クライアントのプライベートデータに基づいてトレーニングされる、重要な機械学習パラダイムとして登場した。
近年の研究では、顧客間の公平性に焦点が当てられているが、センシティブな属性(例えば、性別や人種)によって形成される異なるグループに対する公正性は無視されている。
本稿では,G-DRFA (Group Distributionally Robust Federated Averaging) と呼ばれる新しいFLアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-11-09T08:21:38Z) - Fairness without the sensitive attribute via Causal Variational
Autoencoder [17.675997789073907]
EUにおけるプライバシーの目的とRGPDのような多彩な規制のため、多くの個人機密属性は収集されないことが多い。
近年の開発成果を近似推論に活用することにより,このギャップを埋めるためのアプローチを提案する。
因果グラフに基づいて、機密情報プロキシを推論するために、SRCVAEと呼ばれる新しい変分自動符号化ベースのフレームワークを利用する。
論文 参考訳(メタデータ) (2021-09-10T17:12:52Z) - Towards Fair Knowledge Transfer for Imbalanced Domain Adaptation [61.317911756566126]
本研究では,不均衡なドメイン間学習における公平性問題に対処するTowards Fair Knowledge Transferフレームワークを提案する。
具体的には、新規なクロスドメインミックスアップ生成を利用して、ターゲット情報でマイノリティソースセットを増強し、公正性を高める。
本モデルでは,2つのベンチマークで全体の精度を20%以上向上させる。
論文 参考訳(メタデータ) (2020-10-23T06:29:09Z) - Learning Invariant Representations and Risks for Semi-supervised Domain
Adaptation [109.73983088432364]
半教師付きドメイン適応(Semi-DA)の設定の下で不変表現とリスクを同時に学習することを目的とした最初の手法を提案する。
共同で textbfLearning textbfInvariant textbfRepresentations と textbfRisks の LIRR アルゴリズムを導入する。
論文 参考訳(メタデータ) (2020-10-09T15:42:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。