論文の概要: On the Fairness ROAD: Robust Optimization for Adversarial Debiasing
- arxiv url: http://arxiv.org/abs/2310.18413v1
- Date: Fri, 27 Oct 2023 18:08:42 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-31 18:45:44.714290
- Title: On the Fairness ROAD: Robust Optimization for Adversarial Debiasing
- Title(参考訳): Fairness ROAD: 対向的デバイアスに対するロバスト最適化について
- Authors: Vincent Grari, Thibault Laugel, Tatsunori Hashimoto, Sylvain Lamprier,
Marcin Detyniecki
- Abstract要約: ROADは、局所的に不公平である可能性のある入力を優先するように設計されている。
所与のグローバルフェアネスレベルに対する局所的公正度と正確性に関して優位性を達成する。
また、分布シフトの下での公正な一般化も促進する。
- 参考スコア(独自算出の注目度): 46.495095664915986
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In the field of algorithmic fairness, significant attention has been put on
group fairness criteria, such as Demographic Parity and Equalized Odds.
Nevertheless, these objectives, measured as global averages, have raised
concerns about persistent local disparities between sensitive groups. In this
work, we address the problem of local fairness, which ensures that the
predictor is unbiased not only in terms of expectations over the whole
population, but also within any subregion of the feature space, unknown at
training time. To enforce this objective, we introduce ROAD, a novel approach
that leverages the Distributionally Robust Optimization (DRO) framework within
a fair adversarial learning objective, where an adversary tries to infer the
sensitive attribute from the predictions. Using an instance-level re-weighting
strategy, ROAD is designed to prioritize inputs that are likely to be locally
unfair, i.e. where the adversary faces the least difficulty in reconstructing
the sensitive attribute. Numerical experiments demonstrate the effectiveness of
our method: it achieves Pareto dominance with respect to local fairness and
accuracy for a given global fairness level across three standard datasets, and
also enhances fairness generalization under distribution shift.
- Abstract(参考訳): アルゴリズム的公平性の分野では、人口統計学的パリティや等化オッズといった集団的公平性基準が注目されている。
それにもかかわらず、これらの目標がグローバル平均として測定され、センシティブなグループ間の永続的な局所的格差に対する懸念が高まっている。
本研究は,人口全体に対する期待だけでなく,訓練時未知の機能空間のどの部分領域においても予測者が偏っていないことを保証する,局所的公平性の問題に対処する。
この目的を達成するために,敵が予測からセンシティブな属性を推論しようとする対面学習目的において,分散ロバスト最適化(DRO)フレームワークを活用する新しいアプローチであるROADを導入する。
ROADはインスタンスレベルの再重み付け戦略を用いて、局所的に不公平である可能性のある入力を優先順位付けするように設計されている。
数値実験により,3つの標準データセットにまたがる大域的公正度レベルに対する局所的公正度と精度に関してパレート優位性を実現し,分布シフトの下での公平性一般化を向上する。
関連論文リスト
- Federated Fairness without Access to Sensitive Groups [12.888927461513472]
連合学習におけるグループフェアネスへの現在のアプローチは、トレーニング中に事前に定義されラベル付けされたセンシティブなグループが存在することを前提としている。
我々は、センシティブなグループや追加のラベルの事前定義された定義に依存しないグループフェアネスを保証するための新しいアプローチを提案する。
論文 参考訳(メタデータ) (2024-02-22T19:24:59Z) - Adaptive Global-Local Representation Learning and Selection for
Cross-Domain Facial Expression Recognition [54.334773598942775]
ドメインシフトは、クロスドメイン顔表情認識(CD-FER)において重要な課題となる
適応的グローバルローカル表現学習・選択フレームワークを提案する。
論文 参考訳(メタデータ) (2024-01-20T02:21:41Z) - Mitigating Group Bias in Federated Learning for Heterogeneous Devices [1.2903829793534267]
フェデレートラーニング(Federated Learning)は、分散エッジアプリケーションにおけるプライバシ保護モデルトレーニングアプローチとして登場している。
本研究は,プライバシを維持しながら,資源利用のオーバーヘッドを伴わずにグループバイアスを最小限に抑えるグループフェアFLフレームワークを提案する。
論文 参考訳(メタデータ) (2023-09-13T16:53:48Z) - Finding Competence Regions in Domain Generalization [22.893744961629018]
ドメイン一般化におけるサイレント障害問題に対処するための「拒否学習」フレームワークについて検討する。
信頼度はプロキシの非能率スコアによって予測され、それは分類器のパフォーマンスと密接に関連している。
以上の結果から,無能度向上は精度低下の予測に有効であることが示唆され,適度な無能度閾値以下では平均精度が著しく向上することが示唆された。
論文 参考訳(メタデータ) (2023-03-17T14:04:51Z) - Chasing Fairness Under Distribution Shift: A Model Weight Perturbation
Approach [72.19525160912943]
まず,分布シフト,データ摂動,モデルウェイト摂動の関連性を理論的に検証した。
次に、ターゲットデータセットの公平性を保証するのに十分な条件を分析します。
これらの十分な条件により、ロバストフェアネス正則化(RFR)を提案する。
論文 参考訳(メタデータ) (2023-03-06T17:19:23Z) - Learning Unbiased Transferability for Domain Adaptation by Uncertainty
Modeling [107.24387363079629]
ドメイン適応は、ラベル付けされたソースドメインからラベル付けされていない、あるいはラベル付けされていないが関連するターゲットドメインに知識を転送することを目的としています。
ソース内のアノテートされたデータの量とターゲットドメインとの間の不均衡のため、ターゲットの分布のみがソースドメインにアライメントされる。
本稿では,非暴力的非暴力的移動可能性推定プラグイン(UTEP)を提案し,非暴力的移動を最適化するDA法において,識別器の不確実性をモデル化する。
論文 参考訳(メタデータ) (2022-06-02T21:58:54Z) - Unified Group Fairness on Federated Learning [22.143427873780404]
フェデレートラーニング(FL)は、グローバルモデルが分散クライアントのプライベートデータに基づいてトレーニングされる、重要な機械学習パラダイムとして登場した。
近年の研究では、顧客間の公平性に焦点が当てられているが、センシティブな属性(例えば、性別や人種)によって形成される異なるグループに対する公正性は無視されている。
本稿では,G-DRFA (Group Distributionally Robust Federated Averaging) と呼ばれる新しいFLアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-11-09T08:21:38Z) - Fairness without the sensitive attribute via Causal Variational
Autoencoder [17.675997789073907]
EUにおけるプライバシーの目的とRGPDのような多彩な規制のため、多くの個人機密属性は収集されないことが多い。
近年の開発成果を近似推論に活用することにより,このギャップを埋めるためのアプローチを提案する。
因果グラフに基づいて、機密情報プロキシを推論するために、SRCVAEと呼ばれる新しい変分自動符号化ベースのフレームワークを利用する。
論文 参考訳(メタデータ) (2021-09-10T17:12:52Z) - Towards Fair Knowledge Transfer for Imbalanced Domain Adaptation [61.317911756566126]
本研究では,不均衡なドメイン間学習における公平性問題に対処するTowards Fair Knowledge Transferフレームワークを提案する。
具体的には、新規なクロスドメインミックスアップ生成を利用して、ターゲット情報でマイノリティソースセットを増強し、公正性を高める。
本モデルでは,2つのベンチマークで全体の精度を20%以上向上させる。
論文 参考訳(メタデータ) (2020-10-23T06:29:09Z) - Learning Invariant Representations and Risks for Semi-supervised Domain
Adaptation [109.73983088432364]
半教師付きドメイン適応(Semi-DA)の設定の下で不変表現とリスクを同時に学習することを目的とした最初の手法を提案する。
共同で textbfLearning textbfInvariant textbfRepresentations と textbfRisks の LIRR アルゴリズムを導入する。
論文 参考訳(メタデータ) (2020-10-09T15:42:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。