論文の概要: Domain Adaptation meets Individual Fairness. And they get along
- arxiv url: http://arxiv.org/abs/2205.00504v2
- Date: Sat, 15 Oct 2022 13:00:00 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-19 16:35:01.857526
- Title: Domain Adaptation meets Individual Fairness. And they get along
- Title(参考訳): ドメイン適応は個別の公平性を満たす。
そして彼らは仲良くなる
- Authors: Debarghya Mukherjee, Felix Petersen, Mikhail Yurochkin, Yuekai Sun
- Abstract要約: アルゴリズムフェアネスの介入は、機械学習モデルが分散シフトを克服するのに役立つことを示す。
特に,個人フェアネス(IF)の適切な概念を強制することで,MLモデルの分布外精度が向上することを示す。
- 参考スコア(独自算出の注目度): 48.95808607591299
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Many instances of algorithmic bias are caused by distributional shifts. For
example, machine learning (ML) models often perform worse on demographic groups
that are underrepresented in the training data. In this paper, we leverage this
connection between algorithmic fairness and distribution shifts to show that
algorithmic fairness interventions can help ML models overcome distribution
shifts, and that domain adaptation methods (for overcoming distribution shifts)
can mitigate algorithmic biases. In particular, we show that (i) enforcing
suitable notions of individual fairness (IF) can improve the
out-of-distribution accuracy of ML models under the covariate shift assumption
and that (ii) it is possible to adapt representation alignment methods for
domain adaptation to enforce individual fairness. The former is unexpected
because IF interventions were not developed with distribution shifts in mind.
The latter is also unexpected because representation alignment is not a common
approach in the individual fairness literature.
- Abstract(参考訳): アルゴリズムバイアスの多くの例は分布シフトによって引き起こされる。
例えば、機械学習(ML)モデルは、トレーニングデータに不足している人口統計群に対して、しばしば悪化する。
本稿では,アルゴリズムフェアネスと分布シフトの関係を利用して,アルゴリズムフェアネスの介入が分布シフトを克服し,ドメイン適応手法(分布シフトを克服する)がアルゴリズムバイアスを軽減することを示す。
特に私たちが示すのは
(i)個々フェアネスの適切な概念を強制することは、共変量シフト仮定の下でのmlモデルの分散精度を向上させることができ、その効果
(ii)個々のフェアネスを強制するために、ドメイン適応のための表現アライメント手法を適用することが可能である。
前者は、分布シフトを念頭に置いて介入が行われなかった場合、予想外である。
表現のアライメントは個々人のフェアネス文学では一般的なアプローチではないため、後者も予想外である。
関連論文リスト
- Dr. FERMI: A Stochastic Distributionally Robust Fair Empirical Risk
Minimization Framework [12.734559823650887]
分散シフトが存在する場合、公正な機械学習モデルはテストデータに対して不公平に振る舞うことがある。
既存のアルゴリズムはデータへの完全なアクセスを必要とし、小さなバッチを使用する場合には使用できない。
本稿では,因果グラフの知識を必要としない収束保証付き分布安定度フレームワークを提案する。
論文 参考訳(メタデータ) (2023-09-20T23:25:28Z) - A Differentiable Distance Approximation for Fairer Image Classification [31.471917430653626]
我々は,AIモデルにおいて,偏りや不公平さを測定するために使用できる指標である,人口統計の分散の微分可能な近似を提案する。
我々の近似は、トレーニング中に余分なモデルを必要としない通常のトレーニング目標と共に最適化できる。
提案手法は,タスクやデータセットのさまざまなシナリオにおけるAIモデルの公平性を改善する。
論文 参考訳(メタデータ) (2022-10-09T23:02:18Z) - How Robust is Your Fairness? Evaluating and Sustaining Fairness under
Unseen Distribution Shifts [107.72786199113183]
CUMA(CUrvature Matching)と呼ばれる新しいフェアネス学習手法を提案する。
CUMAは、未知の分布シフトを持つ未知の領域に一般化可能な頑健な公正性を達成する。
提案手法を3つの人気フェアネスデータセットで評価する。
論文 参考訳(メタデータ) (2022-07-04T02:37:50Z) - Transferring Fairness under Distribution Shifts via Fair Consistency
Regularization [15.40257564187799]
本研究では,分散シフトの下でモデルフェアネスを伝達する方法について検討する。
ドメインシフトの下での転送精度の自己学習の成功に触発されて、グループフェアネスの転送に十分な条件が導出される。
論文 参考訳(メタデータ) (2022-06-26T06:19:56Z) - Fairness Transferability Subject to Bounded Distribution Shift [5.62716254065607]
あるソース分布に「フェア」なアルゴリズム予測器が与えられたとしても、あるバウンダリ内のソースと異なる未知のターゲット分布上では、まだフェアなのか?
本研究では,有界分布シフトを考慮した機械学習予測器の統計的グループフェアネスの伝達可能性について検討する。
論文 参考訳(メタデータ) (2022-05-31T22:16:44Z) - Predicting with Confidence on Unseen Distributions [90.68414180153897]
ドメイン適応と予測不確実性文学を結びつけて、挑戦的な未知分布のモデル精度を予測する。
分類器の予測における信頼度(DoC)の差は,様々な変化に対して,分類器の性能変化を推定することに成功した。
具体的には, 合成分布と自然分布の区別について検討し, その単純さにもかかわらず, DoCは分布差の定量化に優れることを示した。
論文 参考訳(メタデータ) (2021-07-07T15:50:18Z) - KL Guided Domain Adaptation [88.19298405363452]
ドメイン適応は重要な問題であり、現実世界のアプリケーションにしばしば必要である。
ドメイン適応文学における一般的なアプローチは、ソースとターゲットドメインに同じ分布を持つ入力の表現を学ぶことである。
確率的表現ネットワークにより、KL項はミニバッチサンプルにより効率的に推定できることを示す。
論文 参考訳(メタデータ) (2021-06-14T22:24:23Z) - Learning Invariant Representations and Risks for Semi-supervised Domain
Adaptation [109.73983088432364]
半教師付きドメイン適応(Semi-DA)の設定の下で不変表現とリスクを同時に学習することを目的とした最初の手法を提案する。
共同で textbfLearning textbfInvariant textbfRepresentations と textbfRisks の LIRR アルゴリズムを導入する。
論文 参考訳(メタデータ) (2020-10-09T15:42:35Z) - Estimating Generalization under Distribution Shifts via Domain-Invariant
Representations [75.74928159249225]
未知の真のターゲットラベルのプロキシとして、ドメイン不変の予測器のセットを使用します。
結果として生じるリスク見積の誤差は、プロキシモデルのターゲットリスクに依存する。
論文 参考訳(メタデータ) (2020-07-06T17:21:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。