論文の概要: Transferring Fairness under Distribution Shifts via Fair Consistency
Regularization
- arxiv url: http://arxiv.org/abs/2206.12796v1
- Date: Sun, 26 Jun 2022 06:19:56 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-29 10:33:12.369241
- Title: Transferring Fairness under Distribution Shifts via Fair Consistency
Regularization
- Title(参考訳): 公平整合性正規化による分布シフト下での公平性伝達
- Authors: Bang An, Zora Che, Mucong Ding, Furong Huang
- Abstract要約: 本研究では,分散シフトの下でモデルフェアネスを伝達する方法について検討する。
ドメインシフトの下での転送精度の自己学習の成功に触発されて、グループフェアネスの転送に十分な条件が導出される。
- 参考スコア(独自算出の注目度): 15.40257564187799
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The increasing reliance on ML models in high-stakes tasks has raised a major
concern on fairness violations. Although there has been a surge of work that
improves algorithmic fairness, most of them are under the assumption of an
identical training and test distribution. In many real-world applications,
however, such an assumption is often violated as previously trained fair models
are often deployed in a different environment, and the fairness of such models
has been observed to collapse. In this paper, we study how to transfer model
fairness under distribution shifts, a widespread issue in practice. We conduct
a fine-grained analysis of how the fair model is affected under different types
of distribution shifts and find that domain shifts are more challenging than
subpopulation shifts. Inspired by the success of self-training in transferring
accuracy under domain shifts, we derive a sufficient condition for transferring
group fairness. Guided by it, we propose a practical algorithm with a fair
consistency regularization as the key component. A synthetic dataset benchmark,
which covers all types of distribution shifts, is deployed for experimental
verification of the theoretical findings. Experiments on synthetic and real
datasets including image and tabular data demonstrate that our approach
effectively transfers fairness and accuracy under various distribution shifts.
- Abstract(参考訳): ハイテイクタスクにおけるMLモデルへの依存度の増加は、フェアネス違反に対する大きな懸念を引き起こしている。
アルゴリズムの公正性を改善する作業が急増しているが、そのほとんどは同一のトレーニングとテスト分布の仮定下にある。
しかし、多くの現実世界の応用では、以前に訓練されたフェアモデルが異なる環境に展開されることがしばしばあり、そのようなモデルの公正性は崩壊することが観察されている。
本稿では,分散シフトの下でモデルフェアネスを伝達する方法について検討する。
我々は,フェアモデルが分布シフトの異なる種類にどのように影響するかを詳細に分析し,サブポピュレーションシフトよりもドメインシフトの方が困難であることを確認した。
ドメインシフトの下での転送精度の自己学習の成功に触発されて、グループフェアネスの転送に十分な条件が導出される。
そこで本研究では, 整合性規則化を鍵成分とする実用的なアルゴリズムを提案する。
理論的な結果の実験的検証のために、あらゆる種類の分布シフトをカバーする合成データセットベンチマークをデプロイする。
画像および表データを含む合成および実データを用いた実験により, 種々の分布シフトの下で, 公平性と精度を効果的に伝達することを示した。
関連論文リスト
- Generalizing to any diverse distribution: uniformity, gentle finetuning and rebalancing [55.791818510796645]
我々は,訓練データから大きく逸脱した場合でも,様々なテスト分布によく適応するモデルを開発することを目的としている。
ドメイン適応、ドメイン一般化、ロバスト最適化といった様々なアプローチは、アウト・オブ・ディストリビューションの課題に対処しようと試みている。
我々は、既知のドメイン内の十分に多様なテスト分布にまたがる最悪のケースエラーを考慮することで、より保守的な視点を採用する。
論文 参考訳(メタデータ) (2024-10-08T12:26:48Z) - Dr. FERMI: A Stochastic Distributionally Robust Fair Empirical Risk
Minimization Framework [12.734559823650887]
分散シフトが存在する場合、公正な機械学習モデルはテストデータに対して不公平に振る舞うことがある。
既存のアルゴリズムはデータへの完全なアクセスを必要とし、小さなバッチを使用する場合には使用できない。
本稿では,因果グラフの知識を必要としない収束保証付き分布安定度フレームワークを提案する。
論文 参考訳(メタデータ) (2023-09-20T23:25:28Z) - Chasing Fairness Under Distribution Shift: A Model Weight Perturbation
Approach [72.19525160912943]
まず,分布シフト,データ摂動,モデルウェイト摂動の関連性を理論的に検証した。
次に、ターゲットデータセットの公平性を保証するのに十分な条件を分析します。
これらの十分な条件により、ロバストフェアネス正則化(RFR)を提案する。
論文 参考訳(メタデータ) (2023-03-06T17:19:23Z) - How Robust is Your Fairness? Evaluating and Sustaining Fairness under
Unseen Distribution Shifts [107.72786199113183]
CUMA(CUrvature Matching)と呼ばれる新しいフェアネス学習手法を提案する。
CUMAは、未知の分布シフトを持つ未知の領域に一般化可能な頑健な公正性を達成する。
提案手法を3つの人気フェアネスデータセットで評価する。
論文 参考訳(メタデータ) (2022-07-04T02:37:50Z) - Fairness Transferability Subject to Bounded Distribution Shift [5.62716254065607]
あるソース分布に「フェア」なアルゴリズム予測器が与えられたとしても、あるバウンダリ内のソースと異なる未知のターゲット分布上では、まだフェアなのか?
本研究では,有界分布シフトを考慮した機械学習予測器の統計的グループフェアネスの伝達可能性について検討する。
論文 参考訳(メタデータ) (2022-05-31T22:16:44Z) - Certifying Some Distributional Fairness with Subpopulation Decomposition [20.009388617013986]
まず、最適化問題として、与えられたデータ分布に基づいて訓練されたMLモデルの正当性を定式化する。
次に、一般的な公平性認定フレームワークを提案し、センシティブなシフトと一般的なシフトの両方のシナリオでインスタンス化する。
我々のフレームワークは、追加の非スキューネス制約を統合する柔軟性があり、異なる実世界のシナリオ下でさらに厳密な認証を提供することを示す。
論文 参考訳(メタデータ) (2022-05-31T01:17:50Z) - Domain Adaptation meets Individual Fairness. And they get along [48.95808607591299]
アルゴリズムフェアネスの介入は、機械学習モデルが分散シフトを克服するのに役立つことを示す。
特に,個人フェアネス(IF)の適切な概念を強制することで,MLモデルの分布外精度が向上することを示す。
論文 参考訳(メタデータ) (2022-05-01T16:19:55Z) - Predicting with Confidence on Unseen Distributions [90.68414180153897]
ドメイン適応と予測不確実性文学を結びつけて、挑戦的な未知分布のモデル精度を予測する。
分類器の予測における信頼度(DoC)の差は,様々な変化に対して,分類器の性能変化を推定することに成功した。
具体的には, 合成分布と自然分布の区別について検討し, その単純さにもかかわらず, DoCは分布差の定量化に優れることを示した。
論文 参考訳(メタデータ) (2021-07-07T15:50:18Z) - Learning Invariant Representations and Risks for Semi-supervised Domain
Adaptation [109.73983088432364]
半教師付きドメイン適応(Semi-DA)の設定の下で不変表現とリスクを同時に学習することを目的とした最初の手法を提案する。
共同で textbfLearning textbfInvariant textbfRepresentations と textbfRisks の LIRR アルゴリズムを導入する。
論文 参考訳(メタデータ) (2020-10-09T15:42:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。