論文の概要: Improving Fair Training under Correlation Shifts
- arxiv url: http://arxiv.org/abs/2302.02323v1
- Date: Sun, 5 Feb 2023 07:23:35 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-07 18:53:26.769186
- Title: Improving Fair Training under Correlation Shifts
- Title(参考訳): 相関シフトによる公正トレーニングの改善
- Authors: Yuji Roh, Kangwook Lee, Steven Euijong Whang, Changho Suh
- Abstract要約: 特にラベルとセンシティブなグループ間のバイアスが変化すると、トレーニングされたモデルの公平性に直接影響し、悪化する可能性がある。
既存のプロセス内フェアアルゴリズムは、精度とグループフェアネスに根本的な限界があることを解析的に示す。
相関シフトを減らすために入力データをサンプリングする新しい前処理ステップを提案する。
- 参考スコア(独自算出の注目度): 33.385118640843416
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Model fairness is an essential element for Trustworthy AI. While many
techniques for model fairness have been proposed, most of them assume that the
training and deployment data distributions are identical, which is often not
true in practice. In particular, when the bias between labels and sensitive
groups changes, the fairness of the trained model is directly influenced and
can worsen. We make two contributions for solving this problem. First, we
analytically show that existing in-processing fair algorithms have fundamental
limits in accuracy and group fairness. We introduce the notion of correlation
shifts, which can explicitly capture the change of the above bias. Second, we
propose a novel pre-processing step that samples the input data to reduce
correlation shifts and thus enables the in-processing approaches to overcome
their limitations. We formulate an optimization problem for adjusting the data
ratio among labels and sensitive groups to reflect the shifted correlation. A
key benefit of our approach lies in decoupling the roles of pre- and
in-processing approaches: correlation adjustment via pre-processing and
unfairness mitigation on the processed data via in-processing. Experiments show
that our framework effectively improves existing in-processing fair algorithms
w.r.t. accuracy and fairness, both on synthetic and real datasets.
- Abstract(参考訳): モデルフェアネスは、信頼できるAIにとって不可欠な要素である。
モデルフェアネスのための多くの技術が提案されているが、そのほとんどはトレーニングとデプロイメントのデータ分布が同一であると仮定している。
特にラベルとセンシティブなグループ間のバイアスが変化すると、トレーニングされたモデルの公平性に直接影響し、悪化する可能性がある。
私たちはこの問題の解決に2つの貢献をしている。
まず,既存のインプロセッシング・フェアアルゴリズムが,精度と集団的公平性に根本的な限界があることを解析的に示す。
上記のバイアスの変化を明示的に捉えることができる相関シフトの概念を導入する。
第2に,入力データをサンプリングして相関シフトを低減し,その限界を克服する新しい前処理ステップを提案する。
ラベル間のデータ比を調整する最適化問題を定式化し,その相関関係を反映させる。
我々のアプローチの重要な利点は、前処理と内処理の役割を分離することである:前処理による相関調整と内処理による処理データへの不公平さの緩和。
実験により,本フレームワークは,合成データセットと実データセットの両方において,既存の内部処理公正アルゴリズムの精度と公平性を効果的に向上することが示された。
関連論文リスト
- Mitigating Matching Biases Through Score Calibration [1.5530839016602822]
レコードマッチングにおけるバイアスの結果は、人口集団間での不平等なエラー率をもたらし、倫理的および法的懸念を提起する。
本稿では,従来の回帰モデルに適用された公正度指標を適用し,レコードマッチングにおけるすべてのしきい値の累積バイアスを評価する。
本稿では, 最適輸送理論とワッサーシュタインバリセンタを利用して, 階層群間でのマッチングスコアのバランスをとることを目的とした, ポストプロセッシングキャリブレーション手法を提案する。
論文 参考訳(メタデータ) (2024-11-03T21:01:40Z) - Boosting Fair Classifier Generalization through Adaptive Priority Reweighing [59.801444556074394]
より優れた一般化性を持つ性能向上フェアアルゴリズムが必要である。
本稿では,トレーニングデータとテストデータ間の分散シフトがモデル一般化性に与える影響を解消する適応的リライジング手法を提案する。
論文 参考訳(メタデータ) (2023-09-15T13:04:55Z) - Chasing Fairness Under Distribution Shift: A Model Weight Perturbation
Approach [72.19525160912943]
まず,分布シフト,データ摂動,モデルウェイト摂動の関連性を理論的に検証した。
次に、ターゲットデータセットの公平性を保証するのに十分な条件を分析します。
これらの十分な条件により、ロバストフェアネス正則化(RFR)を提案する。
論文 参考訳(メタデータ) (2023-03-06T17:19:23Z) - An Operational Perspective to Fairness Interventions: Where and How to
Intervene [9.833760837977222]
フェアネス介入の評価と文脈化のための包括的枠組みを提案する。
予測パリティに関するケーススタディで、我々のフレームワークを実証する。
グループデータを使わずに予測パリティを実現することは困難である。
論文 参考訳(メタデータ) (2023-02-03T07:04:33Z) - Domain Adaptation meets Individual Fairness. And they get along [48.95808607591299]
アルゴリズムフェアネスの介入は、機械学習モデルが分散シフトを克服するのに役立つことを示す。
特に,個人フェアネス(IF)の適切な概念を強制することで,MLモデルの分布外精度が向上することを示す。
論文 参考訳(メタデータ) (2022-05-01T16:19:55Z) - A Pre-processing Method for Fairness in Ranking [0.0]
本稿では,データの順序を相互に評価する公平なランキングフレームワークを提案する。
提案手法は,実世界のデータセットに対する精度と公平性のトレードオフにおいて,既存の手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2021-10-29T02:55:32Z) - Post-processing for Individual Fairness [23.570995756189266]
アルゴリズムフェアネスにおける後処理は、すでに実運用で使用されているMLシステムのバイアスを修正するための汎用的なアプローチである。
学習者が元のモデルの予測と個人間の類似性グラフにのみアクセスでき、所望の公正性制約を導出できるような設定を考える。
提案アルゴリズムは,BERTなどの大規模NLPモデルにおいて,精度を保ちながら個々のバイアスを補正する。
論文 参考訳(メタデータ) (2021-10-26T15:51:48Z) - Can Active Learning Preemptively Mitigate Fairness Issues? [66.84854430781097]
データセットバイアスは、機械学習における不公平な原因の1つです。
不確実性に基づくALで訓練されたモデルが保護クラスの決定において公平であるかどうかを検討する。
また,勾配反転(GRAD)やBALDなどのアルゴリズム的公正性手法の相互作用についても検討する。
論文 参考訳(メタデータ) (2021-04-14T14:20:22Z) - Towards Model-Agnostic Post-Hoc Adjustment for Balancing Ranking
Fairness and Algorithm Utility [54.179859639868646]
Bipartiteランキングは、ラベル付きデータから正の個人よりも上位の個人をランク付けするスコアリング機能を学ぶことを目的としている。
学習したスコアリング機能が、異なる保護グループ間で体系的な格差を引き起こすのではないかという懸念が高まっている。
本稿では、二部構成のランキングシナリオにおいて、それらのバランスをとるためのモデル後処理フレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-15T10:08:39Z) - Causal Feature Selection for Algorithmic Fairness [61.767399505764736]
データ管理の統合コンポーネントにおける公平性について検討する。
本稿では,データセットの公平性を保証する特徴のサブコレクションを同定する手法を提案する。
論文 参考訳(メタデータ) (2020-06-10T20:20:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。