論文の概要: Chasing Fairness Under Distribution Shift: A Model Weight Perturbation
Approach
- arxiv url: http://arxiv.org/abs/2303.03300v2
- Date: Sat, 21 Oct 2023 07:58:28 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-25 13:24:55.482495
- Title: Chasing Fairness Under Distribution Shift: A Model Weight Perturbation
Approach
- Title(参考訳): 分布シフト下におけるカオスフェアネス:モデルウェイト摂動アプローチ
- Authors: Zhimeng Jiang, Xiaotian Han, Hongye Jin, Guanchu Wang, Rui Chen, Na
Zou, Xia Hu
- Abstract要約: まず,分布シフト,データ摂動,モデルウェイト摂動の関連性を理論的に検証した。
次に、ターゲットデータセットの公平性を保証するのに十分な条件を分析します。
これらの十分な条件により、ロバストフェアネス正則化(RFR)を提案する。
- 参考スコア(独自算出の注目度): 72.19525160912943
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Fairness in machine learning has attracted increasing attention in recent
years. The fairness methods improving algorithmic fairness for in-distribution
data may not perform well under distribution shifts. In this paper, we first
theoretically demonstrate the inherent connection between distribution shift,
data perturbation, and model weight perturbation. Subsequently, we analyze the
sufficient conditions to guarantee fairness (i.e., low demographic parity) for
the target dataset, including fairness for the source dataset, and low
prediction difference between the source and target datasets for each sensitive
attribute group. Motivated by these sufficient conditions, we propose robust
fairness regularization (RFR) by considering the worst case within the model
weight perturbation ball for each sensitive attribute group. We evaluate the
effectiveness of our proposed RFR algorithm on synthetic and real distribution
shifts across various datasets. Experimental results demonstrate that RFR
achieves better fairness-accuracy trade-off performance compared with several
baselines. The source code is available at
\url{https://github.com/zhimengj0326/RFR_NeurIPS23}.
- Abstract(参考訳): 近年、機械学習の公平性が注目されている。
分散データに対するアルゴリズム的公平性を改善するフェアネス法は、分散シフト下ではうまく機能しない。
本稿では,まず,分布シフト,データの摂動,モデル重みの摂動との関係を理論的に示す。
その後、ソースデータセットの公平性や、センシティブ属性群毎のソースデータセットとターゲットデータセットとの予測差の低さを含む、ターゲットデータセットの公平性(すなわち、低人口比率)を保証するための十分な条件を分析した。
これらの十分な条件により,各属性群に対するモデル重量摂動球の最悪のケースを考慮し,ロバストフェアネス正則化(RFR)を提案する。
提案したRFRアルゴリズムが各種データセット間の合成および実分布シフトに与える影響を評価する。
実験結果から, RFRはいくつかのベースラインと比較して, 公平性と精度のトレードオフ性能が良好であることが示された。
ソースコードは \url{https://github.com/zhimengj0326/rfr_neurips23} で入手できる。
関連論文リスト
- Fair CoVariance Neural Networks [34.68621550644667]
本稿では,Fair CoVariance Neural Networks (FVNN) を提案する。
我々は,FVNNが類似のPCAアプローチよりも本質的に公平であることを証明する。
論文 参考訳(メタデータ) (2024-09-13T06:24:18Z) - Dr. FERMI: A Stochastic Distributionally Robust Fair Empirical Risk
Minimization Framework [12.734559823650887]
分散シフトが存在する場合、公正な機械学習モデルはテストデータに対して不公平に振る舞うことがある。
既存のアルゴリズムはデータへの完全なアクセスを必要とし、小さなバッチを使用する場合には使用できない。
本稿では,因果グラフの知識を必要としない収束保証付き分布安定度フレームワークを提案する。
論文 参考訳(メタデータ) (2023-09-20T23:25:28Z) - Fair GANs through model rebalancing for extremely imbalanced class
distributions [5.463417677777276]
本稿では,既存のバイアス付きGANからGAN(unbiased generative adversarial Network)を構築するためのアプローチを提案する。
Flickr Faces High Quality (FFHQ) データセットを用いて、人種的公平性をトレーニングしながら、StyleGAN2モデルの結果を示す。
また,不均衡なCIFAR10データセットに適用することで,我々のアプローチをさらに検証する。
論文 参考訳(メタデータ) (2023-08-16T19:20:06Z) - Fair-CDA: Continuous and Directional Augmentation for Group Fairness [48.84385689186208]
公正な制約を課すための詳細なデータ拡張戦略を提案する。
グループ間の感性のある特徴の遷移経路のモデルを正規化することにより、グループフェアネスを実現することができることを示す。
提案手法はデータ生成モデルを仮定せず,精度と公平性の両方に優れた一般化を実現する。
論文 参考訳(メタデータ) (2023-04-01T11:23:00Z) - Transferring Fairness under Distribution Shifts via Fair Consistency
Regularization [15.40257564187799]
本研究では,分散シフトの下でモデルフェアネスを伝達する方法について検討する。
ドメインシフトの下での転送精度の自己学習の成功に触発されて、グループフェアネスの転送に十分な条件が導出される。
論文 参考訳(メタデータ) (2022-06-26T06:19:56Z) - FairIF: Boosting Fairness in Deep Learning via Influence Functions with
Validation Set Sensitive Attributes [51.02407217197623]
本稿では,FAIRIFという2段階の学習アルゴリズムを提案する。
サンプル重みが計算される再重み付きデータセットの損失を最小限に抑える。
FAIRIFは、様々な種類のバイアスに対して、フェアネスとユーティリティのトレードオフを良くしたモデルが得られることを示す。
論文 参考訳(メタデータ) (2022-01-15T05:14:48Z) - Leveraging Unlabeled Data to Predict Out-of-Distribution Performance [63.740181251997306]
実世界の機械学習デプロイメントは、ソース(トレーニング)とターゲット(テスト)ディストリビューションのミスマッチによって特徴づけられる。
本研究では,ラベル付きソースデータとラベルなしターゲットデータのみを用いて,対象領域の精度を予測する手法を検討する。
本稿では,モデルの信頼度をしきい値として学習し,精度をラベルなし例のごく一部として予測する実践的手法である平均閾値保持信頼度(ATC)を提案する。
論文 参考訳(メタデータ) (2022-01-11T23:01:12Z) - The Impact of Data Distribution on Fairness and Robustness in Federated
Learning [7.209240273742224]
Federated Learning(FL)は、エージェントの集合がデータセットを共有することなく、協調的にモデルをトレーニングできる分散機械学習プロトコルである。
本研究では、局所的なデータ分布の変化が、訓練されたモデルの公平性と特性にどのように影響するかを検討する。
論文 参考訳(メタデータ) (2021-11-29T22:04:50Z) - Accuracy on the Line: On the Strong Correlation Between
Out-of-Distribution and In-Distribution Generalization [89.73665256847858]
分布外性能は,広範囲なモデルと分布シフトに対する分布内性能と強く相関していることを示す。
具体的には,CIFAR-10 と ImageNet の変種に対する分布内分布と分布外分布性能の強い相関関係を示す。
また,CIFAR-10-Cと組織分類データセットCamelyon17-WILDSの合成分布の変化など,相関が弱いケースについても検討した。
論文 参考訳(メタデータ) (2021-07-09T19:48:23Z) - Predicting with Confidence on Unseen Distributions [90.68414180153897]
ドメイン適応と予測不確実性文学を結びつけて、挑戦的な未知分布のモデル精度を予測する。
分類器の予測における信頼度(DoC)の差は,様々な変化に対して,分類器の性能変化を推定することに成功した。
具体的には, 合成分布と自然分布の区別について検討し, その単純さにもかかわらず, DoCは分布差の定量化に優れることを示した。
論文 参考訳(メタデータ) (2021-07-07T15:50:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。