論文の概要: Certifying Some Distributional Fairness with Subpopulation Decomposition
- arxiv url: http://arxiv.org/abs/2205.15494v2
- Date: Fri, 18 Nov 2022 19:44:04 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-19 17:21:46.853182
- Title: Certifying Some Distributional Fairness with Subpopulation Decomposition
- Title(参考訳): サブポピュレーション分解による分布フェアネスの認定
- Authors: Mintong Kang, Linyi Li, Maurice Weber, Yang Liu, Ce Zhang, Bo Li
- Abstract要約: まず、最適化問題として、与えられたデータ分布に基づいて訓練されたMLモデルの正当性を定式化する。
次に、一般的な公平性認定フレームワークを提案し、センシティブなシフトと一般的なシフトの両方のシナリオでインスタンス化する。
我々のフレームワークは、追加の非スキューネス制約を統合する柔軟性があり、異なる実世界のシナリオ下でさらに厳密な認証を提供することを示す。
- 参考スコア(独自算出の注目度): 20.009388617013986
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Extensive efforts have been made to understand and improve the fairness of
machine learning models based on observational metrics, especially in
high-stakes domains such as medical insurance, education, and hiring decisions.
However, there is a lack of certified fairness considering the end-to-end
performance of an ML model. In this paper, we first formulate the certified
fairness of an ML model trained on a given data distribution as an optimization
problem based on the model performance loss bound on a fairness constrained
distribution, which is within bounded distributional distance with the training
distribution. We then propose a general fairness certification framework and
instantiate it for both sensitive shifting and general shifting scenarios. In
particular, we propose to solve the optimization problem by decomposing the
original data distribution into analytical subpopulations and proving the
convexity of the subproblems to solve them. We evaluate our certified fairness
on six real-world datasets and show that our certification is tight in the
sensitive shifting scenario and provides non-trivial certification under
general shifting. Our framework is flexible to integrate additional
non-skewness constraints and we show that it provides even tighter
certification under different real-world scenarios. We also compare our
certified fairness bound with adapted existing distributional robustness bounds
on Gaussian data and demonstrate that our method is significantly tighter.
- Abstract(参考訳): 医療保険、教育、雇用決定などの高度な分野において、観察指標に基づく機械学習モデルの公正性を理解し改善するために、広範囲にわたる努力がなされている。
しかし、MLモデルのエンドツーエンドのパフォーマンスを考えると、証明された公正さは欠如している。
本稿では、与えられたデータ分布に基づいて訓練されたMLモデルの正当性を、トレーニング分布との境界分布距離内である公正制約分布に縛られたモデル性能損失に基づいて最適化問題として定式化する。
次に,一般的なフェアネス認定フレームワークを提案し,センシティブシフトと一般的なシフトシナリオの両方に対してインスタンス化する。
特に,元データ分布を解析的サブ集団に分解し,サブプロブレムの凸性を証明し,最適化問題を解くことを提案する。
実世界の6つのデータセットに対する証明された公正性を評価し、センシティブなシフトシナリオが厳密であることを示し、一般的なシフトの下では非自明な認証を提供する。
我々のフレームワークは、追加の非スキューネス制約を統合する柔軟性があり、異なる実世界のシナリオ下でさらに厳密な認証を提供することを示す。
また,gaussianデータに対する既存の分布的ロバスト性境界と比較し,本手法がはるかに密なものであることを示す。
関連論文リスト
- FADE: Towards Fairness-aware Augmentation for Domain Generalization via Classifier-Guided Score-based Diffusion Models [9.734351986961613]
FairDG(Fairness-Aware Domain Generalization)は、信頼できるAIシステムを展開する上で重要な課題である。
フェアネスに対処する伝統的な手法は、分布シフトに対する考慮の欠如により、領域一般化において失敗している。
フェアネスを意識したスコアガイド拡散モデル(FADE)をFairDG問題に効果的に対処するための新しいアプローチとして提案する。
論文 参考訳(メタデータ) (2024-06-13T17:36:05Z) - Distribution-Free Fair Federated Learning with Small Samples [54.63321245634712]
FedFaiREEは、分散化された環境で分散のないフェアラーニングのために小さなサンプルで開発された後処理アルゴリズムである。
公正性と精度の両面において厳密な理論的保証を提供し,実験結果により,提案手法の堅牢な実証検証を行う。
論文 参考訳(メタデータ) (2024-02-25T17:37:53Z) - Dr. FERMI: A Stochastic Distributionally Robust Fair Empirical Risk
Minimization Framework [12.734559823650887]
分散シフトが存在する場合、公正な機械学習モデルはテストデータに対して不公平に振る舞うことがある。
既存のアルゴリズムはデータへの完全なアクセスを必要とし、小さなバッチを使用する場合には使用できない。
本稿では,因果グラフの知識を必要としない収束保証付き分布安定度フレームワークを提案する。
論文 参考訳(メタデータ) (2023-09-20T23:25:28Z) - Consistency Regularization for Generalizable Source-free Domain
Adaptation [62.654883736925456]
ソースフリードメイン適応(source-free domain adapt, SFDA)は、ソースデータセットにアクセスすることなく、十分にトレーニングされたソースモデルを未学習のターゲットドメインに適応することを目的としている。
既存のSFDAメソッドは、ターゲットのトレーニングセット上で適用されたモデルを評価し、目に見えないが同一の分散テストセットからデータを無視する。
より一般化可能なSFDA法を開発するための整合正則化フレームワークを提案する。
論文 参考訳(メタデータ) (2023-08-03T07:45:53Z) - Chasing Fairness Under Distribution Shift: A Model Weight Perturbation
Approach [72.19525160912943]
まず,分布シフト,データ摂動,モデルウェイト摂動の関連性を理論的に検証した。
次に、ターゲットデータセットの公平性を保証するのに十分な条件を分析します。
これらの十分な条件により、ロバストフェアネス正則化(RFR)を提案する。
論文 参考訳(メタデータ) (2023-03-06T17:19:23Z) - Transferring Fairness under Distribution Shifts via Fair Consistency
Regularization [15.40257564187799]
本研究では,分散シフトの下でモデルフェアネスを伝達する方法について検討する。
ドメインシフトの下での転送精度の自己学習の成功に触発されて、グループフェアネスの転送に十分な条件が導出される。
論文 参考訳(メタデータ) (2022-06-26T06:19:56Z) - Certifying Out-of-Domain Generalization for Blackbox Functions [20.997611019445657]
本稿では,2つの分布の平均距離と分散距離を限定した新しい認証フレームワークを提案する。
我々は、ImageNetを含む複数のデータセットに対して、認証手法を実験的に検証した。
論文 参考訳(メタデータ) (2022-02-03T16:47:50Z) - Certifying Model Accuracy under Distribution Shifts [151.67113334248464]
本稿では,データ分布の有界ワッサースタインシフトの下でのモデルの精度について,証明可能なロバスト性保証を提案する。
変換空間におけるモデルの入力をランダム化する単純な手順は、変換の下での分布シフトに対して確実に堅牢であることを示す。
論文 参考訳(メタデータ) (2022-01-28T22:03:50Z) - Robust Generalization despite Distribution Shift via Minimum
Discriminating Information [46.164498176119665]
我々は、トレーニングデータに加えて、シフトしたテスト分布に関する部分的な構造的知識を持つモデリングフレームワークを導入する。
我々は、利用可能な事前知識を埋め込むために、最小限の識別情報の原則を用いる。
未知のシフト分布に関する明示的な一般化境界を得る。
論文 参考訳(メタデータ) (2021-06-08T15:25:35Z) - Towards Fair Knowledge Transfer for Imbalanced Domain Adaptation [61.317911756566126]
本研究では,不均衡なドメイン間学習における公平性問題に対処するTowards Fair Knowledge Transferフレームワークを提案する。
具体的には、新規なクロスドメインミックスアップ生成を利用して、ターゲット情報でマイノリティソースセットを増強し、公正性を高める。
本モデルでは,2つのベンチマークで全体の精度を20%以上向上させる。
論文 参考訳(メタデータ) (2020-10-23T06:29:09Z) - Learning Invariant Representations and Risks for Semi-supervised Domain
Adaptation [109.73983088432364]
半教師付きドメイン適応(Semi-DA)の設定の下で不変表現とリスクを同時に学習することを目的とした最初の手法を提案する。
共同で textbfLearning textbfInvariant textbfRepresentations と textbfRisks の LIRR アルゴリズムを導入する。
論文 参考訳(メタデータ) (2020-10-09T15:42:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。