論文の概要: Data Preprocessing to Mitigate Bias with Boosted Fair Mollifiers
- arxiv url: http://arxiv.org/abs/2012.00188v2
- Date: Wed, 24 Feb 2021 01:09:20 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-01 09:43:48.314365
- Title: Data Preprocessing to Mitigate Bias with Boosted Fair Mollifiers
- Title(参考訳): boosted fair mollifierを用いたバイアス軽減のためのデータ前処理
- Authors: Alexander Soen, Hisham Husain, Richard Nock
- Abstract要約: 最近の論文で、Celisらは、データ分散自体を補正する公正性に対する新しいアプローチを導入した。
本稿では、プライバシで最近導入された数学的オブジェクト -- 分散のモリファイア -- と、マシンラーニングに対する一般的なアプローチ -- を活用して、強化する。
このアプローチは指数族の十分な統計学を学ぶことを伴う。
- 参考スコア(独自算出の注目度): 104.90335702521378
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In a recent paper, Celis et al. (2020) introduced a new approach to fairness
that corrects the data distribution itself. The approach is computationally
appealing, but its approximation guarantees with respect to the target
distribution can be quite loose as they need to rely on a (typically limited)
number of constraints on data-based aggregated statistics; also resulting in a
fairness guarantee which can be data dependent.
Our paper makes use of a mathematical object recently introduced in privacy
-- mollifiers of distributions -- and a popular approach to machine learning --
boosting -- to get an approach in the same lineage as Celis et al. but without
the same impediments, including in particular, better guarantees in terms of
accuracy and finer guarantees in terms of fairness. The approach involves
learning the sufficient statistics of an exponential family. When the training
data is tabular, the sufficient statistics can be defined by decision trees
whose interpretability can provide clues on the source of (un)fairness.
Experiments display the quality of the results for simulated and real-world
data.
- Abstract(参考訳): 最近の論文celis et al.において。
(2020)は、データ分布自体を補正する公平性に対する新しいアプローチを導入した。
このアプローチは計算上魅力的だが、ターゲット分布に関する近似保証は、データベースの集計統計に(典型的には限られた)多くの制約に依存する必要があるため、かなりゆるやかになる可能性がある。
筆者らは、最近プライバシーに導入された数学的オブジェクト -- 分布のモラファイヤ -- と、機械学習への一般的なアプローチ -- を利用して、celisらと同じ系統でアプローチする。
しかし、特に、正確さとより細かい保証の点で、より優れた保証を含む、同じ障害がない。
このアプローチは指数族の十分な統計学を学ぶことを伴う。
トレーニングデータが表式である場合、十分な統計量は、解釈可能性が(非)フェアネスの原因の手がかりとなる決定木によって定義できる。
シミュレーションおよび実世界のデータに対する結果の品質を示す実験。
関連論文リスト
- Towards Harmless Rawlsian Fairness Regardless of Demographic Prior [57.30787578956235]
トレーニングセットに事前の人口統計が提供されない場合に,有効性を損なうことなく公平性を達成する可能性を探る。
本稿では,経験的損失の最適セット内でのトレーニング損失の分散を最小限に抑えるため,VFairという簡単な手法を提案する。
論文 参考訳(メタデータ) (2024-11-04T12:40:34Z) - Distribution-Free Fair Federated Learning with Small Samples [54.63321245634712]
FedFaiREEは、分散化された環境で分散のないフェアラーニングのために小さなサンプルで開発された後処理アルゴリズムである。
公正性と精度の両面において厳密な理論的保証を提供し,実験結果により,提案手法の堅牢な実証検証を行う。
論文 参考訳(メタデータ) (2024-02-25T17:37:53Z) - Dr. FERMI: A Stochastic Distributionally Robust Fair Empirical Risk
Minimization Framework [12.734559823650887]
分散シフトが存在する場合、公正な機械学習モデルはテストデータに対して不公平に振る舞うことがある。
既存のアルゴリズムはデータへの完全なアクセスを必要とし、小さなバッチを使用する場合には使用できない。
本稿では,因果グラフの知識を必要としない収束保証付き分布安定度フレームワークを提案する。
論文 参考訳(メタデータ) (2023-09-20T23:25:28Z) - Chasing Fairness Under Distribution Shift: A Model Weight Perturbation
Approach [72.19525160912943]
まず,分布シフト,データ摂動,モデルウェイト摂動の関連性を理論的に検証した。
次に、ターゲットデータセットの公平性を保証するのに十分な条件を分析します。
これらの十分な条件により、ロバストフェアネス正則化(RFR)を提案する。
論文 参考訳(メタデータ) (2023-03-06T17:19:23Z) - Conformalized Fairness via Quantile Regression [8.180169144038345]
本稿では,デモグラフィックパリティの公正性要件に基づき,実数値量子関数を学習するための新しいフレームワークを提案する。
フェア量子化法により構築された誘導予測区間に対する分布自由被覆の理論的保証と正確な公正性を確立する。
本研究は, フェアネス・正確性トレードオフの基盤となるメカニズムを, 幅広い社会的・医療的応用において明らかにする能力を示すものである。
論文 参考訳(メタデータ) (2022-10-05T04:04:15Z) - How Robust is Your Fairness? Evaluating and Sustaining Fairness under
Unseen Distribution Shifts [107.72786199113183]
CUMA(CUrvature Matching)と呼ばれる新しいフェアネス学習手法を提案する。
CUMAは、未知の分布シフトを持つ未知の領域に一般化可能な頑健な公正性を達成する。
提案手法を3つの人気フェアネスデータセットで評価する。
論文 参考訳(メタデータ) (2022-07-04T02:37:50Z) - Fair Normalizing Flows [10.484851004093919]
FNF(Fair Normalizing Flows)は、学習された表現に対してより厳密な公正性を保証する新しい手法である。
FNFの主な利点は、その正確な確率計算により、潜在的に逆下流予測器の最大不公平性の保証が得られることである。
我々は,FNFが様々なグループフェアネスの概念を強制する上での有効性を実験的に示すとともに,解釈可能性や伝達学習といった他の魅力的な特性も示す。
論文 参考訳(メタデータ) (2021-06-10T17:35:59Z) - Can Active Learning Preemptively Mitigate Fairness Issues? [66.84854430781097]
データセットバイアスは、機械学習における不公平な原因の1つです。
不確実性に基づくALで訓練されたモデルが保護クラスの決定において公平であるかどうかを検討する。
また,勾配反転(GRAD)やBALDなどのアルゴリズム的公正性手法の相互作用についても検討する。
論文 参考訳(メタデータ) (2021-04-14T14:20:22Z) - Group Fairness by Probabilistic Modeling with Latent Fair Decisions [36.20281545470954]
本稿では,隠蔽ラベルを表す潜伏変数を明示的にモデル化し,偏りのあるデータから確率分布を学習する。
我々は,学習モデルに一定の依存性を課すことで,人口統計学上の同等性を達成することを目指している。
また、これらの保証を提供するために使用される分布が実際に実世界のデータをキャプチャしている場合にのみ、グループフェアネス保証が有意義であることを示す。
論文 参考訳(メタデータ) (2020-09-18T19:13:23Z) - Fair Regression with Wasserstein Barycenters [39.818025466204055]
本稿では, 実数値関数を学習し, 実数値関数の制約を満たす問題について検討する。
予測された出力の分布は、センシティブな属性から独立することを要求する。
フェア回帰と最適輸送理論の関連性を確立し、最適なフェア予測器に対するクローズドフォーム表現を導出する。
論文 参考訳(メタデータ) (2020-06-12T16:10:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。