論文の概要: Conformalized Fairness via Quantile Regression
- arxiv url: http://arxiv.org/abs/2210.02015v1
- Date: Wed, 5 Oct 2022 04:04:15 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-06 13:45:24.834848
- Title: Conformalized Fairness via Quantile Regression
- Title(参考訳): 量子回帰による等化フェアネス
- Authors: Meichen Liu, Lei Ding, Dengdeng Yu, Wulong Liu, Linglong Kong, Bei
Jiang
- Abstract要約: 本稿では,デモグラフィックパリティの公正性要件に基づき,実数値量子関数を学習するための新しいフレームワークを提案する。
フェア量子化法により構築された誘導予測区間に対する分布自由被覆の理論的保証と正確な公正性を確立する。
本研究は, フェアネス・正確性トレードオフの基盤となるメカニズムを, 幅広い社会的・医療的応用において明らかにする能力を示すものである。
- 参考スコア(独自算出の注目度): 8.180169144038345
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Algorithmic fairness has received increased attention in socially sensitive
domains. While rich literature on mean fairness has been established, research
on quantile fairness remains sparse but vital. To fulfill great needs and
advocate the significance of quantile fairness, we propose a novel framework to
learn a real-valued quantile function under the fairness requirement of
Demographic Parity with respect to sensitive attributes, such as race or
gender, and thereby derive a reliable fair prediction interval. Using optimal
transport and functional synchronization techniques, we establish theoretical
guarantees of distribution-free coverage and exact fairness for the induced
prediction interval constructed by fair quantiles. A hands-on pipeline is
provided to incorporate flexible quantile regressions with an efficient
fairness adjustment post-processing algorithm. We demonstrate the superior
empirical performance of this approach on several benchmark datasets. Our
results show the model's ability to uncover the mechanism underlying the
fairness-accuracy trade-off in a wide range of societal and medical
applications.
- Abstract(参考訳): アルゴリズム的公平性は社会的に敏感な領域で注目を集めている。
平均的公平性に関する豊かな文献が確立されているが、質的公平性の研究は少ないが不可欠である。
そこで本研究では,人種や性別などのセンシティブな属性に対して,デモグラフィックパリティの公正性要件の下で実数値量子関数を学習し,信頼性の高い公正な予測区間を導出する枠組みを提案する。
最適輸送と機能同期技術を用いて、フェア量子化によって構築された誘導予測区間に対する分布のないカバレッジと正確な公正性の理論的保証を確立する。
フレキシブルな量子レグレッションと効率的なフェアネス調整後処理アルゴリズムを組み込むハンズオンパイプラインを提供する。
この手法の優れた経験的性能をいくつかのベンチマークデータセットで実証する。
本研究は, フェアネス・正確性トレードオフの基盤となるメカニズムを, 幅広い社会・医療応用において明らかにする能力を示すものである。
関連論文リスト
- Achievable Fairness on Your Data With Utility Guarantees [16.78730663293352]
機械学習の公平性において、異なるセンシティブなグループ間の格差を最小限に抑えるトレーニングモデルは、しばしば精度を低下させる。
本稿では,各データセットに適合する公平性-正確性トレードオフ曲線を近似する計算効率のよい手法を提案する。
そこで我々は,モデルフェアネスを監査するための堅牢な枠組みを実践者に提供し,評価の不確実性を定量化する新しい手法を提案する。
論文 参考訳(メタデータ) (2024-02-27T00:59:32Z) - Distribution-Free Fair Federated Learning with Small Samples [54.63321245634712]
FedFaiREEは、分散化された環境で分散のないフェアラーニングのために小さなサンプルで開発された後処理アルゴリズムである。
公正性と精度の両面において厳密な理論的保証を提供し,実験結果により,提案手法の堅牢な実証検証を行う。
論文 参考訳(メタデータ) (2024-02-25T17:37:53Z) - Understanding Fairness Surrogate Functions in Algorithmic Fairness [21.555040357521907]
フェアネスの定義とフェアネスのサロゲート関数の間には、サロゲートとフェアネスのギャップがあることが示される。
我々は、不公平を緩和するギャップを反復的に減少させる「バランスド・サロゲート」という、新規で一般的なアルゴリズムを精査する。
論文 参考訳(メタデータ) (2023-10-17T12:40:53Z) - Chasing Fairness Under Distribution Shift: A Model Weight Perturbation
Approach [72.19525160912943]
まず,分布シフト,データ摂動,モデルウェイト摂動の関連性を理論的に検証した。
次に、ターゲットデータセットの公平性を保証するのに十分な条件を分析します。
これらの十分な条件により、ロバストフェアネス正則化(RFR)を提案する。
論文 参考訳(メタデータ) (2023-03-06T17:19:23Z) - Fairness in Matching under Uncertainty [78.39459690570531]
アルゴリズム的な二面市場は、こうした設定における公平性の問題に注意を向けている。
我々は、利益の不確実性を尊重する両面の市場設定において、個々人の公正性の概念を公理化する。
そこで我々は,配当よりも公平なユーティリティ最大化分布を求めるために,線形プログラミングフレームワークを設計する。
論文 参考訳(メタデータ) (2023-02-08T00:30:32Z) - Practical Approaches for Fair Learning with Multitype and Multivariate
Sensitive Attributes [70.6326967720747]
現実世界に展開された機械学習アルゴリズムが不公平さや意図しない社会的結果をもたらすことはないことを保証することが重要である。
本稿では,カーネルHilbert Spacesの相互共分散演算子上に構築されたフェアネス尺度であるFairCOCCOを紹介する。
実世界のデータセットにおける予測能力と公正性のバランスをとる上で、最先端技術に対する一貫した改善を実証的に示す。
論文 参考訳(メタデータ) (2022-11-11T11:28:46Z) - Measuring Fairness of Text Classifiers via Prediction Sensitivity [63.56554964580627]
加速度予測感度は、入力特徴の摂動に対するモデルの予測感度に基づいて、機械学習モデルの公正度を測定する。
この計量は、群フェアネス(統計パリティ)と個人フェアネスという特定の概念と理論的に関連付けられることを示す。
論文 参考訳(メタデータ) (2022-03-16T15:00:33Z) - Obtaining Dyadic Fairness by Optimal Transport [40.88844078769325]
本稿では,リンク予測タスクの公平性について考察する。
本稿では,データ修復と最適輸送により,ダイアドフェアネスを得るための前処理手法を提案する。
グラフリンク予測のために, 最適輸送に基づくダイアドフェアネスアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-02-09T15:33:59Z) - Fair Normalizing Flows [10.484851004093919]
FNF(Fair Normalizing Flows)は、学習された表現に対してより厳密な公正性を保証する新しい手法である。
FNFの主な利点は、その正確な確率計算により、潜在的に逆下流予測器の最大不公平性の保証が得られることである。
我々は,FNFが様々なグループフェアネスの概念を強制する上での有効性を実験的に示すとともに,解釈可能性や伝達学習といった他の魅力的な特性も示す。
論文 参考訳(メタデータ) (2021-06-10T17:35:59Z) - Fair Densities via Boosting the Sufficient Statistics of Exponential
Families [72.34223801798422]
フェアネスのためのデータ前処理にブースティングアルゴリズムを導入する。
私たちのアプローチは、最小限の公平性を確保しながら、より良いデータフィッティングへとシフトします。
実世界のデータに結果の質を示す実験結果が提示される。
論文 参考訳(メタデータ) (2020-12-01T00:49:17Z) - Fair Regression with Wasserstein Barycenters [39.818025466204055]
本稿では, 実数値関数を学習し, 実数値関数の制約を満たす問題について検討する。
予測された出力の分布は、センシティブな属性から独立することを要求する。
フェア回帰と最適輸送理論の関連性を確立し、最適なフェア予測器に対するクローズドフォーム表現を導出する。
論文 参考訳(メタデータ) (2020-06-12T16:10:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。