論文の概要: Enforcing Fairness Where It Matters: An Approach Based on Difference-of-Convex Constraints
- arxiv url: http://arxiv.org/abs/2505.12530v1
- Date: Sun, 18 May 2025 19:50:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-20 14:57:11.288301
- Title: Enforcing Fairness Where It Matters: An Approach Based on Difference-of-Convex Constraints
- Title(参考訳): 意味のあるフェアネスを強制する:コンベックスの差分に基づくアプローチ
- Authors: Yutian He, Yankun Huang, Yao Yao, Qihang Lin,
- Abstract要約: 我々は、予測モデルにより全てのスコア範囲で完全な公正性を達成することに集中し、ハイスコアとロースコアの両方の人口を確保する。
我々は,他の地域での柔軟性を維持しつつ,意思決定が最優先される中核として,新たな関心点を提案する。
所定のスコア範囲内での公平さを厳格に評価するために,2つの統計指標を導入する。
- 参考スコア(独自算出の注目度): 12.054667230143803
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Fairness in machine learning has become a critical concern, particularly in high-stakes applications. Existing approaches often focus on achieving full fairness across all score ranges generated by predictive models, ensuring fairness in both high and low-scoring populations. However, this stringent requirement can compromise predictive performance and may not align with the practical fairness concerns of stakeholders. In this work, we propose a novel framework for building partially fair machine learning models, which enforce fairness within a specific score range of interest, such as the middle range where decisions are most contested, while maintaining flexibility in other regions. We introduce two statistical metrics to rigorously evaluate partial fairness within a given score range, such as the top 20%-40% of scores. To achieve partial fairness, we propose an in-processing method by formulating the model training problem as constrained optimization with difference-of-convex constraints, which can be solved by an inexact difference-of-convex algorithm (IDCA). We provide the complexity analysis of IDCA for finding a nearly KKT point. Through numerical experiments on real-world datasets, we demonstrate that our framework achieves high predictive performance while enforcing partial fairness where it matters most.
- Abstract(参考訳): 機械学習における公正性は、特に高精細なアプリケーションにおいて重要な関心事となっている。
既存のアプローチは、予測モデルによって生成される全てのスコア範囲で完全な公正性を達成することに集中し、高い人口と低い人口の両方で公正性を保証する。
しかし、この厳格な要件は予測性能を損なう可能性があり、利害関係者の実践的公平性に関する懸念と一致しない可能性がある。
本研究では,ある特定のスコア範囲内での公平性を強制する,部分的に公正な機械学習モデルを構築するための新しい枠組みを提案する。
スコアの上位20%~40%など,与えられたスコア範囲内の部分的公正度を厳格に評価する統計指標を2つ導入する。
そこで本研究では,不正確な差分凸アルゴリズム(IDCA)によって解ける差分凸制約による制約付き最適化としてモデルトレーニング問題を定式化して,内部処理手法を提案する。
ほぼKKT点を求めるためのIDCAの複雑性解析を行う。
実世界のデータセットに関する数値実験を通じて、我々のフレームワークは、最も重要となる部分的公平性を保ちながら、高い予測性能を達成することを実証した。
関連論文リスト
- Fairness-aware Bayes optimal functional classification [7.252020628689346]
アルゴリズムの公正さは機械学習における中心的なトピックとなっている。
フェアネス制約下での関数データの分類について検討する。
フェアネスを考慮した機能分類のための統合フレームワークを提案する。
論文 参考訳(メタデータ) (2025-05-14T15:22:09Z) - Learning Fair Classifiers via Min-Max F-divergence Regularization [13.81078324883519]
公平な分類モデルを学ぶための新しい min-max F-divergence regularization フレームワークを提案する。
F分割測度は凸性と微分可能性特性を有することを示す。
提案手法は, 精度と公平性のトレードオフに関して, 最先端の性能を実現するものであることを示す。
論文 参考訳(メタデータ) (2023-06-28T20:42:04Z) - Stochastic Methods for AUC Optimization subject to AUC-based Fairness
Constraints [51.12047280149546]
公正な予測モデルを得るための直接的なアプローチは、公正な制約の下で予測性能を最適化することでモデルを訓練することである。
フェアネスを考慮した機械学習モデルのトレーニング問題を,AUCに基づくフェアネス制約のクラスを対象とする最適化問題として定式化する。
フェアネス測定値の異なる実世界のデータに対するアプローチの有効性を実証する。
論文 参考訳(メタデータ) (2022-12-23T22:29:08Z) - Practical Approaches for Fair Learning with Multitype and Multivariate
Sensitive Attributes [70.6326967720747]
現実世界に展開された機械学習アルゴリズムが不公平さや意図しない社会的結果をもたらすことはないことを保証することが重要である。
本稿では,カーネルHilbert Spacesの相互共分散演算子上に構築されたフェアネス尺度であるFairCOCCOを紹介する。
実世界のデータセットにおける予測能力と公正性のバランスをとる上で、最先端技術に対する一貫した改善を実証的に示す。
論文 参考訳(メタデータ) (2022-11-11T11:28:46Z) - Fair and Optimal Classification via Post-Processing [10.163721748735801]
本稿では、分類問題における人口統計学の特質的トレードオフの完全な評価について述べる。
ランダム化および属性認識フェア分類器によって達成可能な最小誤差率は、ワッサーシュタイン・バリセンタ問題の最適値によって与えられることを示す。
論文 参考訳(メタデータ) (2022-11-03T00:04:04Z) - Relational Proxies: Emergent Relationships as Fine-Grained
Discriminators [52.17542855760418]
本稿では,オブジェクトのグローバル部分とローカル部分の間の情報を利用してラベルを符号化する手法を提案する。
我々は、理論的な結果に基づいてプロキシを設計し、7つの挑戦的なきめ細かいベンチマークデータセットに基づいて評価する。
また、この理論を実験的に検証し、複数のベンチマークで一貫した結果を得る。
論文 参考訳(メタデータ) (2022-10-05T11:08:04Z) - Fair and Consistent Federated Learning [48.19977689926562]
フェデレートラーニング(FL)は、分散データソースから学習する能力に対する関心が高まっている。
本稿では,異なるローカルクライアント間で性能整合性とアルゴリズムフェアネスを協調的に検討するFLフレームワークを提案する。
論文 参考訳(メタデータ) (2021-08-19T01:56:08Z) - Characterizing Fairness Over the Set of Good Models Under Selective
Labels [69.64662540443162]
同様の性能を実現するモデルセットに対して,予測公正性を特徴付けるフレームワークを開発する。
到達可能なグループレベルの予測格差の範囲を計算するためのトラクタブルアルゴリズムを提供します。
選択ラベル付きデータの実証的な課題に対処するために、我々のフレームワークを拡張します。
論文 参考訳(メタデータ) (2021-01-02T02:11:37Z) - Causal Feature Selection for Algorithmic Fairness [61.767399505764736]
データ管理の統合コンポーネントにおける公平性について検討する。
本稿では,データセットの公平性を保証する特徴のサブコレクションを同定する手法を提案する。
論文 参考訳(メタデータ) (2020-06-10T20:20:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。