論文の概要: FairPOT: Balancing AUC Performance and Fairness with Proportional Optimal Transport
- arxiv url: http://arxiv.org/abs/2508.03940v2
- Date: Tue, 12 Aug 2025 20:34:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-14 11:55:47.597155
- Title: FairPOT: Balancing AUC Performance and Fairness with Proportional Optimal Transport
- Title(参考訳): FairPOT: 確率的最適輸送によるAUC性能と公正性のバランス
- Authors: Pengxi Liu, Yi Shen, Matthew M. Engelhard, Benjamin A. Goldstein, Michael J. Pencina, Nicoleta J. Economou-Zavlanos, Michael M. Zavlanos,
- Abstract要約: 医療などのハイテイクな領域では、公正さは二進的な結果よりもリスクスコアよりも評価されることが多い。
本稿では,Fair Proportional Optimal Transport (FairPOT)を提案する。
また,FairPOTは,グローバルおよび部分的なAUCシナリオにおいて,既存の後処理技術より一貫して優れていることを示す。
- 参考スコア(独自算出の注目度): 9.47500733579604
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Fairness metrics utilizing the area under the receiver operator characteristic curve (AUC) have gained increasing attention in high-stakes domains such as healthcare, finance, and criminal justice. In these domains, fairness is often evaluated over risk scores rather than binary outcomes, and a common challenge is that enforcing strict fairness can significantly degrade AUC performance. To address this challenge, we propose Fair Proportional Optimal Transport (FairPOT), a novel, model-agnostic post-processing framework that strategically aligns risk score distributions across different groups using optimal transport, but does so selectively by transforming a controllable proportion, i.e., the top-lambda quantile, of scores within the disadvantaged group. By varying lambda, our method allows for a tunable trade-off between reducing AUC disparities and maintaining overall AUC performance. Furthermore, we extend FairPOT to the partial AUC setting, enabling fairness interventions to concentrate on the highest-risk regions. Extensive experiments on synthetic, public, and clinical datasets show that FairPOT consistently outperforms existing post-processing techniques in both global and partial AUC scenarios, often achieving improved fairness with slight AUC degradation or even positive gains in utility. The computational efficiency and practical adaptability of FairPOT make it a promising solution for real-world deployment.
- Abstract(参考訳): 受信者特性曲線(AUC)に基づくフェアネス指標は、医療、金融、刑事司法などの高額な領域で注目を集めている。
これらの領域では、公正度は二進的な結果よりもリスクスコアよりも評価されることが多く、厳格な公正度を強制することはAUCのパフォーマンスを著しく低下させる。
この課題に対処するために、Fair Proportional Optimal Transport (FairPOT) を提案する。これは、最適輸送を用いて異なるグループ間でリスクスコア分布を戦略的に整列させる、新しいモデルに依存しない後処理フレームワークである。
ラムダの変更により、AUCの格差を減らし、AUC全体の性能を維持することで、調整可能なトレードオフを可能にする。
さらに、FairPOTを部分的なAUC設定に拡張し、公平な介入を最もリスクの高い領域に集中できるようにします。
合成、公開、臨床データセットに関する大規模な実験により、FairPOTはグローバルおよび部分的なAUCシナリオにおいて既存の後処理技術よりも一貫して優れており、しばしばAUCのわずかな劣化や、実用性において肯定的な利益によって改善された公正性を達成することが示されている。
FairPOTの計算効率と実用的な適応性は、実世界の展開に有望なソリューションとなる。
関連論文リスト
- Optimal Transport Learning: Balancing Value Optimization and Fairness in Individualized Treatment Rules [7.231498702561808]
最適輸送理論に基づくフレキシブルアプローチを提案し,任意の最適ITRを公平ITRに変換する。
提案手法の性能をシミュレーション研究により実証し,Next 36の起業家プログラムデータセットに適用する。
論文 参考訳(メタデータ) (2025-07-31T08:56:03Z) - FedFACT: A Provable Framework for Controllable Group-Fairness Calibration in Federated Learning [13.575259448363557]
我々はFedFACTという制御可能なグループフェアネス校正フレームワークを提案する。
FedFACTは、大域的および局所的公正性の制約の下でベイズ最適分類器を識別する。
複数のデータセットの実験では、FedFACTは精度とグローバルローカルフェアネスのバランスをとる上で、ベースラインを一貫して上回っている。
論文 参考訳(メタデータ) (2025-06-04T09:39:57Z) - pFedFair: Towards Optimal Group Fairness-Accuracy Trade-off in Heterogeneous Federated Learning [17.879602968559198]
フェデレートされた学習アルゴリズムは、クライアントの集合データに基づいてモデルをトレーニングすることで、クライアントの精度を最大化することを目的としている。
群フェアネス制約は、FL最適化問題の目的関数に組み込むことができる。
このような手法により、不均一なクライアント分布を持つFL設定において、最適な分類精度が得られることを示す。
論文 参考訳(メタデータ) (2025-03-19T06:15:31Z) - Over-the-Air Fair Federated Learning via Multi-Objective Optimization [52.295563400314094]
本稿では,公平なFLモデルを訓練するためのOTA-FFL(Over-the-air Fair Federated Learning Algorithm)を提案する。
OTA-FFLの公正性とロバストな性能に対する優位性を示す実験を行った。
論文 参考訳(メタデータ) (2025-01-06T21:16:51Z) - Fairness-aware Federated Minimax Optimization with Convergence Guarantee [10.727328530242461]
フェデレートラーニング(FL)はそのプライバシー保護機能のためにかなりの注目を集めている。
ユーザデータ管理の自由の欠如は、モデルが人種や性別などのセンシティブな要因に偏っている、グループフェアネスの問題につながる可能性がある。
本稿では,FLにおけるグループフェアネス問題に明示的に対処するために,拡張ラグランジアン法(FFALM)を用いたフェアフェデレーション平均化アルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-07-10T08:45:58Z) - Mimicking Better by Matching the Approximate Action Distribution [48.95048003354255]
そこで我々は,Imitation Learning from Observationsのための新しい,サンプル効率の高いオンライン政治アルゴリズムMAADを紹介する。
我々は、専門家のパフォーマンスを達成するためには、かなり少ないインタラクションが必要であり、現在最先端の政治手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2023-06-16T12:43:47Z) - Fair-CDA: Continuous and Directional Augmentation for Group Fairness [48.84385689186208]
公正な制約を課すための詳細なデータ拡張戦略を提案する。
グループ間の感性のある特徴の遷移経路のモデルを正規化することにより、グループフェアネスを実現することができることを示す。
提案手法はデータ生成モデルを仮定せず,精度と公平性の両方に優れた一般化を実現する。
論文 参考訳(メタデータ) (2023-04-01T11:23:00Z) - Stochastic Methods for AUC Optimization subject to AUC-based Fairness
Constraints [51.12047280149546]
公正な予測モデルを得るための直接的なアプローチは、公正な制約の下で予測性能を最適化することでモデルを訓練することである。
フェアネスを考慮した機械学習モデルのトレーニング問題を,AUCに基づくフェアネス制約のクラスを対象とする最適化問題として定式化する。
フェアネス測定値の異なる実世界のデータに対するアプローチの有効性を実証する。
論文 参考訳(メタデータ) (2022-12-23T22:29:08Z) - Fair and Optimal Classification via Post-Processing [10.163721748735801]
本稿では、分類問題における人口統計学の特質的トレードオフの完全な評価について述べる。
ランダム化および属性認識フェア分類器によって達成可能な最小誤差率は、ワッサーシュタイン・バリセンタ問題の最適値によって与えられることを示す。
論文 参考訳(メタデータ) (2022-11-03T00:04:04Z) - Optimizing Two-way Partial AUC with an End-to-end Framework [154.47590401735323]
ROC曲線のエリア(AUC)は、機械学習にとって重要な指標である。
最近の研究は、TPAUCが既存のPartial AUCメトリクスと本質的に矛盾していることを示している。
本論文では,この新指標を最適化するための最初の試行について述べる。
論文 参考訳(メタデータ) (2022-06-23T12:21:30Z) - Fairness for AUC via Feature Augmentation [25.819342066717002]
本研究では,受信機動作特性の曲線 (AUC) の下の領域で性能が測定される分類の文脈における公平さについて検討する。
識別可能なグループ間のバイアスを軽減するため,特徴増強(追加機能)に基づく新しいアプローチである FairAUC を開発した。
論文 参考訳(メタデータ) (2021-11-24T22:32:19Z) - Towards Fair Knowledge Transfer for Imbalanced Domain Adaptation [61.317911756566126]
本研究では,不均衡なドメイン間学習における公平性問題に対処するTowards Fair Knowledge Transferフレームワークを提案する。
具体的には、新規なクロスドメインミックスアップ生成を利用して、ターゲット情報でマイノリティソースセットを増強し、公正性を高める。
本モデルでは,2つのベンチマークで全体の精度を20%以上向上させる。
論文 参考訳(メタデータ) (2020-10-23T06:29:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。