論文の概要: Preserving AUC Fairness in Learning with Noisy Protected Groups
- arxiv url: http://arxiv.org/abs/2505.18532v1
- Date: Sat, 24 May 2025 05:50:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-27 16:58:42.483495
- Title: Preserving AUC Fairness in Learning with Noisy Protected Groups
- Title(参考訳): 雑音保護群を用いた学習におけるAUCフェアネスの保存
- Authors: Mingyang Wu, Li Lin, Wenbin Zhang, Xin Wang, Zhenhuan Yang, Shu Hu,
- Abstract要約: ROC曲線のエリア(AUC)は、特にクラス不均衡の下での分類において重要な指標である。
本研究では, 公正性理論的保証を有する雑音保護群の下でのAUCフェアネスの最初の頑健なアプローチを提案する。
提案手法は, AUCの公正性を維持するための最先端手法よりも優れている。
- 参考スコア(独自算出の注目度): 15.761922928093732
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The Area Under the ROC Curve (AUC) is a key metric for classification, especially under class imbalance, with growing research focus on optimizing AUC over accuracy in applications like medical image analysis and deepfake detection. This leads to fairness in AUC optimization becoming crucial as biases can impact protected groups. While various fairness mitigation techniques exist, fairness considerations in AUC optimization remain in their early stages, with most research focusing on improving AUC fairness under the assumption of clean protected groups. However, these studies often overlook the impact of noisy protected groups, leading to fairness violations in practice. To address this, we propose the first robust AUC fairness approach under noisy protected groups with fairness theoretical guarantees using distributionally robust optimization. Extensive experiments on tabular and image datasets show that our method outperforms state-of-the-art approaches in preserving AUC fairness. The code is in https://github.com/Purdue-M2/AUC_Fairness_with_Noisy_Groups.
- Abstract(参考訳): ROC曲線下の領域(AUC)は、特にクラス不均衡の下での分類において重要な指標であり、医療画像分析やディープフェイク検出などの応用における精度よりもAUCを最適化することに焦点を当てている。
これは、バイアスが保護されたグループに影響を与える可能性があるため、AUC最適化の公平性に繋がる。
様々なフェアネス緩和技術が存在するが、AUC最適化におけるフェアネスの考慮は初期段階にあり、ほとんどの研究はクリーンプロテクトグループの仮定によるAUCフェアネスの改善に焦点を当てている。
しかし、これらの研究は、しばしば騒々しい保護された集団の影響を見落とし、実際は公正な違反につながった。
そこで本稿では, 分布的ロバストな最適化手法を用いて, 公平性理論的保証を持つ雑音保護群の下で, 初めて頑健なAUCフェアネス手法を提案する。
表と画像のデータセットに対する大規模な実験により、我々の手法はAUCフェアネスの保存における最先端のアプローチよりも優れていることが示された。
コードはhttps://github.com/Purdue-M2/AUC_Fairness_with_Noisy_Groupsにある。
関連論文リスト
- Continuous Fair SMOTE -- Fairness-Aware Stream Learning from Imbalanced Data [4.248022697109535]
フェアネスを意識した連続SMOTE変種としてCFSMOTEを提案する。
他のフェアネス対応ストリーム学習者とは異なり、CFSMOTEは特定のフェアネスメトリックのみを最適化していない。
実験の結果,バニラC-SMOTEと比較して,グループフェアネスの指標が有意な改善を示した。
論文 参考訳(メタデータ) (2025-05-19T13:46:47Z) - DRAUC: An Instance-wise Distributionally Robust AUC Optimization
Framework [133.26230331320963]
ROC曲線のエリア(AUC)は、長い尾の分類のシナリオにおいて広く用いられている指標である。
本研究では,分散ロバストAUC(DRAUC)のインスタンスワイドサロゲート損失を提案し,その上に最適化フレームワークを構築した。
論文 参考訳(メタデータ) (2023-11-06T12:15:57Z) - Weakly Supervised AUC Optimization: A Unified Partial AUC Approach [53.59993683627623]
本稿では,弱い教師付きAUC最適化問題に対する統一的なフレームワークであるWSAUCを提案する。
まず, 汚染された集合に対するAUCリスクを最小化するための共通定式化として, 各種弱教師付きシナリオにおけるAUC最適化問題を考察した。
次に, 汚染ラベルの存在下でのAUCの堅牢なトレーニング目標となる, 新しい部分的AUC, 特に逆部分的AUC (rpAUC) を導入する。
論文 参考訳(メタデータ) (2023-05-23T17:11:33Z) - Minimax AUC Fairness: Efficient Algorithm with Provable Convergence [35.045187964671335]
実用性を維持しつつ,グループ内AUCとグループ間AUCの両方を組み込んだミニマックス学習・バイアス軽減フレームワークを提案する。
この枠組みに基づいて,効率的な最適化アルゴリズムを設計し,その最小グループレベルのAUCへの収束性を証明する。
論文 参考訳(メタデータ) (2022-08-22T17:11:45Z) - Optimizing Two-way Partial AUC with an End-to-end Framework [154.47590401735323]
ROC曲線のエリア(AUC)は、機械学習にとって重要な指標である。
最近の研究は、TPAUCが既存のPartial AUCメトリクスと本質的に矛盾していることを示している。
本論文では,この新指標を最適化するための最初の試行について述べる。
論文 参考訳(メタデータ) (2022-06-23T12:21:30Z) - Fairness for AUC via Feature Augmentation [25.819342066717002]
本研究では,受信機動作特性の曲線 (AUC) の下の領域で性能が測定される分類の文脈における公平さについて検討する。
識別可能なグループ間のバイアスを軽減するため,特徴増強(追加機能)に基づく新しいアプローチである FairAUC を開発した。
論文 参考訳(メタデータ) (2021-11-24T22:32:19Z) - Learning with Multiclass AUC: Theory and Algorithms [141.63211412386283]
ROC曲線 (AUC) の下の領域は、不均衡学習やレコメンダシステムといった問題に対するよく知られたランキング基準である。
本稿では,マルチクラスAUCメトリクスを最適化することで,多クラススコアリング関数を学習する問題について検討する。
論文 参考訳(メタデータ) (2021-07-28T05:18:10Z) - Fairness without Demographics through Adversarially Reweighted Learning [20.803276801890657]
保護されたグループメンバーシップさえ知らない場合、フェアネスを改善するためにMLモデルをトレーニングします。
特に,非保護機能やタスクラベルは公平性の問題を特定する上で有用である,という仮説を立てる。
以上の結果から,ARLはRawlsian Max-Minフェアネスを向上し,複数のデータセットにおける最悪の保護グループに対するAUCの顕著な改善が見られた。
論文 参考訳(メタデータ) (2020-06-23T16:06:52Z) - Robust Optimization for Fairness with Noisy Protected Groups [85.13255550021495]
ノイズが保護されたグループラベルに頼った結果について検討した。
頑健な最適化を用いた2つの新しいアプローチを提案する。
頑健なアプローチは、単純アプローチよりも真のグループ公平性を保証することが示される。
論文 参考訳(メタデータ) (2020-02-21T14:58:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。