論文の概要: APFEx: Adaptive Pareto Front Explorer for Intersectional Fairness
- arxiv url: http://arxiv.org/abs/2509.13908v1
- Date: Wed, 17 Sep 2025 11:13:22 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-18 18:41:50.830988
- Title: APFEx: Adaptive Pareto Front Explorer for Intersectional Fairness
- Title(参考訳): APFEx: インターセクションフェアネスのための適応パレートフロントエクスプローラー
- Authors: Priyobrata Mondal, Faizanuddin Ansari, Swagatam Das,
- Abstract要約: 本稿では,共同最適化問題として,交差フェアネスを明示的にモデル化する最初のフレームワークであるAPFExを紹介する。
APFExは、適応的な多目的性、勾配重み付け、探索戦略を組み合わせて、公正さと精度のトレードオフをナビゲートする。
4つの実世界のデータセットの実験は、APFExの優位性を示し、競争精度を維持しながら公正な違反を減らす。
- 参考スコア(独自算出の注目度): 16.993547305381327
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Ensuring fairness in machine learning models is critical, especially when biases compound across intersecting protected attributes like race, gender, and age. While existing methods address fairness for single attributes, they fail to capture the nuanced, multiplicative biases faced by intersectional subgroups. We introduce Adaptive Pareto Front Explorer (APFEx), the first framework to explicitly model intersectional fairness as a joint optimization problem over the Cartesian product of sensitive attributes. APFEx combines three key innovations- (1) an adaptive multi-objective optimizer that dynamically switches between Pareto cone projection, gradient weighting, and exploration strategies to navigate fairness-accuracy trade-offs, (2) differentiable intersectional fairness metrics enabling gradient-based optimization of non-smooth subgroup disparities, and (3) theoretical guarantees of convergence to Pareto-optimal solutions. Experiments on four real-world datasets demonstrate APFEx's superiority, reducing fairness violations while maintaining competitive accuracy. Our work bridges a critical gap in fair ML, providing a scalable, model-agnostic solution for intersectional fairness.
- Abstract(参考訳): マシンラーニングモデルにおける公正性を保証することは、特に人種、性別、年齢といった保護された属性と交差するバイアスが混ざり合っている場合、非常に重要である。
既存の手法は単一属性の公平性に対処するが、交叉部分群が直面するニュアンス付き、乗法バイアスを捉えない。
本稿では,アダプティブ・パレート・フロントエクスプローラー (APFEx) について紹介する。
APFExは,(1)パレートコーンの投射,勾配重み付け,及び探索戦略を動的に切り替える適応的多目的最適化器,(2)非滑らかな部分群格差の勾配に基づく最適化を可能にする異種交叉公正度測定器,(3)パレート最適解への収束の理論的保証,の3つの重要なイノベーションを組み合わせる。
4つの実世界のデータセットの実験は、APFExの優位性を示し、競争精度を維持しながら公正な違反を減らす。
私たちの作業は、公正なMLにおいて重要なギャップを埋め、交差する公正性のためのスケーラブルでモデルに依存しないソリューションを提供します。
関連論文リスト
- Intersectional Divergence: Measuring Fairness in Regression [21.34290540936501]
回帰タスクにおける交叉公正度を測定するための新しい手法を提案する。
不均衡な領域の選好を考慮せずに、グループの平均誤差を測るには不十分である。
IDを損失関数、IDLossに適合させる方法を示し、収束保証を満足し、スムーズな性質を持つ。
論文 参考訳(メタデータ) (2025-05-01T19:43:12Z) - Fairness-Aware Meta-Learning via Nash Bargaining [63.44846095241147]
本稿では,機械学習におけるグループレベルの公平性の問題に対処する2段階のメタ学習フレームワークを提案する。
第1段階では、過度な競合を解決するためにNash Bargaining Solution(NBS)を使用して、モデルをステアリングする。
6つのキーフェアネスデータセットと2つの画像分類タスクにおいて、様々なフェアネス目標に対して経験的効果を示す。
論文 参考訳(メタデータ) (2024-06-11T07:34:15Z) - Controllable Preference Optimization: Toward Controllable Multi-Objective Alignment [103.12563033438715]
人工知能におけるアライメントは、モデル応答と人間の好みと値の一貫性を追求する。
既存のアライメント技術は、主に一方向であり、様々な目的に対して、最適以下のトレードオフと柔軟性の低下につながる。
制御可能な選好最適化(CPO)を導入し、異なる目的に対する選好スコアを明確に指定する。
論文 参考訳(メタデータ) (2024-02-29T12:12:30Z) - DualFair: Fair Representation Learning at Both Group and Individual
Levels via Contrastive Self-supervision [73.80009454050858]
この研究は、DualFairと呼ばれる自己教師型モデルを提示し、学習された表現から性別や人種などのセンシティブな属性をデバイアスすることができる。
我々のモデルは、グループフェアネスと対実フェアネスという2つのフェアネス基準を共同で最適化する。
論文 参考訳(メタデータ) (2023-03-15T07:13:54Z) - Practical Approaches for Fair Learning with Multitype and Multivariate
Sensitive Attributes [70.6326967720747]
現実世界に展開された機械学習アルゴリズムが不公平さや意図しない社会的結果をもたらすことはないことを保証することが重要である。
本稿では,カーネルHilbert Spacesの相互共分散演算子上に構築されたフェアネス尺度であるFairCOCCOを紹介する。
実世界のデータセットにおける予測能力と公正性のバランスをとる上で、最先端技術に対する一貫した改善を実証的に示す。
論文 参考訳(メタデータ) (2022-11-11T11:28:46Z) - Fairness via Adversarial Attribute Neighbourhood Robust Learning [49.93775302674591]
本稿では,分類ヘッドを損なうために,UnderlineRobust underlineAdversarial underlineAttribute underlineNeighbourhood (RAAN)損失を原則として提案する。
論文 参考訳(メタデータ) (2022-10-12T23:39:28Z) - Finding Pareto Trade-offs in Fair and Accurate Detection of Toxic Speech [10.117274664802343]
我々は、人口集団間でバランスの取れた精度を提供するために、人気の公正度尺度である精度パリティの微分可能なバージョンを開発する。
次に、モデルに依存しないHyperNetwork最適化が任意のNLPモデルアーキテクチャを効率的にトレーニングする方法を示す。
提案手法の汎用性と有効性は,2つのデータセット,3つのニューラルアーキテクチャ,3つのフェアネス損失にまたがる。
論文 参考訳(メタデータ) (2022-04-15T22:11:25Z) - Semi-supervised Domain Adaptive Structure Learning [72.01544419893628]
半教師付きドメイン適応 (SSDA) は,1) アノテーションの低いデータに過度に適合する手法と,2) ドメイン間の分散シフトの両方を克服しなければならない課題である。
SSLとDAの協調を正規化するための適応型構造学習手法を提案する。
論文 参考訳(メタデータ) (2021-12-12T06:11:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。