論文の概要: FairMT: Fairness for Heterogeneous Multi-Task Learning
- arxiv url: http://arxiv.org/abs/2512.00469v1
- Date: Sat, 29 Nov 2025 12:44:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-02 19:46:34.252992
- Title: FairMT: Fairness for Heterogeneous Multi-Task Learning
- Title(参考訳): FairMT:不均一なマルチタスク学習のためのフェアネス
- Authors: Guanyu Hu, Tangzheng Lian, Na Yan, Dimitrios Kollias, Xinyu Yang, Oya Celiktutan, Siyang Song, Zeyu Fu,
- Abstract要約: 不完全な監督下での3つのタスクタイプすべてに対応するフェアネス対応のMTLフレームワークであるFairMTを紹介する。
中心となる非対称不均一公正制約機構は、タスク依存の不斉違反を統一公正制約に集約する。
3つの同質かつ異質なMTLベンチマークにおいて、FairMTは、優れたタスクユーティリティを維持しながら、一定の公平性を達成する。
- 参考スコア(独自算出の注目度): 39.84512237923804
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Fairness in machine learning has been extensively studied in single-task settings, while fair multi-task learning (MTL), especially with heterogeneous tasks (classification, detection, regression) and partially missing labels, remains largely unexplored. Existing fairness methods are predominantly classification-oriented and fail to extend to continuous outputs, making a unified fairness objective difficult to formulate. Further, existing MTL optimization is structurally misaligned with fairness: constraining only the shared representation, allowing task heads to absorb bias and leading to uncontrolled task-specific disparities. Finally, most work treats fairness as a zero-sum trade-off with utility, enforcing symmetric constraints that achieve parity by degrading well-served groups. We introduce FairMT, a unified fairness-aware MTL framework that accommodates all three task types under incomplete supervision. At its core is an Asymmetric Heterogeneous Fairness Constraint Aggregation mechanism, which consolidates task-dependent asymmetric violations into a unified fairness constraint. Utility and fairness are jointly optimized via a primal--dual formulation, while a head-aware multi-objective optimization proxy provides a tractable descent geometry that explicitly accounts for head-induced anisotropy. Across three homogeneous and heterogeneous MTL benchmarks encompassing diverse modalities and supervision regimes, FairMT consistently achieves substantial fairness gains while maintaining superior task utility. Code will be released upon paper acceptance.
- Abstract(参考訳): 機械学習の公正性はシングルタスク設定で広く研究されているが、公平なマルチタスク学習(MTL)は、特に異種タスク(分類、検出、回帰)と部分的に欠落しているラベルで、ほとんど探索されていない。
既存のフェアネス法は主に分類指向であり、連続的な出力に拡張できないため、統一されたフェアネスの目的を定式化することは困難である。
さらに、既存のMTL最適化は、共有表現のみを制約し、タスクヘッドがバイアスを吸収し、制御されていないタスク固有の相違をもたらすという、フェアネスと構造的に不一致している。
最後に、ほとんどの研究は、フェアネスをユーティリティとのゼロサムトレードオフとして扱い、よく保存された群を分解することでパリティを達成する対称的な制約を課す。
不完全な監督下での3つのタスクタイプすべてに対応する,統一フェアネス対応のMTLフレームワークであるFairMTを紹介する。
中心となる非対称不均一公正制約機構は、タスク依存の不斉違反を統一公正制約に集約する。
実用性と公正性は、原始双対の定式化によって共同最適化され、一方、頭部認識多目的最適化プロキシは、頭部誘起異方性を明示的に考慮した、引き込み可能な降下幾何学を提供する。
多様なモダリティと監督体制を含む3つの同種および異種MTLベンチマークにおいて、FairMTは、優れたタスクユーティリティを維持しながら、一定の公平性の向上を継続的に達成している。
コードは受理後に公開される。
関連論文リスト
- MMM-fair: An Interactive Toolkit for Exploring and Operationalizing Multi-Fairness Trade-offs [2.0019258650495493]
mmm-fairは、多次元フェアネスと関連するトレードオフを探索するオープンソースツールである。
詳細なマルチ属性フェアネス、マルチオブジェクト最適化、ノーコード、チャットベースのインターフェース、LLMを使った説明、デプロイメント対応モデルを組み合わせたものだ。
論文 参考訳(メタデータ) (2025-09-09T21:30:45Z) - Principled Multimodal Representation Learning [99.53621521696051]
マルチモーダル表現学習は、多様なデータモダリティを統合することにより、統一された表現空間を作ろうとする。
最近の進歩は、複数のモードの同時アライメントを調査しているが、いくつかの課題が残っている。
複数モーダルの同時アライメントを実現する新しいフレームワークであるPMRL(Principled Multimodal Representation Learning)を提案する。
論文 参考訳(メタデータ) (2025-07-23T09:12:25Z) - Towards Cohesion-Fairness Harmony: Contrastive Regularization in
Individual Fair Graph Clustering [5.255750357176021]
iFairNMTFは、対照的なフェアネス正則化を持つ個別のフェアネス非負行列三要素化モデルである。
我々のモデルは、カスタマイズ可能な精度対公平トレードオフを可能にし、それによってユーザーの自律性を高める。
論文 参考訳(メタデータ) (2024-02-16T15:25:56Z) - f-FERM: A Scalable Framework for Robust Fair Empirical Risk Minimization [9.591164070876689]
本稿では、f-divergence measures(f-FERM)に基づく公正な経験的リスクに対する統一的な最適化フレームワークを提案する。
さらに,f-FERMによるほぼ全てのバッチサイズに対するフェアネス・精度トレードオフの優位性を実証した。
我々の拡張は、不確実集合として$L_p$ノルムの下で f-FERM の目的を分布的に頑健に最適化する手法に基づいている。
論文 参考訳(メタデータ) (2023-12-06T03:14:16Z) - FairBranch: Mitigating Bias Transfer in Fair Multi-task Learning [15.319254128769973]
マルチタスク学習(MTL)は、無関係なタスクが相反する勾配で共有パラメータを更新することで、互いに悪影響を及ぼすことに悩む。
これは負の転送と呼ばれ、シングルタスク学習(STL)と比較してMTLの精度が低下する。
論文 参考訳(メタデータ) (2023-10-20T18:07:15Z) - Practical Approaches for Fair Learning with Multitype and Multivariate
Sensitive Attributes [70.6326967720747]
現実世界に展開された機械学習アルゴリズムが不公平さや意図しない社会的結果をもたらすことはないことを保証することが重要である。
本稿では,カーネルHilbert Spacesの相互共分散演算子上に構築されたフェアネス尺度であるFairCOCCOを紹介する。
実世界のデータセットにおける予測能力と公正性のバランスをとる上で、最先端技術に対する一貫した改善を実証的に示す。
論文 参考訳(メタデータ) (2022-11-11T11:28:46Z) - How Robust is Your Fairness? Evaluating and Sustaining Fairness under
Unseen Distribution Shifts [107.72786199113183]
CUMA(CUrvature Matching)と呼ばれる新しいフェアネス学習手法を提案する。
CUMAは、未知の分布シフトを持つ未知の領域に一般化可能な頑健な公正性を達成する。
提案手法を3つの人気フェアネスデータセットで評価する。
論文 参考訳(メタデータ) (2022-07-04T02:37:50Z) - SenSeI: Sensitive Set Invariance for Enforcing Individual Fairness [50.916483212900275]
まず、ある感度集合の不変性を強制する個別の公正性のバージョンを定式化する。
次に,輸送型正規化器を設計し,個別の公平性を強制し,効率よく正規化器を最小化するためのアルゴリズムを開発する。
論文 参考訳(メタデータ) (2020-06-25T04:31:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。