論文の概要: Fairness-informed Pareto Optimization : An Efficient Bilevel Framework
- arxiv url: http://arxiv.org/abs/2601.13448v1
- Date: Mon, 19 Jan 2026 23:05:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-21 22:47:23.089595
- Title: Fairness-informed Pareto Optimization : An Efficient Bilevel Framework
- Title(参考訳): フェアネスインフォームドパレート最適化 : 効率的な双方向フレームワーク
- Authors: Sofiane Tanji, Samuel Vaiter, Yassine Laguel,
- Abstract要約: フェアネス指標の最適モデルを復元するフレームワークであるBADRを提案する。
BADRには、BADR-GDとBADR-SGDという2つの新しい大規模シングルループアルゴリズムが備わっている。
BadrはオープンソースのPythonツールボックスで、さまざまな学習タスクと公正度メトリクスのためのフレームワークを実装しています。
- 参考スコア(独自算出の注目度): 9.47506642944168
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Despite their promise, fair machine learning methods often yield Pareto-inefficient models, in which the performance of certain groups can be improved without degrading that of others. This issue arises frequently in traditional in-processing approaches such as fairness-through-regularization. In contrast, existing Pareto-efficient approaches are biased towards a certain perspective on fairness and fail to adapt to the broad range of fairness metrics studied in the literature. In this paper, we present BADR, a simple framework to recover the optimal Pareto-efficient model for any fairness metric. Our framework recovers its models through a Bilevel Adaptive Rescalarisation procedure. The lower level is a weighted empirical risk minimization task where the weights are a convex combination of the groups, while the upper level optimizes the chosen fairness objective. We equip our framework with two novel large-scale, single-loop algorithms, BADR-GD and BADR-SGD, and establish their convergence guarantees. We release badr, an open-source Python toolbox implementing our framework for a variety of learning tasks and fairness metrics. Finally, we conduct extensive numerical experiments demonstrating the advantages of BADR over existing Pareto-efficient approaches to fairness.
- Abstract(参考訳): その約束にもかかわらず、公正な機械学習手法はパレート非効率なモデルを生成することが多く、そこでは特定のグループの性能を他のグループの性能を劣化させることなく改善することができる。
この問題は、フェアネススルー規則化のような伝統的なプロセス内アプローチで頻繁に発生する。
対照的に、既存のパレート効率のアプローチは、公正性に関するある視点に偏りがあり、文献で研究された幅広い公正度指標に適応できない。
本稿では,任意の公正度測定値に対して最適なパレート効率モデルを復元するための単純なフレームワークであるBADRを提案する。
当社のフレームワークは,バイレベル適応再スカラ化手法を用いてモデルを復元する。
下層は、重み付けされた経験的リスク最小化タスクであり、重み付けはグループの凸結合であり、上層は選択された公正目標を最適化する。
我々は,BADR-GD と BADR-SGD の2つの新しい大規模単一ループアルゴリズムと,その収束保証を確立する。
BadrはオープンソースのPythonツールボックスで、さまざまな学習タスクと公正度メトリクスのためのフレームワークを実装しています。
最後に,従来のパレート効率の高いフェアネスアプローチよりもBADRの利点を実証する広範な数値実験を行った。
関連論文リスト
- A General Incentives-Based Framework for Fairness in Multi-agent Resource Allocation [4.930376365020355]
GIFF(General Incentives-based Framework for Fairness)を紹介する。
GIFFは、標準値関数から公平な意思決定を推測する、公平なマルチエージェントリソース割り当てのための新しいアプローチである。
論文 参考訳(メタデータ) (2025-10-30T17:37:51Z) - Generalized Linear Bandits: Almost Optimal Regret with One-Pass Update [70.38810219913593]
非線形リンク関数を組み込んで古典線形モデルを拡張したコンテキスト型多武装バンディットフレームワークである一般化線形バンディット問題(GLB)について検討する。
GLBは現実世界のシナリオに広く適用できるが、その非線形性は計算効率と統計効率の両方を達成する上で大きな課題をもたらす。
本稿では,$mathcalO(1)$時間と1ラウンドあたりの空間複雑度をほぼ最適に再現するアルゴリズムを提案する。
論文 参考訳(メタデータ) (2025-07-16T02:24:21Z) - Federated Learning with Relative Fairness [6.460475042590685]
本稿では,クライアントのテキストの公平性を実現するための,連合学習フレームワークを提案する。
提案フレームワークは,分散ロバスト最適化(DRO)における従来の手法を拡張し,相対不公平性を最小化するミニマックス問題手法を用いる。
クライアント間の大きな損失と小さな損失の比率に基づいて、新しい公正度指数を導入し、トレーニングされたモデルの相対的公正性を評価し改善する。
論文 参考訳(メタデータ) (2024-11-02T07:12:49Z) - Integrating Fairness and Model Pruning Through Bi-level Optimization [16.213634992886384]
フェアネス基準に準拠したスパースモデルを開発することを含む、フェアモデルプルーニングという新しい概念を導入する。
特に,プルーニングマスクと重み更新処理を公平性制約で協調的に最適化する枠組みを提案する。
このフレームワークは、統一されたプロセスにおける公正性を確保しながら、パフォーマンスを維持するモデルを圧縮するように設計されている。
論文 参考訳(メタデータ) (2023-12-15T20:08:53Z) - Towards Calibrated Robust Fine-Tuning of Vision-Language Models [97.19901765814431]
本研究は、視覚言語モデルにおいて、OOD精度と信頼性校正の両方を同時に改善する頑健な微調整法を提案する。
OOD分類とOOD校正誤差は2つのIDデータからなる共有上限を持つことを示す。
この知見に基づいて,最小の特異値を持つ制約付きマルチモーダルコントラスト損失を用いて微調整を行う新しいフレームワークを設計する。
論文 参考訳(メタデータ) (2023-11-03T05:41:25Z) - Re-weighting Based Group Fairness Regularization via Classwise Robust
Optimization [30.089819400033985]
そこで本研究では,グループフェアネス尺度を学習目標に組み込むことにより,この2つの学習手法を統一する原理的手法を提案する。
我々は,各グループに対して適切な再重み付けを自動的に生成することにより,結果の目的を最小化する反復最適化アルゴリズムを開発した。
実験の結果,FairDROはスケーラブルで,多様なアプリケーションに容易に適用可能であることがわかった。
論文 参考訳(メタデータ) (2023-03-01T12:00:37Z) - Distributionally Robust Models with Parametric Likelihood Ratios [123.05074253513935]
3つの単純なアイデアにより、より広いパラメトリックな確率比のクラスを用いてDROでモデルを訓練することができる。
パラメトリック逆数を用いてトレーニングしたモデルは、他のDROアプローチと比較して、サブポピュレーションシフトに対して一貫して頑健であることがわかった。
論文 参考訳(メタデータ) (2022-04-13T12:43:12Z) - Beyond Individual and Group Fairness [90.4666341812857]
本稿では,不公平な不公平な苦情に導かれる公平さの新しいデータ駆動モデルを提案する。
我々のモデルは、複数のフェアネス基準をサポートし、それらの潜在的な不整合を考慮に入れている。
論文 参考訳(メタデータ) (2020-08-21T14:14:44Z) - Towards Model-Agnostic Post-Hoc Adjustment for Balancing Ranking
Fairness and Algorithm Utility [54.179859639868646]
Bipartiteランキングは、ラベル付きデータから正の個人よりも上位の個人をランク付けするスコアリング機能を学ぶことを目的としている。
学習したスコアリング機能が、異なる保護グループ間で体系的な格差を引き起こすのではないかという懸念が高まっている。
本稿では、二部構成のランキングシナリオにおいて、それらのバランスをとるためのモデル後処理フレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-15T10:08:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。