論文の概要: Maximin Relative Improvement: Fair Learning as a Bargaining Problem
- arxiv url: http://arxiv.org/abs/2602.04155v1
- Date: Wed, 04 Feb 2026 02:44:56 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-05 19:45:11.346566
- Title: Maximin Relative Improvement: Fair Learning as a Bargaining Problem
- Title(参考訳): Maximin Relative Improvement: Fair Learning as a Bar getting problem
- Authors: Jiwoo Han, Moulinath Banerjee, Yuekai Sun,
- Abstract要約: グループフェアネスをサブ集団間の交渉問題として解釈するアプローチを根本的に異なるアプローチで提案する。
このゲーム理論的な観点は、最悪のグループ損失の最小化や後悔の最小化のような既存の堅牢な最適化手法が古典的なバリ取り解に対応していることを示している。
そこで我々は,Kalai-Smorodinsky溶液を回収するベースライン予測器によるリスク低減と潜在的な低減の相対的改善を提案する。
- 参考スコア(独自算出の注目度): 24.940259610524482
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: When deploying a single predictor across multiple subpopulations, we propose a fundamentally different approach: interpreting group fairness as a bargaining problem among subpopulations. This game-theoretic perspective reveals that existing robust optimization methods such as minimizing worst-group loss or regret correspond to classical bargaining solutions and embody different fairness principles. We propose relative improvement, the ratio of actual risk reduction to potential reduction from a baseline predictor, which recovers the Kalai-Smorodinsky solution. Unlike absolute-scale methods that may not be comparable when groups have different potential predictability, relative improvement provides axiomatic justification including scale invariance and individual monotonicity. We establish finite-sample convergence guarantees under mild conditions.
- Abstract(参考訳): 複数のサブポピュレーションに1つの予測器を配置する際、グループフェアネスをサブポピュレーション間の係り受け問題として解釈するという、根本的に異なるアプローチを提案する。
このゲーム理論的な観点は、最悪のグループ損失や後悔を最小限に抑えるような既存の堅牢な最適化手法が古典的なバリ取り解に対応し、異なるフェアネス原理を具現化していることを示している。
そこで我々は,Kalai-Smorodinsky溶液を回収するベースライン予測器によるリスク低減と潜在的な低減の相対的改善を提案する。
群が予測可能性が異なる場合に匹敵しない絶対スケールの方法とは異なり、相対的な改善はスケール不変性や個々の単調性を含む公理的正当化を提供する。
穏やかな条件下で有限サンプル収束を保証する。
関連論文リスト
- Generalization Bounds of Surrogate Policies for Combinatorial Optimization Problems [53.03951222945921]
我々はスムーズな(摂動された)ポリシーを解析し、線形オラクルが使用する方向に対して制御されたランダムな摂動を付加する。
我々の主な貢献は、過剰リスクを摂動バイアス、統計的推定誤差、最適化誤差に分解する一般化境界である。
車両のスケジューリングやスムーズ化がトラクタブルトレーニングと制御された一般化の両方を可能にしていることを示す。
論文 参考訳(メタデータ) (2024-07-24T12:00:30Z) - On the Uniform Convergence of Subdifferentials in Stochastic Optimization and Learning [1.5229257192293195]
実験的リスクから集団リスクへのサブディファレンシャルマッピングの一様収束を非平滑,非評価,決定論的最適化を用いて検討した。
これらの保証は、堅牢な統計と関連する応用に起因する問題の幾何学に関する新たな洞察を提供する。
論文 参考訳(メタデータ) (2024-05-16T17:49:46Z) - Model-Based Epistemic Variance of Values for Risk-Aware Policy Optimization [59.758009422067]
モデルベース強化学習における累積報酬に対する不確実性を定量化する問題を考察する。
我々は、解が値の真後分散に収束する新しい不確実性ベルマン方程式(UBE)を提案する。
本稿では,リスク・サーキングとリスク・アバース・ポリシー最適化のいずれにも適用可能な汎用ポリシー最適化アルゴリズムQ-Uncertainty Soft Actor-Critic (QU-SAC)を導入する。
論文 参考訳(メタデータ) (2023-12-07T15:55:58Z) - Domain Generalization without Excess Empirical Risk [83.26052467843725]
一般的なアプローチは、一般化を捉え、ペナルティと共同で経験的リスクを最小化するために、データ駆動の代理ペナルティを設計することである。
我々は、このレシピの重大な失敗モードは、共同最適化における誤ったペナルティや難しさによる過度なリスクであると主張している。
我々は,この問題を解消するアプローチを提案し,経験的リスクと刑罰を同時に最小化する代わりに,経験的リスクの最適性の制約の下でのペナルティを最小化する。
論文 参考訳(メタデータ) (2023-08-30T08:46:46Z) - Stochastic Variance Reduction for Variational Inequality Methods [19.061953585686986]
凸凹サドル点問題, 単調変位不等式, 単調包含問題に対する分散化アルゴリズムを提案する。
私たちのフレームワークは、ユークリッドとブレグマンの両方で、エクストラグラデーション、フォワードバックワード、フォワードリフレクテッドバックワードメソッドに適用されます。
論文 参考訳(メタデータ) (2021-02-16T18:39:16Z) - Towards Optimal Problem Dependent Generalization Error Bounds in
Statistical Learning Theory [11.840747467007963]
我々は,「ベスト勾配仮説」で評価された分散,有効損失誤差,ノルムとほぼ最適にスケールする問題依存率について検討する。
一様局所収束(uniform localized convergence)と呼ばれる原理的枠組みを導入する。
我々は,既存の一様収束と局所化解析のアプローチの基本的制約を,我々のフレームワークが解決していることを示す。
論文 参考訳(メタデータ) (2020-11-12T04:07:29Z) - A One-step Approach to Covariate Shift Adaptation [82.01909503235385]
多くの機械学習シナリオにおけるデフォルトの前提は、トレーニングとテストサンプルは同じ確率分布から引き出されることである。
予測モデルと関連する重みを1つの最適化で共同で学習する新しいワンステップアプローチを提案する。
論文 参考訳(メタデータ) (2020-07-08T11:35:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。