論文の概要: Projected Boosting with Fairness Constraints: Quantifying the Cost of Fair Training Distributions
- arxiv url: http://arxiv.org/abs/2602.05713v1
- Date: Thu, 05 Feb 2026 14:38:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-06 18:49:08.979862
- Title: Projected Boosting with Fairness Constraints: Quantifying the Cost of Fair Training Distributions
- Title(参考訳): フェアネス制約付きプロジェクションブースティング:フェアトレーニングのコストの定量化
- Authors: Amir Asiaee, Kaveh Aryan,
- Abstract要約: 分析可能なトレーニングダイナミクスを保ちながら,グループフェアネスの制約を強化に組み込む方法について検討する。
このアプローチであるFairBoostは、アンサンブルによって誘導される指数重み付け分布を、公正性制約を満たす凸分布に投影する。
標準ベンチマークの実験は、理論的な予測を検証し、競争公正性と精度のトレードオフを実証する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Boosting algorithms enjoy strong theoretical guarantees: when weak learners maintain positive edge, AdaBoost achieves geometric decrease of exponential loss. We study how to incorporate group fairness constraints into boosting while preserving analyzable training dynamics. Our approach, FairBoost, projects the ensemble-induced exponential-weights distribution onto a convex set of distributions satisfying fairness constraints (as a reweighting surrogate), then trains weak learners on this fair distribution. The key theoretical insight is that projecting the training distribution reduces the effective edge of weak learners by a quantity controlled by the KL-divergence of the projection. We prove an exponential-loss bound where the convergence rate depends on weak learner edge minus a "fairness cost" term $δ_t = \sqrt{\mathrm{KL}(w^t \| q^t)/2}$. This directly quantifies the accuracy-fairness tradeoff in boosting dynamics. Experiments on standard benchmarks validate the theoretical predictions and demonstrate competitive fairness-accuracy tradeoffs with stable training curves.
- Abstract(参考訳): 弱い学習者が正のエッジを維持している場合、AdaBoostは指数損失の幾何的減少を達成する。
分析可能なトレーニングダイナミクスを保ちながら,グループフェアネスの制約を向上に組み込む方法について検討する。
われわれのアプローチであるFairBoostは、アンサンブルによって誘導される指数重み分布を(重み付けサロゲートとして)フェアネス制約を満たす凸分布に投射し、このフェアディストリビューション上で弱い学習者を訓練する。
鍵となる理論的洞察は、訓練分布を投影することで、プロジェクションのKL分割によって制御される量によって弱い学習者の有効エッジが減少するということである。
収束速度が弱い学習者のエッジに依存する指数的余剰境界は、$δ_t = \sqrt{\mathrm{KL}(w^t \| q^t)/2}$ という「フェアネスコスト」を抑える。
これにより、ダイナミックスを加速する際の正確性と公平性のトレードオフを直接定量化できる。
標準ベンチマークの実験は、理論予測を検証し、安定なトレーニング曲線を持つ競合フェアネス精度トレードオフを実証する。
関連論文リスト
- Learning Counterfactually Fair Models via Improved Generation with Neural Causal Models [3.0610592694343057]
機械学習モデルを現実世界のアプリケーションにデプロイする際の主な関心事のひとつは、公平性である。
既存のカウンターファクトフェアネスの実施方法には2つの制限があるようである。
本稿では,反現実的なサンプルを生成するためにニューラル因果モデルを提案する。
また,MMDをベースとした新たな正規化手法を提案する。
論文 参考訳(メタデータ) (2025-02-18T11:59:03Z) - Dr. FERMI: A Stochastic Distributionally Robust Fair Empirical Risk
Minimization Framework [12.734559823650887]
分散シフトが存在する場合、公正な機械学習モデルはテストデータに対して不公平に振る舞うことがある。
既存のアルゴリズムはデータへの完全なアクセスを必要とし、小さなバッチを使用する場合には使用できない。
本稿では,因果グラフの知識を必要としない収束保証付き分布安定度フレームワークを提案する。
論文 参考訳(メタデータ) (2023-09-20T23:25:28Z) - Distributional Reinforcement Learning with Dual Expectile-Quantile Regression [51.87411935256015]
分布RLに対する量子レグレッションアプローチは、任意の戻り分布を柔軟かつ効果的に学習する方法を提供する。
我々は,分布推定が消失することを示し,推定分布が急速に平均に崩壊することを実証的に観察した。
我々は,$L$の学習効率に感化され,効率のよい学習方法として,返却分布の期待値と量子値を共同で学習することを提案する。
論文 参考訳(メタデータ) (2023-05-26T12:30:05Z) - Chasing Fairness Under Distribution Shift: A Model Weight Perturbation
Approach [72.19525160912943]
まず,分布シフト,データ摂動,モデルウェイト摂動の関連性を理論的に検証した。
次に、ターゲットデータセットの公平性を保証するのに十分な条件を分析します。
これらの十分な条件により、ロバストフェアネス正則化(RFR)を提案する。
論文 参考訳(メタデータ) (2023-03-06T17:19:23Z) - How Robust is Your Fairness? Evaluating and Sustaining Fairness under
Unseen Distribution Shifts [107.72786199113183]
CUMA(CUrvature Matching)と呼ばれる新しいフェアネス学習手法を提案する。
CUMAは、未知の分布シフトを持つ未知の領域に一般化可能な頑健な公正性を達成する。
提案手法を3つの人気フェアネスデータセットで評価する。
論文 参考訳(メタデータ) (2022-07-04T02:37:50Z) - Fairness Transferability Subject to Bounded Distribution Shift [5.62716254065607]
あるソース分布に「フェア」なアルゴリズム予測器が与えられたとしても、あるバウンダリ内のソースと異なる未知のターゲット分布上では、まだフェアなのか?
本研究では,有界分布シフトを考慮した機械学習予測器の統計的グループフェアネスの伝達可能性について検討する。
論文 参考訳(メタデータ) (2022-05-31T22:16:44Z) - Fair Densities via Boosting the Sufficient Statistics of Exponential
Families [72.34223801798422]
フェアネスのためのデータ前処理にブースティングアルゴリズムを導入する。
私たちのアプローチは、最小限の公平性を確保しながら、より良いデータフィッティングへとシフトします。
実世界のデータに結果の質を示す実験結果が提示される。
論文 参考訳(メタデータ) (2020-12-01T00:49:17Z) - Distributional Reinforcement Learning via Moment Matching [54.16108052278444]
ニューラルネットワークを用いて各戻り分布から統計量の有限集合を学習する手法を定式化する。
我々の手法は、戻り分布とベルマン目標の間のモーメントの全ての順序を暗黙的に一致させるものとして解釈できる。
Atariゲームスイートの実験により,本手法は標準分布RLベースラインよりも優れていることが示された。
論文 参考訳(メタデータ) (2020-07-24T05:18:17Z) - A Distributionally Robust Approach to Fair Classification [17.759493152879013]
本研究では、性別や民族などのセンシティブな属性に対する差別を防止する不公平なペナルティを持つロジスティックなロジスティック回帰モデルを提案する。
このモデルは、トレーニングデータ上の経験的分布を中心とするワッサーシュタイン球が分布の不確かさのモデル化に使用される場合、トラクタブル凸最適化問題と等価である。
得られた分類器は, 合成データセットと実データセットの両方において, 予測精度の限界損失による公平性の向上を実証する。
論文 参考訳(メタデータ) (2020-07-18T22:34:48Z) - Ensuring Fairness Beyond the Training Data [22.284777913437182]
トレーニング分布と摂動のクラスに対して公平な分類器を開発する。
オンライン学習アルゴリズムに基づいて、公正で堅牢な解に収束する反復アルゴリズムを開発する。
実験の結果, 正当性と正当性との間には, 本質的にトレードオフがあることが判明した。
論文 参考訳(メタデータ) (2020-07-12T16:20:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。