論文の概要: Fair Supervised Learning Through Constraints on Smooth Nonconvex Unfairness-Measure Surrogates
- arxiv url: http://arxiv.org/abs/2505.15788v1
- Date: Wed, 21 May 2025 17:41:06 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-22 15:42:59.808006
- Title: Fair Supervised Learning Through Constraints on Smooth Nonconvex Unfairness-Measure Surrogates
- Title(参考訳): Smooth Nonconvex Unfairness-Measure Surrogate の制約による公正な教師付き学習
- Authors: Zahra Khatti, Daniel P. Robinson, Frank E. Curtis,
- Abstract要約: 公正な教師付き機械学習のための新しい戦略を提案する。
文献上の他のものと比較して提案された戦略の主な利点は以下の通りである。
- 参考スコア(独自算出の注目度): 6.516872951510096
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: A new strategy for fair supervised machine learning is proposed. The main advantages of the proposed strategy as compared to others in the literature are as follows. (a) We introduce a new smooth nonconvex surrogate to approximate the Heaviside functions involved in discontinuous unfairness measures. The surrogate is based on smoothing methods from the optimization literature, and is new for the fair supervised learning literature. The surrogate is a tight approximation which ensures the trained prediction models are fair, as opposed to other (e.g., convex) surrogates that can fail to lead to a fair prediction model in practice. (b) Rather than rely on regularizers (that lead to optimization problems that are difficult to solve) and corresponding regularization parameters (that can be expensive to tune), we propose a strategy that employs hard constraints so that specific tolerances for unfairness can be enforced without the complications associated with the use of regularization. (c)~Our proposed strategy readily allows for constraints on multiple (potentially conflicting) unfairness measures at the same time. Multiple measures can be considered with a regularization approach, but at the cost of having even more difficult optimization problems to solve and further expense for tuning. By contrast, through hard constraints, our strategy leads to optimization models that can be solved tractably with minimal tuning.
- Abstract(参考訳): 公正な教師付き機械学習のための新しい戦略を提案する。
文献上の他のものと比較して提案された戦略の主な利点は以下の通りである。
(a)不連続不連続性対策に関わるヘヴィサイド関数を近似するスムーズな非凸サロゲートを導入する。
シュロゲートは最適化文学からのスムースな手法に基づいており、公正な教師付き学習文学にとって新しいものである。
シュロゲート(英: surrogate)は、訓練された予測モデルが公正であることを保証する厳密な近似であり、実際には公正な予測モデルに繋がらない他の(例えば凸)シュロゲートとは対照的である。
b) 正規化に係わる問題(解き難い最適化問題)やそれに対応する正規化パラメータ(チューニングに費用がかかる)に頼らず、厳密な制約を生かして、正規化の複雑さを伴わずに、不公平性に対する特定の寛容を強制できる戦略を提案する。
(c)~我々の提案した戦略は、同時に複数の(潜在的に矛盾する)不公平な措置に対する制約を容易に許容する。
複数の測度は正規化のアプローチで考えることができるが、より難しい最適化問題とチューニングのコストが伴う。
対照的に、厳密な制約によって、我々の戦略は、最小限のチューニングでトラクタブルに解決できる最適化モデルに導かれる。
関連論文リスト
- Learning sparsity-promoting regularizers for linear inverse problems [5.812129569528998]
本稿では,線形逆問題の解法として,疎性促進型正規化器の学習手法を提案する。
本稿では,最適合成演算子を選択するための二段階最適化フレームワークを開発する。
論文 参考訳(メタデータ) (2024-12-20T16:26:54Z) - Provably Mitigating Overoptimization in RLHF: Your SFT Loss is Implicitly an Adversarial Regularizer [52.09480867526656]
人間の嗜好を学習する際の分布変化と不確実性の一形態として,不一致の原因を同定する。
過度な最適化を緩和するために、まず、逆選択された報酬モデルに最適なポリシーを選択する理論アルゴリズムを提案する。
報奨モデルとそれに対応する最適ポリシーの等価性を用いて、優先最適化損失と教師付き学習損失を組み合わせた単純な目的を特徴とする。
論文 参考訳(メタデータ) (2024-05-26T05:38:50Z) - OptiGrad: A Fair and more Efficient Price Elasticity Optimization via a Gradient Based Learning [7.145413681946911]
本稿では,非生命保険市場の利益率を勾配降下法により最適化する新しい手法を提案する。
1)利益マージンの最大化、2)転換率の確保、3)人口比率(DP)などの公正基準の実施の3つの主要な目標を目標としている。
論文 参考訳(メタデータ) (2024-04-16T04:21:59Z) - Learning Constrained Optimization with Deep Augmented Lagrangian Methods [54.22290715244502]
機械学習(ML)モデルは、制約付き最適化ソルバをエミュレートするために訓練される。
本稿では,MLモデルを用いて2つの解推定を直接予測する手法を提案する。
これにより、双対目的が損失関数であるエンドツーエンドのトレーニングスキームと、双対上昇法をエミュレートした原始的実現可能性への解推定を可能にする。
論文 参考訳(メタデータ) (2024-03-06T04:43:22Z) - Towards Practical Non-Adversarial Distribution Matching [19.196082965354904]
分布マッチングは、フェアネスとロバストネスの応用で不変表現を学ぶのに使うことができる。
ほとんどの先行研究は敵のマッチング手法を頼りにしているが、結果として生じるミニマックス問題は不安定で最適化が難しい。
本稿では,任意のモデルパイプラインに適用可能な,非逆VAEベースのマッチング手法を提案する。
論文 参考訳(メタデータ) (2023-10-30T16:05:46Z) - On Regularization and Inference with Label Constraints [62.60903248392479]
機械学習パイプラインにおけるラベル制約を符号化するための2つの戦略、制約付き正規化、制約付き推論を比較した。
正規化については、制約に不整合なモデルを前置することで一般化ギャップを狭めることを示す。
制約付き推論では、モデルの違反を訂正することで人口リスクを低減し、それによってその違反を有利にすることを示す。
論文 参考訳(メタデータ) (2023-07-08T03:39:22Z) - Learning to Optimize with Stochastic Dominance Constraints [103.26714928625582]
本稿では,不確実量を比較する問題に対して,単純かつ効率的なアプローチを開発する。
我々はラグランジアンの内部最適化をサロゲート近似の学習問題として再考した。
提案したライト-SDは、ファイナンスからサプライチェーン管理に至るまで、いくつかの代表的な問題において優れた性能を示す。
論文 参考訳(メタデータ) (2022-11-14T21:54:31Z) - A Surrogate Objective Framework for Prediction+Optimization with Soft
Constraints [29.962390392493507]
SPO+や直接最適化のような決定に焦点をあてた予測手法が、このギャップを埋めるために提案されている。
本稿では,実世界の線形および半定値負の二次計画問題に対して,解析的に微分可能な主観的フレームワークを提案する。
論文 参考訳(メタデータ) (2021-11-22T17:09:57Z) - Learning the Truth From Only One Side of the Story [58.65439277460011]
一般化線形モデルに焦点をあて、このサンプリングバイアスを調整しなければ、モデルは準最適に収束するか、あるいは最適解に収束しないかもしれないことを示す。
理論的保証を伴って適応的なアプローチを提案し、いくつかの既存手法を実証的に上回っていることを示す。
論文 参考訳(メタデータ) (2020-06-08T18:20:28Z) - Teaching the Old Dog New Tricks: Supervised Learning with Constraints [18.88930622054883]
機械学習に制約サポートを追加することは、データ駆動型AIシステムにおいて際立った問題に対処する可能性がある。
既存のアプローチでは、MLトレーニングに制約付き最適化手法を適用し、モデル設計を調整することによって制約満足度を強制するか、あるいは出力を修正するために制約を使用するのが一般的である。
そこで本研究では,教師付きML手法に対する制約満足度を,最先端制約解決器の直接利用により,それぞれ異なる,補完的な制約満足度に基づく戦略について検討する。
論文 参考訳(メタデータ) (2020-02-25T09:47:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。