論文の概要: Achieving Fairness with a Simple Ridge Penalty
- arxiv url: http://arxiv.org/abs/2105.13817v1
- Date: Tue, 18 May 2021 15:43:57 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-06 08:51:07.949097
- Title: Achieving Fairness with a Simple Ridge Penalty
- Title(参考訳): 単純なリッジペナルティで公平を達成する
- Authors: Marco Scutari and Manuel Proissl
- Abstract要約: 本稿では,このタスクに対して,ユーザ定義の公平度制約を適用した,よりフレキシブルなアプローチを提案する。
我々の提案は、以前のアプローチの3つの制限を生んでいる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Estimating a fair linear regression model subject to a user-defined level of
fairness can be achieved by solving a non-convex quadratic programming
optimisation problem with quadratic constraints. In this work we propose an
alternative, more flexible approach to this task that enforces a user-defined
level of fairness by means of a ridge penalty. Our proposal addresses three
limitations of the former approach: it produces regression coefficient
estimates that are more intuitive to interpret; it is mathematically simpler,
with a solution that is partly in closed form; and it is easier to extend
beyond linear regression. We evaluate both approaches empirically on five
different data sets, and we find that our proposal provides better goodness of
fit and better predictive accuracy while being equally effective at achieving
the desired fairness level. In addition we highlight a source of bias in the
original experimental evaluation of the non-convex quadratic approach, and we
discuss how our proposal can be extended to a wide range of models.
- Abstract(参考訳): ユーザ定義の公正度に基づく線形回帰モデルの推定は、2次制約を持つ非凸2次プログラミング最適化問題を解くことで達成できる。
本研究では,尾根ペナルティによってユーザ定義の公平度を強制する,このタスクに対する代替的で柔軟なアプローチを提案する。
提案手法は, より直感的に解釈できる回帰係数の推定値を生成すること, 数学的に単純で, 部分的に閉じた解を持つこと, 線形回帰を超えて拡張しやすいこと, の3つの制限に対処する。
両手法を5つの異なるデータセットで実証的に評価し,提案手法が適合性の向上と予測精度の向上をもたらすとともに,所望の公平性レベルを達成するのに等しく有効であることを見出した。
さらに,非凸2次アプローチの当初の実験的評価におけるバイアスの源泉を明らかにするとともに,提案手法を広範囲なモデルに拡張する方法について論じる。
関連論文リスト
- Domain Generalization without Excess Empirical Risk [83.26052467843725]
一般的なアプローチは、一般化を捉え、ペナルティと共同で経験的リスクを最小化するために、データ駆動の代理ペナルティを設計することである。
我々は、このレシピの重大な失敗モードは、共同最適化における誤ったペナルティや難しさによる過度なリスクであると主張している。
我々は,この問題を解消するアプローチを提案し,経験的リスクと刑罰を同時に最小化する代わりに,経験的リスクの最適性の制約の下でのペナルティを最小化する。
論文 参考訳(メタデータ) (2023-08-30T08:46:46Z) - Provable Offline Preference-Based Reinforcement Learning [95.00042541409901]
本研究では,PbRL(Preference-based Reinforcement Learning)の問題について,人間のフィードバックを用いて検討する。
我々は、報酬が軌道全体にわたって定義できる一般的な報酬設定について考察する。
我々は, 軌道毎の集中性によって上界に拘束できる新しい単極集中係数を導入する。
論文 参考訳(メタデータ) (2023-05-24T07:11:26Z) - Mean Parity Fair Regression in RKHS [43.98593032593897]
平均パリティ(MP)フェアネスという概念の下で,公平回帰問題を考察する。
再生カーネルヒルベルト空間(RKHS)を利用してこの問題に対処する。
効率よく実装でき、解釈可能なトレードオフを提供する、対応する回帰関数を導出する。
論文 参考訳(メタデータ) (2023-02-21T02:44:50Z) - When Demonstrations Meet Generative World Models: A Maximum Likelihood
Framework for Offline Inverse Reinforcement Learning [62.00672284480755]
本稿では, 専門家エージェントから, 一定の有限個の実演において観測された動作を過小評価する報酬と環境力学の構造を復元することを目的とする。
タスクを実行するための正確な専門知識モデルは、臨床的意思決定や自律運転のような安全に敏感な応用に応用できる。
論文 参考訳(メタデータ) (2023-02-15T04:14:20Z) - Error-based Knockoffs Inference for Controlled Feature Selection [49.99321384855201]
本手法では, ノックオフ特徴量, エラーベース特徴重要度統計量, ステップダウン手順を一体化して, エラーベースのノックオフ推定手法を提案する。
提案手法では回帰モデルを指定する必要はなく,理論的保証で特徴選択を処理できる。
論文 参考訳(メタデータ) (2022-03-09T01:55:59Z) - Fair Regression under Sample Selection Bias [45.41696144835412]
サンプル選択バイアス下での公正回帰のためのフレームワークを開発する。
我々のフレームワークは、バイアス補正とラグランジュ双対性のために古典的なヘックマンモデルを採用している。
実世界の3つのデータセットで実験を行い、実験結果からアプローチの有効性を実証した。
論文 参考訳(メタデータ) (2021-10-08T20:35:12Z) - Scalable Personalised Item Ranking through Parametric Density Estimation [53.44830012414444]
暗黙のフィードバックから学ぶことは、一流問題の難しい性質のために困難です。
ほとんどの従来の方法は、一級問題に対処するためにペアワイズランキングアプローチとネガティブサンプラーを使用します。
本論文では,ポイントワイズと同等の収束速度を実現する学習対ランクアプローチを提案する。
論文 参考訳(メタデータ) (2021-05-11T03:38:16Z) - Online and Distribution-Free Robustness: Regression and Contextual
Bandits with Huber Contamination [29.85468294601847]
線形回帰と文脈的帯域幅という2つの古典的高次元オンライン学習問題を再考する。
従来の手法が失敗した場合にアルゴリズムが成功することを示す。
論文 参考訳(メタデータ) (2020-10-08T17:59:05Z) - A Distributionally Robust Approach to Fair Classification [17.759493152879013]
本研究では、性別や民族などのセンシティブな属性に対する差別を防止する不公平なペナルティを持つロジスティックなロジスティック回帰モデルを提案する。
このモデルは、トレーニングデータ上の経験的分布を中心とするワッサーシュタイン球が分布の不確かさのモデル化に使用される場合、トラクタブル凸最適化問題と等価である。
得られた分類器は, 合成データセットと実データセットの両方において, 予測精度の限界損失による公平性の向上を実証する。
論文 参考訳(メタデータ) (2020-07-18T22:34:48Z) - Learning the Truth From Only One Side of the Story [58.65439277460011]
一般化線形モデルに焦点をあて、このサンプリングバイアスを調整しなければ、モデルは準最適に収束するか、あるいは最適解に収束しないかもしれないことを示す。
理論的保証を伴って適応的なアプローチを提案し、いくつかの既存手法を実証的に上回っていることを示す。
論文 参考訳(メタデータ) (2020-06-08T18:20:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。