論文の概要: Lexicographically Fair Learning: Algorithms and Generalization
- arxiv url: http://arxiv.org/abs/2102.08454v1
- Date: Tue, 16 Feb 2021 21:15:42 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-18 14:42:24.335958
- Title: Lexicographically Fair Learning: Algorithms and Generalization
- Title(参考訳): Lexicographically Fair Learning:アルゴリズムと一般化
- Authors: Emily Diana, Wesley Gill, Ira Globus-Harris, Michael Kearns, Aaron
Roth and Saeed Sharifi-Malvajerdi
- Abstract要約: lexifairnessは、全てのminimaxフェアソリューションの中で、2番目に高いエラーを持つグループのエラーを最小化すべきだと要求する。
私たちは、非常に一般的な設定で約lexifairソリューションを見つけるためのオラクル効率の高いアルゴリズムを導き出します。
- 参考スコア(独自算出の注目度): 13.023987750303856
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We extend the notion of minimax fairness in supervised learning problems to
its natural conclusion: lexicographic minimax fairness (or lexifairness for
short). Informally, given a collection of demographic groups of interest,
minimax fairness asks that the error of the group with the highest error be
minimized. Lexifairness goes further and asks that amongst all minimax fair
solutions, the error of the group with the second highest error should be
minimized, and amongst all of those solutions, the error of the group with the
third highest error should be minimized, and so on. Despite its naturalness,
correctly defining lexifairness is considerably more subtle than minimax
fairness, because of inherent sensitivity to approximation error. We give a
notion of approximate lexifairness that avoids this issue, and then derive
oracle-efficient algorithms for finding approximately lexifair solutions in a
very general setting. When the underlying empirical risk minimization problem
absent fairness constraints is convex (as it is, for example, with linear and
logistic regression), our algorithms are provably efficient even in the worst
case. Finally, we show generalization bounds -- approximate lexifairness on the
training sample implies approximate lexifairness on the true distribution with
high probability. Our ability to prove generalization bounds depends on our
choosing definitions that avoid the instability of naive definitions.
- Abstract(参考訳): 教師付き学習問題におけるミニマックスフェアネスの概念を自然な結論へと拡張する: lexicographic minimax fairness(略してlexifairness)。
非公式に、興味のある集団の集合が与えられたとき、minimax fairnessは、最も高い誤差を持つグループの誤差を最小化するように要求する。
Lexifairnessはさらに進み、すべてのminimaxフェアソリューションの中で、2番目に高いエラーを持つグループのエラーを最小限に抑えるべきであり、それらのすべてのソリューションの中で、3番目に高いエラーを持つグループのエラーを最小限に抑えるべきである。
その自然さにもかかわらず、正しくlexifairnessを定義することは、近似誤差に対する固有の感受性のために、ミニマックス公平性よりもかなり微妙です。
この問題を回避する近似lexifairnessの概念を与え、その後、非常に一般的な設定でおよそlexifairソリューションを見つけるためのオラクル効率の高いアルゴリズムを導出する。
公平性制約を欠いた経験的リスク最小化問題が凸である場合(例えば線形回帰やロジスティック回帰の場合)、最悪の場合であってもアルゴリズムは確実に効率的である。
最後に、一般化境界 -- トレーニングサンプル上の近似レキシフィアネスは、確率の高い真の分布上の近似レキシフィアネスを暗示する。
一般化境界を証明する能力は、ナイーブ定義の不安定さを避けるための選択定義に依存する。
関連論文リスト
- A General Framework for Constraint-based Causal Learning [3.031375888004876]
これにより、因果学習の正確性条件を得るための一般的な枠組みが提供される。
最短マルコフ表現条件は、最大祖先グラフと有向非巡回グラフに対する最小性の概念から得られる最も弱い正当性条件であることを示す。
論文 参考訳(メタデータ) (2024-08-14T14:16:02Z) - Minimax Optimal Fair Classification with Bounded Demographic Disparity [28.936244976415484]
本稿では,2つの保護群による公正二項分類の統計的基礎について考察する。
有限サンプルを用いると、グループ固有の受容閾値を推定する必要があるため、追加のコストが発生することを示す。
オフセットを持つグループワイドしきい値法であるFairBayes-DDP+を提案する。
論文 参考訳(メタデータ) (2024-03-27T02:59:04Z) - Optimal Multi-Distribution Learning [88.3008613028333]
マルチディストリビューション学習は、$k$の異なるデータ分散における最悪のリスクを最小限に抑える共有モデルを学ぶことを目指している。
本稿では, (d+k)/varepsilon2の順に, サンプルの複雑さを伴って, ヴァレプシロン最適ランダム化仮説を導出するアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-12-08T16:06:29Z) - Understanding and Mitigating Classification Errors Through Interpretable
Token Patterns [58.91023283103762]
容易に解釈可能な用語でエラーを特徴付けることは、分類器が体系的なエラーを起こす傾向にあるかどうかを洞察する。
正しい予測と誤予測を区別するトークンのパターンを発見することを提案する。
提案手法であるPremiseが実際によく動作することを示す。
論文 参考訳(メタデータ) (2023-11-18T00:24:26Z) - Loss Balancing for Fair Supervised Learning [20.13250413610897]
指導的学習モデルは、貸付、大学入学、顔認識、自然言語処理など様々な領域で使用されている。
学習過程における不公平性予測に対処する様々な概念が提案されている(EL)。
論文 参考訳(メタデータ) (2023-11-07T04:36:13Z) - Correcting Underrepresentation and Intersectional Bias for Classification [49.1574468325115]
我々は、表現不足のバイアスによって破損したデータから学習する問題を考察する。
偏りのないデータの少ない場合、グループワイドのドロップアウト率を効率的に推定できることが示される。
本アルゴリズムは,有限VC次元のモデルクラスに対して,効率的な学習を可能にする。
論文 参考訳(メタデータ) (2023-06-19T18:25:44Z) - On the Variance, Admissibility, and Stability of Empirical Risk
Minimization [80.26309576810844]
2乗損失を持つ経験的リスク最小化(ERM)は、極小最適誤差率に達する可能性がある。
軽微な仮定では、ERMの準最適性はばらつきよりも大きなバイアスによるものでなければならない。
また、我々の推定は、非ドンスカー類に対するCaponnetto と Rakhlin (2006) の主な結果を補完する ERM の安定性を示唆している。
論文 参考訳(メタデータ) (2023-05-29T15:25:48Z) - Maxmin-Fair Ranking: Individual Fairness under Group-Fairness
Constraints [11.3077234652777]
グループフェアの制約を課す際に生じる個人不公平の量を最小限に抑えることを目的としたランキングにおける公平性の新たな問題について検討する。
提案手法は, ランダム化を用いて, 最悪の個人が期待する満足度を最大化する分布最大化理論に根ざしている。
論文 参考訳(メタデータ) (2021-06-16T09:27:12Z) - Minimax Group Fairness: Algorithms and Experiments [18.561824632836405]
我々は,極小群フェアネスのための有意収束性オラクル効率学習アルゴリズムを提供する。
我々のアルゴリズムは回帰と分類の両方に当てはまる。
ミニマックスフェアネスが厳密で、平等な結果の概念よりも強く好ましい経験的ケースを示す。
論文 参考訳(メタデータ) (2020-11-05T21:42:56Z) - Learning Minimax Estimators via Online Learning [55.92459567732491]
確率分布のパラメータを推定するミニマックス推定器を設計する際の問題点を考察する。
混合ケースナッシュ平衡を求めるアルゴリズムを構築した。
論文 参考訳(メタデータ) (2020-06-19T22:49:42Z) - Bias no more: high-probability data-dependent regret bounds for
adversarial bandits and MDPs [48.44657553192801]
我々は,適応的相手に対する盗聴フィードバックを用いたオンライン学習において,高い確率的後悔境界を得るための新しいアプローチを開発した。
我々のアプローチは、対数的に均質な自己協和障壁と強化されたフリードマンの不平等の助けを借りて、単純な学習率のスケジュールの増大に依存している。
論文 参考訳(メタデータ) (2020-06-14T22:09:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。