論文の概要: Individually Fair Learning with One-Sided Feedback
- arxiv url: http://arxiv.org/abs/2206.04475v1
- Date: Thu, 9 Jun 2022 12:59:03 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-10 13:31:59.626678
- Title: Individually Fair Learning with One-Sided Feedback
- Title(参考訳): 片面フィードバックによる個々に公平な学習
- Authors: Yahav Bechavod, Aaron Roth
- Abstract要約: 我々は,学習者が正に予測されたインスタンスに対してのみ真のラベルを観察できる,一方的なフィードバックを伴うオンライン学習問題を考察する。
各ラウンドで$k$インスタンスが到着し、学習者が配置したランダム化ポリシーに従って分類結果を受け取る。
そこで我々は,一方的なフィードバックによるオンライン学習の問題から,文脈的半帯域問題に対する公平性違反を報告したパネルを構築。
- 参考スコア(独自算出の注目度): 15.713330010191092
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We consider an online learning problem with one-sided feedback, in which the
learner is able to observe the true label only for positively predicted
instances. On each round, $k$ instances arrive and receive classification
outcomes according to a randomized policy deployed by the learner, whose goal
is to maximize accuracy while deploying individually fair policies. We first
extend the framework of Bechavod et al. (2020), which relies on the existence
of a human fairness auditor for detecting fairness violations, to instead
incorporate feedback from dynamically-selected panels of multiple, possibly
inconsistent, auditors. We then construct an efficient reduction from our
problem of online learning with one-sided feedback and a panel reporting
fairness violations to the contextual combinatorial semi-bandit problem
(Cesa-Bianchi & Lugosi, 2009, Gy\"{o}rgy et al., 2007). Finally, we show how to
leverage the guarantees of two algorithms in the contextual combinatorial
semi-bandit setting: Exp2 (Bubeck et al., 2012) and the oracle-efficient
Context-Semi-Bandit-FTPL (Syrgkanis et al., 2016), to provide multi-criteria no
regret guarantees simultaneously for accuracy and fairness. Our results
eliminate two potential sources of bias from prior work: the "hidden outcomes"
that are not available to an algorithm operating in the full information
setting, and human biases that might be present in any single human auditor,
but can be mitigated by selecting a well chosen panel.
- Abstract(参考訳): 学習者が正に予測されたインスタンスに対してのみ真のラベルを観察できる,片面フィードバックによるオンライン学習問題を考える。
各ラウンドにおいて、$k$インスタンスが到着し、学習者が展開するランダム化されたポリシーに従って分類結果を受け取る。
最初にBechavod et al. (2020) の枠組みを拡張し, フェアネス違反を検出するための人間のフェアネス監査者の存在に依存して, 複数の不整合性のある監査者の動的選択パネルからのフィードバックを取り入れた。
We then construct an efficient reduction from our problem of online learning with one-sided feedback and a panel reporting fairness violations to the contextual combinatorial semi-bandit problem (Cesa-Bianchi & Lugosi, 2009, Gy\"{o}rgy et al., 2007). Finally, we show how to leverage the guarantees of two algorithms in the contextual combinatorial semi-bandit setting: Exp2 (Bubeck et al., 2012) and the oracle-efficient Context-Semi-Bandit-FTPL (Syrgkanis et al., 2016), to provide multi-criteria no regret guarantees simultaneously for accuracy and fairness. Our results eliminate two potential sources of bias from prior work: the "hidden outcomes" that are not available to an algorithm operating in the full information setting, and human biases that might be present in any single human auditor, but can be mitigated by selecting a well chosen panel.
関連論文リスト
- Finite-Sample and Distribution-Free Fair Classification: Optimal Trade-off Between Excess Risk and Fairness, and the Cost of Group-Blindness [14.421493372559762]
グループフェアネス制約下の二項分類におけるアルゴリズムフェアネスとグループブレンドネスの強制効果を定量化する。
制御された過剰リスクを伴う分布自由かつ有限サンプルフェアネスを保証するフェア分類のための統一的なフレームワークを提案する。
論文 参考訳(メタデータ) (2024-10-21T20:04:17Z) - Fairness Without Harm: An Influence-Guided Active Sampling Approach [32.173195437797766]
我々は、モデルの精度に害を与えることなく、グループフェアネスの格差を軽減するモデルを訓練することを目指している。
公正なアクティブな学習アプローチのような現在のデータ取得方法は、通常、アノテートセンシティブな属性を必要とする。
トレーニンググループアノテーションに依存しない抽出可能なアクティブデータサンプリングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-02-20T07:57:38Z) - Equal Opportunity of Coverage in Fair Regression [50.76908018786335]
我々は、予測の不確実性の下で公正な機械学習(ML)を研究し、信頼性と信頼性のある意思決定を可能にする。
本研究は,(1)類似した結果の異なる集団に対するカバー率が近いこと,(2)人口全体のカバー率が一定水準にあること,の2つの特性を達成することを目的としたカバーの平等機会(EOC)を提案する。
論文 参考訳(メタデータ) (2023-11-03T21:19:59Z) - Online Decision Mediation [72.80902932543474]
意思決定支援アシスタントを学習し、(好奇心)専門家の行動と(不完全)人間の行動の仲介役として機能することを検討する。
臨床診断では、完全に自律的な機械行動は倫理的余裕を超えることが多い。
論文 参考訳(メタデータ) (2023-10-28T05:59:43Z) - Towards Distribution-Agnostic Generalized Category Discovery [51.52673017664908]
データ不均衡とオープンエンドの分布は、現実の視覚世界の本質的な特性である。
我々は,BaCon(Self-Balanced Co-Advice contrastive framework)を提案する。
BaConは、対照的な学習ブランチと擬似ラベルブランチで構成され、DA-GCDタスクを解決するためのインタラクティブな監視を提供するために協力して動作する。
論文 参考訳(メタデータ) (2023-10-02T17:39:58Z) - Correcting Underrepresentation and Intersectional Bias for Classification [49.1574468325115]
我々は、表現不足のバイアスによって破損したデータから学習する問題を考察する。
偏りのないデータの少ない場合、グループワイドのドロップアウト率を効率的に推定できることが示される。
本アルゴリズムは,有限VC次元のモデルクラスに対して,効率的な学習を可能にする。
論文 参考訳(メタデータ) (2023-06-19T18:25:44Z) - Bias-Robust Bayesian Optimization via Dueling Bandit [57.82422045437126]
ベイジアン最適化は、観測が逆偏りとなるような環境において考慮する。
情報指向サンプリング(IDS)に基づくダリングバンディットの新しい手法を提案する。
これにより、累積的後悔保証を伴う帯域幅の並列化のための、最初の効率的なカーネル化アルゴリズムが得られる。
論文 参考訳(メタデータ) (2021-05-25T10:08:41Z) - Towards Model-Agnostic Post-Hoc Adjustment for Balancing Ranking
Fairness and Algorithm Utility [54.179859639868646]
Bipartiteランキングは、ラベル付きデータから正の個人よりも上位の個人をランク付けするスコアリング機能を学ぶことを目的としている。
学習したスコアリング機能が、異なる保護グループ間で体系的な格差を引き起こすのではないかという懸念が高まっている。
本稿では、二部構成のランキングシナリオにおいて、それらのバランスをとるためのモデル後処理フレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-15T10:08:39Z) - Fair Classification via Unconstrained Optimization [0.0]
我々はベイズ最適公正学習規則がベイズ回帰器に対するグループワイドしきい値の規則のままであることを示す。
提案アルゴリズムは,任意のブラックボックス機械学習モデルに適用可能である。
論文 参考訳(メタデータ) (2020-05-21T11:29:05Z) - Metric-Free Individual Fairness in Online Learning [32.56688029679103]
個人的公正性の制約を考慮したオンライン学習問題について検討する。
我々は、個人間の類似度測度が知られていると仮定せず、また、この測度が特定のパラメトリック形式を取ると仮定もしない。
定量的な測定を行なわずに公正な違反を検出する監査者の存在を活用している。
論文 参考訳(メタデータ) (2020-02-13T12:25:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。