論文の概要: Inherent Trade-offs in the Fair Allocation of Treatments
- arxiv url: http://arxiv.org/abs/2010.16409v1
- Date: Fri, 30 Oct 2020 17:55:00 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-01 16:28:31.022393
- Title: Inherent Trade-offs in the Fair Allocation of Treatments
- Title(参考訳): 治療の公平な配分に固有のトレードオフ
- Authors: Yuzi He, Keith Burghardt, Siyi Guo, Kristina Lerman
- Abstract要約: 明示的で暗黙的な偏見は人間の判断を曇らせ、少数民族の差別的扱いに繋がる。
フェアネス制約を考慮したデータから最適な介入ポリシーを学習する因果的枠組みを提案する。
- 参考スコア(独自算出の注目度): 2.6143568807090696
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Explicit and implicit bias clouds human judgement, leading to discriminatory
treatment of minority groups. A fundamental goal of algorithmic fairness is to
avoid the pitfalls in human judgement by learning policies that improve the
overall outcomes while providing fair treatment to protected classes. In this
paper, we propose a causal framework that learns optimal intervention policies
from data subject to fairness constraints. We define two measures of treatment
bias and infer best treatment assignment that minimizes the bias while
optimizing overall outcome. We demonstrate that there is a dilemma of balancing
fairness and overall benefit; however, allowing preferential treatment to
protected classes in certain circumstances (affirmative action) can
dramatically improve the overall benefit while also preserving fairness. We
apply our framework to data containing student outcomes on standardized tests
and show how it can be used to design real-world policies that fairly improve
student test scores. Our framework provides a principled way to learn fair
treatment policies in real-world settings.
- Abstract(参考訳): 明示的かつ暗黙的な偏見は人間の判断を曇らせ、少数民族の差別的扱いに繋がる。
アルゴリズム的公平性の基本的な目標は、保護されたクラスに対して公平な待遇を提供しながら、全体的な結果を改善する政策を学ぶことによって、人間の判断の落とし穴を避けることである。
本稿では,公平な制約を受けるデータから最適な介入方針を学習する因果的枠組みを提案する。
治療バイアスの尺度を2つ定義し、全体の結果に最適化しながらバイアスを最小化する最善の治療課題を推定する。
公平さと全体的な利益のバランスをとるジレンマがあることを実証するが、特定の状況(肯定的な行動)において保護されたクラスに優先的な処置を行うことで、公正さを保ちながら全体的な利益を劇的に改善することができる。
このフレームワークを,標準化テストにおける学生結果を含むデータに適用し,学生テストスコアをかなり向上させる実世界ポリシーの設計に利用する方法を示す。
我々のフレームワークは、現実世界の設定で公正な治療ポリシーを学ぶための原則的な方法を提供する。
関連論文リスト
- Properties of fairness measures in the context of varying class imbalance and protected group ratios [15.942660279740727]
クラス変更のための公正度尺度の一般的な性質と保護群比率について検討する。
また,クラス不均衡比の変化に対して,完全公平性を達成する確率がどう変化するかを測定した。
以上の結果から, 正の正の正の正の正の正の正の正の正の正の正の正の正の正の正の正の正の正の正の正の偏差は, 等級不均衡の変化に敏感であることが示唆された。
論文 参考訳(メタデータ) (2024-11-13T08:18:03Z) - Towards Harmless Rawlsian Fairness Regardless of Demographic Prior [57.30787578956235]
トレーニングセットに事前の人口統計が提供されない場合に,有効性を損なうことなく公平性を達成する可能性を探る。
本稿では,経験的損失の最適セット内でのトレーニング損失の分散を最小限に抑えるため,VFairという簡単な手法を提案する。
論文 参考訳(メタデータ) (2024-11-04T12:40:34Z) - Improving Robust Fairness via Balance Adversarial Training [51.67643171193376]
対人訓練 (AT) 法は, 対人攻撃に対して有効であるが, 異なるクラス間での精度と頑健さの相違が激しい。
本稿では,頑健な公正性問題に対処するために,BAT(Adversarial Training)を提案する。
論文 参考訳(メタデータ) (2022-09-15T14:44:48Z) - Optimising Equal Opportunity Fairness in Model Training [60.0947291284978]
既存のデバイアス法、例えば、敵の訓練や、表現から保護された情報を取り除くことは、バイアスを減らすことが示されている。
2つの新たな学習目標を提案し,2つの分類課題における高い性能を維持しつつ,バイアスの低減に有効であることを示す。
論文 参考訳(メタデータ) (2022-05-05T01:57:58Z) - Towards Equal Opportunity Fairness through Adversarial Learning [64.45845091719002]
逆行訓練は、自然言語処理におけるバイアス緩和の一般的なアプローチである。
本稿では、よりリッチな特徴を生み出すために、ターゲットクラスをインプットとして利用する、対位訓練のための拡張判別器を提案する。
論文 参考訳(メタデータ) (2022-03-12T02:22:58Z) - On the Fairness of Causal Algorithmic Recourse [36.519629650529666]
グループレベルでの公平度基準と個人レベルでの公平度基準を提案する。
ここでは,会話の公平さは予測の公平さと相補的であることを示す。
本稿では, 社会的介入によって, データ生成プロセスの公正性違反に対処できるかどうかを論じる。
論文 参考訳(メタデータ) (2020-10-13T16:35:06Z) - Fairness without Demographics through Adversarially Reweighted Learning [20.803276801890657]
保護されたグループメンバーシップさえ知らない場合、フェアネスを改善するためにMLモデルをトレーニングします。
特に,非保護機能やタスクラベルは公平性の問題を特定する上で有用である,という仮説を立てる。
以上の結果から,ARLはRawlsian Max-Minフェアネスを向上し,複数のデータセットにおける最悪の保護グループに対するAUCの顕著な改善が見られた。
論文 参考訳(メタデータ) (2020-06-23T16:06:52Z) - Towards Model-Agnostic Post-Hoc Adjustment for Balancing Ranking
Fairness and Algorithm Utility [54.179859639868646]
Bipartiteランキングは、ラベル付きデータから正の個人よりも上位の個人をランク付けするスコアリング機能を学ぶことを目的としている。
学習したスコアリング機能が、異なる保護グループ間で体系的な格差を引き起こすのではないかという懸念が高まっている。
本稿では、二部構成のランキングシナリオにおいて、それらのバランスをとるためのモデル後処理フレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-15T10:08:39Z) - Fair Policy Targeting [0.6091702876917281]
社会福祉プログラムにおける個人に対する介入を標的とする主な関心事の1つは差別である。
本稿では,公平かつ効率的な処理割り当てルールの設計に関する課題に対処する。
論文 参考訳(メタデータ) (2020-05-25T20:45:25Z) - Robust Optimization for Fairness with Noisy Protected Groups [85.13255550021495]
ノイズが保護されたグループラベルに頼った結果について検討した。
頑健な最適化を用いた2つの新しいアプローチを提案する。
頑健なアプローチは、単純アプローチよりも真のグループ公平性を保証することが示される。
論文 参考訳(メタデータ) (2020-02-21T14:58:37Z) - The Measure and Mismeasure of Fairness [6.6697126372463345]
我々は、アルゴリズムの公平な設計は、それらの文脈固有の結果に不満を抱く必要があると論じる。
私たちは、アルゴリズムがポリシーの目標に適合するようにするための戦略を提供します。
論文 参考訳(メタデータ) (2018-07-31T18:38:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。