論文の概要: Empirical observation of negligible fairness-accuracy trade-offs in
machine learning for public policy
- arxiv url: http://arxiv.org/abs/2012.02972v2
- Date: Fri, 7 May 2021 04:28:33 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-22 12:00:12.910554
- Title: Empirical observation of negligible fairness-accuracy trade-offs in
machine learning for public policy
- Title(参考訳): 公共政策のための機械学習における無視可能な公正-正確トレードオフの実証観察
- Authors: Kit T. Rodolfa, Hemank Lamba, Rayid Ghani
- Abstract要約: 多くのアプリケーションにおける公平さと正確さのトレードオフは、実際には無視可能であることを示す。
その結果, 自己資本の達成と, 提案したポストホック格差緩和手法を用いて, 精度を犠牲にすることなく, 公平性を著しく向上したことがわかった。
- 参考スコア(独自算出の注目度): 13.037143215464132
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Growing applications of machine learning in policy and social impact settings
have raised concern for fairness implications, especially for racial
minorities. These concerns have generated considerable interest among machine
learning and artificial intelligence researchers, who have developed new
methods and established theoretical bounds for improving fairness, focusing on
the source data, regularization and model training, or post-hoc adjustments to
model scores. However, little work has studied the practical trade-offs between
fairness and accuracy in real-world settings to understand how these bounds and
methods translate into policy choices and impact on society. Our empirical
study fills this gap by investigating the impact on accuracy of mitigating
disparities across several policy settings, focusing on the common context of
using machine learning to inform benefit allocation in resource-constrained
programs across education, mental health, criminal justice, and housing safety.
We show that fairness-accuracy trade-offs in many applications are negligible
in practice. In every setting, we find that explicitly focusing on achieving
equity and using our proposed post-hoc disparity mitigation methods, fairness
was substantially improved without sacrificing accuracy. This observation was
robust across policy contexts studied, scale of resources available for
intervention, time, and relative size of the protected groups. These empirical
results challenge a commonly held assumption that reducing disparities either
requires accepting an appreciable drop in accuracy or the development of novel,
complex methods, making reducing disparities in these applications more
practical.
- Abstract(参考訳): 政策や社会的影響設定における機械学習の応用の高まりは、公平性、特に人種的マイノリティに対する関心を高めている。
これらの懸念は、機械学習と人工知能研究者の間で大きな関心を集めており、新しい手法を開発し、公正性を改善するための理論的境界を確立し、ソースデータ、正規化とモデルトレーニング、あるいはモデルスコアに対するポストホックな調整に集中している。
しかし、この境界と方法がいかにして政策選択と社会への影響をもたらすかを理解するために、現実の状況において公平性と正確性の間の実践的なトレードオフをほとんど研究していない。
本研究は,教育,精神保健,刑事司法,住宅安全にまたがる資源訓練プログラムにおける利益配分を機械学習を用いて知らせる共通文脈に着目し,いくつかの政策設定における格差緩和の正確性への影響を検討することで,このギャップを埋めている。
多くのアプリケーションにおける公平さと正確さのトレードオフは、実際には無視可能であることを示す。
いずれの設定においても, 自己資本の達成と, 提案したポストホック格差緩和手法を用いて, 精度を犠牲にすることなく, 公平性を大幅に改善した。
この観察は、調査対象の政策状況、介入可能な資源の規模、時間、保護されたグループの相対的なサイズにまたがって堅牢であった。
これらの経験的結果は、不一致を減らすには正確さの低下を受け入れるか、新しく複雑な方法を開発する必要があるという一般的な仮定に挑戦する。
関連論文リスト
- Reduced-Rank Multi-objective Policy Learning and Optimization [57.978477569678844]
実際には、因果研究者は先験を念頭において1つの結果を持っていない。
政府支援の社会福祉プログラムでは、政策立案者は貧困の多次元的性質を理解するために多くの成果を集めている。
本稿では、最適政策学習の文脈において、複数の結果に対するデータ駆動型次元性推論手法を提案する。
論文 参考訳(メタデータ) (2024-04-29T08:16:30Z) - Parametric Fairness with Statistical Guarantees [0.46040036610482665]
我々は、予測に分布特性を組み込むためのデモグラフィックパリティの概念を拡張し、専門家の知識を公正なソリューションで利用できるようにする。
我々は、賃金の実践的な例を通して、この新しい指標の使用を説明し、実践的な課題に効率的に対処するパラメトリック手法を開発する。
論文 参考訳(メタデータ) (2023-10-31T14:52:39Z) - Reconciling Predictive and Statistical Parity: A Causal Approach [68.59381759875734]
本稿では,予測パリティに付随する公平度対策のための因果分解式を提案する。
統計的および予測パリティの概念は、実際には互いに排他的ではなく、相補的であり、公正の概念のスペクトルにまたがっていることを示す。
論文 参考訳(メタデータ) (2023-06-08T09:23:22Z) - Individual Fairness under Uncertainty [26.183244654397477]
アルゴリズムフェアネス(英: Algorithmic Fairness)は、機械学習(ML)アルゴリズムにおいて確立された領域である。
本稿では,クラスラベルの検閲によって生じる不確実性に対処する,個別の公正度尺度とそれに対応するアルゴリズムを提案する。
この視点は、現実世界のアプリケーションデプロイメントにおいて、より現実的なフェアネス研究のモデルである、と我々は主張する。
論文 参考訳(メタデータ) (2023-02-16T01:07:58Z) - Survey on Fairness Notions and Related Tensions [4.257210316104905]
自動化された意思決定システムは、雇用やローンの貸与といった問題において、逐次的な決定を下すのにますます使われています。
しかし、客観的機械学習(ML)アルゴリズムはバイアスを起こしやすいため、不公平な判断を下す。
本稿では、一般的に使われている公正概念を調査し、プライバシと精度で両者間の緊張関係について論じる。
論文 参考訳(メタデータ) (2022-09-16T13:36:05Z) - Measuring Fairness Under Unawareness of Sensitive Attributes: A
Quantification-Based Approach [131.20444904674494]
センシティブな属性の無意識下でのグループフェアネスを測定する問題に取り組む。
定量化手法は, フェアネスと無意識の問題に対処するのに特に適していることを示す。
論文 参考訳(メタデータ) (2021-09-17T13:45:46Z) - An Empirical Comparison of Bias Reduction Methods on Real-World Problems
in High-Stakes Policy Settings [13.037143215464132]
4つの実世界の公共政策と社会善問題にまたがる機械学習パイプラインの異なる点で動作する複数の手法の性能について検討した。
モデルフェア性を改善するために,これらの手法の多種多様なバラツキと非一貫性を見出したが,グループ固有のスコアしきい値の選択による後処理は,一貫して差を除去している。
論文 参考訳(メタデータ) (2021-05-13T17:33:28Z) - Can Active Learning Preemptively Mitigate Fairness Issues? [66.84854430781097]
データセットバイアスは、機械学習における不公平な原因の1つです。
不確実性に基づくALで訓練されたモデルが保護クラスの決定において公平であるかどうかを検討する。
また,勾配反転(GRAD)やBALDなどのアルゴリズム的公正性手法の相互作用についても検討する。
論文 参考訳(メタデータ) (2021-04-14T14:20:22Z) - Individual Explanations in Machine Learning Models: A Survey for
Practitioners [69.02688684221265]
社会的関連性の高い領域の決定に影響を与える洗練された統計モデルの使用が増加しています。
多くの政府、機関、企業は、アウトプットが人間の解釈可能な方法で説明しにくいため、採用に消極的です。
近年,機械学習モデルに解釈可能な説明を提供する方法として,学術文献が多数提案されている。
論文 参考訳(メタデータ) (2021-04-09T01:46:34Z) - Fairness in Machine Learning [15.934879442202785]
因果ベイズネットワークが,公平を理屈し対処するための重要な役割を果たすことを示す。
異なる設定や公平性基準に対処できる手法を含む統一されたフレームワークを提案する。
論文 参考訳(メタデータ) (2020-12-31T18:38:58Z) - Accurate and Robust Feature Importance Estimation under Distribution
Shifts [49.58991359544005]
PRoFILEは、新しい特徴重要度推定法である。
忠実さと頑健さの両面で、最先端のアプローチよりも大幅に改善されていることを示す。
論文 参考訳(メタデータ) (2020-09-30T05:29:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。