論文の概要: Machine Learning Fairness in Justice Systems: Base Rates, False
Positives, and False Negatives
- arxiv url: http://arxiv.org/abs/2008.02214v1
- Date: Wed, 5 Aug 2020 16:31:40 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-02 18:40:42.648601
- Title: Machine Learning Fairness in Justice Systems: Base Rates, False
Positives, and False Negatives
- Title(参考訳): 正義システムにおける機械学習の公平性:ベースレート、偽陽性、偽陰性
- Authors: Jesse Russell
- Abstract要約: フェアネスが実際にどのように達成されるかについては、ほとんどガイダンスがない。
本稿では、ある人種集団に対して偽陽性率の高い結果と、別の人種集団に対して偽陰性率が高い結果について考察する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Machine learning best practice statements have proliferated, but there is a
lack of consensus on what the standards should be. For fairness standards in
particular, there is little guidance on how fairness might be achieved in
practice. Specifically, fairness in errors (both false negatives and false
positives) can pose a problem of how to set weights, how to make unavoidable
tradeoffs, and how to judge models that present different kinds of errors
across racial groups. This paper considers the consequences of having higher
rates of false positives for one racial group and higher rates of false
negatives for another racial group. The paper examines how different errors in
justice settings can present problems for machine learning applications, the
limits of computation for resolving tradeoffs, and how solutions might have to
be crafted through courageous conversations with leadership, line workers,
stakeholders, and impacted communities.
- Abstract(参考訳): 機械学習のベストプラクティスステートメントは普及しているが、標準が何であるかについてのコンセンサスが不足している。
特に公平性基準については、実際に公平性を実現するためのガイダンスがほとんどない。
特に、誤りの公平性(偽陰性と偽陽性の両方)は、重み付けの方法、避けられないトレードオフの作り方、人種間で異なる種類の誤りを示すモデルを判断する方法という問題を引き起こす可能性がある。
本稿では,一方の人種集団に対して偽陽性率が高く,他方の人種集団に対して偽陰性率が高い結果について考察する。
この論文は、正義設定における異なるエラーが、機械学習アプリケーションにおいてどのように問題をもたらすか、トレードオフを解決するための計算の限界、リーダーシップ、ラインワーカー、利害関係者、影響のあるコミュニティとの勇気ある会話を通じて解決すべき解決策について検討する。
関連論文リスト
- DualFair: Fair Representation Learning at Both Group and Individual
Levels via Contrastive Self-supervision [73.80009454050858]
この研究は、DualFairと呼ばれる自己教師型モデルを提示し、学習された表現から性別や人種などのセンシティブな属性をデバイアスすることができる。
我々のモデルは、グループフェアネスと対実フェアネスという2つのフェアネス基準を共同で最適化する。
論文 参考訳(メタデータ) (2023-03-15T07:13:54Z) - Improving Robust Fairness via Balance Adversarial Training [51.67643171193376]
対人訓練 (AT) 法は, 対人攻撃に対して有効であるが, 異なるクラス間での精度と頑健さの相違が激しい。
本稿では,頑健な公正性問題に対処するために,BAT(Adversarial Training)を提案する。
論文 参考訳(メタデータ) (2022-09-15T14:44:48Z) - Is calibration a fairness requirement? An argument from the point of
view of moral philosophy and decision theory [0.0]
グループキャリブレーション違反は不公平な場合もあるが、不公平な場合もある。
これは、既に文献で進歩している主張と一致しており、アルゴリズム的公正性は文脈に敏感な方法で定義されるべきである。
論文 参考訳(メタデータ) (2022-05-11T14:03:33Z) - Optimising Equal Opportunity Fairness in Model Training [60.0947291284978]
既存のデバイアス法、例えば、敵の訓練や、表現から保護された情報を取り除くことは、バイアスを減らすことが示されている。
2つの新たな学習目標を提案し,2つの分類課題における高い性能を維持しつつ,バイアスの低減に有効であることを示す。
論文 参考訳(メタデータ) (2022-05-05T01:57:58Z) - Towards Equal Opportunity Fairness through Adversarial Learning [64.45845091719002]
逆行訓練は、自然言語処理におけるバイアス緩和の一般的なアプローチである。
本稿では、よりリッチな特徴を生み出すために、ターゲットクラスをインプットとして利用する、対位訓練のための拡張判別器を提案する。
論文 参考訳(メタデータ) (2022-03-12T02:22:58Z) - Fair Group-Shared Representations with Normalizing Flows [68.29997072804537]
本研究では,異なるグループに属する個人を1つのグループにマッピングできる公正表現学習アルゴリズムを開発した。
提案手法は,他の公正表現学習アルゴリズムと競合することを示す。
論文 参考訳(メタデータ) (2022-01-17T10:49:49Z) - Blackbox Post-Processing for Multiclass Fairness [1.5305403478254664]
我々は,マルチクラス設定における公平性を達成するため,ブラックボックス機械学習分類器の予測を変更することを検討する。
我々は,系統的な合成実験を通じて,公正かつ正確な予測を行う方法を探究する。
全体として、我々の手法は精度の小さな低下を生じさせ、データセットの個体数が高い場合に公平さを強制する。
論文 参考訳(メタデータ) (2022-01-12T13:21:20Z) - Parity-based Cumulative Fairness-aware Boosting [7.824964622317634]
データ駆動型AIシステムは、性別や人種といった保護された属性に基づいた差別につながる可能性がある。
AdaFairは、各ラウンドでデータ分布を変更するフェアネスを意識したブーピングアンサンブルである。
提案手法は, 統計的パーティ, 均等な機会, 異質な不正処理の両面から, パリティを達成できることを実証した。
論文 参考訳(メタデータ) (2022-01-04T14:16:36Z) - Fairness-aware Class Imbalanced Learning [57.45784950421179]
つぶやきの感情と職業分類のロングテール学習手法を評価する。
フェアネスを強制する手法により、マージンロスに基づくアプローチを拡張します。
論文 参考訳(メタデータ) (2021-09-21T22:16:30Z) - The Limits of Computation in Solving Equity Trade-Offs in Machine
Learning and Justice System Risk Assessment [0.0]
本稿では、機械学習における人種的平等の考え方の違い、特に司法設定において、計算的に解くのが難しいトレードオフをいかに提示するかを考察する。
論文 参考訳(メタデータ) (2021-02-08T16:46:29Z) - Recovering from Biased Data: Can Fairness Constraints Improve Accuracy? [11.435833538081557]
経験的リスク最小化(Empirical Risk Minimization, ERM)は、バイアスがあるだけでなく、真のデータ分布に最適な精度を持つ分類器を生成する。
公平性に制約されたERMによるこの問題の是正能力について検討する。
また、トレーニングデータの再重み付け、等化オッド、復号化パリティなど、他のリカバリ手法についても検討する。
論文 参考訳(メタデータ) (2019-12-02T22:00:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。