論文の概要: Improving Fairness in Criminal Justice Algorithmic Risk Assessments
Using Conformal Prediction Sets
- arxiv url: http://arxiv.org/abs/2008.11664v3
- Date: Fri, 21 May 2021 17:35:18 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-24 22:05:55.799219
- Title: Improving Fairness in Criminal Justice Algorithmic Risk Assessments
Using Conformal Prediction Sets
- Title(参考訳): 共形予測セットを用いた刑事司法アルゴリズムリスク評価の公正性向上
- Authors: Richard A. Berk and Arun Kumar Kuchibhotla
- Abstract要約: 我々は、リスクアルゴリズムから不公平を取り除くために、共形予測セットからフレームワークを採用する。
30,000人の犯罪者のアライメントのサンプルから、混乱テーブルと、その導出した公正度尺度を構築した。
我々は、我々の研究を、幅広い刑事司法判断に応用するための概念の実証と見なしている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Risk assessment algorithms have been correctly criticized for potential
unfairness, and there is an active cottage industry trying to make repairs. In
this paper, we adopt a framework from conformal prediction sets to remove
unfairness from risk algorithms themselves and the covariates used for
forecasting. From a sample of 300,000 offenders at their arraignments, we
construct a confusion table and its derived measures of fairness that are
effectively free any meaningful differences between Black and White offenders.
We also produce fair forecasts for individual offenders coupled with valid
probability guarantees that the forecasted outcome is the true outcome. We see
our work as a demonstration of concept for application in a wide variety of
criminal justice decisions. The procedures provided can be routinely
implemented in jurisdictions with the usual criminal justice datasets used by
administrators. The requisite procedures can be found in the scripting software
R. However, whether stakeholders will accept our approach as a means to achieve
risk assessment fairness is unknown. There also are legal issues that would
need to be resolved although we offer a Pareto improvement.
- Abstract(参考訳): リスクアセスメントのアルゴリズムは、潜在的な不公平さで正しく批判されており、修復を試みる活発なコテージ産業がある。
本稿では,共形予測セットからの枠組みを適用し,リスクアルゴリズムとその予測に用いる共変量から不公平性を取り除く。
300,000人の犯罪者のアライメントから、黒人と白人の有意義な差異を効果的に解放する混乱テーブルと、その導出した公正度尺度を構築する。
また,個人攻撃者に対する公正な予測と,予測結果が真の結果であることを示す有効な確率保証を組み合わせる。
私たちの仕事は、幅広い刑事司法判断に適用するための概念の実証であると考えています。
提供された手続きは、管理者が使用する通常の刑事司法データセットで規則的に実施することができる。
しかし,リスク評価の公平性を達成する手段として,利害関係者が我々のアプローチを受け入れるかどうかは不明である。
また、paretoの改善を提供する一方で解決しなければならない法的問題もあります。
関連論文リスト
- Calibrated Probabilistic Forecasts for Arbitrary Sequences [58.54729945445505]
実際のデータストリームは、分散シフトやフィードバックループ、敵アクターによって予測不可能に変化する可能性がある。
データがどのように進化するかに関わらず、有効な不確実性推定を保証するための予測フレームワークを提案する。
論文 参考訳(メタデータ) (2024-09-27T21:46:42Z) - Randomization Techniques to Mitigate the Risk of Copyright Infringement [48.75580082851766]
著作権保護の現在の慣行を補完する潜在的なランダム化手法について検討する。
これは、著作権の先例において実質的な類似性を決定する規則の固有の曖昧さによって動機付けられている。
差分プライバシーのような同様にランダム化されたアプローチは、プライバシーリスクを軽減することに成功している。
論文 参考訳(メタデータ) (2024-08-21T20:55:00Z) - Editable Fairness: Fine-Grained Bias Mitigation in Language Models [52.66450426729818]
個々人の社会的偏見をきめ細かなキャリブレーションを可能にする新しいデバイアス・アプローチであるFairness Stamp(FAST)を提案する。
FASTは最先端のベースラインを超え、デバイアス性能が優れている。
これは、大きな言語モデルにおける公平性を達成するためのきめ細かいデバイアス戦略の可能性を強調している。
論文 参考訳(メタデータ) (2024-08-07T17:14:58Z) - A Distributionally Robust Optimisation Approach to Fair Credit Scoring [2.8851756275902467]
クレジットスコアリングは、欧州委員会と米国大統領の執行部によって、リスクの高い分類タスクとしてカタログ化されている。
この懸念に対処するため、近年の信用スコアリング研究は、公平性向上技術の範囲を検討した。
論文 参考訳(メタデータ) (2024-02-02T11:43:59Z) - Equal Opportunity of Coverage in Fair Regression [50.76908018786335]
我々は、予測の不確実性の下で公正な機械学習(ML)を研究し、信頼性と信頼性のある意思決定を可能にする。
本研究は,(1)類似した結果の異なる集団に対するカバー率が近いこと,(2)人口全体のカバー率が一定水準にあること,の2つの特性を達成することを目的としたカバーの平等機会(EOC)を提案する。
論文 参考訳(メタデータ) (2023-11-03T21:19:59Z) - Compatibility of Fairness Metrics with EU Non-Discrimination Laws:
Demographic Parity & Conditional Demographic Disparity [3.5607241839298878]
実証的な証拠は、機械学習(ML)技術によって駆動されるアルゴリズムによる決定が、法的に保護されたグループに対する差別を脅かしたり、新たな不公平な情報源を創り出すことを示唆している。
この研究は、公正度メトリックと公正度制約による法的公正性を保証するためのポイントを評価することを目的としています。
我々の実験と分析は、手元にあるケースと法的正当性に応じて、AIによる意思決定が法的な観点から公平である可能性を示唆している。
論文 参考訳(メタデータ) (2023-06-14T09:38:05Z) - Arbitrariness and Social Prediction: The Confounding Role of Variance in
Fair Classification [31.392067805022414]
異なる訓練されたモデル間での予測のばらつきは、公正なバイナリ分類における重要な、未探索のエラーの原因である。
実際には、いくつかのデータ例のばらつきは非常に大きいので、決定を効果的に任意にすることができる。
予測が任意である場合に分類を省略するアンサンブルアルゴリズムを開発した。
論文 参考訳(メタデータ) (2023-01-27T06:52:04Z) - Algorithmic Fairness and Vertical Equity: Income Fairness with IRS Tax
Audit Models [73.24381010980606]
本研究は、IRSによる税務監査選択を通知するシステムの文脈におけるアルゴリズムフェアネスの問題について検討する。
監査を選択するための柔軟な機械学習手法が、垂直エクイティにどのように影響するかを示す。
この結果は,公共セクター全体でのアルゴリズムツールの設計に影響を及ぼす。
論文 参考訳(メタデータ) (2022-06-20T16:27:06Z) - The Fairness of Credit Scoring Models [0.0]
信用市場において、スクリーニングアルゴリズムは、良いタイプの借主と悪いタイプの借主を区別することを目的としている。
これは意図せず、トレーニングデータセットから、あるいはモデル自体から生まれます。
評価モデルのアルゴリズムフェアネスの形式的検証方法と,フェアネスの欠如の原因となる変数の同定方法を示す。
論文 参考訳(メタデータ) (2022-05-20T14:20:40Z) - Equality before the Law: Legal Judgment Consistency Analysis for
Fairness [55.91612739713396]
本論文では,LInCo(Legal Inconsistency Coefficient)の判定不整合性評価指標を提案する。
法的な判断予測(LJP)モデルを用いて異なる集団の裁判官をシミュレートし、異なる集団で訓練されたLJPモデルによる判断結果の不一致を判断する。
私達はLInCoを実際の場合の不一致を探検するために使用し、次の観察に来ます:(1)地域およびジェンダーの不一致は法制度でありますが、ジェンダーの不一致は地方不一致より大いにより少しです。
論文 参考訳(メタデータ) (2021-03-25T14:28:00Z) - A Risk Assessment of a Pretrial Risk Assessment Tool: Tussles,
Mitigation Strategies, and Inherent Limits [0.0]
我々は、サンフランシスコやその他の司法管轄区域で使用されているソフトウェアである公衆安全評価(PSA)のリスクアセスメントを実施し、裁判の前に被告を拘留する必要があるかどうかを判断する裁判官を支援する。
我々はPSAソリューションの利点と限界を明確にし、緩和戦略を提案する。
そして、我々は、デザインによるリスクアセスメントツールの本質的な制限を満たす、新しいアルゴリズムによる事前審理のアプローチであるハンドオフツリーを草案化した。
論文 参考訳(メタデータ) (2020-05-14T23:56:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。