論文の概要: Case Study: Predictive Fairness to Reduce Misdemeanor Recidivism Through
Social Service Interventions
- arxiv url: http://arxiv.org/abs/2001.09233v1
- Date: Fri, 24 Jan 2020 23:52:55 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-07 05:33:47.590441
- Title: Case Study: Predictive Fairness to Reduce Misdemeanor Recidivism Through
Social Service Interventions
- Title(参考訳): 事例研究:社会サービス介入による軽犯罪回避の予測的公平性
- Authors: Kit T. Rodolfa, Erika Salomon, Lauren Haynes, Ivan Higuera Mendieta,
Jamie Larson, Rayid Ghani
- Abstract要約: ロサンゼルス市検事局は、新しいRecidivism Reduction and Drug Diversion Unit (R2D2)を創設した。
本稿では,機械学習に基づく意思決定に予測的株式を組み込むケーススタディとして,この新しいユニットとのコラボレーションについて述べる。
- 参考スコア(独自算出の注目度): 4.651149317838983
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The criminal justice system is currently ill-equipped to improve outcomes of
individuals who cycle in and out of the system with a series of misdemeanor
offenses. Often due to constraints of caseload and poor record linkage, prior
interactions with an individual may not be considered when an individual comes
back into the system, let alone in a proactive manner through the application
of diversion programs. The Los Angeles City Attorney's Office recently created
a new Recidivism Reduction and Drug Diversion unit (R2D2) tasked with reducing
recidivism in this population. Here we describe a collaboration with this new
unit as a case study for the incorporation of predictive equity into machine
learning based decision making in a resource-constrained setting. The program
seeks to improve outcomes by developing individually-tailored social service
interventions (i.e., diversions, conditional plea agreements, stayed
sentencing, or other favorable case disposition based on appropriate social
service linkage rather than traditional sentencing methods) for individuals
likely to experience subsequent interactions with the criminal justice system,
a time and resource-intensive undertaking that necessitates an ability to focus
resources on individuals most likely to be involved in a future case. Seeking
to achieve both efficiency (through predictive accuracy) and equity (improving
outcomes in traditionally under-served communities and working to mitigate
existing disparities in criminal justice outcomes), we discuss the equity
outcomes we seek to achieve, describe the corresponding choice of a metric for
measuring predictive fairness in this context, and explore a set of options for
balancing equity and efficiency when building and selecting machine learning
models in an operational public policy setting.
- Abstract(参考訳): 刑事司法制度は現在、一連の軽犯罪によってシステム内外を循環する個人の結果を改善するために不備である。
多くの場合、ケースロードの制約とレコード結合の貧弱さのため、個人と個人との事前のやりとりは、ディバージョンプログラムの適用による積極的な方法でではなく、個人がシステムに戻ってくると考慮されない可能性がある。
ロサンゼルス市検察局は先日、この人口のリシディズムを減らそうとするRecidivism Reduction and Drug Diversion Unit(R2D2)を新設した。
本稿では、この新たなユニットとのコラボレーションを、リソース制約のある環境での機械学習に基づく意思決定に予測的株式を組み込むケーススタディとして説明する。
The program seeks to improve outcomes by developing individually-tailored social service interventions (i.e., diversions, conditional plea agreements, stayed sentencing, or other favorable case disposition based on appropriate social service linkage rather than traditional sentencing methods) for individuals likely to experience subsequent interactions with the criminal justice system, a time and resource-intensive undertaking that necessitates an ability to focus resources on individuals most likely to be involved in a future case.
Seeking to achieve both efficiency (through predictive accuracy) and equity (improving outcomes in traditionally under-served communities and working to mitigate existing disparities in criminal justice outcomes), we discuss the equity outcomes we seek to achieve, describe the corresponding choice of a metric for measuring predictive fairness in this context, and explore a set of options for balancing equity and efficiency when building and selecting machine learning models in an operational public policy setting.
関連論文リスト
- Fairness in Algorithmic Recourse Through the Lens of Substantive
Equality of Opportunity [15.78130132380848]
アルゴリズムによる会話は、AIシステムとのインタラクションにおいて人に対してエージェンシーを与える手段として注目を集めている。
近年の研究では、個人の初期状況の違いにより、会話自体が不公平である可能性があることが示されている。
個人が行動するのに時間がかかるほど、設定が変更される可能性があるからだ。
論文 参考訳(メタデータ) (2024-01-29T11:55:45Z) - From the Fair Distribution of Predictions to the Fair Distribution of
Social Goods: Evaluating the Impact of Fair Machine Learning on Long-Term
Unemployment [4.3512163406552]
アルゴリズムフェアネスを動機づける根本的な問題に対処するには、予測フェアネスの概念が必要であると我々は主張する。
我々は、予測が政策決定をどう変えるか、したがって社会財の分配に焦点をあてる。
スイスの公共雇用サービスによる行政データを用いて、このような政策が長期失業における男女不平等にどのように影響するかをシミュレートします。
論文 参考訳(メタデータ) (2024-01-25T14:17:11Z) - Setting the Right Expectations: Algorithmic Recourse Over Time [16.930905275894183]
本稿では,連続的に変化する環境がアルゴリズムの会話に与える影響を研究するためのエージェント・ベース・シミュレーション・フレームワークを提案する。
この結果から,特定のパラメータ化の小さなセットだけが,時間とともにエージェントに信頼性のあるアルゴリズム的リコースをもたらすことが明らかとなった。
論文 参考訳(メタデータ) (2023-09-13T14:04:15Z) - Causal Fairness for Outcome Control [68.12191782657437]
本稿では,自動システムにおいて,公平かつ公平な結果変数を最適化することを目的とした,結果制御と呼ばれる特定の意思決定タスクについて検討する。
本稿では、まず因果レンズを通して利益の概念を分析し、特定の個人が肯定的な決定によってどれだけの利益を得られるかを明らかにする。
次に、保護された属性の影響を受けている可能性があることに留意し、これを分析するために使用できる因果的ツールを提案する。
論文 参考訳(メタデータ) (2023-06-08T09:31:18Z) - Measuring Equality in Machine Learning Security Defenses: A Case Study
in Speech Recognition [56.69875958980474]
この研究は、学習したシステムを守るためのアプローチと、異なるサブ人口間でのセキュリティ防衛がパフォーマンス上の不平等をもたらす方法を検討する。
提案された多くの手法は、虚偽の拒絶やロバストネストレーニングの不平等といった直接的な害を引き起こす可能性がある。
本稿では, ランダム化スムースメントとニューラルリジェクションの2つの防御法の比較を行い, マイノリティ集団のサンプリング機構により, ランダム化スムースメントがより公平であることを見出した。
論文 参考訳(メタデータ) (2023-02-17T16:19:26Z) - Social Diversity Reduces the Complexity and Cost of Fostering Fairness [63.70639083665108]
不完全な情報や公平性の柔軟な基準を前提とした干渉機構の効果について検討する。
多様性の役割を定量化し、情報収集の必要性を減らす方法を示す。
この結果から,多様性が変化し,公正性向上を目指す機関に新たなメカニズムが開放されることが示唆された。
論文 参考訳(メタデータ) (2022-11-18T21:58:35Z) - Fair Machine Learning in Healthcare: A Review [90.22219142430146]
我々は、機械学習と医療格差における公正性の交差を分析する。
機械学習の観点から、関連する公正度メトリクスを批判的にレビューする。
本稿では,医療における倫理的かつ公平なMLアプリケーション開発を約束する新たな研究指針を提案する。
論文 参考訳(メタデータ) (2022-06-29T04:32:10Z) - Algorithmic Fairness and Vertical Equity: Income Fairness with IRS Tax
Audit Models [73.24381010980606]
本研究は、IRSによる税務監査選択を通知するシステムの文脈におけるアルゴリズムフェアネスの問題について検討する。
監査を選択するための柔軟な機械学習手法が、垂直エクイティにどのように影響するかを示す。
この結果は,公共セクター全体でのアルゴリズムツールの設計に影響を及ぼす。
論文 参考訳(メタデータ) (2022-06-20T16:27:06Z) - Equality before the Law: Legal Judgment Consistency Analysis for
Fairness [55.91612739713396]
本論文では,LInCo(Legal Inconsistency Coefficient)の判定不整合性評価指標を提案する。
法的な判断予測(LJP)モデルを用いて異なる集団の裁判官をシミュレートし、異なる集団で訓練されたLJPモデルによる判断結果の不一致を判断する。
私達はLInCoを実際の場合の不一致を探検するために使用し、次の観察に来ます:(1)地域およびジェンダーの不一致は法制度でありますが、ジェンダーの不一致は地方不一致より大いにより少しです。
論文 参考訳(メタデータ) (2021-03-25T14:28:00Z) - Social Determinants of Recidivism: A Machine Learning Solution [0.0]
刑事司法分析では、再犯の予測(釈放または仮釈放後の再犯を予知する)は倫理的な誤りによって引き起こされる。
本稿では,リシディズムを防ぐために,レバーとして機能する社会的要因を機械学習で識別する。
この手法が実世界のデータを用いたMLの倫理的応用を導出できることを実証する。
論文 参考訳(メタデータ) (2020-11-19T04:15:41Z) - Improving Fairness in Criminal Justice Algorithmic Risk Assessments
Using Conformal Prediction Sets [0.0]
我々は、リスクアルゴリズムから不公平を取り除くために、共形予測セットからフレームワークを採用する。
30,000人の犯罪者のアライメントのサンプルから、混乱テーブルと、その導出した公正度尺度を構築した。
我々は、我々の研究を、幅広い刑事司法判断に応用するための概念の実証と見なしている。
論文 参考訳(メタデータ) (2020-08-26T16:47:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。