論文の概要: Social Determinants of Recidivism: A Machine Learning Solution
- arxiv url: http://arxiv.org/abs/2011.11483v3
- Date: Sun, 9 May 2021 18:43:01 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-23 22:00:03.869075
- Title: Social Determinants of Recidivism: A Machine Learning Solution
- Title(参考訳): recidivismの社会的決定要因:機械学習ソリューション
- Authors: Vik Shirvaikar and Choudur Lakshminarayan
- Abstract要約: 刑事司法分析では、再犯の予測(釈放または仮釈放後の再犯を予知する)は倫理的な誤りによって引き起こされる。
本稿では,リシディズムを防ぐために,レバーとして機能する社会的要因を機械学習で識別する。
この手法が実世界のデータを用いたMLの倫理的応用を導出できることを実証する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In criminal justice analytics, the widely-studied problem of recidivism
prediction (forecasting re-offenses after release or parole) is fraught with
ethical missteps. In particular, Machine Learning (ML) models rely on
historical patterns of behavior to predict future outcomes, engendering a
vicious feedback loop of recidivism and incarceration. This paper repurposes ML
to instead identify social factors that can serve as levers to prevent
recidivism. Our contributions are along three dimensions. (1) Recidivism models
typically agglomerate individuals into one dataset, but we invoke unsupervised
learning to extract homogeneous subgroups with similar features. (2) We then
apply subgroup-level supervised learning to determine factors correlated to
recidivism. (3) We therefore shift the focus from predicting which individuals
will re-offend to identifying broader underlying factors that explain
recidivism, with the goal of informing preventative policy intervention. We
demonstrate that this approach can guide the ethical application of ML using
real-world data.
- Abstract(参考訳): 刑事司法分析では、リシディズム予測(解放または仮釈放後の再攻撃)の広く研究されている問題は、倫理的な過ちに満ちている。
特に機械学習(ml)モデルは、未来の結果を予測するために過去の行動パターンに依存しており、再犯と収監の悪質なフィードバックループを包含している。
本稿では,レバーとして機能する社会的要因をMLで識別し,再犯を防止する。
私たちの貢献は3次元に沿っています。
1) レシディビズムモデルでは, 個人を1つのデータセットに集約するが, 教師なし学習を行い, 類似した特徴を持つ同種サブグループを抽出する。
2) 下位群レベルで教師付き学習を行い, 再学習と相関する要因を決定する。
3) 予防的政策介入を提示する目的から,どの個人がどの個人に反省するかの予測から,レシディズムを説明する幅広い要因の特定へと焦点を移す。
この手法が実世界のデータを用いたMLの倫理的応用を導出できることを実証する。
関連論文リスト
- Decoding Susceptibility: Modeling Misbelief to Misinformation Through a
Computational Approach [63.67533153887132]
誤報に対する感受性は、観測不可能な不検証の主張に対する信念の度合いを記述している。
既存の感受性研究は、自己報告された信念に大きく依存している。
本稿では,ユーザの潜在感受性レベルをモデル化するための計算手法を提案する。
論文 参考訳(メタデータ) (2023-11-16T07:22:56Z) - Bias and Fairness in Large Language Models: A Survey [76.65471160523444]
本稿では,大規模言語モデル(LLM)のバイアス評価と緩和手法に関する総合的な調査を行う。
まず、自然言語処理における社会的偏見と公平性の概念を統合し、形式化し、拡張する。
次に,3つの直感的な2つのバイアス評価法と1つの緩和法を提案し,文献を統一する。
論文 参考訳(メタデータ) (2023-09-02T00:32:55Z) - When No-Rejection Learning is Consistent for Regression with Rejection [12.28389976959093]
本研究では,すべてのデータを用いて予測を学習するノンリジェクト学習戦略について検討する。
本稿では,すべてのデータを用いて予測を学習するノンリジェクト学習戦略について検討する。
論文 参考訳(メタデータ) (2023-07-06T11:43:22Z) - Counterfactual Fair Opportunity: Measuring Decision Model Fairness with
Counterfactual Reasoning [5.626570248105078]
本研究は,不注意条件下での公正な場合において,反実的推論を用いて不公平なモデル行動を明らかにすることを目的とする。
対物フェアという対物機会の対物バージョンを定義し、対物サンプルのセンシティブな情報を分析する2つの新しい指標を紹介した。
論文 参考訳(メタデータ) (2023-02-16T09:13:53Z) - D-BIAS: A Causality-Based Human-in-the-Loop System for Tackling
Algorithmic Bias [57.87117733071416]
D-BIASは、人間のループ内AIアプローチを具現化し、社会的バイアスを監査し軽減する視覚対話型ツールである。
ユーザは、因果ネットワークにおける不公平な因果関係を識別することにより、グループに対する偏見の存在を検出することができる。
それぞれのインタラクション、例えばバイアスのある因果縁の弱体化/削除は、新しい(偏りのある)データセットをシミュレートするために、新しい方法を用いている。
論文 参考訳(メタデータ) (2022-08-10T03:41:48Z) - Empirical Estimates on Hand Manipulation are Recoverable: A Step Towards
Individualized and Explainable Robotic Support in Everyday Activities [80.37857025201036]
ロボットシステムの鍵となる課題は、他のエージェントの振る舞いを理解することである。
正しい推論の処理は、(衝突)因子が実験的に制御されない場合、特に困難である。
人に関する観察研究を行うために必要なツールをロボットに装備することを提案する。
論文 参考訳(メタデータ) (2022-01-27T22:15:56Z) - A Comparative User Study of Human Predictions in Algorithm-Supported
Recidivism Risk Assessment [2.097880645003119]
本研究では,犯罪リスク予測を支援するために,アルゴリズムに基づくリスク評価装置を用いた効果について検討する。
刑務所から釈放された人が新たな犯罪を犯し、再投獄されるかどうかを予測する。
論文 参考訳(メタデータ) (2022-01-26T17:40:35Z) - Learning from Heterogeneous Data Based on Social Interactions over
Graphs [58.34060409467834]
本研究では,個別のエージェントが異なる次元のストリーミング特徴を観察しながら分類問題の解決を目指す分散アーキテクチャを提案する。
私たちはそれを示します。
戦略により、エージェントはこの高度に異質な環境下で一貫して学習することができる。
私たちはそれを示します。
戦略により、エージェントはこの高度に異質な環境下で一貫して学習することができる。
論文 参考訳(メタデータ) (2021-12-17T12:47:18Z) - Fairness-aware Summarization for Justified Decision-Making [16.47665757950391]
テキストベースニューラルネットワークの正当化における不公平性の問題に焦点をあてる。
本研究では,これらのモデルにおけるバイアスを検出し,対処するための,公平性を考慮した要約機構を提案する。
論文 参考訳(メタデータ) (2021-07-13T17:04:10Z) - Estimating and Improving Fairness with Adversarial Learning [65.99330614802388]
本研究では,深層学習に基づく医療画像解析システムにおけるバイアスの同時緩和と検出を目的としたマルチタスク・トレーニング戦略を提案する。
具体的には,バイアスに対する識別モジュールと,ベース分類モデルにおける不公平性を予測するクリティカルモジュールを追加することを提案する。
大規模で利用可能な皮膚病変データセットのフレームワークを評価します。
論文 参考訳(メタデータ) (2021-03-07T03:10:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。