論文の概要: In Pursuit of Interpretable, Fair and Accurate Machine Learning for
Criminal Recidivism Prediction
- arxiv url: http://arxiv.org/abs/2005.04176v3
- Date: Fri, 11 Mar 2022 23:00:44 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-05 12:16:04.556226
- Title: In Pursuit of Interpretable, Fair and Accurate Machine Learning for
Criminal Recidivism Prediction
- Title(参考訳): 犯罪回避予測のための解釈可能・公正・高精度機械学習の追求
- Authors: Caroline Wang, Bin Han, Bhrij Patel, Cynthia Rudin
- Abstract要約: 本研究では、二項予測よりも確率を出力する解釈可能なモデルを訓練し、定量的フェアネス定義を用いてモデルを評価する。
フロリダ州とケンタッキー州の2つの異なる犯罪再犯データセット上で,ブラックボックスと解釈可能なMLモデルを生成した。
いくつかの解釈可能なMLモデルは、ブラックボックスMLモデルと同様に復調を予測でき、CompASやアーノルドPSAよりも正確である。
- 参考スコア(独自算出の注目度): 19.346391120556884
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Objectives: We study interpretable recidivism prediction using machine
learning (ML) models and analyze performance in terms of prediction ability,
sparsity, and fairness. Unlike previous works, this study trains interpretable
models that output probabilities rather than binary predictions, and uses
quantitative fairness definitions to assess the models. This study also
examines whether models can generalize across geographic locations. Methods: We
generated black-box and interpretable ML models on two different criminal
recidivism datasets from Florida and Kentucky. We compared predictive
performance and fairness of these models against two methods that are currently
used in the justice system to predict pretrial recidivism: the Arnold PSA and
COMPAS. We evaluated predictive performance of all models on predicting six
different types of crime over two time spans. Results: Several interpretable ML
models can predict recidivism as well as black-box ML models and are more
accurate than COMPAS or the Arnold PSA. These models are potentially useful in
practice. Similar to the Arnold PSA, some of these interpretable models can be
written down as a simple table. Others can be displayed using a set of
visualizations. Our geographic analysis indicates that ML models should be
trained separately for separate locations and updated over time. We also
present a fairness analysis for the interpretable models. Conclusions:
Interpretable machine learning models can perform just as well as
non-interpretable methods and currently-used risk assessment scales, in terms
of both prediction accuracy and fairness. Machine learning models might be more
accurate when trained separately for distinct locations and kept up-to-date.
- Abstract(参考訳): 目的:機械学習(ml)モデルを用いて解釈可能な回帰予測を研究し,予測能力,スパース性,公平性の観点から性能を分析する。
従来の研究とは異なり、この研究は二項予測よりも確率を出力する解釈可能なモデルを訓練し、定量的公正定義を用いてモデルを評価する。
本研究は, モデルが地理的な位置をまたいで一般化できるかどうかについても検討する。
方法: フロリダ州とケンタッキー州の2つの異なる犯罪リシディズムデータセット上で,ブラックボックスと解釈可能なMLモデルを作成した。
我々は、これらのモデルの予測性能と公正性を、アーノルドPSAとCompASという、現在司法制度で使われている2つの方法と比較した。
2回にわたって6種類の犯罪を予測し,全てのモデルの予測性能を評価した。
結果: いくつかの解釈可能なMLモデルは、ブラックボックスMLモデルと同様にリシディズムを予測でき、CompASやアーノルドPSAよりも正確である。
これらのモデルは実用上有用である。
アーノルドPSAと同様に、これらの解釈可能なモデルのいくつかは単純なテーブルとして記述することができる。
その他は視覚化を使って表示することができる。
我々の地理的分析によると、MLモデルは別々の場所のために個別に訓練され、時間とともに更新されるべきである。
また, 解釈可能なモデルに対して公平性解析を行う。
結論: 解釈可能な機械学習モデルは、予測精度と公平性の両方の観点から、解釈不能な方法や現在使用されているリスクアセスメントスケールと同様に実行できる。
機械学習モデルは、異なる場所で個別にトレーニングし、最新の状態を維持することでより正確になる可能性がある。
関連論文リスト
- Evaluating Model Bias Requires Characterizing its Mistakes [19.777130236160712]
スキューサイズ(SkewSize)は、モデルの予測における誤りからバイアスを捉える、原則付きフレキシブルなメトリクスである。
マルチクラスの設定で使用したり、生成モデルのオープンな語彙設定に一般化することができる。
合成データで訓練された標準的な視覚モデル、ImageNetで訓練された視覚モデル、BLIP-2ファミリーの大規模視覚言語モデルなどである。
論文 参考訳(メタデータ) (2024-07-15T11:46:21Z) - Causal Estimation of Memorisation Profiles [58.20086589761273]
言語モデルにおける記憶の理解は、実践的および社会的意味を持つ。
覚書化(英: Memorisation)とは、モデルがそのインスタンスを予測できる能力に対して、あるインスタンスでトレーニングを行うことによる因果的影響である。
本稿では,計量学の差分差分設計に基づく,新しい,原理的,効率的な記憶推定法を提案する。
論文 参考訳(メタデータ) (2024-06-06T17:59:09Z) - Predictive Churn with the Set of Good Models [64.05949860750235]
近似機械学習モデルの集合に対する競合予測の効果について検討する。
ラーショモン集合内のモデル間の係り受けに関する理論的結果を示す。
当社のアプローチは、コンシューマ向けアプリケーションにおいて、より予測し、削減し、混乱を避けるためにどのように使用できるかを示します。
論文 参考訳(メタデータ) (2024-02-12T16:15:25Z) - EAMDrift: An interpretable self retrain model for time series [0.0]
EAMDrift(EAMDrift)は、複数の個人予測器から予測を合成し、性能指標に従って予測を重み付けする新しい手法である。
EAMDriftはデータのアウト・オブ・ディストリビューションパターンに自動的に適応し、各瞬間に使用する最も適切なモデルを特定するように設計されている。
本研究は,EAMDriftが個々のベースラインモデルより20%優れ,非解釈可能なアンサンブルモデルに匹敵する精度が得られることを示す。
論文 参考訳(メタデータ) (2023-05-31T13:25:26Z) - Pathologies of Pre-trained Language Models in Few-shot Fine-tuning [50.3686606679048]
実例が少ない事前学習言語モデルはラベル間に強い予測バイアスを示すことを示す。
わずかな微調整で予測バイアスを軽減できるが,本分析では,非タスク関連の特徴を捉えることで,モデルの性能向上を図っている。
これらの観察は、より少ない例でモデルのパフォーマンスを追求することは、病理学的予測行動を引き起こす可能性があることを警告する。
論文 参考訳(メタデータ) (2022-04-17T15:55:18Z) - Explain, Edit, and Understand: Rethinking User Study Design for
Evaluating Model Explanations [97.91630330328815]
我々はクラウドソーシング研究を行い、真偽のホテルレビューと偽のホテルレビューを区別するために訓練された詐欺検出モデルと対話する。
単語の線形バッグモデルでは、トレーニング中に特徴係数にアクセスした参加者は、非説明制御と比較して、テストフェーズにおいてモデルの信頼性が大幅に低下する可能性があることを観察する。
論文 参考訳(メタデータ) (2021-12-17T18:29:56Z) - Why do classifier accuracies show linear trends under distribution
shift? [58.40438263312526]
あるデータ分布上のモデルの精度は、別の分布上の精度のほぼ線形関数である。
2つのモデルが予測で一致する確率は、精度レベルだけで推測できるものよりも高いと仮定します。
分布シフトの大きさが大きければ, 2 つの分布のモデルを評価する場合, 線形傾向が生じなければならない。
論文 参考訳(メタデータ) (2020-12-31T07:24:30Z) - Deducing neighborhoods of classes from a fitted model [68.8204255655161]
本稿では,新しいタイプの解釈可能な機械学習手法を提案する。
量子シフトを用いた分類モデルでは、特徴空間の予測クラスへの分割を理解するのに役立ちます。
基本的に、実際のデータポイント(または特定の関心点)を使用し、特定の特徴をわずかに引き上げたり減少させたりした後の予測の変化を観察する。
論文 参考訳(メタデータ) (2020-09-11T16:35:53Z) - A Causal Lens for Peeking into Black Box Predictive Models: Predictive
Model Interpretation via Causal Attribution [3.3758186776249928]
予測モデルがブラックボックスであるような設定でこの問題に対処することを目指している。
我々は、ブラックボックス予測モデルをモデル出力に対する各モデル入力の因果効果を推定する問題と比較する。
モデル入力に対するモデル出力に対する責任の因果関係が、予測モデルを解釈し、その予測を説明するためにどのように使用できるかを示す。
論文 参考訳(メタデータ) (2020-08-01T23:20:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。