論文の概要: Accuracy, Fairness, and Interpretability of Machine Learning Criminal
Recidivism Models
- arxiv url: http://arxiv.org/abs/2209.14237v1
- Date: Wed, 14 Sep 2022 17:53:24 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-02 23:41:10.745612
- Title: Accuracy, Fairness, and Interpretability of Machine Learning Criminal
Recidivism Models
- Title(参考訳): 機械学習犯罪共犯モデルの正確性、公平性、解釈性
- Authors: Eric Ingram, Furkan Gursoy, Ioannis A. Kakadiaris
- Abstract要約: 様々な機械学習に基づく犯罪再犯モデルが、アメリカ合衆国ジョージア州の現実世界の仮釈放決定データセットに基づいて作成されている。
正確さ、公平さ、本質的に解釈可能であることとの間には、顕著な違いとトレードオフがあることが判明した。
- 参考スコア(独自算出の注目度): 4.297070083645049
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Criminal recidivism models are tools that have gained widespread adoption by
parole boards across the United States to assist with parole decisions. These
models take in large amounts of data about an individual and then predict
whether an individual would commit a crime if released on parole. Although such
models are not the only or primary factor in making the final parole decision,
questions have been raised about their accuracy, fairness, and
interpretability. In this paper, various machine learning-based criminal
recidivism models are created based on a real-world parole decision dataset
from the state of Georgia in the United States. The recidivism models are
comparatively evaluated for their accuracy, fairness, and interpretability. It
is found that there are noted differences and trade-offs between accuracy,
fairness, and being inherently interpretable. Therefore, choosing the best
model depends on the desired balance between accuracy, fairness, and
interpretability, as no model is perfect or consistently the best across
different criteria.
- Abstract(参考訳): 犯罪再犯モデル(Criminal recidivism model)は、仮釈放決定を支援するために全米の仮釈放委員会によって広く採用されているツールである。
これらのモデルは、個人に関する大量のデータを取り込み、仮釈放時に個人が犯罪を犯すかどうかを予測する。
このようなモデルは、最終的な仮釈放決定を行う唯一の要因または主要な要因ではないが、その正確性、公平性、解釈可能性に関する疑問が提起されている。
本稿では,ジョージア州における実世界の仮釈放決定データセットに基づいて,さまざまな機械学習に基づく犯罪再犯モデルを作成する。
レシディズムモデルは、その正確性、公平性、解釈性について比較評価されている。
正確さ、公平さ、本質的に解釈可能であることには、明らかな違いとトレードオフがある。
したがって、最良のモデルを選択することは、正確性、公平性、解釈可能性の間の望ましいバランスに依存する。
関連論文リスト
- Preserving Knowledge Invariance: Rethinking Robustness Evaluation of
Open Information Extraction [50.62245481416744]
実世界におけるオープン情報抽出モデルの評価をシミュレートする最初のベンチマークを示す。
我々は、それぞれの例が知識不変のcliqueである大規模なテストベッドを設計し、注釈付けする。
さらにロバスト性計量を解明することにより、その性能が全体の傾きに対して一貫して正確であるならば、モデルはロバストであると判断される。
論文 参考訳(メタデータ) (2023-05-23T12:05:09Z) - DualFair: Fair Representation Learning at Both Group and Individual
Levels via Contrastive Self-supervision [73.80009454050858]
この研究は、DualFairと呼ばれる自己教師型モデルを提示し、学習された表現から性別や人種などのセンシティブな属性をデバイアスすることができる。
我々のモデルは、グループフェアネスと対実フェアネスという2つのフェアネス基準を共同で最適化する。
論文 参考訳(メタデータ) (2023-03-15T07:13:54Z) - Revealing Unfair Models by Mining Interpretable Evidence [50.48264727620845]
機械学習の人気は、不公平なモデルがハイリスクなアプリケーションにデプロイされるリスクを高めている。
本稿では,解釈可能な証拠をマイニングすることで不公平なモデルを明らかにする新しい課題に取り組む。
本手法は,訓練されたモデルの不公平性を効果的に明らかにするために,極めて解釈可能な確固たる証拠を見出す。
論文 参考訳(メタデータ) (2022-07-12T20:03:08Z) - Fairness-aware Summarization for Justified Decision-Making [16.47665757950391]
テキストベースニューラルネットワークの正当化における不公平性の問題に焦点をあてる。
本研究では,これらのモデルにおけるバイアスを検出し,対処するための,公平性を考慮した要約機構を提案する。
論文 参考訳(メタデータ) (2021-07-13T17:04:10Z) - To what extent do human explanations of model behavior align with actual
model behavior? [91.67905128825402]
モデル推論決定の人間による説明が、モデルが実際にこれらの決定を下す方法と一致する程度を調べた。
自然言語の人間の説明が入力語に対するモデル感度とどのように一致するかを定量化する2つのアライメント指標を定義した。
モデルと人間の説明との整合は、NLI上のモデルの精度によって予測されないことが判明した。
論文 参考訳(メタデータ) (2020-12-24T17:40:06Z) - Impact of Accuracy on Model Interpretations [24.975981795360845]
データ科学者は、実世界への影響を促進するために信頼できる解釈を選択することが不可欠である。
本稿では,解釈の質を定量化するための2つの指標を提案し,これらの指標がモデル精度とどのように異なるかを検証する実験を設計する。
様々な手法で正確にモデル化できるデータセットの場合、より単純な手法によってより高品質な解釈が得られます。
論文 参考訳(メタデータ) (2020-11-17T19:02:59Z) - Fairness in Semi-supervised Learning: Unlabeled Data Help to Reduce
Discrimination [53.3082498402884]
機械学習の台頭における投機は、機械学習モデルによる決定が公正かどうかである。
本稿では,未ラベルデータのラベルを予測するための擬似ラベリングを含む,前処理フェーズにおける公平な半教師付き学習の枠組みを提案する。
偏見、分散、ノイズの理論的分解分析は、半教師付き学習における差別の異なる源とそれらが公平性に与える影響を浮き彫りにする。
論文 参考訳(メタデータ) (2020-09-25T05:48:56Z) - Are Visual Explanations Useful? A Case Study in Model-in-the-Loop
Prediction [49.254162397086006]
画像に基づく年齢予測課題における視覚的満足度に基づく説明について検討する。
モデル予測の提示により,人間の精度が向上することが判明した。
しかし、様々な種類の説明は、人間の正確さやモデルの信頼を著しく変えることができない。
論文 参考訳(メタデータ) (2020-07-23T20:39:40Z) - In Pursuit of Interpretable, Fair and Accurate Machine Learning for
Criminal Recidivism Prediction [19.346391120556884]
本研究では、二項予測よりも確率を出力する解釈可能なモデルを訓練し、定量的フェアネス定義を用いてモデルを評価する。
フロリダ州とケンタッキー州の2つの異なる犯罪再犯データセット上で,ブラックボックスと解釈可能なMLモデルを生成した。
いくつかの解釈可能なMLモデルは、ブラックボックスMLモデルと同様に復調を予測でき、CompASやアーノルドPSAよりも正確である。
論文 参考訳(メタデータ) (2020-05-08T17:16:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。