論文の概要: Forks Over Knives: Predictive Inconsistency in Criminal Justice
Algorithmic Risk Assessment Tools
- arxiv url: http://arxiv.org/abs/2012.00289v2
- Date: Thu, 22 Sep 2022 14:42:03 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-22 12:17:49.651449
- Title: Forks Over Knives: Predictive Inconsistency in Criminal Justice
Algorithmic Risk Assessment Tools
- Title(参考訳): ナイフに関するフォーク: 刑事司法のアルゴリズム的リスク評価ツールにおける予測上の矛盾
- Authors: Travis Greene, Galit Shmueli, Jan Fell, Ching-Fu Lin, Han-Wei Liu
- Abstract要約: ビッグデータとアルゴリズムによるリスク予測ツールは、人間のバイアスと意思決定の不整合を減らし、刑事司法システムを改善することを約束する。
しかし、これらの社会技術ツールの開発、テスト、デプロイにおいて、異なる、等しく調整可能な選択は、同じ個人に対して予測されるリスクスコアを異にする可能性がある。
我々はこの現象を予測的矛盾として概念化する。
- 参考スコア(独自算出の注目度): 1.0499611180329804
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Big data and algorithmic risk prediction tools promise to improve criminal
justice systems by reducing human biases and inconsistencies in decision
making. Yet different, equally-justifiable choices when developing, testing,
and deploying these sociotechnical tools can lead to disparate predicted risk
scores for the same individual. Synthesizing diverse perspectives from machine
learning, statistics, sociology, criminology, law, philosophy and economics, we
conceptualize this phenomenon as predictive inconsistency. We describe sources
of predictive inconsistency at different stages of algorithmic risk assessment
tool development and deployment and consider how future technological
developments may amplify predictive inconsistency. We argue, however, that in a
diverse and pluralistic society we should not expect to completely eliminate
predictive inconsistency. Instead, to bolster the legal, political, and
scientific legitimacy of algorithmic risk prediction tools, we propose
identifying and documenting relevant and reasonable "forking paths" to enable
quantifiable, reproducible multiverse and specification curve analyses of
predictive inconsistency at the individual level.
- Abstract(参考訳): ビッグデータとアルゴリズムによるリスク予測ツールは、人間のバイアスと意思決定の不整合を減らすことによって刑事司法システムを改善することを約束する。
しかし、これらの社会技術ツールの開発、テスト、デプロイにおいて、異なる、等しく調整可能な選択は、同じ個人に対して予測されるリスクスコアを異にする可能性がある。
機械学習、統計学、社会学、犯罪学、法学、哲学、経済学から様々な視点を合成し、この現象を予測的矛盾として概念化する。
本稿では,アルゴリズム的リスク評価ツールの開発と展開の異なる段階における予測的不整合の源泉について述べる。
しかし、多様で多様な社会では、予測的不整合を完全に排除することは期待してはならない。
代わりに, アルゴリズムリスク予測ツールの法的, 政治的, 科学的正当性を高めるために, 個人レベルでの予測不整合の定量化, 再現可能な多元的, 仕様的曲線解析を可能にするために, 適切かつ合理的な"フォークパス"を同定し, 文書化する。
関連論文リスト
- Online Algorithms with Uncertainty-Quantified Predictions [12.57910560144628]
本稿では,オンラインアルゴリズムの設計における不確実性定量化予測を最適に活用する方法について考察する。
特に,基底真理が一定の範囲に落下する可能性を示す不確実な定量化を付加した予測について考察する。
いずれの場合も、確率論的予測を完全に活用するためには、アルゴリズム設計に対する非自明な修正が必要であることを実証する。
論文 参考訳(メタデータ) (2023-10-17T20:09:41Z) - Conformal Decision Theory: Safe Autonomous Decisions from Imperfect
Predictions [86.20287931084626]
不完全な機械学習予測にも拘わらず、安全な自律的意思決定を実現するためのフレームワークであるコンフォーマル決定理論を導入する。
私たちのアルゴリズムが生み出す決定は、リスクが低いという証明可能な統計的保証があるという意味では安全です。
実験は、人間のまわりのロボットの動き計画、自動株式取引、ロボット製造において、我々のアプローチの有用性を実証する。
論文 参考訳(メタデータ) (2023-10-09T17:59:30Z) - Distribution-free risk assessment of regression-based machine learning
algorithms [6.507711025292814]
我々は回帰アルゴリズムとモデル予測の周囲に定義された区間内に存在する真のラベルの確率を計算するリスク評価タスクに焦点をあてる。
そこで,本研究では,正のラベルを所定の確率で含むことが保証される予測区間を提供する共形予測手法を用いてリスク評価問題を解決する。
論文 参考訳(メタデータ) (2023-10-05T13:57:24Z) - Quantification of Predictive Uncertainty via Inference-Time Sampling [57.749601811982096]
本稿では,データあいまいさの予測不確実性を推定するためのポストホックサンプリング手法を提案する。
この方法は与えられた入力に対して異なる可算出力を生成することができ、予測分布のパラメトリック形式を仮定しない。
論文 参考訳(メタデータ) (2023-08-03T12:43:21Z) - A review of probabilistic forecasting and prediction with machine
learning [0.0]
機械学習アルゴリズムを用いて予測不確実性推定の話題を概観する。
我々は確率的予測を評価するための関連する指標(一貫性スコアリング関数と適切なスコアリングルール)について論じる。
このレビューでは、ユーザーのニーズに合わせて新しいアルゴリズムを開発する方法についての理解を深める。
論文 参考訳(メタデータ) (2022-09-17T10:36:30Z) - The Unreasonable Effectiveness of Deep Evidential Regression [72.30888739450343]
不確実性を考慮した回帰ベースニューラルネットワーク(NN)による新しいアプローチは、従来の決定論的手法や典型的なベイズ的NNよりも有望であることを示している。
我々は、理論的欠点を詳述し、合成および実世界のデータセットのパフォーマンスを分析し、Deep Evidential Regressionが正確な不確実性ではなく定量化であることを示す。
論文 参考訳(メタデータ) (2022-05-20T10:10:32Z) - Test-time Collective Prediction [73.74982509510961]
マシンラーニングの複数のパーティは、将来のテストポイントを共同で予測したいと考えています。
エージェントは、すべてのエージェントの集合の集合的な専門知識の恩恵を受けることを望んでいるが、データやモデルパラメータを解放する意思はないかもしれない。
我々は、各エージェントの事前学習モデルを利用して、テスト時に集合的な予測を行う分散型メカニズムを探索する。
論文 参考訳(メタデータ) (2021-06-22T18:29:58Z) - Trust but Verify: Assigning Prediction Credibility by Counterfactual
Constrained Learning [123.3472310767721]
予測信頼性尺度は統計学と機械学習において基本的なものである。
これらの措置は、実際に使用される多種多様なモデルを考慮に入れるべきである。
この研究で開発されたフレームワークは、リスクフィットのトレードオフとして信頼性を表現している。
論文 参考訳(メタデータ) (2020-11-24T19:52:38Z) - All of the Fairness for Edge Prediction with Optimal Transport [11.51786288978429]
グラフにおけるエッジ予測の課題に対する公平性の問題について検討する。
本稿では,任意のグラフの隣接行列に対して,グループと個々の公正性のトレードオフを伴う埋め込み非依存の補修手順を提案する。
論文 参考訳(メタデータ) (2020-10-30T15:33:13Z) - An Uncertainty-based Human-in-the-loop System for Industrial Tool Wear
Analysis [68.8204255655161]
人間のループシステムにおけるモンテカルロのドロップアウトに基づく不確実性対策により,システムの透明性と性能が向上することを示す。
シミュレーション研究により、不確実性に基づく「ループ内人間システム」は、様々なレベルの人間の関与に対する性能を高めることが示されている。
論文 参考訳(メタデータ) (2020-07-14T15:47:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。