論文の概要: A Comparative User Study of Human Predictions in Algorithm-Supported
Recidivism Risk Assessment
- arxiv url: http://arxiv.org/abs/2201.11080v2
- Date: Thu, 27 Jan 2022 08:12:58 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-19 14:31:04.547800
- Title: A Comparative User Study of Human Predictions in Algorithm-Supported
Recidivism Risk Assessment
- Title(参考訳): アルゴリズム支援レシディビズムリスク評価における人為的予測の比較ユーザスタディ
- Authors: Manuel Portela, Carlos Castillo, Song\"ul Tolan, Marzieh
Karimi-Haghighi, Antonio Andres Pueyo
- Abstract要約: 本研究では,犯罪リスク予測を支援するために,アルゴリズムに基づくリスク評価装置を用いた効果について検討する。
刑務所から釈放された人が新たな犯罪を犯し、再投獄されるかどうかを予測する。
- 参考スコア(独自算出の注目度): 2.097880645003119
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: In this paper, we study the effects of using an algorithm-based risk
assessment instrument to support the prediction of risk of criminalrecidivism.
The instrument we use in our experiments is a machine learning version
ofRiskEval(name changed for double-blindreview), which is the main risk
assessment instrument used by the Justice Department ofCountry(omitted for
double-blind review).The task is to predict whether a person who has been
released from prison will commit a new crime, leading to
re-incarceration,within the next two years. We measure, among other variables,
the accuracy of human predictions with and without algorithmicsupport. This
user study is done with (1)generalparticipants from diverse backgrounds
recruited through a crowdsourcing platform,(2)targetedparticipants who are
students and practitioners of data science, criminology, or social work and
professionals who workwithRiskEval. Among other findings, we observe that
algorithmic support systematically leads to more accurate predictions fromall
participants, but that statistically significant gains are only seen in the
performance of targeted participants with respect to thatof crowdsourced
participants. We also run focus groups with participants of the targeted study
to interpret the quantitative results,including people who useRiskEvalin a
professional capacity. Among other comments, professional participants indicate
that theywould not foresee using a fully-automated system in criminal risk
assessment, but do consider it valuable for training, standardization,and to
fine-tune or double-check their predictions on particularly difficult cases.
- Abstract(参考訳): 本稿では,アルゴリズムを用いたリスクアセスメント装置を用いて,犯罪リズムのリスク予測を支援する効果について検討する。
我々が実験で使用する機器は、riskeval(double-blindreviewに変更された名前)の機械学習版で、司法省が使用する主要なリスク評価機器です(double-blind reviewはomittedです)。
刑務所から釈放された人物が新たな犯罪を犯すかどうかを予測することが目的で、今後2年以内に再収監される。
我々は,アルゴリズムによる予測の精度を,アルゴリズムによる支援なしで測定する。
このユーザスタディは,(1)クラウドソーシングプラットフォームを通じて採用した多様なバックグラウンドの一般参加者,(2)データサイエンス,犯罪学,ソーシャルワークの実践者,およびRiskEvalで作業する専門家によって実施される。
また, アルゴリズムによる支援は, 全参加者のより正確な予測につながるが, 統計的に有意な利得は, クラウドソーシングによる参加者のパフォーマンスにおいてのみ見られる。
リスクエヴァリンを専門的能力として利用する人々を含む、定量結果の解釈のために、対象研究の参加者とともにフォーカスグループも運営している。
その他のコメントの中で、専門家の参加者は、犯罪リスク評価において完全に自動化されたシステムを使用することは予測できないが、トレーニング、標準化、特に難しいケースにおける予測の微調整や二重チェックに価値があると考えている。
関連論文リスト
- Leveraging Human Feedback to Scale Educational Datasets: Combining
Crowdworkers and Comparative Judgement [0.0]
本稿では,非専門的なクラウドワーカーを用いた2つの実験と,学生データ評価のための比較判断について報告する。
比較判定を用いることで,両タスク間の信頼性が大幅に向上することが判明した。
論文 参考訳(メタデータ) (2023-05-22T10:22:14Z) - D-BIAS: A Causality-Based Human-in-the-Loop System for Tackling
Algorithmic Bias [57.87117733071416]
D-BIASは、人間のループ内AIアプローチを具現化し、社会的バイアスを監査し軽減する視覚対話型ツールである。
ユーザは、因果ネットワークにおける不公平な因果関係を識別することにより、グループに対する偏見の存在を検出することができる。
それぞれのインタラクション、例えばバイアスのある因果縁の弱体化/削除は、新しい(偏りのある)データセットをシミュレートするために、新しい方法を用いている。
論文 参考訳(メタデータ) (2022-08-10T03:41:48Z) - Individually Fair Learning with One-Sided Feedback [15.713330010191092]
我々は,学習者が正に予測されたインスタンスに対してのみ真のラベルを観察できる,一方的なフィードバックを伴うオンライン学習問題を考察する。
各ラウンドで$k$インスタンスが到着し、学習者が配置したランダム化ポリシーに従って分類結果を受け取る。
そこで我々は,一方的なフィードバックによるオンライン学習の問題から,文脈的半帯域問題に対する公平性違反を報告したパネルを構築。
論文 参考訳(メタデータ) (2022-06-09T12:59:03Z) - Learning Predictions for Algorithms with Predictions [49.341241064279714]
予測器を学習するアルゴリズムに対して,一般的な設計手法を導入する。
オンライン学習の手法を応用して、敵のインスタンスに対して学習し、堅牢性と一貫性のあるトレードオフを調整し、新しい統計的保証を得る。
両部マッチング,ページマイグレーション,スキーレンタル,ジョブスケジューリングの手法を解析することにより,学習アルゴリズムの導出におけるアプローチの有効性を実証する。
論文 参考訳(メタデータ) (2022-02-18T17:25:43Z) - The Impact of Algorithmic Risk Assessments on Human Predictions and its
Analysis via Crowdsourcing Studies [79.66833203975729]
我々は,在職者が将来の再起を予測することを任務とするヴィグネット研究を行う。
参加者は、再逮捕の確率が50%よりかなり低いと判断しても、犯罪者が再逮捕されることをしばしば予測します。
裁判官の判断は、参加者の予測とは異なり、部分的には再逮捕の可能性がある要因に依存する。
論文 参考訳(メタデータ) (2021-09-03T11:09:10Z) - Estimating and Improving Fairness with Adversarial Learning [65.99330614802388]
本研究では,深層学習に基づく医療画像解析システムにおけるバイアスの同時緩和と検出を目的としたマルチタスク・トレーニング戦略を提案する。
具体的には,バイアスに対する識別モジュールと,ベース分類モデルにおける不公平性を予測するクリティカルモジュールを追加することを提案する。
大規模で利用可能な皮膚病変データセットのフレームワークを評価します。
論文 参考訳(メタデータ) (2021-03-07T03:10:32Z) - Decision-makers Processing of AI Algorithmic Advice: Automation Bias
versus Selective Adherence [0.0]
主な懸念は、アルゴリズムに対する人間の過度な信頼は、人間とアルゴリズムの相互作用に新しいバイアスをもたらすことである。
第2の懸念は、意思決定者が既存の信念やステレオタイプと一致した場合、アルゴリズム的なアドバイスを選択的に採用する傾向にある。
オランダにおける学校教師の雇用に関する決定におけるアルゴリズム的アドバイスの使用をシミュレートする2つの研究を通して、これらを評価する。
選択的、偏りのある遵守の私たちの発見は、公共部門でアルゴリズムの使用を推し進めた中立性の約束です。
論文 参考訳(メタデータ) (2021-03-03T13:10:50Z) - Feedback Effects in Repeat-Use Criminal Risk Assessments [0.0]
リスクは、単発テストで捉えられていない方法で、シーケンシャルな決定を伝達できることを示します。
リスクアセスメントツールは、非常に複雑でパスに依存したプロセスで動作し、歴史的な不平等が引き起こされる。
論文 参考訳(メタデータ) (2020-11-28T06:40:05Z) - Double Robust Representation Learning for Counterfactual Prediction [68.78210173955001]
そこで本稿では, 対実予測のための2次ロバスト表現を学習するための, スケーラブルな新しい手法を提案する。
我々は、個々の治療効果と平均的な治療効果の両方に対して、堅牢で効率的な対実的予測を行う。
このアルゴリズムは,実世界の最先端技術と合成データとの競合性能を示す。
論文 参考訳(メタデータ) (2020-10-15T16:39:26Z) - Fairness Evaluation in Presence of Biased Noisy Labels [84.12514975093826]
本稿では,グループ間の雑音の仮定がリスク評価モデルの予測バイアス特性に与える影響を評価するための感度分析フレームワークを提案する。
2つの実世界の刑事司法データセットに関する実験結果は、観測されたラベルの小さなバイアスでさえ、ノイズのある結果に基づく分析結果の結論に疑問を投げかけることができることを示している。
論文 参考訳(メタデータ) (2020-03-30T20:47:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。