論文の概要: Judging the algorithm: A case study on the risk assessment tool for
gender-based violence implemented in the Basque country
- arxiv url: http://arxiv.org/abs/2203.03723v2
- Date: Wed, 20 Apr 2022 13:00:42 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-19 15:28:23.257495
- Title: Judging the algorithm: A case study on the risk assessment tool for
gender-based violence implemented in the Basque country
- Title(参考訳): アルゴリズムの判断:バスク州における性暴力のリスクアセスメントツールに関する事例研究
- Authors: Ana Valdivia, Cari Hyde-Vaamonde and Juli\'an Garc\'ia-Marcos
- Abstract要約: 2010年以降、個人がパートナーに対して深刻な暴力を犯す確率を予測するリスクアセスメントツールがバスク州裁判所に組み込まれている。
EPV-Rは、性別に基づく暴力事件の評価において警察官を支援するために開発されたツールであり、裁判官の意思決定を支援するためにも組み込まれた。
訓練が不十分な場合、審査員はアルゴリズムによるアウトプットに晒され、ジェンダーベースの暴力の場合の人間の判断に影響を及ぼす。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Since 2010, the output of a risk assessment tool that predicts how likely an
individual is to commit severe violence against their partner has been
integrated within the Basque country courtrooms. The EPV-R, the tool developed
to assist police officers during the assessment of gender-based violence cases,
was also incorporated to assist the decision-making of judges. With
insufficient training, judges are exposed to an algorithmic output that
influences the human decision of adopting measures in cases of gender-based
violence.
In this paper, we examine the risks, harms and limits of algorithmic
governance within the context of gender-based violence. Through the lens of an
Spanish judge exposed to this tool, we analyse how the EPV-R is impacting on
the justice system. Moving beyond the risks of unfair and biased algorithmic
outputs, we examine legal, social and technical pitfalls such as opaque
implementation, efficiency's paradox and feedback loop, that could led to
unintended consequences on women who suffer gender-based violence. Our
interdisciplinary framework highlights the importance of understanding the
impact and influence of risk assessment tools within judicial decision-making
and increase awareness about its implementation in this context.
- Abstract(参考訳): 2010年以降、個人がパートナーに対して激しい暴力を犯す確率を予測するリスク評価ツールの出力は、バスク州の裁判所に統合された。
性別に基づく暴力事件の評価において警察官を支援するために開発されたEVV-Rも、裁判官の意思決定を支援するために組み込まれた。
不十分な訓練により、裁判官は性別ベースの暴力の場合の措置を採用するという人間の判断に影響を与えるアルゴリズム的なアウトプットにさらされる。
本稿では,性暴力の文脈におけるアルゴリズムガバナンスのリスク,害,限界について検討する。
このツールに晒されたスペインの裁判官のレンズを通して、epv-rが司法システムに与える影響を分析します。
不公平で偏ったアルゴリズム的アウトプットのリスクを超えて、不透明な実施、効率のパラドックス、フィードバックループなどの法的、社会的、技術的落とし穴を調べ、性的な暴力に苦しむ女性に意図しない結果をもたらす可能性がある。
我々の学際的枠組みは、司法判断におけるリスク評価ツールの影響と影響を理解することの重要性を強調し、この文脈におけるその実施に対する意識を高めるものである。
関連論文リスト
- An evidence-based methodology for human rights impact assessment (HRIA) in the development of AI data-intensive systems [49.1574468325115]
我々は、すでに人権がデータ利用の分野で決定を下していることを示している。
本研究は人権影響評価(HRIA)の方法論とモデルである。
提案手法は,具体的ケーススタディで検証し,その有効性と有効性を示す。
論文 参考訳(メタデータ) (2024-07-30T16:27:52Z) - Identifying Risk Patterns in Brazilian Police Reports Preceding
Femicides: A Long Short Term Memory (LSTM) Based Analysis [0.0]
フェミサイド(Femicide)は、親密なパートナーや家族によってしばしば強姦される女性の犠牲者を殺害することであり、また性による暴力とも関係している。
本研究では,殺人前のブラジル警察報告における行動パターンの同定にLSTM(Long Short Term Memory)を用いた。
最初の目的は、これらの報告の内容を、被害者が殺害されるリスクの低いか高いかを示すものとして分類し、精度を66%にすることであった。
第2のアプローチでは、パターン化されたイベントのシーケンス内で、被害者が次に経験する可能性のあるアクションを予測するモデルを開発した。
論文 参考訳(メタデータ) (2024-01-04T23:05:39Z) - Balancing detectability and performance of attacks on the control
channel of Markov Decision Processes [77.66954176188426]
マルコフ決定過程(MDPs)の制御チャネルにおける最適ステルス毒素攻撃の設計問題について検討する。
この研究は、MDPに適用された敵国・毒殺攻撃や強化学習(RL)手法に対する研究コミュニティの最近の関心に動機づけられている。
論文 参考訳(メタデータ) (2021-09-15T09:13:10Z) - The Impact of Algorithmic Risk Assessments on Human Predictions and its
Analysis via Crowdsourcing Studies [79.66833203975729]
我々は,在職者が将来の再起を予測することを任務とするヴィグネット研究を行う。
参加者は、再逮捕の確率が50%よりかなり低いと判断しても、犯罪者が再逮捕されることをしばしば予測します。
裁判官の判断は、参加者の予測とは異なり、部分的には再逮捕の可能性がある要因に依存する。
論文 参考訳(メタデータ) (2021-09-03T11:09:10Z) - Machine learning for risk assessment in gender-based crime [0.0]
本稿では,性暴力行為者の再犯リスクを正確に予測するモデルを作成するために機械学習(ML)技術を適用することを提案する。
本研究の関連性は3つある: (i) 提案されたML法は、古典的統計手法に基づいて既存のリスク評価アルゴリズムを上回り、 (ii) 性的暴力の4万件以上の報告を含む公式の特定目的データベースを通じて研究が行われ、 (iii) モデルが生成するリソースの供給と過負荷に対する効果的な警察保護を評価するための2つの新しい品質対策が提案されている。
論文 参考訳(メタデータ) (2021-06-22T15:05:20Z) - Equality before the Law: Legal Judgment Consistency Analysis for
Fairness [55.91612739713396]
本論文では,LInCo(Legal Inconsistency Coefficient)の判定不整合性評価指標を提案する。
法的な判断予測(LJP)モデルを用いて異なる集団の裁判官をシミュレートし、異なる集団で訓練されたLJPモデルによる判断結果の不一致を判断する。
私達はLInCoを実際の場合の不一致を探検するために使用し、次の観察に来ます:(1)地域およびジェンダーの不一致は法制度でありますが、ジェンダーの不一致は地方不一致より大いにより少しです。
論文 参考訳(メタデータ) (2021-03-25T14:28:00Z) - Experimental Evaluation of Algorithm-Assisted Human Decision-Making:
Application to Pretrial Public Safety Assessment [0.8749675983608171]
本研究では,人的決定に対するアルゴリズムレコメンデーションの因果的影響を実験的に評価するための統計的方法論を開発する。
提案手法を第1回ランダム化制御試験の予備データに適用する。
PSAを裁判官に提供することは、裁判官の決定とその後の逮捕者行動に全体的な影響はほとんどない。
論文 参考訳(メタデータ) (2020-12-04T20:48:44Z) - Overcoming Failures of Imagination in AI Infused System Development and
Deployment [71.9309995623067]
NeurIPS 2020は研究論文に「潜在的な悪用と失敗の結果」に関するインパクトステートメントを含むよう要求した。
我々は、害の枠組みは文脈に適応し、潜在的な利害関係者、システム余裕、および最も広い意味での害を評価するための実行可能なプロキシを考える必要があると論じている。
論文 参考訳(メタデータ) (2020-11-26T18:09:52Z) - A Risk Assessment of a Pretrial Risk Assessment Tool: Tussles,
Mitigation Strategies, and Inherent Limits [0.0]
我々は、サンフランシスコやその他の司法管轄区域で使用されているソフトウェアである公衆安全評価(PSA)のリスクアセスメントを実施し、裁判の前に被告を拘留する必要があるかどうかを判断する裁判官を支援する。
我々はPSAソリューションの利点と限界を明確にし、緩和戦略を提案する。
そして、我々は、デザインによるリスクアセスメントツールの本質的な制限を満たす、新しいアルゴリズムによる事前審理のアプローチであるハンドオフツリーを草案化した。
論文 参考訳(メタデータ) (2020-05-14T23:56:57Z) - Fairness Evaluation in Presence of Biased Noisy Labels [84.12514975093826]
本稿では,グループ間の雑音の仮定がリスク評価モデルの予測バイアス特性に与える影響を評価するための感度分析フレームワークを提案する。
2つの実世界の刑事司法データセットに関する実験結果は、観測されたラベルの小さなバイアスでさえ、ノイズのある結果に基づく分析結果の結論に疑問を投げかけることができることを示している。
論文 参考訳(メタデータ) (2020-03-30T20:47:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。