論文の概要: Fairness Is More Than Algorithms: Racial Disparities in Time-to-Recidivism
- arxiv url: http://arxiv.org/abs/2504.18629v1
- Date: Fri, 25 Apr 2025 18:13:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-02 19:15:53.918161
- Title: Fairness Is More Than Algorithms: Racial Disparities in Time-to-Recidivism
- Title(参考訳): 公平さはアルゴリズム以上のもの:時間とリシビズムにおける人種格差
- Authors: Jessy Xinyi Han, Kristjan Greenewald, Devavrat Shah,
- Abstract要約: この研究は、反事実的人種格差の概念を導入し、アルゴリズム的偏見、文脈的要因、またはそれらの相互作用からリシディズムの違いが生じるかどうかを評価するために、観察データを用いた公式なテストを提供する。
この枠組みをCompASデータセットに適用した実証的研究により、リスクスコアの制御において、短期的な再分配パターンが人種的格差を示さないことが明らかになった。
これは、アルゴリズム的なスコアを超えた要因、おそらく住宅、雇用、社会的支援における構造的な格差は、時間とともに再分配のリスクを蓄積し、悪化させる可能性があることを示唆している。
- 参考スコア(独自算出の注目度): 14.402936852692408
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Racial disparities in recidivism remain a persistent challenge within the criminal justice system, increasingly exacerbated by the adoption of algorithmic risk assessment tools. Past works have primarily focused on bias induced by these tools, treating recidivism as a binary outcome. Limited attention has been given to non-algorithmic factors (including socioeconomic ones) in driving racial disparities from a systemic perspective. To that end, this work presents a multi-stage causal framework to investigate the advent and extent of disparities by considering time-to-recidivism rather than a simple binary outcome. The framework captures interactions among races, the algorithm, and contextual factors. This work introduces the notion of counterfactual racial disparity and offers a formal test using survival analysis that can be conducted with observational data to assess if differences in recidivism arise from algorithmic bias, contextual factors, or their interplay. In particular, it is formally established that if sufficient statistical evidence for differences across racial groups is observed, it would support rejecting the null hypothesis that non-algorithmic factors (including socioeconomic ones) do not affect recidivism. An empirical study applying this framework to the COMPAS dataset reveals that short-term recidivism patterns do not exhibit racial disparities when controlling for risk scores. However, statistically significant disparities emerge with longer follow-up periods, particularly for low-risk groups. This suggests that factors beyond algorithmic scores, possibly structural disparities in housing, employment, and social support, may accumulate and exacerbate recidivism risks over time. This underscores the need for policy interventions extending beyond algorithmic improvements to address broader influences on recidivism trajectories.
- Abstract(参考訳): リシディズムにおける人種格差は、アルゴリズムによるリスク評価ツールの採用によってますます悪化し、刑事司法制度における永続的な課題である。
過去の研究は、主にこれらのツールによって引き起こされるバイアスに焦点を当てており、リシディズムをバイナリな結果として扱う。
非アルゴリズム的要因(社会経済的要因を含む)に対して、体系的な観点から人種的格差を推し進めることに限定的な注意が向けられている。
そこで本研究は, 単純な二分結果ではなく, 時間と再帰性を考慮した多段階因果関係を考察する。
このフレームワークは、人種、アルゴリズム、コンテキスト要素間の相互作用をキャプチャする。
この研究は、反事実的人種格差の概念を導入し、サバイバル分析を用いて正式なテストを行い、アルゴリズム的バイアス、文脈的要因、またはそれらの相互作用からリシディヴィズムの違いが生じるかどうかを評価する。
特に、人種集団間での差異に関する十分な統計的証拠が観察されれば、非アルゴリズム的要因(社会経済的要因を含む)が再分配に影響を及ぼさないという無効仮説の拒絶を支持することが正式に確立されている。
この枠組みをCompASデータセットに適用した実証的研究により、リスクスコアの制御において、短期的な再分配パターンが人種的格差を示さないことが明らかになった。
しかし、統計学的に有意な格差は、特に低リスク群において、長いフォローアップ期間とともに出現する。
これは、アルゴリズム的なスコアを超えた要因、おそらく住宅、雇用、社会的支援における構造的な格差は、時間とともに再分配のリスクを蓄積し、悪化させる可能性があることを示唆している。
このことは、リシディズムの軌跡に対する幅広い影響に対応するために、アルゴリズムの改善を超えて、政策介入の必要性を浮き彫りにしている。
関連論文リスト
- Fairness-Accuracy Trade-Offs: A Causal Perspective [58.06306331390586]
我々は、初めて因果レンズから公正性と正確性の間の張力を分析する。
因果的制約を強制することは、しばしば人口集団間の格差を減少させることを示す。
因果制約付きフェアラーニングのための新しいニューラルアプローチを導入する。
論文 参考訳(メタデータ) (2024-05-24T11:19:52Z) - Not as Simple as It Looked: Are We Concluding for Biased Arrest Practices? [0.0]
この研究は、説明を場所の種類、人物の種類、両方の組み合わせに分類する。
暴力的逮捕結果の分析では、近隣のレベル特性に起因する観察結果の約40%が明らかとなった。
論文 参考訳(メタデータ) (2024-04-13T18:50:59Z) - Auditing Fairness under Unobserved Confounding [56.61738581796362]
意外なことに、リスクの高い人に対する治療率の有意義な限界を計算できることが示されています。
現実の多くの環境では、リスクの偏りのない見積を導き出すために、アロケーションの前にデータを持っているという事実を使用します。
論文 参考訳(メタデータ) (2024-03-18T21:09:06Z) - Causal Equal Protection as Algorithmic Fairness [0.0]
我々は、分類と因果的アプローチを組み合わせた、因果的平等保護という新しい原則を擁護する。
do-calculusでは、因果的平等保護は、個人が保護的または社会的に健全な特性のため、分類ミスの不均一なリスクを負わないよう要求する。
論文 参考訳(メタデータ) (2024-02-19T11:30:00Z) - Measuring Equality in Machine Learning Security Defenses: A Case Study
in Speech Recognition [56.69875958980474]
この研究は、学習したシステムを守るためのアプローチと、異なるサブ人口間でのセキュリティ防衛がパフォーマンス上の不平等をもたらす方法を検討する。
提案された多くの手法は、虚偽の拒絶やロバストネストレーニングの不平等といった直接的な害を引き起こす可能性がある。
本稿では, ランダム化スムースメントとニューラルリジェクションの2つの防御法の比較を行い, マイノリティ集団のサンプリング機構により, ランダム化スムースメントがより公平であることを見出した。
論文 参考訳(メタデータ) (2023-02-17T16:19:26Z) - D-BIAS: A Causality-Based Human-in-the-Loop System for Tackling
Algorithmic Bias [57.87117733071416]
D-BIASは、人間のループ内AIアプローチを具現化し、社会的バイアスを監査し軽減する視覚対話型ツールである。
ユーザは、因果ネットワークにおける不公平な因果関係を識別することにより、グループに対する偏見の存在を検出することができる。
それぞれのインタラクション、例えばバイアスのある因果縁の弱体化/削除は、新しい(偏りのある)データセットをシミュレートするために、新しい方法を用いている。
論文 参考訳(メタデータ) (2022-08-10T03:41:48Z) - Toward Understanding Bias Correlations for Mitigation in NLP [34.956581421295]
この研究は、緩和におけるバイアスの相関を理解するための最初の体系的な研究を提供することを目的としている。
我々は2つの共通NLPタスク(毒性検出と単語埋め込み)におけるバイアス緩和について検討する。
以上の結果から, 偏見は相関し, 独立性脱バイアスアプローチが不十分な現状が示唆された。
論文 参考訳(メタデータ) (2022-05-24T22:48:47Z) - Treatment Effect Risk: Bounds and Inference [58.442274475425144]
平均的な治療効果は社会福祉の変化を測定するため、たとえ肯定的であっても、人口の約10%に悪影響を及ぼすリスクがある。
本稿では,ICT分布のリスク条件値(CVaR)として定式化されたこの重要なリスク尺度をどう評価するかを検討する。
いくつかの境界は、複素CATE関数を単一の計量に要約したものと解釈することもでき、有界であることとは無関係に興味を持つ。
論文 参考訳(メタデータ) (2022-01-15T17:21:26Z) - Anatomizing Bias in Facial Analysis [86.79402670904338]
既存の顔分析システムでは、特定の集団群に対して偏りのある結果が得られることが示されている。
これらのシステムは、個人の性別、アイデンティティ、肌のトーンに基づいて差別されないようにすることが義務づけられている。
これはAIシステムにおけるバイアスの識別と緩和の研究につながった。
論文 参考訳(メタデータ) (2021-12-13T09:51:13Z) - Statistical discrimination in learning agents [64.78141757063142]
統計的差別は、訓練人口のバイアスとエージェントアーキテクチャの両方の関数としてエージェントポリシーに現れる。
我々は、リカレントニューラルネットワークを使用するエージェントによる差別の低減と、トレーニング環境のバイアスの低減が示される。
論文 参考訳(メタデータ) (2021-10-21T18:28:57Z) - Deep Interpretable Criminal Charge Prediction and Algorithmic Bias [2.3347476425292717]
本稿では, ポストホックな説明のバイアス問題に対処し, 将来の刑事告発を受けるかどうかの信頼性の高い予測を行う。
提案手法は,実生活データセット上での予測精度とリコールの一貫性と信頼性を示す。
論文 参考訳(メタデータ) (2021-06-25T07:00:13Z) - Fairness Deconstructed: A Sociotechnical View of 'Fair' Algorithms in
Criminal Justice [0.0]
機械学習の研究者たちはフェアネスの手法を開発しており、その多くは保護された属性をまたいだ経験的メトリクスの等化に依存している。
公正なMLの多くは、基礎となる犯罪データに対する公平性の問題を考慮していない、と私は主張する。
電力不均衡を緩和するAIを構築する代わりに、構造的辺縁化の根本原因を理解するためにデータサイエンスを使用できるかどうかを尋ねる。
論文 参考訳(メタデータ) (2021-06-25T06:52:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。