論文の概要: Alternative Fairness and Accuracy Optimization in Criminal Justice
- arxiv url: http://arxiv.org/abs/2511.04505v1
- Date: Thu, 06 Nov 2025 16:24:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-07 20:17:53.49938
- Title: Alternative Fairness and Accuracy Optimization in Criminal Justice
- Title(参考訳): 刑事司法における代替フェアネスと精度最適化
- Authors: Shaolong Wu, James Blume, Geshi Yeung,
- Abstract要約: 我々は、標準群公正性への簡単な修正を開発する。
誤り率の差を小さく抑えつつ、重み付き誤差損失を最小限に抑える。
これにより、ソリューションの発見が容易になり、予測精度が向上し、エラーコストの倫理的選択が表面化します。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Algorithmic fairness has grown rapidly as a research area, yet key concepts remain unsettled, especially in criminal justice. We review group, individual, and process fairness and map the conditions under which they conflict. We then develop a simple modification to standard group fairness. Rather than exact parity across protected groups, we minimize a weighted error loss while keeping differences in false negative rates within a small tolerance. This makes solutions easier to find, can raise predictive accuracy, and surfaces the ethical choice of error costs. We situate this proposal within three classes of critique: biased and incomplete data, latent affirmative action, and the explosion of subgroup constraints. Finally, we offer a practical framework for deployment in public decision systems built on three pillars: need-based decisions, Transparency and accountability, and narrowly tailored definitions and solutions. Together, these elements link technical design to legitimacy and provide actionable guidance for agencies that use risk assessment and related tools.
- Abstract(参考訳): アルゴリズムの公正性は研究分野として急速に成長しているが、特に刑事司法において重要な概念は未解決のままである。
グループ、個人、プロセスの公正性をレビューし、それらが対立する条件をマップします。
次に、標準群公正性に対する簡単な修正を開発する。
保護された群間での正確なパリティよりも、小さな許容範囲内で偽陰率の差を保ちながら、重み付き誤差損失を最小限に抑える。
これにより、ソリューションの発見が容易になり、予測精度が向上し、エラーコストの倫理的選択が表面化します。
この提案は、偏りと不完全なデータ、潜在肯定的な行動、サブグループの制約の爆発の3つのクラスに分類される。
最後に、ニーズベースの意思決定、透明性と説明責任、狭義の定義とソリューションという3つの柱の上に構築されたパブリックな意思決定システムにデプロイするための実践的なフレームワークを提供します。
これらの要素は、技術的設計を正当性に結び付け、リスクアセスメントと関連するツールを使用する機関に対して実行可能なガイダンスを提供する。
関連論文リスト
- Fairness-Aware Reinforcement Learning (FAReL): A Framework for Transparent and Balanced Sequential Decision-Making [41.53741129864172]
実世界のシーケンシャルな決定問題の等価性は、公平性を意識した方法で実施することができる。
複数のトレードオフを探索できるフレームワークを提案する。
フレームワークは複数のシナリオでより公平なポリシーを学習し、パフォーマンスの報酬をわずかに損なうだけであることを示す。
論文 参考訳(メタデータ) (2025-09-26T11:42:14Z) - Fairness for the People, by the People: Minority Collective Action [50.29077265863936]
機械学習モデルは、トレーニングデータに存在するバイアスを保存し、一部の少数民族を不公平に扱う。
我々は,企業のトレーニングプロセスを変更することなく,公正性を高めるために,自らのデータを戦略的に再ラベルする調整されたマイノリティグループを提案する。
以上の結果から,少数民族のサブグループは,全体の予測誤差に少なからぬ影響で,不公平さを著しく低減できることが明らかとなった。
論文 参考訳(メタデータ) (2025-08-21T09:09:39Z) - Finite-Sample and Distribution-Free Fair Classification: Optimal Trade-off Between Excess Risk and Fairness, and the Cost of Group-Blindness [14.421493372559762]
グループフェアネス制約下の二項分類におけるアルゴリズムフェアネスとグループブレンドネスの強制効果を定量化する。
制御された過剰リスクを伴う分布自由かつ有限サンプルフェアネスを保証するフェア分類のための統一的なフレームワークを提案する。
論文 参考訳(メタデータ) (2024-10-21T20:04:17Z) - Criticality and Safety Margins for Reinforcement Learning [53.10194953873209]
我々は,定量化基盤真理とユーザにとっての明確な意義の両面から,批判的枠組みを定めようとしている。
エージェントがn連続的ランダム動作に対するポリシーから逸脱した場合の報酬の減少として真臨界を導入する。
我々はまた、真の臨界と統計的に単調な関係を持つ低オーバーヘッド計量であるプロキシ臨界の概念も導入する。
論文 参考訳(メタデータ) (2024-09-26T21:00:45Z) - Identifying and Mitigating Social Bias Knowledge in Language Models [52.52955281662332]
個々人の社会的偏見をきめ細かなキャリブレーションを可能にする新しいデバイアス・アプローチであるFairness Stamp(FAST)を提案する。
FASTは最先端のベースラインを超え、デバイアス性能が優れている。
これは、大きな言語モデルにおける公平性を達成するためのきめ細かいデバイアス戦略の可能性を強調している。
論文 参考訳(メタデータ) (2024-08-07T17:14:58Z) - Federated Fairness without Access to Sensitive Groups [12.888927461513472]
連合学習におけるグループフェアネスへの現在のアプローチは、トレーニング中に事前に定義されラベル付けされたセンシティブなグループが存在することを前提としている。
我々は、センシティブなグループや追加のラベルの事前定義された定義に依存しないグループフェアネスを保証するための新しいアプローチを提案する。
論文 参考訳(メタデータ) (2024-02-22T19:24:59Z) - Fair Without Leveling Down: A New Intersectional Fairness Definition [1.0958014189747356]
本稿では,感性グループ間での絶対値と相対値のパフォーマンスを組み合わせた$alpha$-Intersectional Fairnessという新たな定義を提案する。
我々は、新しいフェアネス定義を用いて、複数の一般的なプロセス内機械学習アプローチをベンチマークし、単純なベースラインよりも改善が得られないことを示します。
論文 参考訳(メタデータ) (2023-05-21T16:15:12Z) - Robust Optimization for Fairness with Noisy Protected Groups [85.13255550021495]
ノイズが保護されたグループラベルに頼った結果について検討した。
頑健な最適化を用いた2つの新しいアプローチを提案する。
頑健なアプローチは、単純アプローチよりも真のグループ公平性を保証することが示される。
論文 参考訳(メタデータ) (2020-02-21T14:58:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。