論文の概要: Concerning the Responsible Use of AI in the US Criminal Justice System
- arxiv url: http://arxiv.org/abs/2506.00212v1
- Date: Fri, 30 May 2025 20:33:42 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-12 00:29:54.008758
- Title: Concerning the Responsible Use of AI in the US Criminal Justice System
- Title(参考訳): 米国刑事司法制度におけるAIの責任ある利用について
- Authors: Cristopher Moore, Catherine Gill, Nadya Bliss, Kevin Butler, Stephanie Forrest, Daniel Lopresti, Mary Lou Maher, Helena Mentis, Shashi Shekhar, Amanda Stent, Matthew Turk,
- Abstract要約: Piece氏は、AIのデータ、ロジック、制限の明確な説明を提唱している。
AIシステムのバイアスに対処し、説明責任を維持するために定期的な監査を求める。
- 参考スコア(独自算出の注目度): 5.5215545294476485
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Artificial intelligence (AI) is increasingly being adopted in most industries, and for applications such as note taking and checking grammar, there is typically not a cause for concern. However, when constitutional rights are involved, as in the justice system, transparency is paramount. While AI can assist in areas such as risk assessment and forensic evidence generation, its "black box" nature raises significant questions about how decisions are made and whether they can be contested. This paper explores the implications of AI in the justice system, emphasizing the need for transparency in AI decision-making processes to uphold constitutional rights and ensure procedural fairness. The piece advocates for clear explanations of AI's data, logic, and limitations, and calls for periodic audits to address bias and maintain accountability in AI systems.
- Abstract(参考訳): 人工知能(AI)は、ほとんどの業界でますます採用されてきている。
しかし、司法制度のように憲法上の権利が関与する場合は、透明性が最重要である。
AIはリスクアセスメントや法医学的エビデンス生成などの分野を支援できるが、その“ブラックボックス”の性質は、意思決定の方法や、それらに異議を唱えるかどうかに関する重要な疑問を提起する。
本稿では, 司法制度におけるAIの意義を考察し, 憲法上の権利を尊重し, 手続き的公正性を確保するためのAI意思決定プロセスにおける透明性の必要性を強調した。
この記事では、AIのデータ、ロジック、制限を明確に説明し、バイアスに対処し、AIシステムの説明責任を維持するための定期的な監査を要求している。
関連論文リスト
- Artificial Intelligence in Government: Why People Feel They Lose Control [44.99833362998488]
行政における人工知能の利用は急速に拡大している。
AIはより効率と応答性を約束するが、政府機能への統合は公正性、透明性、説明責任に関する懸念を提起する。
この記事では、デリゲートの特別事例として、AI導入に関するプリンシパル・エージェント理論を適用します。
論文 参考訳(メタデータ) (2025-05-02T07:46:41Z) - Ethical Challenges of Using Artificial Intelligence in Judiciary [0.0]
AIは司法の機能と司法の免除に革命をもたらす可能性がある。
世界中の裁判所は、正義の行政を強化する手段として、AI技術を採用し始めている。
しかし、司法におけるAIの使用は、様々な倫理的課題を引き起こす。
論文 参考訳(メタデータ) (2025-04-27T15:51:56Z) - Unlocking the Black Box: Analysing the EU Artificial Intelligence Act's Framework for Explainability in AI [0.0]
eXplainable AI(XAI)の必要性は、医療、信用スコアリング、警察、刑事司法制度などの分野において明らかである。
EUレベルでは、説明可能性の概念は、AI法を支える基本的な原則の1つである。
本稿では,AIガバナンスと政策における説明可能性の原則を実装する上での課題とともに,XAIの推進を約束する様々なアプローチとテクニックについて考察する。
論文 参考訳(メタデータ) (2025-01-24T16:30:19Z) - Position: A taxonomy for reporting and describing AI security incidents [57.98317583163334]
AIシステムのセキュリティインシデントを記述し報告するためには、具体的が必要である、と我々は主張する。
非AIセキュリティまたは汎用AI安全インシデントレポートの既存のフレームワークは、AIセキュリティの特定の特性をキャプチャするには不十分である。
論文 参考訳(メタデータ) (2024-12-19T13:50:26Z) - Using AI Alignment Theory to understand the potential pitfalls of regulatory frameworks [55.2480439325792]
本稿では、欧州連合の人工知能法(EU AI法)を批判的に検討する。
人工知能における技術的アライメントの潜在的な落とし穴に焦点を当てたアライメント理論(AT)研究からの洞察を利用する。
これらの概念をEU AI Actに適用すると、潜在的な脆弱性と規制を改善するための領域が明らかになる。
論文 参考訳(メタデータ) (2024-10-10T17:38:38Z) - False Sense of Security in Explainable Artificial Intelligence (XAI) [3.298597939573779]
我々は、AI規制と現在の市場条件が効果的なAIガバナンスと安全性を脅かすと主張している。
政府は明確な立法と政策ステートメントを通じて説明可能性の問題に明示的に対処しない限り、AIガバナンスのリスクは空虚な「ボックス・ティック」のエクササイズになる。
論文 参考訳(メタデータ) (2024-05-06T20:02:07Z) - Towards Responsible AI in Banking: Addressing Bias for Fair
Decision-Making [69.44075077934914]
責任AI(Responsible AI)は、企業文化の発展におけるバイアスに対処する重要な性質を強調している。
この論文は、バイアスを理解すること、バイアスを緩和すること、バイアスを説明することの3つの基本的な柱に基づいて構成されている。
オープンソースの原則に従って、アクセス可能なPythonパッケージとして、Bias On DemandとFairViewをリリースしました。
論文 参考訳(メタデータ) (2024-01-13T14:07:09Z) - Think About the Stakeholders First! Towards an Algorithmic Transparency
Playbook for Regulatory Compliance [14.043062659347427]
世界中の政府によって、公共および民間セクターに導入された人工知能(AI)システムを規制するための法律が提案され、可決されている。
これらの規則の多くは、AIシステムの透明性と、関連する市民意識の問題に対処している。
我々は,透明で規制に適合したシステムを設計する上で,技術者を支援する新たな利害関係者優先のアプローチを提案する。
論文 参考訳(メタデータ) (2022-06-10T09:39:00Z) - Fairness in Agreement With European Values: An Interdisciplinary
Perspective on AI Regulation [61.77881142275982]
この学際的立場の論文は、AIにおける公平性と差別に関する様々な懸念を考察し、AI規制がそれらにどう対処するかについて議論する。
私たちはまず、法律、(AI)産業、社会技術、そして(道徳)哲学のレンズを通して、AIと公正性に注目し、様々な視点を提示します。
我々は、AI公正性の懸念の観点から、AI法の取り組みを成功に導くために、AIレギュレーションが果たす役割を特定し、提案する。
論文 参考訳(メタデータ) (2022-06-08T12:32:08Z) - Cybertrust: From Explainable to Actionable and Interpretable AI (AI2) [58.981120701284816]
Actionable and Interpretable AI (AI2)は、AIレコメンデーションにユーザの信頼度を明確に定量化し視覚化する。
これにより、AIシステムの予測を調べてテストすることで、システムの意思決定に対する信頼の基盤を確立することができる。
論文 参考訳(メタデータ) (2022-01-26T18:53:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。