論文の概要: (Beyond) Reasonable Doubt: Challenges that Public Defenders Face in Scrutinizing AI in Court
- arxiv url: http://arxiv.org/abs/2403.13004v1
- Date: Wed, 13 Mar 2024 23:19:46 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-25 07:17:26.070244
- Title: (Beyond) Reasonable Doubt: Challenges that Public Defenders Face in Scrutinizing AI in Court
- Title(参考訳): 公の被告が法廷でAIを精査する上で直面する課題
- Authors: Angela Jin, Niloufar Salehi,
- Abstract要約: 我々は,公務員が法廷でどのようにAIを精査するかを研究することによって,実際にAIシステムに挑戦する努力を研究する。
我々は,米国公共防衛コミュニティの17人のインタビューから得られた知見を報告する。
- 参考スコア(独自算出の注目度): 7.742399489996169
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Accountable use of AI systems in high-stakes settings relies on making systems contestable. In this paper we study efforts to contest AI systems in practice by studying how public defenders scrutinize AI in court. We present findings from interviews with 17 people in the U.S. public defense community to understand their perceptions of and experiences scrutinizing computational forensic software (CFS) -- automated decision systems that the government uses to convict and incarcerate, such as facial recognition, gunshot detection, and probabilistic genotyping tools. We find that our participants faced challenges assessing and contesting CFS reliability due to difficulties (a) navigating how CFS is developed and used, (b) overcoming judges and jurors' non-critical perceptions of CFS, and (c) gathering CFS expertise. To conclude, we provide recommendations that center the technical, social, and institutional context to better position interventions such as performance evaluations to support contestability in practice.
- Abstract(参考訳): ハイテイク設定におけるAIシステムのカウンタブル利用は、システムを競争可能にすることに依存している。
本稿では,公務員が法廷でどのようにAIを精査するかを研究することによって,実際にAIシステムと競合する取り組みについて検討する。
我々は,連邦政府が顔認証,銃弾検出,確率的ゲノタイピングツールなど,投獄・投獄に使用する自動判断システムであるCFS(Computer forensic Software)の認識と経験を理解するために,米国の公安防衛コミュニティの17人のインタビューから得られた知見を提示する。
難易度からCFSの信頼性を評価・争う課題に参加者が直面していることが判明した。
(a) CFSの開発・使用方法
ロ 裁判官及び陪審員のCFSに対する非批判的認識を克服すること及び
(c) CFSの専門知識の収集。
結論として, 技術的, 社会的, 制度的な文脈の中心となるレコメンデーションを, 実践における競争性を支援するために, パフォーマンス評価などのより優れた位置介入のために提供します。
関連論文リスト
- From Transparency to Accountability and Back: A Discussion of Access and Evidence in AI Auditing [1.196505602609637]
監査は、デプロイ前のリスクアセスメント、進行中の監視、コンプライアンステストなど、さまざまな形式で実施することができる。
AI監査には、その実装を複雑にする多くの運用上の課題がある。
我々は、監査は自然な仮説テストとして、並列仮説テストと法的手続きを引き出すことができると論じ、このフレーミングは、監査実施に関する明確かつ解釈可能なガイダンスを提供すると論じる。
論文 参考訳(メタデータ) (2024-10-07T06:15:46Z) - Ensuring Fairness with Transparent Auditing of Quantitative Bias in AI Systems [0.30693357740321775]
AIシステムは、意思決定者が不公平な結論を導くバイアスを示す可能性がある。
本稿では,サードパーティの監査官やAIシステムプロバイダによるAIフェアネスの監査を行うフレームワークを提案する。
我々は,AIシステムの体系的な検査を容易にするツールを開発した。
論文 参考訳(メタデータ) (2024-08-24T17:16:50Z) - Combining AI Control Systems and Human Decision Support via Robustness and Criticality [53.10194953873209]
我々は、逆説(AE)の方法論を最先端の強化学習フレームワークに拡張する。
学習したAI制御システムは、敵のタンパリングに対する堅牢性を示す。
トレーニング/学習フレームワークでは、この技術は人間のインタラクションを通じてAIの決定と説明の両方を改善することができる。
論文 参考訳(メタデータ) (2024-07-03T15:38:57Z) - Particip-AI: A Democratic Surveying Framework for Anticipating Future AI Use Cases, Harms and Benefits [54.648819983899614]
汎用AIは、一般大衆がAIを使用してそのパワーを利用するための障壁を下げたようだ。
本稿では,AI利用事例とその影響を推測し,評価するためのフレームワークであるPartICIP-AIを紹介する。
論文 参考訳(メタデータ) (2024-03-21T19:12:37Z) - Recommendations for Government Development and Use of Advanced Automated
Systems to Make Decisions about Individuals [14.957989495850935]
コンペティビリティは、しばしばデュエルプロセスの要素として立憲に要求される。
われわれは、高度な自動意思決定、競争性、法律に関するワークショップを開催した。
論文 参考訳(メタデータ) (2024-03-04T00:03:00Z) - Testing autonomous vehicles and AI: perspectives and challenges from cybersecurity, transparency, robustness and fairness [53.91018508439669]
この研究は、人工知能を自律走行車(AV)に統合する複雑さを探求する
AIコンポーネントがもたらした課題と、テスト手順への影響を調べます。
本稿は、重要な課題を特定し、AV技術におけるAIの研究・開発に向けた今後の方向性を提案する。
論文 参考訳(メタデータ) (2024-02-21T08:29:42Z) - Perspectives on Large Language Models for Relevance Judgment [56.935731584323996]
大型言語モデル(LLM)は、関連判断を支援することができると主張している。
自動判定が検索システムの評価に確実に利用できるかどうかは不明である。
論文 参考訳(メタデータ) (2023-04-13T13:08:38Z) - Algorithmic Fairness and Vertical Equity: Income Fairness with IRS Tax
Audit Models [73.24381010980606]
本研究は、IRSによる税務監査選択を通知するシステムの文脈におけるアルゴリズムフェアネスの問題について検討する。
監査を選択するための柔軟な機械学習手法が、垂直エクイティにどのように影響するかを示す。
この結果は,公共セクター全体でのアルゴリズムツールの設計に影響を及ぼす。
論文 参考訳(メタデータ) (2022-06-20T16:27:06Z) - Adversarial Scrutiny of Evidentiary Statistical Software [32.962815960406196]
米国の刑事法体系はますます、人を有罪にし、投獄するためにソフトウェア出力に依存している。
本稿では,前向きな統計的ソフトウェアの有効性を検証するための監査フレームワークとして,頑健な敵検定を提案する。
論文 参考訳(メタデータ) (2022-06-19T02:08:42Z) - Differential Privacy and Fairness in Decisions and Learning Tasks: A
Survey [50.90773979394264]
プライバシーと公正が目標と一致したり、対照的になったりした条件をレビューする。
意思決定問題や学習タスクにおいて、DPが偏見や不公平を悪化させる理由と理由を分析します。
論文 参考訳(メタデータ) (2022-02-16T16:50:23Z) - Performance in the Courtroom: Automated Processing and Visualization of
Appeal Court Decisions in France [20.745220428708457]
我々はNLP法を用いて、弁護士や判決のネットワークを構築するために、判断から興味深いエンティティやデータを抽出する。
我々は,弁護士のネットワークにおける経験,勝利/損失比,およびその重要性に基づいて,弁護士のランク付けのための指標を提案する。
論文 参考訳(メタデータ) (2020-06-11T08:22:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。