論文の概要: How Can AI Augment Access to Justice? Public Defenders' Perspectives on AI Adoption
- arxiv url: http://arxiv.org/abs/2510.22933v1
- Date: Mon, 27 Oct 2025 02:26:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-28 15:28:15.42159
- Title: How Can AI Augment Access to Justice? Public Defenders' Perspectives on AI Adoption
- Title(参考訳): AIが正義へのアクセスを拡大するには? 公の被告によるAI導入の展望
- Authors: Inyoung Cheong, Patty Liu, Dominik Stammbach, Peter Henderson,
- Abstract要約: AIの採用は、コスト、限定的なオフィス規範、機密性リスク、不満足なツール品質に制約されていることが分かっています。
公の弁護側は、AIは圧倒的な量のデジタル記録を分析する証拠調査に最も有用だと考えている。
裁判所の表現と防衛戦略は、AI支援とはほとんど互換性がないと考えられている。
- 参考スコア(独自算出の注目度): 6.949832807566659
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Public defenders are asked to do more with less: representing clients deserving of adequate counsel while facing overwhelming caseloads and scarce resources. While artificial intelligence (AI) and large language models (LLMs) are promoted as tools to alleviate this burden, such proposals are detached from the lived realities of public defenders. This study addresses that gap through semi-structured interviews with fourteen practitioners across the United States to examine their experiences with AI, anticipated applications, and ethical concerns. We find that AI adoption is constrained by costs, restrictive office norms, confidentiality risks, and unsatisfactory tool quality. To clarify where AI can and cannot contribute, we propose a task-level map of public defense. Public defenders view AI as most useful for evidence investigation to analyze overwhelming amounts of digital records, with narrower roles in legal research & writing, and client communication. Courtroom representation and defense strategy are considered least compatible with AI assistance, as they depend on contextual judgment and trust. Public defenders emphasize safeguards for responsible use, including mandatory human verification, limits on overreliance, and the preservation of relational aspect of lawyering. Building on these findings, we outline a research agenda that promotes equitable access to justice by prioritizing open-source models, domain-specific datasets and evaluation, and participatory design that incorporates defenders' perspectives into system development.
- Abstract(参考訳): 適切なカウンセリングを維持しながら、圧倒的なケース負荷とリソース不足に直面している顧客を代表すること。
人工知能(AI)と大規模言語モデル(LLM)は、この負担を軽減するツールとして推進されているが、そのような提案は、公共防衛者の生きた現実とは切り離されている。
この研究は、AIの経験、期待される応用、倫理的懸念を調べるために、米国中の14人の実践者との半構造化インタビューを通じてギャップを埋めることに対処する。
AIの採用は、コスト、限定的なオフィス規範、機密性リスク、不満足なツール品質に制約されていることが分かっています。
そこで我々は,AIがどこに貢献できるかを明らかにするために,公共防衛のタスクレベルマップを提案する。
公の弁護側は、AIは圧倒的な量のデジタル記録を分析し、法的な研究と執筆、顧客とのコミュニケーションにおいてより狭い役割を持つ証拠調査にとって最も有用であると考えている。
裁判所の表現と防衛戦略は、文脈的判断と信頼に依存するため、AI支援とはほとんど互換性がないと考えられている。
公の弁護側は責任ある使用の保護を強調しており、人間による検証、過度な信頼性の制限、および弁護士のリレーショナルな側面の保存が義務付けられている。
これらの知見に基づいて、我々は、オープンソースモデル、ドメイン固有のデータセットと評価の優先順位付けによる公正な正義へのアクセスを促進する研究課題と、防衛者のシステム開発に対する視点を取り入れた参加型設計について概説する。
関連論文リスト
- Concerning the Responsible Use of AI in the US Criminal Justice System [5.5215545294476485]
Piece氏は、AIのデータ、ロジック、制限の明確な説明を提唱している。
AIシステムのバイアスに対処し、説明責任を維持するために定期的な監査を求める。
論文 参考訳(メタデータ) (2025-05-30T20:33:42Z) - Ethical Challenges of Using Artificial Intelligence in Judiciary [0.0]
AIは司法の機能と司法の免除に革命をもたらす可能性がある。
世界中の裁判所は、正義の行政を強化する手段として、AI技術を採用し始めている。
しかし、司法におけるAIの使用は、様々な倫理的課題を引き起こす。
論文 参考訳(メタデータ) (2025-04-27T15:51:56Z) - Tasks and Roles in Legal AI: Data Curation, Annotation, and Verification [4.099848175176399]
AIツールの法分野への応用は、自然に感じられる。
しかし、法的文書は、ほとんどのAIシステムの基盤となるウェブベースのテキストとは異なる。
我々は、データキュレーション、データアノテーション、出力検証の3つの分野を実践者に対して特定する。
論文 参考訳(メタデータ) (2025-04-02T04:34:58Z) - Do Responsible AI Artifacts Advance Stakeholder Goals? Four Key Barriers Perceived by Legal and Civil Stakeholders [59.17981603969404]
責任あるAI(RAI)コミュニティは、透明性を促進し、AIシステムのガバナンスをサポートするために、多数のプロセスとアーティファクトを導入している。
我々は、責任あるAI活動に関する政策と擁護を通知する19の政府、法律、市民社会の利害関係者と半構造化されたインタビューを行う。
我々は、これらの信念を4つの障壁にまとめて、RAIアーティファクトが(必然的に)市民社会、政府、産業間での権力関係を再構成する方法を説明する。
論文 参考訳(メタデータ) (2024-08-22T00:14:37Z) - Particip-AI: A Democratic Surveying Framework for Anticipating Future AI Use Cases, Harms and Benefits [54.648819983899614]
汎用AIは、一般大衆がAIを使用してそのパワーを利用するための障壁を下げたようだ。
本稿では,AI利用事例とその影響を推測し,評価するためのフレームワークであるPartICIP-AIを紹介する。
論文 参考訳(メタデータ) (2024-03-21T19:12:37Z) - A Safe Harbor for AI Evaluation and Red Teaming [124.89885800509505]
一部の研究者は、そのような研究の実施や研究成果の公表が、アカウント停止や法的報復につながることを恐れている。
我々は、主要なAI開発者が法的、技術的に安全な港を提供することを約束することを提案します。
これらのコミットメントは、ジェネレーティブAIのリスクに取り組むための、より包括的で意図しないコミュニティ努力への必要なステップである、と私たちは信じています。
論文 参考訳(メタデータ) (2024-03-07T20:55:08Z) - Citizen Perspectives on Necessary Safeguards to the Use of AI by Law
Enforcement Agencies [0.0]
本研究は,111人の市民のインタビューを通じて,警察によるAI利用に対する見解を探るものである。
サイバー犯罪やテロリズムの文脈において、LEAによるAI使用のネガティブな影響からの保護の提案とともに、社会的な懸念を統合している。
論文 参考訳(メタデータ) (2023-05-31T12:26:34Z) - AI and Legal Argumentation: Aligning the Autonomous Levels of AI Legal
Reasoning [0.0]
法的議論は正義の重要な基盤であり、敵対的な法の形を支えている。
広範囲にわたる研究は、人工知能(AI)を含むコンピュータベースの自動化を使用して、法的議論を拡大または実施しようと試みている。
AI法則推論のLevels of Autonomy(LoA)をAIの成熟と法体系化(AILA)に適用するために、革新的なメタアプローチを提案する。
論文 参考訳(メタデータ) (2020-09-11T22:05:40Z) - How Does NLP Benefit Legal System: A Summary of Legal Artificial
Intelligence [81.04070052740596]
法律人工知能(Legal AI)は、人工知能、特に自然言語処理の技術を適用して、法的領域におけるタスクに役立てることに焦点を当てている。
本稿では,LegalAIにおける研究の歴史,現状,今後の方向性について紹介する。
論文 参考訳(メタデータ) (2020-04-25T14:45:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。