論文の概要: The Verification-Value Paradox: A Normative Critique of Gen AI in Legal Practice
- arxiv url: http://arxiv.org/abs/2510.20109v1
- Date: Thu, 23 Oct 2025 01:26:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-25 03:08:17.120595
- Title: The Verification-Value Paradox: A Normative Critique of Gen AI in Legal Practice
- Title(参考訳): 検証値パラドックス: 法的実践におけるGen AIの規範的批判
- Authors: Joshua Yuvaraj,
- Abstract要約: 機械学習ベースの生成AI製品は、法的な実践のコストを大幅に削減する、としばしば主張される。
本稿では,AI活用の実践評価に新たなパラダイムが必要であることを論じる。
オーストラリアなどでは、弁護士が不正確なAI生成コンテンツを裁判所に提出したとして非難されているケースは、このパラダイムを再検討する必要があることを示唆している。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: It is often claimed that machine learning-based generative AI products will drastically streamline and reduce the cost of legal practice. This enthusiasm assumes lawyers can effectively manage AI's risks. Cases in Australia and elsewhere in which lawyers have been reprimanded for submitting inaccurate AI-generated content to courts suggest this paradigm must be revisited. This paper argues that a new paradigm is needed to evaluate AI use in practice, given (a) AI's disconnection from reality and its lack of transparency, and (b) lawyers' paramount duties like honesty, integrity, and not to mislead the court. It presents an alternative model of AI use in practice that more holistically reflects these features (the verification-value paradox). That paradox suggests increases in efficiency from AI use in legal practice will be met by a correspondingly greater imperative to manually verify any outputs of that use, rendering the net value of AI use often negligible to lawyers. The paper then sets out the paradox's implications for legal practice and legal education, including for AI use but also the values that the paradox suggests should undergird legal practice: fidelity to the truth and civic responsibility.
- Abstract(参考訳): 機械学習ベースの生成AI製品は、法的な実践のコストを大幅に削減する、としばしば主張される。
この熱意は、弁護士がAIのリスクを効果的に管理できると仮定する。
オーストラリアなどでは、弁護士が不正確なAI生成コンテンツを裁判所に提出したとして非難されているケースは、このパラダイムを再検討する必要があることを示唆している。
本稿では,AI活用の実践評価に新たなパラダイムが必要であることを論じる。
(a)AIの現実との切り離しと透明性の欠如
(b)弁護士の誠実さ、誠実さ、裁判所の誤解を招かないという最優先の義務。
それは、これらの特徴(検証値パラドックス)をよりホリスティックに反映する、実践的なAI使用の代替モデルを提示している。
パラドックスは、法律実務におけるAIの使用による効率の向上は、その使用のアウトプットを手作業で検証するための、より大きな命令によって達成され、AI使用の純価値は弁護士に無視されることが多いことを示唆している。
論文はその後、パラドックスが法的な実践と法的な教育に含めている意味を指摘し、AIの使用だけでなく、パラドックスが提案する価値は法的な実践、すなわち真実への忠実さと市民の責任を負うべきであるとした。
関連論文リスト
- Artificial Intelligence in Election Campaigns: Perceptions, Penalties, and Implications [44.99833362998488]
AI利用の3つのカテゴリ – キャンペーンオペレーション,投票者アウトリーチ,詐欺 – を特定します。
人々は一般的に、キャンペーンでAIを嫌うが、特に詐欺的使用には批判的であり、彼らは標準違反として認識している。
騙しAIの使用は、AI開発を完全に禁止することを含む、より厳格なAI規制に対する公的なサポートを増加させる。
論文 参考訳(メタデータ) (2024-08-08T12:58:20Z) - Particip-AI: A Democratic Surveying Framework for Anticipating Future AI Use Cases, Harms and Benefits [54.648819983899614]
汎用AIは、一般大衆がAIを使用してそのパワーを利用するための障壁を下げたようだ。
本稿では,AI利用事例とその影響を推測し,評価するためのフレームワークであるPartICIP-AIを紹介する。
論文 参考訳(メタデータ) (2024-03-21T19:12:37Z) - Promises and pitfalls of artificial intelligence for legal applications [19.8511844390731]
この主張は現在の証拠には支持されないと我々は主張する。
私たちは3種類の法的タスクにおいて、AIの役割がますます広くなっていることを掘り下げます。
法的な文脈におけるAIの評価と展開の改善を推奨する。
論文 参考訳(メタデータ) (2024-01-10T19:50:37Z) - The Ethics of Automating Legal Actors [58.81546227716182]
我々は、裁判官の役割の自動化は、特に一般的な法体系において、難しい倫理的課題を提起すると主張している。
我々の主張は、単に法律を適用するのではなく、法律を積極的に形成する際の裁判官の社会的役割から従う。
モデルが人間レベルの能力を達成できたとしても、法的プロセスの自動化に固有の倫理的懸念は残るだろう。
論文 参考訳(メタデータ) (2023-12-01T13:48:46Z) - Where's the Liability in Harmful AI Speech? [42.97651263209725]
機械学習の実践者は、問題のあるスピーチを特定するために、定期的に"レッドチーム"モデルをモデル化する。
我々は,3つの責任体制について検討し,これらをレッドチームモデル行動の一般的な例に結びつける。
これらのシナリオでは、AIは責任から分類的に免疫されてはならない、と私たちは主張する。
論文 参考訳(メタデータ) (2023-08-09T00:13:00Z) - Training Is Everything: Artificial Intelligence, Copyright, and Fair
Training [9.653656920225858]
著者: そうしたコンテンツを使ってAIエンジンをトレーニングしている企業は、そのような使用は「フェアユース」であるべきだと信じていることが多い。
著作者: 著作権所有者は、その支持者とともに、著作権のある著作物をAIのトレーニングセットに組み入れ、所有者の知的財産の誤った評価を構成することを検討する。
我々はこの議論の両側で強い議論と刺激的な議論の両方を識別する。
論文 参考訳(メタデータ) (2023-05-04T04:01:00Z) - Law Informs Code: A Legal Informatics Approach to Aligning Artificial
Intelligence with Humans [0.0]
法的な解釈と法的な解釈は、不透明な人間の価値を妥当な指令に変換する計算エンジンを形成する。
論理インフォームズ・コード(Law Informs Code)は、複雑な計算法的なプロセスを捉え、それらをAIに埋め込む研究課題である。
論文 参考訳(メタデータ) (2022-09-14T00:49:09Z) - Cybertrust: From Explainable to Actionable and Interpretable AI (AI2) [58.981120701284816]
Actionable and Interpretable AI (AI2)は、AIレコメンデーションにユーザの信頼度を明確に定量化し視覚化する。
これにより、AIシステムの予測を調べてテストすることで、システムの意思決定に対する信頼の基盤を確立することができる。
論文 参考訳(メタデータ) (2022-01-26T18:53:09Z) - AI and Legal Argumentation: Aligning the Autonomous Levels of AI Legal
Reasoning [0.0]
法的議論は正義の重要な基盤であり、敵対的な法の形を支えている。
広範囲にわたる研究は、人工知能(AI)を含むコンピュータベースの自動化を使用して、法的議論を拡大または実施しようと試みている。
AI法則推論のLevels of Autonomy(LoA)をAIの成熟と法体系化(AILA)に適用するために、革新的なメタアプローチを提案する。
論文 参考訳(メタデータ) (2020-09-11T22:05:40Z) - How Does NLP Benefit Legal System: A Summary of Legal Artificial
Intelligence [81.04070052740596]
法律人工知能(Legal AI)は、人工知能、特に自然言語処理の技術を適用して、法的領域におけるタスクに役立てることに焦点を当てている。
本稿では,LegalAIにおける研究の歴史,現状,今後の方向性について紹介する。
論文 参考訳(メタデータ) (2020-04-25T14:45:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。