論文の概要: Why Avoid Generative Legal AI Systems? Hallucination, Overreliance, and their Impact on Explainability
- arxiv url: http://arxiv.org/abs/2603.15937v1
- Date: Mon, 16 Mar 2026 21:40:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-18 17:42:07.002015
- Title: Why Avoid Generative Legal AI Systems? Hallucination, Overreliance, and their Impact on Explainability
- Title(参考訳): なぜジェネレーティブな法的なAIシステムを避けるのか? 幻覚、過度な信頼と説明可能性への影響
- Authors: Gizem Gültekin Varkonyi,
- Abstract要約: 本稿では, 法的な職業における生成型AIシステムの展開には, 幻覚と過信の重大なリスクのため, 強い抑制が必要であることを論じる。
この分析の中心はジェネレーティブ法定AI(GLAI)の定義である。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This article argues that the deployment of generative AI systems in legal profession requires strong restraint due to the critical risks of hallucination and overreliance. Central to this analysis is the definition of Generative Legal AI (GLAI), an umbrella term for systems specifically adapted for the legal domain which is ranging from document drafting to decision support in criminal justice. Unlike traditional AI, GLAI models are built on architectures designed for statistical token prediction rather than legal reasoning, often leading to confabulations where the system prioritizes linguistic fluency over factual accuracy. These hallucinations obscure the reasoning process, while the persuasive, human-like nature of the output encourages professional overreliance. The paper situates these dynamics within the framework of European AI governance, arguing that the interaction between fabricated data and automation bias fundamentally weakens the principle of explainability. The article concludes that without effective mechanisms for meaningful human scrutiny, the routine adoption of GLAI poses significant challenges to judicial independence and the protection of fundamental rights.
- Abstract(参考訳): 本稿では, 法的な職業における生成型AIシステムの展開には, 幻覚と過信の重大なリスクのため, 強い抑制が必要であることを論じる。
この分析の中心はジェネレーティブ・ローカル・AI(GLAI)の定義であり、文書起草から刑事司法における意思決定支援まで幅広い法律分野に特化している。
従来のAIとは異なり、GLAIモデルは法的な推論ではなく統計的トークン予測のために設計されたアーキテクチャ上に構築されており、しばしばシステムが事実の正確性よりも言語流布を優先する議論に繋がる。
これらの幻覚は推論過程を曖昧にしているが、生産の説得的で人間的な性質は専門的な過信を促進する。
この論文は、これらのダイナミクスをヨーロッパのAIガバナンスの枠組みの中に位置づけ、製造されたデータと自動化バイアスの相互作用が説明可能性の原則を根本的に弱めている、と論じている。
論文は、有意義な人間の精査のための効果的なメカニズムがなければ、GLAIの日常的な採用は、司法の独立と基本的権利の保護に重大な課題をもたらすと結論付けている。
関連論文リスト
- A Survey of Reasoning in Autonomous Driving Systems: Open Challenges and Emerging Paradigms [49.66022971508878]
私たちは、推論はモジュラーコンポーネントからシステムの認知コアに高めるべきだと論じています。
応答性推論のトレードオフやソーシャルゲーム推論など,7つの中核的推論課題を導出し,体系化する。
我々は,LLMに基づく推論と,ミリ秒スケールで安全クリティカルな車両制御の要求との間の,高レイテンシ,熟考的特性の根本的かつ未解決な緊張関係を同定する。
論文 参考訳(メタデータ) (2026-03-11T07:40:53Z) - LegalOne: A Family of Foundation Models for Reliable Legal Reasoning [54.57434222018289]
我々は、中国の法律ドメインに特化された基礎モデルのファミリーであるLegalOneを紹介します。
LegalOneは、法的推論をマスターするために設計された包括的な3フェーズパイプラインを通じて開発されている。
LegalOneの重み付けとLegalKit評価フレームワークを公開して、Legal AIの分野を前進させます。
論文 参考訳(メタデータ) (2026-01-31T10:18:32Z) - From Abstract Threats to Institutional Realities: A Comparative Semantic Network Analysis of AI Securitisation in the US, EU, and China [0.0]
主要な司法管轄区域は、安全、リスク、説明責任といった概念を修辞的に集約するが、それらの規制の枠組みは基本的には分断され、相互に理解できないままである。
本論では, この断片化は, 地政学的対立, 制度的複雑性, 楽器選択のみでは説明できないと論じる。
セマンティック・ネットワーク分析を用いて, セマンティック・アーキテクチャに安全性などの概念が組み込まれていることを追跡した。
論文 参考訳(メタデータ) (2026-01-07T17:12:03Z) - Judicial Requirements for Generative AI in Legal Reasoning [0.0]
大規模言語モデル(LLM)はプロのドメインに統合されているが、法律のような高度な分野における制限は理解されていない。
本稿では、AIシステムが司法判断における信頼性の高い推論ツールとして機能しなければならない中核機能について述べる。
論文 参考訳(メタデータ) (2025-08-26T09:56:26Z) - GLARE: Agentic Reasoning for Legal Judgment Prediction [60.13483016810707]
法学分野では、法的判断予測(LJP)がますます重要になっている。
既存の大規模言語モデル (LLM) には、法的な知識が不足しているため、推論に不十分な重大な問題がある。
GLAREは,異なるモジュールを呼び出し,重要な法的知識を動的に獲得するエージェント的法的推論フレームワークである。
論文 参考訳(メタデータ) (2025-08-22T13:38:12Z) - A Conjecture on a Fundamental Trade-Off between Certainty and Scope in Symbolic and Generative AI [0.0]
論文では、AIシステムにおける証明可能な正しさと広範なデータマッピング能力の基本的なトレードオフを定式化する予想を紹介している。
この暗黙のトレードオフを明確化し、厳密な検証にオープンにすることで、この予想は、エンジニアリングの野望とAIに対する哲学的な期待の両方を大きく変えた。
論文 参考訳(メタデータ) (2025-06-11T19:18:13Z) - The Fundamental Rights Impact Assessment (FRIA) in the AI Act: Roots, legal obligations and key elements for a model template [55.2480439325792]
基本権利影響評価(FRIA)の理論的・方法論的検討における既存のギャップを埋めることを目的とする。
この記事では、FRIAのモデルテンプレートの主要なビルディングブロックについて概説する。
これは、AIが人権と完全に整合していることを保証するために、他の国家および国際規制イニシアチブの青写真として機能する。
論文 参考訳(メタデータ) (2024-11-07T11:55:55Z) - Towards Responsible AI in Banking: Addressing Bias for Fair
Decision-Making [69.44075077934914]
責任AI(Responsible AI)は、企業文化の発展におけるバイアスに対処する重要な性質を強調している。
この論文は、バイアスを理解すること、バイアスを緩和すること、バイアスを説明することの3つの基本的な柱に基づいて構成されている。
オープンソースの原則に従って、アクセス可能なPythonパッケージとして、Bias On DemandとFairViewをリリースしました。
論文 参考訳(メタデータ) (2024-01-13T14:07:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。