論文の概要: Argumentation-Based Explainability for Legal AI: Comparative and Regulatory Perspectives
- arxiv url: http://arxiv.org/abs/2510.11079v1
- Date: Mon, 13 Oct 2025 07:19:15 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-14 18:06:30.240445
- Title: Argumentation-Based Explainability for Legal AI: Comparative and Regulatory Perspectives
- Title(参考訳): 法的なAIのための議論に基づく説明可能性:比較と規制の観点から
- Authors: Andrada Iulia Prajescu, Roberto Confalonieri,
- Abstract要約: 人工知能(AI)システムは、法的文脈においてますます多くデプロイされている。
いわゆる「ブラックボックス問題」は、自動意思決定の正当性を損なう。
XAIは透明性を高めるための様々な方法を提案している。
- 参考スコア(独自算出の注目度): 0.9668407688201359
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Artificial Intelligence (AI) systems are increasingly deployed in legal contexts, where their opacity raises significant challenges for fairness, accountability, and trust. The so-called ``black box problem'' undermines the legitimacy of automated decision-making, as affected individuals often lack access to meaningful explanations. In response, the field of Explainable AI (XAI) has proposed a variety of methods to enhance transparency, ranging from example-based and rule-based techniques to hybrid and argumentation-based approaches. This paper promotes computational models of arguments and their role in providing legally relevant explanations, with particular attention to their alignment with emerging regulatory frameworks such as the EU General Data Protection Regulation (GDPR) and the Artificial Intelligence Act (AIA). We analyze the strengths and limitations of different explanation strategies, evaluate their applicability to legal reasoning, and highlight how argumentation frameworks -- by capturing the defeasible, contestable, and value-sensitive nature of law -- offer a particularly robust foundation for explainable legal AI. Finally, we identify open challenges and research directions, including bias mitigation, empirical validation in judicial settings, and compliance with evolving ethical and legal standards, arguing that computational argumentation is best positioned to meet both technical and normative requirements of transparency in the law domain.
- Abstract(参考訳): 人工知能(AI)システムは、その不透明さが公正性、説明責任、信頼に関する重大な課題を提起する法的状況において、ますます多くデプロイされている。
と呼ばれるこの「ブラックボックス問題」は、自動意思決定の正当性を損なう。
これに対し、Explainable AI(XAI)の分野は、例ベースやルールベースのテクニックからハイブリッドや議論ベースのアプローチまで、透明性を高めるためのさまざまな方法を提案している。
本稿では、EU一般データ保護規則(GDPR)やAIA(AIA)などの新たな規制枠組みとの整合性に着目し、議論の計算モデルと法的に関係のある説明を提供する役割について述べる。
我々は、異なる説明戦略の長所と短所を分析し、彼らの法的推論への適用性を評価し、議論フレームワークが、不利で、競争可能で、価値に敏感な法律の性質を捉え、どのようにして、説明可能な法的AIの特に堅牢な基盤を提供するかを強調します。
最後に, バイアス緩和, 司法設定における実証的検証, 倫理的および法的基準の進化への準拠など, オープンな課題と研究の方向性を特定し, 法領域における透明性の技術的および規範的要件を満たすためには, 計算的議論が最適であると主張した。
関連論文リスト
- LegalOne: A Family of Foundation Models for Reliable Legal Reasoning [54.57434222018289]
我々は、中国の法律ドメインに特化された基礎モデルのファミリーであるLegalOneを紹介します。
LegalOneは、法的推論をマスターするために設計された包括的な3フェーズパイプラインを通じて開発されている。
LegalOneの重み付けとLegalKit評価フレームワークを公開して、Legal AIの分野を前進させます。
論文 参考訳(メタデータ) (2026-01-31T10:18:32Z) - LRAS: Advanced Legal Reasoning with Agentic Search [48.281150948187786]
Legal Reasoning with Agentic Search (LRAS)は、静的かつパラメトリックな「クローズドループ思考」から動的かつインタラクティブな「アクティベート問い合わせ」への移行を目的としたフレームワークである。
Introspective LearningとDifficulty-aware Reinforcement Learningを統合することで、LRASはLRMが知識境界を特定し、法的推論を扱うことを可能にする。
実証実験の結果、LRASは最先端のベースラインを8.2-32%上回っている。
論文 参考訳(メタデータ) (2026-01-12T08:07:35Z) - Universal Legal Article Prediction via Tight Collaboration between Supervised Classification Model and LLM [42.11889345473452]
法律記事予測(LAP)は、法的テキスト分類において重要な課題である。
法律記事予測のための普遍的な枠組みであるUni-LAPを提案する。
論文 参考訳(メタデータ) (2025-09-26T09:42:20Z) - On Verifiable Legal Reasoning: A Multi-Agent Framework with Formalized Knowledge Representations [0.0]
本稿では,法的な推論を異なる知識獲得と応用段階に分解するモジュール型マルチエージェントフレームワークを提案する。
第一段階では、特殊エージェントは法的概念を抽出し、規則を形式化し、法令の検証可能な中間表現を作成する。
第2段階では、クエリを分析してケース事実をスキーマにマッピングし、論理的に関連する結論を導出するためのシンボリック推論を実行し、最終的な回答を生成するという3つのステップを通じて、この知識を特定のケースに適用する。
論文 参考訳(メタデータ) (2025-08-31T06:03:00Z) - Judicial Requirements for Generative AI in Legal Reasoning [0.0]
大規模言語モデル(LLM)はプロのドメインに統合されているが、法律のような高度な分野における制限は理解されていない。
本稿では、AIシステムが司法判断における信頼性の高い推論ツールとして機能しなければならない中核機能について述べる。
論文 参考訳(メタデータ) (2025-08-26T09:56:26Z) - GLARE: Agentic Reasoning for Legal Judgment Prediction [60.13483016810707]
法学分野では、法的判断予測(LJP)がますます重要になっている。
既存の大規模言語モデル (LLM) には、法的な知識が不足しているため、推論に不十分な重大な問題がある。
GLAREは,異なるモジュールを呼び出し,重要な法的知識を動的に獲得するエージェント的法的推論フレームワークである。
論文 参考訳(メタデータ) (2025-08-22T13:38:12Z) - Foundations for Risk Assessment of AI in Protecting Fundamental Rights [0.5093073566064981]
この章では、AIの質的リスクアセスメントの概念的フレームワークを紹介します。
法的コンプライアンスと基本的権利保護の複雑さに対処し、定義的バランスとデファシブルな推論を反復する。
論文 参考訳(メタデータ) (2025-07-24T10:52:22Z) - Regulating Ai In Financial Services: Legal Frameworks And Compliance Challenges [0.0]
金融サービスにおける人工知能(AI)規制の進展状況について考察する。
不正検出からアルゴリズム取引まで、AI駆動のプロセスがいかに効率性を高め、重大なリスクをもたらすかを強調している。
この研究は、欧州連合、米国、英国などの主要な司法管轄区域における規制のアプローチを比較している。
論文 参考訳(メタデータ) (2025-03-17T14:29:09Z) - A Law Reasoning Benchmark for LLM with Tree-Organized Structures including Factum Probandum, Evidence and Experiences [76.73731245899454]
本稿では,階層的なファクトラム,証拠,暗黙的な経験に富む透明な法理推論スキーマを提案する。
このスキーマにインスパイアされた課題は、テキストのケース記述を取り込み、最終決定を正当化する階層構造を出力する。
このベンチマークは、Intelligent Courtにおける透明で説明可能なAI支援法推論の道を開く」。
論文 参考訳(メタデータ) (2025-03-02T10:26:54Z) - The explanation dialogues: an expert focus study to understand requirements towards explanations within the GDPR [47.06917254695738]
我々は、XAIに対する法的専門家や実践者の期待、推論、理解を明らかにするための専門的な研究である説明対話(Explaination Dialogues)を提示する。
調査はオンラインアンケートとフォローアップインタビューで構成されており、クレジットドメインのユースケースを中心に行われている。
提示された説明は、情報を理解して欠くことは困難であり、データコントローラと主題の異なる関心事から生じる問題について議論する。
論文 参考訳(メタデータ) (2025-01-09T15:50:02Z) - Legal Evalutions and Challenges of Large Language Models [42.51294752406578]
我々は,OPENAI o1モデルを事例研究として,法律規定の適用における大規模モデルの性能評価に利用した。
我々は、オープンソース、クローズドソース、および法律ドメインのために特別に訓練された法律固有のモデルを含む、最先端のLLMを比較します。
論文 参考訳(メタデータ) (2024-11-15T12:23:12Z) - LawLLM: Law Large Language Model for the US Legal System [43.13850456765944]
我々は,米国法域に特化して設計されたマルチタスクモデルであるLawLLM(Law Large Language Model)を紹介する。
類似症例検索(SCR)、PCR(Precedent Case Recommendation)、LJP(Lawal Judgment Prediction)においてLawLLMが優れている
そこで本研究では,各タスクに対して,生の法定データをトレーニング可能な形式に変換する,カスタマイズされたデータ前処理手法を提案する。
論文 参考訳(メタデータ) (2024-07-27T21:51:30Z) - Bridging the Transparency Gap: What Can Explainable AI Learn From the AI
Act? [0.8287206589886881]
欧州連合は、AIシステムの透明性に関する詳細な要件を導入している。
XAIと透明性に関する法律には根本的な違いがある。
XAIと規制の異なる見解を比較することで、実践的な作業が透明性のギャップを埋める可能性のある4つの軸に到達します。
論文 参考訳(メタデータ) (2023-02-21T16:06:48Z) - On the Need and Applicability of Causality for Fairness: A Unified Framework for AI Auditing and Legal Analysis [0.0]
アルゴリズム的差別に対処する上での因果推論の重要性について考察する。
ランドマークの事例と規制の枠組みをレビューすることで、原因的主張の証明に固有の課題を説明する。
論文 参考訳(メタデータ) (2022-07-08T10:37:22Z) - Fairness in Agreement With European Values: An Interdisciplinary
Perspective on AI Regulation [61.77881142275982]
この学際的立場の論文は、AIにおける公平性と差別に関する様々な懸念を考察し、AI規制がそれらにどう対処するかについて議論する。
私たちはまず、法律、(AI)産業、社会技術、そして(道徳)哲学のレンズを通して、AIと公正性に注目し、様々な視点を提示します。
我々は、AI公正性の懸念の観点から、AI法の取り組みを成功に導くために、AIレギュレーションが果たす役割を特定し、提案する。
論文 参考訳(メタデータ) (2022-06-08T12:32:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。