論文の概要: Argumentation-Based Explainability for Legal AI: Comparative and Regulatory Perspectives
- arxiv url: http://arxiv.org/abs/2510.11079v1
- Date: Mon, 13 Oct 2025 07:19:15 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-14 18:06:30.240445
- Title: Argumentation-Based Explainability for Legal AI: Comparative and Regulatory Perspectives
- Title(参考訳): 法的なAIのための議論に基づく説明可能性:比較と規制の観点から
- Authors: Andrada Iulia Prajescu, Roberto Confalonieri,
- Abstract要約: 人工知能(AI)システムは、法的文脈においてますます多くデプロイされている。
いわゆる「ブラックボックス問題」は、自動意思決定の正当性を損なう。
XAIは透明性を高めるための様々な方法を提案している。
- 参考スコア(独自算出の注目度): 0.9668407688201359
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Artificial Intelligence (AI) systems are increasingly deployed in legal contexts, where their opacity raises significant challenges for fairness, accountability, and trust. The so-called ``black box problem'' undermines the legitimacy of automated decision-making, as affected individuals often lack access to meaningful explanations. In response, the field of Explainable AI (XAI) has proposed a variety of methods to enhance transparency, ranging from example-based and rule-based techniques to hybrid and argumentation-based approaches. This paper promotes computational models of arguments and their role in providing legally relevant explanations, with particular attention to their alignment with emerging regulatory frameworks such as the EU General Data Protection Regulation (GDPR) and the Artificial Intelligence Act (AIA). We analyze the strengths and limitations of different explanation strategies, evaluate their applicability to legal reasoning, and highlight how argumentation frameworks -- by capturing the defeasible, contestable, and value-sensitive nature of law -- offer a particularly robust foundation for explainable legal AI. Finally, we identify open challenges and research directions, including bias mitigation, empirical validation in judicial settings, and compliance with evolving ethical and legal standards, arguing that computational argumentation is best positioned to meet both technical and normative requirements of transparency in the law domain.
- Abstract(参考訳): 人工知能(AI)システムは、その不透明さが公正性、説明責任、信頼に関する重大な課題を提起する法的状況において、ますます多くデプロイされている。
と呼ばれるこの「ブラックボックス問題」は、自動意思決定の正当性を損なう。
これに対し、Explainable AI(XAI)の分野は、例ベースやルールベースのテクニックからハイブリッドや議論ベースのアプローチまで、透明性を高めるためのさまざまな方法を提案している。
本稿では、EU一般データ保護規則(GDPR)やAIA(AIA)などの新たな規制枠組みとの整合性に着目し、議論の計算モデルと法的に関係のある説明を提供する役割について述べる。
我々は、異なる説明戦略の長所と短所を分析し、彼らの法的推論への適用性を評価し、議論フレームワークが、不利で、競争可能で、価値に敏感な法律の性質を捉え、どのようにして、説明可能な法的AIの特に堅牢な基盤を提供するかを強調します。
最後に, バイアス緩和, 司法設定における実証的検証, 倫理的および法的基準の進化への準拠など, オープンな課題と研究の方向性を特定し, 法領域における透明性の技術的および規範的要件を満たすためには, 計算的議論が最適であると主張した。
関連論文リスト
- Universal Legal Article Prediction via Tight Collaboration between Supervised Classification Model and LLM [42.11889345473452]
法律記事予測(LAP)は、法的テキスト分類において重要な課題である。
法律記事予測のための普遍的な枠組みであるUni-LAPを提案する。
論文 参考訳(メタデータ) (2025-09-26T09:42:20Z) - Judicial Requirements for Generative AI in Legal Reasoning [0.0]
大規模言語モデル(LLM)はプロのドメインに統合されているが、法律のような高度な分野における制限は理解されていない。
本稿では、AIシステムが司法判断における信頼性の高い推論ツールとして機能しなければならない中核機能について述べる。
論文 参考訳(メタデータ) (2025-08-26T09:56:26Z) - GLARE: Agentic Reasoning for Legal Judgment Prediction [60.13483016810707]
法学分野では、法的判断予測(LJP)がますます重要になっている。
既存の大規模言語モデル (LLM) には、法的な知識が不足しているため、推論に不十分な重大な問題がある。
GLAREは,異なるモジュールを呼び出し,重要な法的知識を動的に獲得するエージェント的法的推論フレームワークである。
論文 参考訳(メタデータ) (2025-08-22T13:38:12Z) - Foundations for Risk Assessment of AI in Protecting Fundamental Rights [0.5093073566064981]
この章では、AIの質的リスクアセスメントの概念的フレームワークを紹介します。
法的コンプライアンスと基本的権利保護の複雑さに対処し、定義的バランスとデファシブルな推論を反復する。
論文 参考訳(メタデータ) (2025-07-24T10:52:22Z) - A Law Reasoning Benchmark for LLM with Tree-Organized Structures including Factum Probandum, Evidence and Experiences [76.73731245899454]
本稿では,階層的なファクトラム,証拠,暗黙的な経験に富む透明な法理推論スキーマを提案する。
このスキーマにインスパイアされた課題は、テキストのケース記述を取り込み、最終決定を正当化する階層構造を出力する。
このベンチマークは、Intelligent Courtにおける透明で説明可能なAI支援法推論の道を開く」。
論文 参考訳(メタデータ) (2025-03-02T10:26:54Z) - The explanation dialogues: an expert focus study to understand requirements towards explanations within the GDPR [47.06917254695738]
我々は、XAIに対する法的専門家や実践者の期待、推論、理解を明らかにするための専門的な研究である説明対話(Explaination Dialogues)を提示する。
調査はオンラインアンケートとフォローアップインタビューで構成されており、クレジットドメインのユースケースを中心に行われている。
提示された説明は、情報を理解して欠くことは困難であり、データコントローラと主題の異なる関心事から生じる問題について議論する。
論文 参考訳(メタデータ) (2025-01-09T15:50:02Z) - Legal Evalutions and Challenges of Large Language Models [42.51294752406578]
我々は,OPENAI o1モデルを事例研究として,法律規定の適用における大規模モデルの性能評価に利用した。
我々は、オープンソース、クローズドソース、および法律ドメインのために特別に訓練された法律固有のモデルを含む、最先端のLLMを比較します。
論文 参考訳(メタデータ) (2024-11-15T12:23:12Z) - LawLLM: Law Large Language Model for the US Legal System [43.13850456765944]
我々は,米国法域に特化して設計されたマルチタスクモデルであるLawLLM(Law Large Language Model)を紹介する。
類似症例検索(SCR)、PCR(Precedent Case Recommendation)、LJP(Lawal Judgment Prediction)においてLawLLMが優れている
そこで本研究では,各タスクに対して,生の法定データをトレーニング可能な形式に変換する,カスタマイズされたデータ前処理手法を提案する。
論文 参考訳(メタデータ) (2024-07-27T21:51:30Z) - Bridging the Transparency Gap: What Can Explainable AI Learn From the AI
Act? [0.8287206589886881]
欧州連合は、AIシステムの透明性に関する詳細な要件を導入している。
XAIと透明性に関する法律には根本的な違いがある。
XAIと規制の異なる見解を比較することで、実践的な作業が透明性のギャップを埋める可能性のある4つの軸に到達します。
論文 参考訳(メタデータ) (2023-02-21T16:06:48Z) - On the Need and Applicability of Causality for Fairness: A Unified Framework for AI Auditing and Legal Analysis [0.0]
アルゴリズム的差別に対処する上での因果推論の重要性について考察する。
ランドマークの事例と規制の枠組みをレビューすることで、原因的主張の証明に固有の課題を説明する。
論文 参考訳(メタデータ) (2022-07-08T10:37:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。