論文の概要: Legal interpretation and AI: from expert systems to argumentation and LLMs
- arxiv url: http://arxiv.org/abs/2603.05392v1
- Date: Thu, 05 Mar 2026 17:22:56 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-06 22:06:11.337256
- Title: Legal interpretation and AI: from expert systems to argumentation and LLMs
- Title(参考訳): 法解釈とAI:専門家システムから議論・LLMへ
- Authors: Václav Janeček, Giovanni Sartor,
- Abstract要約: AIと法の研究は、その進化したアプローチと方法論の文脈において、異なる方法で法的な解釈に直面してきた。
専門家システムの研究は、人間が生成した解釈を知識ベースに転送できることを保証することを目的として、法的な知識工学に重点を置いている。
議論に関する研究は、解釈的議論の構造とそれらの弁証的相互作用を表現することを目的としている。
機械学習の研究は、一般化された特殊化された言語モデルを通して、解釈的提案と議論の自動生成に焦点を当てている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: AI and Law research has encountered legal interpretation in different ways, in the context of its evolving approaches and methodologies. Research on expert system has focused on legal knowledge engineering, with the goal of ensuring that human-generated interpretations can be precisely transferred into knowledge-bases, to be consistently applied. Research on argumentation has aimed at representing the structure of interpretive arguments, as well as their dialectical interactions, to assess of the acceptability of interpretive claims within argumentation frameworks. Research on machine learning has focused on the automated generation of interpretive suggestions and arguments, through general and specialised language models, now being increasingly deployed in legal practice.
- Abstract(参考訳): AIと法の研究は、その進化したアプローチと方法論の文脈において、異なる方法で法的な解釈に直面してきた。
専門家システムの研究は法知識工学に重点を置いており、人間が生成した解釈を知識ベースに正確に変換し、一貫して適用することを目的としている。
議論に関する研究は、議論フレームワーク内での解釈的主張の受容性を評価するために、解釈的議論の構造とそれらの弁証的相互作用を表現することを目的としている。
機械学習の研究は、一般的な特殊化された言語モデルを通じて解釈的提案と議論の自動生成に焦点が当てられ、現在では法的な実践がますます進んでいる。
関連論文リスト
- LegalOne: A Family of Foundation Models for Reliable Legal Reasoning [54.57434222018289]
我々は、中国の法律ドメインに特化された基礎モデルのファミリーであるLegalOneを紹介します。
LegalOneは、法的推論をマスターするために設計された包括的な3フェーズパイプラインを通じて開発されている。
LegalOneの重み付けとLegalKit評価フレームワークを公開して、Legal AIの分野を前進させます。
論文 参考訳(メタデータ) (2026-01-31T10:18:32Z) - Argumentation-Based Explainability for Legal AI: Comparative and Regulatory Perspectives [0.9668407688201359]
人工知能(AI)システムは、法的文脈においてますます多くデプロイされている。
いわゆる「ブラックボックス問題」は、自動意思決定の正当性を損なう。
XAIは透明性を高めるための様々な方法を提案している。
論文 参考訳(メタデータ) (2025-10-13T07:19:15Z) - On Verifiable Legal Reasoning: A Multi-Agent Framework with Formalized Knowledge Representations [0.0]
本稿では,法的な推論を異なる知識獲得と応用段階に分解するモジュール型マルチエージェントフレームワークを提案する。
第一段階では、特殊エージェントは法的概念を抽出し、規則を形式化し、法令の検証可能な中間表現を作成する。
第2段階では、クエリを分析してケース事実をスキーマにマッピングし、論理的に関連する結論を導出するためのシンボリック推論を実行し、最終的な回答を生成するという3つのステップを通じて、この知識を特定のケースに適用する。
論文 参考訳(メタデータ) (2025-08-31T06:03:00Z) - GLARE: Agentic Reasoning for Legal Judgment Prediction [60.13483016810707]
法学分野では、法的判断予測(LJP)がますます重要になっている。
既存の大規模言語モデル (LLM) には、法的な知識が不足しているため、推論に不十分な重大な問題がある。
GLAREは,異なるモジュールを呼び出し,重要な法的知識を動的に獲得するエージェント的法的推論フレームワークである。
論文 参考訳(メタデータ) (2025-08-22T13:38:12Z) - The explanation dialogues: an expert focus study to understand requirements towards explanations within the GDPR [47.06917254695738]
我々は、XAIに対する法的専門家や実践者の期待、推論、理解を明らかにするための専門的な研究である説明対話(Explaination Dialogues)を提示する。
調査はオンラインアンケートとフォローアップインタビューで構成されており、クレジットドメインのユースケースを中心に行われている。
提示された説明は、情報を理解して欠くことは困難であり、データコントローラと主題の異なる関心事から生じる問題について議論する。
論文 参考訳(メタデータ) (2025-01-09T15:50:02Z) - Automating Legal Interpretation with LLMs: Retrieval, Generation, and Evaluation [27.345475442620746]
ATRIEは法的概念解釈器と法的な概念解釈評価器から構成される。
私たちの解釈の質は、法の専門家によって書かれたものと同等であり、包括性と可読性に優れています。
精度に差はあるものの、法律実務者が法解釈の効率を改善するのに既に助けることができる。
論文 参考訳(メタデータ) (2025-01-03T10:11:38Z) - Large Language Models and Explainable Law: a Hybrid Methodology [44.99833362998488]
規則に基づく法体系のアクセシビリティ, 利用, 説明可能性を高めるため, LLMを提唱する。
ルールベースシステムによる説明を翻訳するために, LLM の利用の可能性を探るため, 提案手法を開発した。
論文 参考訳(メタデータ) (2023-11-20T14:47:20Z) - A Unifying Framework for Learning Argumentation Semantics [47.84663434179473]
Inductive Logic Programmingアプローチを用いて、抽象的および構造化された議論フレームワークのアクセシビリティセマンティクスを解釈可能な方法で学習する新しいフレームワークを提案する。
提案手法は既存の議論解法よりも優れており,フォーマルな議論や人間と機械の対話の領域において,新たな研究の方向性が開けることになる。
論文 参考訳(メタデータ) (2023-10-18T20:18:05Z) - Interpretable Deep Learning: Interpretations, Interpretability,
Trustworthiness, and Beyond [49.93153180169685]
一般に混同される2つの基本的な概念(解釈と解釈可能性)を紹介・明らかにする。
我々は,新しい分類法を提案することにより,異なる視点から,最近のいくつかの解釈アルゴリズムの設計を詳細に述べる。
信頼される」解釈アルゴリズムを用いてモデルの解釈可能性を評価する上での既存の作業をまとめる。
論文 参考訳(メタデータ) (2021-03-19T08:40:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。