論文の概要: Explainable Statute Prediction via Attention-based Model and LLM Prompting
- arxiv url: http://arxiv.org/abs/2512.21902v1
- Date: Fri, 26 Dec 2025 07:29:51 GMT
- ステータス: 情報取得中
- システム内更新日: 2025-12-29 11:57:50.632195
- Title: Explainable Statute Prediction via Attention-based Model and LLM Prompting
- Title(参考訳): 注意型モデルとLLMプロンプトによる説明可能な統計予測
- Authors: Sachin Pawar, Girish Keshav Palshikar, Anindita Sinha Banerjee, Nitin Ramrakhiyani, Basit Ali,
- Abstract要約: 本稿では,特定の事例記述に対して,関連する法令のサブセットを予測しなければならないような自動法令予測の問題について検討する。
このような法的なAIシステムのより良いユーザ受け入れのために、予測には人間の理解可能な説明も伴うべきだと考えています。
本稿では,この法定予測問題に説明付きで対処する2つの手法を提案する。
- 参考スコア(独自算出の注目度): 1.6399696882729238
- License:
- Abstract: In this paper, we explore the problem of automatic statute prediction where for a given case description, a subset of relevant statutes are to be predicted. Here, the term "statute" refers to a section, a sub-section, or an article of any specific Act. Addressing this problem would be useful in several applications such as AI-assistant for lawyers and legal question answering system. For better user acceptance of such Legal AI systems, we believe the predictions should also be accompanied by human understandable explanations. We propose two techniques for addressing this problem of statute prediction with explanations -- (i) AoS (Attention-over-Sentences) which uses attention over sentences in a case description to predict statutes relevant for it and (ii) LLMPrompt which prompts an LLM to predict as well as explain relevance of a certain statute. AoS uses smaller language models, specifically sentence transformers and is trained in a supervised manner whereas LLMPrompt uses larger language models in a zero-shot manner and explores both standard as well as Chain-of-Thought (CoT) prompting techniques. Both these models produce explanations for their predictions in human understandable forms. We compare statute prediction performance of both the proposed techniques with each other as well as with a set of competent baselines, across two popular datasets. Also, we evaluate the quality of the generated explanations through an automated counter-factual manner as well as through human evaluation.
- Abstract(参考訳): 本稿では,あるケース記述について,関連する法令のサブセットを予測しなければならないという,自動的法令予測の問題について検討する。
ここでは、「法令」とは、特定の法律の節、小節又は条文をいう。
この問題に対処することは、弁護士のためのAIアシスタントや法的質問応答システムなど、いくつかのアプリケーションで有用だろう。
このような法的なAIシステムのより良いユーザ受け入れのために、予測には人間の理解可能な説明も伴うべきだと考えています。
本稿では,この法定予測問題に説明付きで対処する2つの手法を提案する。
一 事件記述における文に対する注意を利用してそれに関連する法令を予知する AoS (Attention-over-Sentences)
(ii) LLM Promptは、ある法令の関連性を説明するとともに、LLMに予測を促させる。
AoSはより小さな言語モデル、特に文変換器を使用し、教師付き方法で訓練されるのに対し、LLMPromptはゼロショット方式でより大きな言語モデルを使用し、標準とCoT(Chain-of-Thought)プロンプト技術の両方を探索する。
どちらのモデルも、人間の理解可能な形で予測を説明できる。
提案手法と提案手法の時間予測性能および有能なベースラインのセットを2つの一般的なデータセットで比較した。
また,自動的対実的手法と人的評価により,生成した説明の質を評価する。
関連論文リスト
- Are manual annotations necessary for statutory interpretations retrieval? [41.94295877935867]
法的な概念によって最適なアノテーション数を決定することを試みる。
また、アノテーションの文がランダムに描けるか、あるいはモデルの性能が向上しているかも確認する。
論文 参考訳(メタデータ) (2025-06-16T20:15:57Z) - Rethinking Legal Judgement Prediction in a Realistic Scenario in the Era of Large Language Models [3.552993426200889]
本研究ではインドにおける判断の文脈における現実的なシナリオにおける判断予測について検討する。
我々は,Llama-2 や GPT-3.5 Turbo などの LLM とともに,InLegalBERT,BERT,XLNet などのトランスフォーマーベースモデルを用いている。
LLMを用いた実験により, GPT-3.5 Turboは現実的なシナリオで優れており, 判定精度は高いことがわかった。
論文 参考訳(メタデータ) (2024-10-14T14:22:12Z) - Towards Explainability in Legal Outcome Prediction Models [64.00172507827499]
我々は、前例が法的NLPモデルの説明可能性を促進する自然な方法であると主張している。
法的な先例の分類法を開発することで、人間の判断と神経モデルを比較することができる。
モデルが合理的に結果を予測することを学習する一方で、前例の使用は人間の判断とは違い、ということがわかりました。
論文 参考訳(メタデータ) (2024-03-25T15:15:41Z) - Precedent-Enhanced Legal Judgment Prediction with LLM and Domain-Model
Collaboration [52.57055162778548]
法的判断予測(LJP)は、法律AIにおいてますます重要な課題となっている。
先行は、同様の事実を持つ以前の訴訟であり、国家法制度におけるその後の事件の判断の基礎となっている。
近年のディープラーニングの進歩により、LJPタスクの解決に様々なテクニックが使えるようになった。
論文 参考訳(メタデータ) (2023-10-13T16:47:20Z) - Exploiting Contrastive Learning and Numerical Evidence for Confusing
Legal Judgment Prediction [46.71918729837462]
訴訟の事実記述文を考慮し、法的判断予測は、事件の告訴、法律記事、刑期を予測することを目的としている。
従来の研究では、標準的なクロスエントロピー分類損失と異なる分類誤差を区別できなかった。
本稿では,モコに基づく教師付きコントラスト学習を提案する。
さらに,事前学習した数値モデルにより符号化された抽出された犯罪量による事実記述の表現をさらに強化する。
論文 参考訳(メタデータ) (2022-11-15T15:53:56Z) - Counterfactual Interventions Reveal the Causal Effect of Relative Clause
Representations on Agreement Prediction [61.4913233397155]
BERTが言語戦略を用いて合意予測中にRCスパンに関する情報を使用することを示す。
また,特定のRCサブタイプに対して生成された反事実表現が,他のRCサブタイプを含む文の数値予測に影響を及ぼし,RC境界に関する情報がBERTの表現に抽象的に符号化されたことを示唆した。
論文 参考訳(メタデータ) (2021-05-14T17:11:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。