論文の概要: LLM-Assisted Causal Structure Disambiguation and Factor Extraction for Legal Judgment Prediction
- arxiv url: http://arxiv.org/abs/2603.11446v1
- Date: Thu, 12 Mar 2026 02:14:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-13 14:46:25.818217
- Title: LLM-Assisted Causal Structure Disambiguation and Factor Extraction for Legal Judgment Prediction
- Title(参考訳): 法的判断予測のためのLCM支援因果構造不明瞭化と要因抽出
- Authors: Yuzhi Liang, Lixiang Ma, Xinrong Zhu,
- Abstract要約: 本稿では,大規模言語モデルと統計的因果探索を融合した拡張因果推論フレームワークを提案する。
提案手法は,予測精度とロバスト性の両方において,最先端のベースラインを著しく上回る。
- 参考スコア(独自算出の注目度): 4.655574344274635
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Mainstream methods for Legal Judgment Prediction (LJP) based on Pre-trained Language Models (PLMs) heavily rely on the statistical correlation between case facts and judgment results. This paradigm lacks explicit modeling of legal constituent elements and underlying causal logic, making models prone to learning spurious correlations and suffering from poor robustness. While introducing causal inference can mitigate this issue, existing causal LJP methods face two critical bottlenecks in real-world legal texts: inaccurate legal factor extraction with severe noise, and significant uncertainty in causal structure discovery due to Markov equivalence under sparse features. To address these challenges, we propose an enhanced causal inference framework that integrates Large Language Model (LLM) priors with statistical causal discovery. First, we design a coarse-to-fine hybrid extraction mechanism combining statistical sampling and LLM semantic reasoning to accurately identify and purify standard legal constituent elements. Second, to resolve structural uncertainty, we introduce an LLM-assisted causal structure disambiguation mechanism. By utilizing the LLM as a constrained prior knowledge base, we conduct probabilistic evaluation and pruning on ambiguous causal directions to generate legally compliant candidate causal graphs. Finally, a causal-aware judgment prediction model is constructed by explicitly constraining text attention intensity via the generated causal graphs. Extensive experiments on multiple benchmark datasets, including LEVEN , QA, and CAIL, demonstrate that our proposed method significantly outperforms state-of-the-art baselines in both predictive accuracy and robustness, particularly in distinguishing confusing charges.
- Abstract(参考訳): 予備訓練言語モデル(PLM)に基づくLJPの主流手法は,事例事実と判断結果の統計的相関に大きく依存している。
このパラダイムには、法的構成要素要素の明示的なモデリングと根底にある因果論理が欠如しており、モデルが素早い相関を学習し、頑健さに苦しむ傾向にある。
因果推論を導入することでこの問題を緩和できる一方で、既存の因果LJP法は、厳密なノイズを伴う不正確な法的要因抽出と、スパース条件下でのマルコフ等価性による因果構造発見の重大な不確実性という、2つの重要なボトルネックに直面している。
これらの課題に対処するために,Large Language Model (LLM) と統計的因果発見を統合した拡張因果推論フレームワークを提案する。
まず, 統計的サンプリングとLLM意味推論を組み合わせた粗大なハイブリッド抽出機構を設計し, 標準法定成分を正確に同定し, 精製する。
第2に, 構造不確実性を解決するために, LLMを用いた因果構造曖昧化機構を導入する。
LLMを制約付き事前知識ベースとして利用することにより、不明瞭な因果方向で確率的評価とプルーニングを行い、法的に準拠する因果グラフを生成する。
最後に、生成した因果グラフを介してテキスト注意強度を明示的に制約することにより、因果判定予測モデルを構築する。
LEVEN、QA、CAILを含む複数のベンチマークデータセットに対する大規模な実験により、提案手法は予測精度とロバスト性の両方において、特に紛らわしい電荷の区別において、最先端のベースラインを著しく上回ることを示した。
関連論文リスト
- CausalFlip: A Benchmark for LLM Causal Judgment Beyond Semantic Matching [50.65932158912512]
そこで我々は,新しい大言語モデルの開発を促進するために,因果推論ベンチマークCausalFlipを提案する。
CaulFlipは、イベントトリプル上に構築された因果判断の質問で構成されており、共同創設者、チェーン、コライダーの関係が異なっている。
回答のみのトレーニング,明示的なチェーン・オブ・ソート監視,そして内在型因果推論アプローチなどを含む,複数の訓練パラダイムによるLCMの評価を行った。
論文 参考訳(メタデータ) (2026-02-23T18:06:15Z) - Leveraging Large Language Models for Causal Discovery: a Constraint-based, Argumentation-driven Approach [9.175642602891939]
Causal Assumption-based Argumentation (ABA)は、入力制約と出力グラフの対応性を確保するためにシンボリック推論を使用するフレームワークである。
本稿では,大言語モデル(LLM)をCausal ABAの不完全専門家として活用し,変数名や記述から意味的構造的事前を抽出する方法について検討する。
標準的なベンチマークとセマンティックグラウンドの合成グラフの実験は、最先端の性能を示している。
論文 参考訳(メタデータ) (2026-02-18T14:15:21Z) - Evaluating and Enhancing the Vulnerability Reasoning Capabilities of Large Language Models [15.849480549367684]
本稿では,DAG生成タスクとして脆弱性推論をモデル化する新しいフレームワークであるDAGVulを提案する。
さらにReinforcement Learning with Verifiable Rewards (RLVR)を導入することで、モデル推論トレースをプログラム固有の論理と整合させる。
我々のフレームワークは、すべてのベースラインに対して平均18.9%の推論F1スコアを改善します。
論文 参考訳(メタデータ) (2026-02-06T13:19:45Z) - How and Why LLMs Generalize: A Fine-Grained Analysis of LLM Reasoning from Cognitive Behaviors to Low-Level Patterns [51.02752099869218]
大きな言語モデル(LLM)は、非常に異なる一般化の振る舞いを示す。
推論を原子核スキルに分解する新しいベンチマークを導入する。
SFTモデルはよりシャープなドリフトと表面パターンへの過度な適合を示すのに対し、RL型モデルはより安定した行動プロファイルを維持し、推論スキルの崩壊に抵抗することを示す。
論文 参考訳(メタデータ) (2025-12-30T08:16:20Z) - CLATTER: Comprehensive Entailment Reasoning for Hallucination Detection [60.98964268961243]
我々は,系統的かつ包括的な推論プロセスを実行するためのモデルを導くことで,モデルがよりきめ細やかで正確な絞り込み決定を実行できることを提案する。
我々は,(i)クレームの分解,(ii)サブクレームの属性と包含分類,および(iii)集約分類から成る3段階の推論プロセスを定義し,そのような導出推論が実際に幻覚検出の改善をもたらすことを示す。
論文 参考訳(メタデータ) (2025-06-05T17:02:52Z) - Ice Cream Doesn't Cause Drowning: Benchmarking LLMs Against Statistical Pitfalls in Causal Inference [16.706959860667133]
大規模言語モデル(LLM)が厳密で信頼性の高い統計的因果推論を扱えるかどうかは不明である。
CausalPitfallsベンチマークは、信頼できる因果推論システムの開発を進めるための重要なガイダンスと定量的指標を提供する。
論文 参考訳(メタデータ) (2025-05-19T23:06:00Z) - The Curse of CoT: On the Limitations of Chain-of-Thought in In-Context Learning [56.574829311863446]
CoT(Chain-of-Thought)プロンプトは,大規模言語モデル(LLM)における推論能力の向上によって広く認識されている。
我々は、CoTとその推論変異が、様々なモデルスケールやベンチマークの複雑さに対して、直接応答を一貫して過小評価していることを実証する。
パターンベースICLにおけるCoTの性能を駆動する明示的単純推論の基本的なハイブリッド機構を明らかにする。
論文 参考訳(メタデータ) (2025-04-07T13:51:06Z) - Evaluating Human Alignment and Model Faithfulness of LLM Rationale [66.75309523854476]
大規模言語モデル(LLM)が,その世代を理論的にどのように説明するかを考察する。
提案手法は帰属に基づく説明よりも「偽り」が少ないことを示す。
論文 参考訳(メタデータ) (2024-06-28T20:06:30Z) - Knowledge is Power: Understanding Causality Makes Legal judgment
Prediction Models More Generalizable and Robust [3.555105847974074]
法的判断予測(LJP)は、限られた法律実務者の労働負担を軽減するために法的支援を行う。
既存の手法の多くは、LJPタスクで微調整された様々な大規模事前学習言語モデルを適用し、一貫した改善を得る。
最先端モデル(SOTA)は,無関係情報(あるいは非因果情報)に基づいて判断予測を行う。
論文 参考訳(メタデータ) (2022-11-06T07:03:31Z) - Learning Causal Semantic Representation for Out-of-Distribution
Prediction [125.38836464226092]
因果推論に基づく因果意味生成モデル(CSG)を提案し,その2つの要因を別々にモデル化する。
CSGはトレーニングデータに適合させることで意味的因子を識別できることを示し、この意味的識別はOOD一般化誤差の有界性を保証する。
論文 参考訳(メタデータ) (2020-11-03T13:16:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。