論文の概要: LRAS: Advanced Legal Reasoning with Agentic Search
- arxiv url: http://arxiv.org/abs/2601.07296v1
- Date: Mon, 12 Jan 2026 08:07:35 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-13 19:08:01.277137
- Title: LRAS: Advanced Legal Reasoning with Agentic Search
- Title(参考訳): LRAS: エージェント検索による高度な法的推論
- Authors: Yujin Zhou, Chuxue Cao, Jinluan Yang, Lijun Wu, Conghui He, Sirui Han, Yike Guo,
- Abstract要約: Legal Reasoning with Agentic Search (LRAS)は、静的かつパラメトリックな「クローズドループ思考」から動的かつインタラクティブな「アクティベート問い合わせ」への移行を目的としたフレームワークである。
Introspective LearningとDifficulty-aware Reinforcement Learningを統合することで、LRASはLRMが知識境界を特定し、法的推論を扱うことを可能にする。
実証実験の結果、LRASは最先端のベースラインを8.2-32%上回っている。
- 参考スコア(独自算出の注目度): 48.281150948187786
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: While Large Reasoning Models (LRMs) have demonstrated exceptional logical capabilities in mathematical domains, their application to the legal field remains hindered by the strict requirements for procedural rigor and adherence to legal logic. Existing legal LLMs, which rely on "closed-loop reasoning" derived solely from internal parametric knowledge, frequently suffer from lack of self-awareness regarding their knowledge boundaries, leading to confident yet incorrect conclusions. To address this challenge, we present Legal Reasoning with Agentic Search (LRAS), the first framework designed to transition legal LLMs from static and parametric "closed-loop thinking" to dynamic and interactive "Active Inquiry". By integrating Introspective Imitation Learning and Difficulty-aware Reinforcement Learning, LRAS enables LRMs to identify knowledge boundaries and handle legal reasoning complexity. Empirical results demonstrate that LRAS outperforms state-of-the-art baselines by 8.2-32\%, with the most substantial gains observed in tasks requiring deep reasoning with reliable knowledge. We will release our data and models for further exploration soon.
- Abstract(参考訳): 大規模推論モデル(LRM)は、数学的領域において例外的な論理的能力を示したが、その法分野への応用は、手続き的厳密さの厳密な要件と法論理への固執によって妨げられている。
既存の法的なLCMは、内部のパラメトリック知識からのみ派生した「クローズドループ推論」に依存しており、しばしばその知識境界に関する自己認識の欠如に悩まされ、自信はあるが誤った結論に至る。
この課題に対処するため,法的なLLMを静的かつパラメトリックな「クローズドループ思考」から動的かつインタラクティブな「アクティベート調査」に移行するための最初のフレームワークであるエージェントサーチによる法的な推論(LRAS)を提案する。
Introspective Imitation LearningとDifficulty-aware Reinforcement Learningを統合することで、LRASはLRMが知識境界を特定し、法的推論の複雑さを扱うことができる。
実証実験の結果、LRASは最先端のベースラインを8.2~32倍に上回り、信頼性の高い知識を持つ深い推論を必要とするタスクにおいて最も顕著な利得が見られた。
近いうちに、さらなる調査のためにデータとモデルを公開します。
関連論文リスト
- Benchmarking Multi-Step Legal Reasoning and Analyzing Chain-of-Thought Effects in Large Language Models [8.769542756426786]
我々は,M SLRを紹介した。これは,実世界の司法判断に基礎を置いた,中国初の多段階の法的推論データセットである。
M SLR は IRAC フレームワーク (Issue, Rule, Application, Conclusion) を採用し、公式な法的文書からの構造化専門家の推論をモデル化している。
我々は,ステップレベルの詳細な推論アノテーションを効率よく生成する,スケーラブルなHuman-LLM協調アノテーションパイプラインを設計する。
さらなる実験では、モデルによって生成される自己開始型チェーン・オブ・ワットプロンプトが、推論のコヒーレンスと品質を自律的に改善し、人間によって設計されたプロンプトを上回ることが示されている。
論文 参考訳(メタデータ) (2025-11-11T08:45:29Z) - Thinking Longer, Not Always Smarter: Evaluating LLM Capabilities in Hierarchical Legal Reasoning [11.255428720705204]
本稿では,ケース間の重要な区別を3段階の推論タスクに分解する枠組みを提案する。
我々のフレームワークは、要因と呼ばれる事実的述語を使用してケースをモデル化し、それらを法的知識階層に整理し、区別を識別するための検証可能なルールを定義します。
我々は、モデルが正しい応答よりも間違った応答について、常に多くの計算資源を消費していることを発見し、「より長く考えることは、必ずしも「より賢く考える」という意味ではないことを示唆している。
論文 参考訳(メタデータ) (2025-10-09T18:15:28Z) - GLARE: Agentic Reasoning for Legal Judgment Prediction [60.13483016810707]
法学分野では、法的判断予測(LJP)がますます重要になっている。
既存の大規模言語モデル (LLM) には、法的な知識が不足しているため、推論に不十分な重大な問題がある。
GLAREは,異なるモジュールを呼び出し,重要な法的知識を動的に獲得するエージェント的法的推論フレームワークである。
論文 参考訳(メタデータ) (2025-08-22T13:38:12Z) - Assessing the Reasoning Capabilities of LLMs in the context of Evidence-based Claim Verification [22.92500697622486]
証拠と組み合わせた主張を原子推論タイプに分解するフレームワークを提案する。
私たちはこのフレームワークを使用して、現実世界のクレームを取り入れた最初のクレーム検証ベンチマークであるRECVを作成します。
我々は、複数のプロンプト設定の下で、最先端のLLMを3つ評価する。
論文 参考訳(メタデータ) (2024-02-16T14:52:05Z) - A Closer Look at the Self-Verification Abilities of Large Language Models in Logical Reasoning [73.77088902676306]
論理的推論の文脈において,大規模言語モデル(LLM)の自己検証能力について詳しく検討する。
本研究の主目的は,既存のLCMが誤った推論手順を正確に識別するのに苦労し,自己検証法の有効性を保証できないことにある。
論文 参考訳(メタデータ) (2023-11-14T07:13:10Z) - Towards LogiGLUE: A Brief Survey and A Benchmark for Analyzing Logical Reasoning Capabilities of Language Models [56.34029644009297]
大規模言語モデル(LLM)は、形式的知識表現(KR)システムの様々な制限を克服する能力を示した。
LLMは誘導的推論において最も優れているが、誘導的推論では最も効果が低い。
モデルの性能を評価するため,シングルタスクトレーニング,マルチタスクトレーニング,および「チェーンオブ思考」知識蒸留細調整技術について検討した。
論文 参考訳(メタデータ) (2023-10-02T01:00:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。