論文の概要: When Reasoning Meets Its Laws
- arxiv url: http://arxiv.org/abs/2512.17901v1
- Date: Fri, 19 Dec 2025 18:59:11 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-22 19:25:54.53975
- Title: When Reasoning Meets Its Laws
- Title(参考訳): Reasoningの法則
- Authors: Junyu Zhang, Yifan Sun, Tianang Leng, Jingyan Shen, Liu Ziyin, Paul Pu Liang, Huan Zhang,
- Abstract要約: 本稿では, LRMにおける固有推論パターンを特徴付ける統一フレームワークLoReについて述べる。
まず、推論計算が問題複雑度とともに線形にスケールすべきという仮説を用いて計算法則を提案する。
問題複雑性は実際は定量化が難しいため、これらの仮説を法則の2つの性質、単調性と構成性によって検証する。
- 参考スコア(独自算出の注目度): 45.03949352588766
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Despite the superior performance of Large Reasoning Models (LRMs), their reasoning behaviors are often counterintuitive, leading to suboptimal reasoning capabilities. To theoretically formalize the desired reasoning behaviors, this paper presents the Laws of Reasoning (LoRe), a unified framework that characterizes intrinsic reasoning patterns in LRMs. We first propose compute law with the hypothesis that the reasoning compute should scale linearly with question complexity. Beyond compute, we extend LoRe with a supplementary accuracy law. Since the question complexity is difficult to quantify in practice, we examine these hypotheses by two properties of the laws, monotonicity and compositionality. We therefore introduce LoRe-Bench, a benchmark that systematically measures these two tractable properties for large reasoning models. Evaluation shows that most reasoning models exhibit reasonable monotonicity but lack compositionality. In response, we develop an effective finetuning approach that enforces compute-law compositionality. Extensive empirical studies demonstrate that better compliance with compute laws yields consistently improved reasoning performance on multiple benchmarks, and uncovers synergistic effects across properties and laws. Project page: https://lore-project.github.io/
- Abstract(参考訳): LRM(Large Reasoning Models)の優れた性能にもかかわらず、その推論動作は直感に反することが多く、準最適推論能力に繋がる。
理論的に所望の推論動作を定式化するために,本論文では,LRMの固有推論パターンを特徴付ける統一フレームワークであるLoRe法について述べる。
まず、推論計算が問題複雑度とともに線形にスケールすべきという仮説を用いて計算法則を提案する。
計算以外にも、補足的精度の法則でLoReを拡張します。
問題複雑性は実際は定量化が難しいため、これらの仮説を法則の2つの性質、単調性と構成性によって検証する。
そこで我々は,この2つのトラクタブルな特性を大規模推論モデルに対して体系的に測定するベンチマークであるLoRe-Benchを紹介した。
評価は、ほとんどの推論モデルは妥当な単調性を示すが、構成性は欠如していることを示している。
これに対し,我々は,計算法則の構成性を強制する効果的な微調整手法を開発した。
広範な実証研究により、計算法則への適合性の向上は、複数のベンチマークにおける推論性能を一貫して改善し、特性と法則間の相乗効果を明らかにすることが示されている。
プロジェクトページ: https://lore-project.github.io/
関連論文リスト
- MR-Align: Meta-Reasoning Informed Factuality Alignment for Large Reasoning Models [43.872922223495586]
大きな推論モデル(LRM)は複雑な推論において強い能力を示すが、証拠に依存した事実問題に対する限界的な利得は限られている。
この制限は、モデルが推論中に正しい事実を識別するが、最終的な応答にそれらを組み込むことができない、推論と問合せのギャップに起因する。
本稿では,外部検証に頼らずに事実性を高めるフレームワークMR-ALIGNを提案する。
論文 参考訳(メタデータ) (2025-10-27T15:00:54Z) - Thinking Longer, Not Always Smarter: Evaluating LLM Capabilities in Hierarchical Legal Reasoning [11.255428720705204]
本稿では,ケース間の重要な区別を3段階の推論タスクに分解する枠組みを提案する。
我々のフレームワークは、要因と呼ばれる事実的述語を使用してケースをモデル化し、それらを法的知識階層に整理し、区別を識別するための検証可能なルールを定義します。
我々は、モデルが正しい応答よりも間違った応答について、常に多くの計算資源を消費していることを発見し、「より長く考えることは、必ずしも「より賢く考える」という意味ではないことを示唆している。
論文 参考訳(メタデータ) (2025-10-09T18:15:28Z) - The Illusion of Thinking: Understanding the Strengths and Limitations of Reasoning Models via the Lens of Problem Complexity [16.266145641151375]
大規模な推論モデルは、回答を提供する前に詳細な思考プロセスを生成する。
我々は, LRM がある種の複雑さを超えて完全に精度の低下に直面していることを示す。
また、より深く推論の痕跡を調べ、探索された解のパターンを研究する。
論文 参考訳(メタデータ) (2025-06-07T22:42:29Z) - RLJP: Legal Judgment Prediction via First-Order Logic Rule-enhanced with Large Language Models [58.69183479148083]
法的判断予測(LJP)は、法的AIにおいて重要な課題である。
既存のLJPモデルは、高いパフォーマンスのために司法上の前例と法的な知識を統合している。
しかし彼らは、厳密な論理分析を必要とする法的判断の重要な要素である法的推論論理を無視している。
本稿では、一階述語論理(FOL)形式と比較学習(CL)に基づく規則強化された法的判断予測フレームワークを提案する。
論文 参考訳(メタデータ) (2025-05-27T14:50:21Z) - Stop Overthinking: A Survey on Efficient Reasoning for Large Language Models [49.61246073215651]
大規模言語モデル(LLM)は複雑なタスクにおいて顕著な機能を示した。
OpenAI o1とDeepSeek-R1の最近の進歩は、System-2推論ドメインのパフォーマンスをさらに改善した。
しかし、冗長な出力と冗長な出力による計算オーバーヘッドも大幅に発生する。
論文 参考訳(メタデータ) (2025-03-20T17:59:38Z) - Can LLMs Reason with Rules? Logic Scaffolding for Stress-Testing and Improving LLMs [87.34281749422756]
大規模言語モデル(LLM)は、様々な推論タスクにおいて、印象的な人間的なパフォーマンスを実現している。
しかし、その根底にある推論規則の熟達性は、人間の能力に欠ける。
本稿では,推論ルールベースであるULogicを構築するための,推論ルール生成フレームワークを提案する。
論文 参考訳(メタデータ) (2024-02-18T03:38:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。