論文の概要: A Layered Intuition -- Method Model with Scope Extension for LLM Reasoning
- arxiv url: http://arxiv.org/abs/2510.10592v1
- Date: Sun, 12 Oct 2025 13:14:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-14 18:06:30.023607
- Title: A Layered Intuition -- Method Model with Scope Extension for LLM Reasoning
- Title(参考訳): 層状直観-LLM推論のためのスコープ拡張付き手法モデル
- Authors: Hong Su,
- Abstract要約: 本稿では,概念をScope Extensionと統合した直観的メソッド階層モデルにまとめ,統合する。
直観に基づく思考は、素早い第一反応の答えを提供するが、方法に基づく思考は、質問と解決策を伝達可能な推論単位に分離する。
スコープ拡張は、垂直(解析のため)、水平(並列および一般化された問題)、そして初めて時間的および空間的拡張を含む適用性を広げるために適用される。
- 参考スコア(独自算出の注目度): 0.11844977816228043
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Existing studies have introduced method-based reasoning and scope extension as approaches to enhance Large Language Model (LLM) performance beyond direct matrix mappings. Building on these foundations, this paper summarizes and integrates these ideas into a unified Intuition-Method Layered Model with Scope Extension, designed to address indirected (unseen) issues more systematically. In this framework, intuition-based thinking provides rapid first-reaction answers, while method-based thinking decouples questions and solutions into transferable reasoning units. Scope extension is then applied to broaden applicability, including vertical (cause analysis), horizontal (parallel and generalized issues), and for the first time, temporal and spatial extensions, which expand reasoning across time and contextual dimensions. These extensions are organized into systematic knowledge trees that interconnect into a knowledge network, thereby increasing adaptability. To quantitatively evaluate this process, we propose the entropy of method extension, which measures the independence and diversity of extensions as an indicator of the system's capacity to solve unseen questions. By logically connecting existing approaches with new extensions and introducing an entropy-based evaluation framework, this work advances toward a more robust and extensible reasoning paradigm for LLMs in real-world problem-solving.
- Abstract(参考訳): 既存の研究では、直接行列マッピングを超えて、大規模言語モデル(LLM)の性能を高めるアプローチとして、メソッドベースの推論とスコープ拡張を導入している。
本稿では,これらの概念を,間接的(見えない)問題により体系的に対処するために設計された,スコープ拡張を伴う直観的手法階層モデルにまとめ,統合する。
この枠組みでは、直観に基づく思考は素早い第一反応の答えを与え、一方メソッドベースの思考は疑問と解決策を伝達可能な推論単位へと分離する。
スコープ拡張は、垂直(解析のため)、水平(並列および一般化された問題)、時間的および空間的拡張を含む適用性の拡張に適用され、時間的および文脈的次元にわたって推論を拡張する。
これらの拡張は、知識ネットワークに相互接続する体系的な知識ツリーに組織化され、適応性を高める。
この過程を定量的に評価するために,拡張の独立性と多様性を測定する手法拡張のエントロピーを提案する。
既存のアプローチを新しい拡張と論理的に結合し、エントロピーに基づく評価フレームワークを導入することにより、現実の問題解決におけるLLMのより堅牢で拡張可能な推論パラダイムへと進む。
関連論文リスト
- Step-Aware Policy Optimization for Reasoning in Diffusion Large Language Models [57.42778606399764]
拡散言語モデル(dLLM)は、テキスト生成に有望で非自己回帰的なパラダイムを提供する。
現在の強化学習アプローチは、しばしばスパースで結果に基づく報酬に頼っている。
これは推論の自然な構造との根本的なミスマッチに由来すると我々は主張する。
論文 参考訳(メタデータ) (2025-10-02T00:34:15Z) - The Landscape of Agentic Reinforcement Learning for LLMs: A Survey [104.31926740841128]
エージェント強化学習(Agentic RL)の出現は、大規模言語モデル(LLM RL)に適用された従来の強化学習からパラダイムシフトを示している。
本研究では, LLM-RLの縮退した単段階マルコフ決定過程(MDPs)と, エージェントRLを定義する部分可観測マルコフ決定過程(POMDPs)とを対比することにより, この概念シフトを定式化する。
論文 参考訳(メタデータ) (2025-09-02T17:46:26Z) - Implicit Reasoning in Large Language Models: A Comprehensive Survey [67.53966514728383]
大規模言語モデル(LLM)は、幅広いタスクにまたがる強力な一般化を実証している。
最近の研究は、暗黙の推論に拍車をかけた、明示的な思考の連鎖から注意を向けている。
本調査では,表現形式から計算戦略へ焦点を移し,実行パラダイムを中心とした分類を紹介した。
論文 参考訳(メタデータ) (2025-09-02T14:16:02Z) - Fast, Slow, and Tool-augmented Thinking for LLMs: A Review [57.16858582049339]
大規模言語モデル (LLM) は、様々な領域における推論において顕著な進歩を示している。
実世界のタスクにおける効果的な推論は、問題の要求に推論戦略を適用する必要がある。
2つの知識境界に沿ったLSM推論戦略の新しい分類法を提案する。
論文 参考訳(メタデータ) (2025-08-17T07:20:32Z) - Learning Temporal Abstractions via Variational Homomorphisms in Option-Induced Abstract MDPs [17.335266921332092]
大規模言語モデル(LLMs)は、明示的なChain-of-Thoughtプロンプトを通じて、顕著な推論能力を示している。
モデルがすべてのステップに対して明示的なテキストを生成することなく、潜在空間で"考え"する、効率的で暗黙的な推論のためのフレームワークを開発する。
論文 参考訳(メタデータ) (2025-07-22T11:22:58Z) - Perception, Reason, Think, and Plan: A Survey on Large Multimodal Reasoning Models [79.52467430114805]
推論は知性の中心にあり、決定し、結論を導き、ドメインをまたいで一般化する能力を形成する。
人工知能において、システムがオープンで不確実でマルチモーダルな環境でますます機能するにつれて、推論は堅牢で適応的な行動を可能にするために不可欠となる。
大規模マルチモーダル推論モデル(LMRM)は、テキスト、画像、オーディオ、ビデオなどのモダリティを統合し、複雑な推論機能をサポートする、有望なパラダイムとして登場した。
論文 参考訳(メタデータ) (2025-05-08T03:35:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。