論文の概要: Chain of Mindset: Reasoning with Adaptive Cognitive Modes
- arxiv url: http://arxiv.org/abs/2602.10063v1
- Date: Tue, 10 Feb 2026 18:31:47 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-11 20:17:43.747151
- Title: Chain of Mindset: Reasoning with Adaptive Cognitive Modes
- Title(参考訳): マインドセットの連鎖 : 適応的認知モードによる推論
- Authors: Tianyi Jiang, Arctanx An, Hengyi Feng, Naixin Zhai, Haodong Li, Xiaomin Yu, Jiahui Liu, Hanwen Du, Shuo Zhang, Zhi Yang, Jie Huang, Yuhua Li, Yongxin Ni, Huacan Wang, Ronghao Chen,
- Abstract要約: Chain of Mindset(CoM)は、ステップレベルの適応的マインドセットオーケストレーションを可能にする、トレーニング不要のエージェント型フレームワークである。
CoMは推論を、空間、収束、ダイバージェント、アルゴリズムの4つの機能的に異質な考え方に分解する。
メタエージェントは進化する推論状態に基づいて最適マインドセットを動的に選択し、双方向コンテキストゲートはモジュール間の情報フローをフィルタリングする。
- 参考スコア(独自算出の注目度): 14.171605735561947
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Human problem-solving is never the repetition of a single mindset, by which we mean a distinct mode of cognitive processing. When tackling a specific task, we do not rely on a single mindset; instead, we integrate multiple mindsets within the single solution process. However, existing LLM reasoning methods fall into a common trap: they apply the same fixed mindset across all steps, overlooking that different stages of solving the same problem require fundamentally different mindsets. This single-minded assumption prevents models from reaching the next level of intelligence. To address this limitation, we propose Chain of Mindset (CoM), a training-free agentic framework that enables step-level adaptive mindset orchestration. CoM decomposes reasoning into four functionally heterogeneous mindsets: Spatial, Convergent, Divergent, and Algorithmic. A Meta-Agent dynamically selects the optimal mindset based on the evolving reasoning state, while a bidirectional Context Gate filters cross-module information flow to maintain effectiveness and efficiency. Experiments across six challenging benchmarks spanning mathematics, code generation, scientific QA, and spatial reasoning demonstrate that CoM achieves state-of-the-art performance, outperforming the strongest baseline by 4.96\% and 4.72\% in overall accuracy on Qwen3-VL-32B-Instruct and Gemini-2.0-Flash, while balancing reasoning efficiency. Our code is publicly available at \href{https://github.com/QuantaAlpha/chain-of-mindset}{https://github.com/QuantaAlpha/chain-of-mindset}.
- Abstract(参考訳): 人間の問題解決は、認知処理の明確なモードを意味する、単一のマインドセットの繰り返しではない。
特定のタスクに取り組むとき、私たちは単一のマインドセットに頼るのではなく、単一のソリューションプロセスに複数のマインドセットを統合するのです。
しかし、既存のLCM推論メソッドは、すべてのステップで同じ固定されたマインドセットを適用し、同じ問題を解決する異なる段階が根本的に異なるマインドセットを必要とすることを見落とし、共通の罠に陥ります。
この単意識の仮定は、モデルが次のレベルのインテリジェンスに到達するのを防ぐ。
この制限に対処するため、ステップレベルの適応的マインドセットオーケストレーションを可能にするトレーニング不要なエージェントフレームワークであるChain of Mindset(CoM)を提案する。
CoMは推論を、空間、収束、ダイバージェント、アルゴリズムの4つの機能的に異質な考え方に分解する。
メタエージェントは進化する推論状態に基づいて最適マインドセットを動的に選択し、双方向コンテキストゲートはモジュール間の情報フローをフィルタリングして有効性と効率を維持する。
数学、コード生成、科学的なQA、空間推論にまたがる6つの挑戦的なベンチマークの実験では、CoMが最先端のパフォーマンスを達成し、Qwen3-VL-32B-InstructとGemini-2.0-Flashの全体的な精度を4.96\%と4.72\%で上回った。
私たちのコードは、 \href{https://github.com/QuantaAlpha/chain-of-mindset}{https://github.com/QuantaAlpha/chain-of-mindset}で公開されています。
関連論文リスト
- Failure Modes in Multi-Hop QA: The Weakest Link Law and the Recognition Bottleneck [38.430205063059724]
本稿では,MFAI(Multi-Focus Attention Instruction)を導入した。
システム2推論を利用して、必要な情報を効果的に見つけ、統合する「思考」モデルを実証する。
論文 参考訳(メタデータ) (2026-01-18T17:16:04Z) - An Empirical Study of Reasoning Steps in Thinking Code LLMs [8.653365851909745]
大規模言語モデルを考えると、最終回答の前に明確な中間推論トレースを生成する。
本研究では,コード生成のためのLLMの推論過程と品質について検討する。
論文 参考訳(メタデータ) (2025-11-08T06:18:48Z) - Thinkless: LLM Learns When to Think [57.857534644932194]
推論モデル(Reasoning Language Models)は、複雑な論理的推論を必要とするタスクにおいて顕著な性能を示す。
我々は,LLMが短文推論と長文推論を適応的に選択できる学習可能なフレームワークであるThinklessを提案する。
Minerva Algebra、MATH-500、GSM8Kなどのベンチマークでは、Thinklessはロングチェーン思考の使用を50%から90%削減することができる。
論文 参考訳(メタデータ) (2025-05-19T17:24:16Z) - Syzygy of Thoughts: Improving LLM CoT with the Minimal Free Resolution [59.39066657300045]
CoT(Chain-of-Thought)は、問題を逐次ステップに分解することで、大きな言語モデル(LLM)の推論を促進する。
思考のシジー(Syzygy of Thoughts, SoT)は,CoTを補助的,相互関連的な推論経路を導入して拡張する新しいフレームワークである。
SoTはより深い論理的依存関係をキャプチャし、より堅牢で構造化された問題解決を可能にする。
論文 参考訳(メタデータ) (2025-04-13T13:35:41Z) - Thoughts Are All Over the Place: On the Underthinking of o1-Like LLMs [86.79757571440082]
OpenAIのo1のような大規模言語モデル(LLM)は複雑な推論タスクにおいて顕著な能力を示している。
我々は、o1-like LLMがしばしば異なる理性的思考を切り替える、という現象を特定する。
本稿では,思考間の早期移行を回避できる思考切替ペナルティTIPを用いた復号戦略を提案する。
論文 参考訳(メタデータ) (2025-01-30T18:58:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。