論文の概要: DynamicMind: A Tri-Mode Thinking System for Large Language Models
- arxiv url: http://arxiv.org/abs/2506.05936v1
- Date: Fri, 06 Jun 2025 10:02:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-09 17:28:43.41414
- Title: DynamicMind: A Tri-Mode Thinking System for Large Language Models
- Title(参考訳): DynamicMind: 大規模言語モデルのための3モード思考システム
- Authors: Wei Li, Yanbin Wei, Qiushi Huang, Jiangyue Yan, Yang Chen, James T. Kwok, Yu Zhang,
- Abstract要約: DynamicMindは、大規模言語モデルのための新しい三モード思考システムである。
ゼロショットの質問応答タスクに対して,高速,正常,スローの思考モードを自律的に選択する。
性能と計算効率の効果的なトレードオフを確立しつつ、優れたZSQA機能を実現する。
- 参考スコア(独自算出の注目度): 28.327075192324234
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Modern large language models (LLMs) often struggle to dynamically adapt their reasoning depth to varying task complexities, leading to suboptimal performance or inefficient resource utilization. To address this, we introduce DynamicMind, a novel tri-mode thinking system. DynamicMind empowers LLMs to autonomously select between Fast, Normal, and Slow thinking modes for zero-shot question answering (ZSQA) tasks through cognitive-inspired prompt engineering. Our framework's core innovations include: (1) expanding the established dual-process framework of fast and slow thinking into a tri-mode thinking system involving a normal thinking mode to preserve the intrinsic capabilities of LLM; (2) proposing the Thinking Density metric, which aligns computational resource allocation with problem complexity; and (3) developing the Thinking Mode Capacity (TMC) dataset and a lightweight Mind Router to predict the optimal thinking mode. Extensive experiments across diverse mathematical, commonsense, and scientific QA benchmarks demonstrate that DynamicMind achieves superior ZSQA capabilities while establishing an effective trade-off between performance and computational efficiency.
- Abstract(参考訳): 現代の大規模言語モデル(LLM)は、しばしば推論の深さを様々なタスクの複雑さに動的に適応させることに苦慮し、最適でない性能や非効率なリソース利用をもたらす。
そこで本研究では,新しい3モード思考システムであるDynamicMindを紹介する。
DynamicMindは、認知にインスパイアされたプロンプトエンジニアリングを通じてゼロショット質問応答(ZSQA)タスクに対して、高速、ノーマル、スローの思考モードを自律的に選択する権限をLLMに与えている。
本フレームワークの中核となるイノベーションは,(1)高速で低速な思考の確立されたデュアルプロセスフレームワークを,LSMの本質的な能力を維持するための通常の思考モードを含む三段階思考システムに拡張すること,(2)計算資源の割り当てと問題複雑性を整合させる思考密度指標を提案すること,(3)思考モード容量(TMC)データセットと軽量マインドルータを開発し,最適な思考モードを予測すること,である。
様々な数学的、常識的、科学的なQAベンチマークの広範な実験は、DynamicMindが優れたZSQA能力を実現し、性能と計算効率の効果的なトレードオフを確立していることを示している。
関連論文リスト
- Computational Thinking Reasoning in Large Language Models [69.28428524878885]
計算思考モデル(CTM)は、計算思考パラダイムを大規模言語モデル(LLM)に組み込んだ新しいフレームワークである。
ライブコード実行は推論プロセスにシームレスに統合され、CTMが計算によって考えることができる。
CTMは、精度、解釈可能性、一般化可能性の観点から、従来の推論モデルとツール拡張ベースラインを上回っている。
論文 参考訳(メタデータ) (2025-06-03T09:11:15Z) - Pangu Embedded: An Efficient Dual-system LLM Reasoner with Metacognition [95.54406667705999]
Pangu Embeddedは、Ascend Neural Processing Units (NPU) 上で開発された効率的なLarge Language Model (LLM) 推論器である。
既存の推論最適化 LLM でよく見られる計算コストと推論遅延の問題に対処する。
単一の統一モデルアーキテクチャ内で、迅速な応答と最先端の推論品質を提供する。
論文 参考訳(メタデータ) (2025-05-28T14:03:02Z) - A Survey of Slow Thinking-based Reasoning LLMs using Reinforced Learning and Inference-time Scaling Law [29.763080554625216]
本調査は「スロー思考」を模倣した大規模言語モデル(LLM)の最近の進歩を考察する。
LLMは、数学の推論、視覚的推論、診断、マルチエージェントの議論などの複雑なタスクの間、動的に計算資源をスケーリングすることに焦点を当てている。
論文 参考訳(メタデータ) (2025-05-05T14:14:59Z) - AtomThink: A Slow Thinking Framework for Multimodal Mathematical Reasoning [70.95645743670062]
AtomThinkは、長い思考の連鎖(CoT)をステップバイステップで構築するフレームワークであり、複雑な推論を行うためのMLLMを導く。
AtomMATHは、長いCoTの大規模マルチモーダルデータセットであり、数学的タスクの原子能力評価指標である。
AtomThinkはベースラインMLLMの性能を大幅に改善し、MathVistaでは50%、MathVerseでは120%の精度向上を実現している。
論文 参考訳(メタデータ) (2024-11-18T11:54:58Z) - HDFlow: Enhancing LLM Complex Problem-Solving with Hybrid Thinking and Dynamic Workflows [33.035088506211096]
大規模言語モデル(LLM)を用いた複雑な推論のための新しいフレームワーク HDFlow を提案する。
このアプローチは,1) 複雑な問題をより管理可能なサブタスクに自動的に分解するDynamicという,ゆっくりと意図的な推論のための新しいアプローチ,2) 問題複雑性に基づいた高速で遅い思考を動的に結合するHybrid Thinkingという2つの主要なコンポーネントから構成される。
4つの推論ベンチマークの実験により、動的データセットによる遅い思考がChain-of-Thoughtを著しく上回り、ハイブリッド思考は計算効率と性能の効果的なバランスを保ちながら、最も高い精度を達成することが示された。
論文 参考訳(メタデータ) (2024-09-25T23:52:17Z) - DynaThink: Fast or Slow? A Dynamic Decision-Making Framework for Large Language Models [42.95876831743256]
大規模言語モデル(LLM)は、Chains-of-Thoughtプロンプトを通じて、さまざまな推論タスクにまたがる創発的な機能を示している。
本稿では,LLMが高速かつ低速な推論手法を自律的に選択できることの課題に対処する。
LLMが高速に高信頼の解を識別するタスクに指定された「Fast」と、LLMが複雑だと認識するタスクに割り当てられた「Slow」という2つの異なる経路に分類する動的意思決定フレームワークを導入する。
論文 参考訳(メタデータ) (2024-07-01T06:45:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。