論文の概要: ThinkSwitcher: When to Think Hard, When to Think Fast
- arxiv url: http://arxiv.org/abs/2505.14183v1
- Date: Tue, 20 May 2025 10:40:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-21 14:49:53.07233
- Title: ThinkSwitcher: When to Think Hard, When to Think Fast
- Title(参考訳): ThinkSwitcher: 一生懸命考えるとき、速く考えるとき
- Authors: Guosheng Liang, Longguang Zhong, Ziyi Yang, Xiaojun Quan,
- Abstract要約: 大きな推論モデル(LRM)は、長いチェーン・オブ・シークレット(CoT)推論を活用することで複雑なタスクを解くのに優れている。
本研究では,短いCoTモードと長いCoTモードを動的に切り替えるフレームワークであるThinkSwitcherを提案する。
ThinkSwitcherは複雑なタスクの精度を維持しながら、計算コストを20~30%削減する。
- 参考スコア(独自算出の注目度): 34.97682078637252
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large reasoning models (LRMs) excel at solving complex tasks by leveraging long chain-of-thought (CoT) reasoning. However, this often leads to overthinking on simple tasks, resulting in unnecessary computational overhead. We observe that LRMs inherently possess the capability for efficient short CoT reasoning, which can be reliably elicited through prompt design. To leverage this capability, we propose ThinkSwitcher, a framework that enables a single LRM to dynamically switch between short and long CoT modes based on task complexity. ThinkSwitcher introduces a lightweight switching module trained with supervision signals derived from the relative performance of each reasoning mode across tasks. Experiments on multiple reasoning benchmarks show that ThinkSwitcher reduces computational cost by 20-30% while maintaining high accuracy on complex tasks. This demonstrates the effectiveness of ThinkSwitcher as a scalable and efficient solution for unified LRM deployment.
- Abstract(参考訳): 大きな推論モデル(LRM)は、長いチェーン・オブ・シークレット(CoT)推論を活用することで複雑なタスクを解くのに優れている。
しかし、これはしばしば単純なタスクを過度に考え、不必要な計算オーバーヘッドをもたらす。
我々は,LRMが本質的に効率的な短いCoT推論能力を持っていることを観察し,即時設計により確実に導き出すことができることを示した。
この機能を活用するために,タスクの複雑さに基づいて,単一のLRMが短いCoTモードと長いCoTモードを動的に切り替えることを可能にするフレームワークであるThinkSwitcherを提案する。
ThinkSwitcherは、タスク間の各推論モードの相対的なパフォーマンスから導かれる、監督信号で訓練された軽量なスイッチングモジュールを導入している。
複数の推論ベンチマークの実験により、ThinkSwitcherは複雑なタスクの精度を維持しながら計算コストを20~30%削減することを示した。
このことはThinkSwitcherを、一貫したLEMデプロイメントのためのスケーラブルで効率的なソリューションとしての有効性を示している。
関連論文リスト
- Let LLMs Break Free from Overthinking via Self-Braking Tuning [60.08396797526657]
大きな推論モデル(LRM)は思考の長い連鎖を生成することによって推論能力を著しく向上させた。
この性能向上は、生成プロセス中の冗長な推論を大幅に増加させるコストが伴う。
本稿では、モデルが独自の推論プロセスを制御することを許容する観点から、過度に検討する新しいフレームワーク、Self-Braking Tuning(SBT)を提案する。
論文 参考訳(メタデータ) (2025-05-20T16:53:40Z) - Thinkless: LLM Learns When to Think [57.857534644932194]
推論モデル(Reasoning Language Models)は、複雑な論理的推論を必要とするタスクにおいて顕著な性能を示す。
我々は,LLMが短文推論と長文推論を適応的に選択できる学習可能なフレームワークであるThinklessを提案する。
Minerva Algebra、MATH-500、GSM8Kなどのベンチマークでは、Thinklessはロングチェーン思考の使用を50%から90%削減することができる。
論文 参考訳(メタデータ) (2025-05-19T17:24:16Z) - Thinking Short and Right Over Thinking Long: Serving LLM Reasoning Efficiently and Accurately [29.018731931275138]
大規模言語モデル(LLM)は、所定の要求に応答するChain-of-Thought推論を生成することで、より優れた機能を得ることができる。
しかし,2つのスケーリング次元を取り入れた場合,システム効率は2つの理由から著しく低下する。
本稿では,効率的なLLM推論のためのサービスフレームワークであるSARTについて述べる。
論文 参考訳(メタデータ) (2025-05-19T16:34:56Z) - Thought Manipulation: External Thought Can Be Efficient for Large Reasoning Models [32.49420948390984]
大規模推論モデル(LRM)は一般に「過大な」問題に悩まされる。
本研究では, LRMが不要な中間ステップを回避できるように, シンプルで効率的なパイプラインであるThoughtManiを提案する。
ThoughtManiは安全性のアライメントを平均10%向上させる。
論文 参考訳(メタデータ) (2025-04-18T11:07:19Z) - S1-Bench: A Simple Benchmark for Evaluating System 1 Thinking Capability of Large Reasoning Models [13.083179473480705]
大規模推論モデル(LRM)は、思考の明示的な連鎖を通じて複雑な推論タスクにおいてブレークスルーを達成した。
システム2の思考に大きく依存しているため、システム1の思考能力は制限される可能性がある。
S1-Bench氏は、システム1.1にもっと適した質問に対して、LEMのパフォーマンスを評価するために、単純で多様で自然な質問のスイートを紹介している。
論文 参考訳(メタデータ) (2025-04-14T16:13:23Z) - Syzygy of Thoughts: Improving LLM CoT with the Minimal Free Resolution [59.39066657300045]
CoT(Chain-of-Thought)は、問題を逐次ステップに分解することで、大きな言語モデル(LLM)の推論を促進する。
思考のシジー(Syzygy of Thoughts, SoT)は,CoTを補助的,相互関連的な推論経路を導入して拡張する新しいフレームワークである。
SoTはより深い論理的依存関係をキャプチャし、より堅牢で構造化された問題解決を可能にする。
論文 参考訳(メタデータ) (2025-04-13T13:35:41Z) - Fast-Slow-Thinking: Complex Task Solving with Large Language Models [49.98959729052245]
本稿では,FST(Fast-Slow-Thinking')と呼ばれるタスク分解手法を提案する。
FTでは、LLMは元のタスクの制約を取り除くよう促されるため、汎用的で簡潔なタスクに単純化される。
STでは、FTで取り除かれた制約をリコールするため、LLMはFTで生成された回答を改善し、元のタスクの要求を満たす。
論文 参考訳(メタデータ) (2025-04-11T16:57:36Z) - DAST: Difficulty-Adaptive Slow-Thinking for Large Reasoning Models [31.189242663680695]
本稿では,問題の難易度に基づいて,モデルがチェーン・オブ・ソート(CoT)の長さを自律的に調整できる新しいフレームワークであるDASTを紹介する。
多様なデータセットとモデルスケールの実験により、DASTは複雑な問題に対する推論精度を維持しながら、過剰思考を効果的に軽減することを示した。
論文 参考訳(メタデータ) (2025-03-06T14:23:06Z) - When More is Less: Understanding Chain-of-Thought Length in LLMs [53.77747102201451]
CoT推論は大規模言語モデル(LLM)の多段階推論能力を高める
しかし、ほとんどのモデルやタスクでは、CoT長の増加は一貫して推論精度の向上につながりますか?
本稿では, 推論ステップの数が増加するにつれて, 性能は向上するが, 最終的には低下する,というニュアンスな関係を観察する。
論文 参考訳(メタデータ) (2025-02-11T05:28:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。