論文の概要: Reasoning as a Resource: Optimizing Fast and Slow Thinking in Code Generation Models
- arxiv url: http://arxiv.org/abs/2506.09396v1
- Date: Wed, 11 Jun 2025 04:55:00 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-13 06:35:02.488455
- Title: Reasoning as a Resource: Optimizing Fast and Slow Thinking in Code Generation Models
- Title(参考訳): リソースとしての推論 - コード生成モデルにおける高速でスローな思考の最適化
- Authors: Zongjie Li, Shuai Wang,
- Abstract要約: 我々は、迅速で直接的な回答(高速思考)と精巧で連鎖的な熟考(スロー思考)とのトレードオフは、明示的に管理されなければならないと論じている。
本稿では, 推論に対する適応制御が, 監視信号の強化, 新たな多次元ベンチマークのモチベーション, コスト意識, セキュリティ意識の展開ポリシーの通知などを実現する方法について概説する。
- 参考スコア(独自算出の注目度): 7.662670109847715
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This position paper proposes a fundamental shift in designing code generation models: treating reasoning depth as a controllable resource. Rather than being an incidental byproduct of prompting, we argue that the trade-off between rapid, direct answers ("fast thinking") and elaborate, chain-of-thought deliberation ("slow thinking") must be explicitly managed. We contend that optimizing reasoning budgets across the entire model lifecycle - from synthetic data creation and benchmarking to real-world deploymen - can unlock superior trade-offs among accuracy, latency, and cost. This paper outlines how adaptive control over reasoning can enrich supervision signals, motivate new multi-dimensional benchmarks, and inform cost-aware, security-conscious deployment policies. By viewing fast and slow thinking as complementary modes to be scheduled, we envision coding agents that think deep when necessary and act fast when possible.
- Abstract(参考訳): 本稿では、コード生成モデルの設計における根本的な変化として、推論深度を制御可能なリソースとして扱うことを提案する。
急激で直接的な回答(高速な思考)と精巧で連鎖的な熟考(スローな思考)とのトレードオフは、インシデント副産物であるよりも、明示的に管理されるべきである、と私たちは主張する。
モデルライフサイクル全体にわたる推論予算の最適化 – 合成データ生成やベンチマークから実世界のデプロイ担当者に至るまで – は、正確性、レイテンシ、コストの面で優れたトレードオフを解き放つことができる、と私たちは主張しています。
本稿では, 推論に対する適応制御が, 監視信号の強化, 新たな多次元ベンチマークのモチベーション, コスト意識, セキュリティ意識の展開ポリシーの通知などを実現する方法について概説する。
高速で遅い思考を補完的なモードとして見ていくことで、必要な時に深く考え、可能な限り速く行動するコーディングエージェントを思い浮かべる。
関連論文リスト
- Let LLMs Break Free from Overthinking via Self-Braking Tuning [60.08396797526657]
大きな推論モデル(LRM)は思考の長い連鎖を生成することによって推論能力を著しく向上させた。
この性能向上は、生成プロセス中の冗長な推論を大幅に増加させるコストが伴う。
本稿では、モデルが独自の推論プロセスを制御することを許容する観点から、過度に検討する新しいフレームワーク、Self-Braking Tuning(SBT)を提案する。
論文 参考訳(メタデータ) (2025-05-20T16:53:40Z) - Scalable Chain of Thoughts via Elastic Reasoning [61.75753924952059]
Elastic Reasoningは、スケーラブルな思考の連鎖のための新しいフレームワークである。
推論は、独立して割り当てられた予算で、思考と解決の2つのフェーズに分けられる。
我々のアプローチは、制約のない設定でもより簡潔で効率的な推論をもたらす。
論文 参考訳(メタデータ) (2025-05-08T15:01:06Z) - "Well, Keep Thinking": Enhancing LLM Reasoning with Adaptive Injection Decoding [4.008780119020479]
大規模言語モデル(LLM)は強力な推論能力を示しており、多くの場合、ほとんどショットやゼロショットの連鎖(CoT)のプロンプトによるものである。
本稿では,LLMを体系的に推論を継続し,未熟な推論を防止できる新しい復号法を提案する。
論文 参考訳(メタデータ) (2025-03-13T08:46:32Z) - Code to Think, Think to Code: A Survey on Code-Enhanced Reasoning and Reasoning-Driven Code Intelligence in LLMs [53.00384299879513]
大規模言語モデル(LLM)では、コードと推論が互いに強化される。
コードは検証可能な実行パスを提供し、論理的な分解を強制し、実行時の検証を可能にする。
我々は,このシナジーを強化するために,重要な課題を特定し,今後の研究方向性を提案する。
論文 参考訳(メタデータ) (2025-02-26T18:55:42Z) - Rationale-Augmented Ensembles in Language Models [53.45015291520658]
我々は、数発のテキスト内学習のための合理化促進策を再考する。
我々は、出力空間における合理的サンプリングを、性能を確実に向上させるキーコンポーネントとして特定する。
有理拡張アンサンブルは既存のプロンプト手法よりも正確で解釈可能な結果が得られることを示す。
論文 参考訳(メタデータ) (2022-07-02T06:20:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。