論文の概要: Intention Chain-of-Thought Prompting with Dynamic Routing for Code Generation
- arxiv url: http://arxiv.org/abs/2512.14048v1
- Date: Tue, 16 Dec 2025 03:30:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-17 16:49:26.569
- Title: Intention Chain-of-Thought Prompting with Dynamic Routing for Code Generation
- Title(参考訳): コード生成のための動的ルーティングによる意図的連鎖プロンプト
- Authors: Shen Li, Li Huang, Shaoxiong Zhan, Weifeng Sun, Tao Yin, Zhongxin Liu, Meng Yan,
- Abstract要約: 本稿では,コード生成のためのプロンプト戦略を動的に適用する,新しい難易度対応ルーティングフレームワークを提案する。
RoutingGenは、ほとんどの設定で最先端のパフォーマンスを実現し、トークン全体の使用量を平均46.37%削減している。
- 参考スコア(独自算出の注目度): 13.020796396733745
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large language models (LLMs) exhibit strong generative capabilities and have shown great potential in code generation. Existing chain-of-thought (CoT) prompting methods enhance model reasoning by eliciting intermediate steps, but suffer from two major limitations: First, their uniform application tends to induce overthinking on simple tasks. Second, they lack intention abstraction in code generation, such as explicitly modeling core algorithmic design and efficiency, leading models to focus on surface-level structures while neglecting the global problem objective. Inspired by the cognitive economy principle of engaging structured reasoning only when necessary to conserve cognitive resources, we propose RoutingGen, a novel difficulty-aware routing framework that dynamically adapts prompting strategies for code generation. For simple tasks, it adopts few-shot prompting; for more complex ones, it invokes a structured reasoning strategy, termed Intention Chain-of-Thought (ICoT), which we introduce to guide the model in capturing task intention, such as the core algorithmic logic and its time complexity. Experiments across three models and six standard code generation benchmarks show that RoutingGen achieves state-of-the-art performance in most settings, while reducing total token usage by 46.37% on average across settings. Furthermore, ICoT outperforms six existing prompting baselines on challenging benchmarks.
- Abstract(参考訳): 大規模言語モデル(LLM)は強力な生成能力を示し、コード生成に大きな可能性を示している。
既存のチェーン・オブ・シンクレット(CoT)促進手法は、中間ステップを引き出すことによってモデル推論を強化するが、2つの大きな制限に悩まされる。
第2に,コアアルゴリズムの設計と効率を明示的にモデル化するなど,コード生成の意図的な抽象化が欠如していること。
認知資源の保存に必要な場合にのみ構造化推論を行う認知経済の原則に着想を得て,コード生成の促進戦略を動的に適用する,新しい困難対応ルーティングフレームワークであるRoutingGenを提案する。
より複雑なタスクでは、ICoT(Intention Chain-of-Thought)と呼ばれる構造化推論戦略を起動し、コアアルゴリズムロジックや時間複雑性などのタスク意図を捉えるモデルを紹介します。
3つのモデルと6つの標準コード生成ベンチマークによる実験は、RoutingGenがほとんどの設定で最先端のパフォーマンスを達成する一方で、全トークン使用量を平均46.37%削減していることを示している。
さらに、ICoTは、挑戦的なベンチマークで既存の6つのプロンプトベースラインを上回っている。
関連論文リスト
- Understanding and Improving Length Generalization in Hierarchical Sparse Attention Models [33.99822400076112]
チャンクに基づくスパースアテンションは、極端な長さの一般化のための有望なパラダイムとして現れている。
本稿では,これらのモデルを体系的に分解し,その性能を駆動するコアコンポーネントを同定する。
我々は、4KコンテキストでトレーニングされたモデルをRULERとBABILongで3200万トークンに一般化し、トレーニング不要な長さ外挿のための新しい最先端技術を確立した。
論文 参考訳(メタデータ) (2025-10-20T06:17:57Z) - SEER: Enhancing Chain-of-Thought Code Generation through Self-Exploring Deep Reasoning [41.76790935791852]
CoT(Chain-of-Thought)推論により、LLM(Large Language Models)は、コードを書く前に高いレベルの推論計画を開発することができる。
コード生成の正確かつ適応的な推論を可能にするSelf-Exploring Deep ReasoningフレームワークであるSEERを提案する。
論文 参考訳(メタデータ) (2025-10-20T03:51:17Z) - Dynamic Generation of Multi-LLM Agents Communication Topologies with Graph Diffusion Models [99.85131798240808]
我々はtextitGuided Topology Diffusion (GTD) と呼ばれる新しい生成フレームワークを導入する。
条件付き離散グラフ拡散モデルにインスパイアされたGTD式は、反復的な構成過程としてトポロジー合成を行う。
各ステップで生成は、多目的報酬を予測する軽量プロキシモデルによって制御される。
実験により、GTDは高いタスク適応性、スパース、効率的な通信トポロジを生成できることが示されている。
論文 参考訳(メタデータ) (2025-10-09T05:28:28Z) - Scaling Code-Assisted Chain-of-Thoughts and Instructions for Model Reasoning [65.20602712957725]
Cacoは、高品質で検証可能な多様な命令-CoT推論データの合成を自動化する新しいフレームワークである。
我々の研究は、人間の介入なしに自己持続的で信頼できる推論システムを構築するためのパラダイムを確立します。
論文 参考訳(メタデータ) (2025-10-05T07:59:24Z) - Fast Thinking for Large Language Models [67.7238685892317]
我々は、訓練中にのみ簡潔なCoTスケッチを使用して個別戦略事前のコードブックを学習するフレームワークであるLatent Codebooks for Fast Thinkingを紹介した。
推論では、コードブックから抽出した少数の連続的思考スイッチのモデル条件を1パスにすることで、明確な推論トークンを生成することなく、戦略レベルのガイダンスを可能にする。
論文 参考訳(メタデータ) (2025-09-28T04:19:48Z) - Pruning the Unsurprising: Efficient Code Reasoning via First-Token Surprisal [13.035073453917088]
大規模推論モデル(LRM)は、Chain-of-Thought(CoT)の長さをスケールアップすることによって、コード推論において顕著な能力を示した。
我々は,CoT圧縮のための新しい粗大なフレームワークであるASAP(Anchor-guided, Surprisal-based Pruning)を提案する。
ASAPは、トレーニングと推論コストを大幅に削減しつつ、複数のコード生成ベンチマークで最先端の精度を実現している。
論文 参考訳(メタデータ) (2025-08-08T03:46:21Z) - Efficient Reasoning Models: A Survey [73.00621058885054]
本調査は,近年の効率的な推論の進歩を包括的に概観することを目的としている。
1)短い圧縮CoTを簡潔で効果的な推論チェーンに、(2)より小さい - 強力な推論能力を持つコンパクトな言語モデルを開発する、(3)より高速に、という3つの重要な方向性に分類する。
論文 参考訳(メタデータ) (2025-04-15T06:28:00Z) - COrAL: Order-Agnostic Language Modeling for Efficient Iterative Refinement [80.18490952057125]
反復改良は、複雑なタスクにおける大規模言語モデル(LLM)の能力を高める効果的なパラダイムとして登場した。
我々はこれらの課題を克服するために、コンテキストワイズ順序非依存言語モデリング(COrAL)を提案する。
当社のアプローチでは、管理可能なコンテキストウィンドウ内で複数のトークン依存関係をモデル化しています。
論文 参考訳(メタデータ) (2024-10-12T23:56:19Z) - Unlocking Reasoning Potential in Large Langauge Models by Scaling Code-form Planning [94.76546523689113]
CodePlanは、テキストコード形式の計画を生成し、追跡するフレームワークで、高いレベルの構造化された推論プロセスの概要を擬似コードで示します。
CodePlanは、洗練された推論タスク固有のリッチなセマンティクスと制御フローを効果的にキャプチャする。
反応を直接生成するのに比べて25.1%の相対的な改善が達成されている。
論文 参考訳(メタデータ) (2024-09-19T04:13:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。