論文の概要: Let's Revise Step-by-Step: A Unified Local Search Framework for Code Generation with LLMs
- arxiv url: http://arxiv.org/abs/2508.07434v1
- Date: Sun, 10 Aug 2025 17:11:56 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-12 21:23:28.857198
- Title: Let's Revise Step-by-Step: A Unified Local Search Framework for Code Generation with LLMs
- Title(参考訳): ステップバイステップ: LLMによるコード生成のための統一ローカル検索フレームワーク
- Authors: Zhiyi Lyu, Jianguo Huang, Yanchen Deng, Steven Hoi, Bo An,
- Abstract要約: 本稿では,ステップバイステップのコード修正を効果的に行う統一的なローカル検索フレームワークを提案する。
具体的には、ReLocは4つの主要なアルゴリズムコンポーネントを通して、一連のローカルリビジョンを探索する。
そこで我々は,修正距離に基づいてコード品質を評価できる特化リビジョン報酬モデルを構築し,微粒な選好を生成する。
- 参考スコア(独自算出の注目度): 16.818072348542923
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large Language Models (LLMs) with inference-time scaling techniques show promise for code generation, yet face notable efficiency and scalability challenges. Construction-based tree-search methods suffer from rapid growth in tree size, high token consumption, and lack of anytime property. In contrast, improvement-based methods offer better performance but often struggle with uninformative reward signals and inefficient search strategies. In this work, we propose \textbf{ReLoc}, a unified local search framework which effectively performs step-by-step code revision. Specifically, ReLoc explores a series of local revisions through four key algorithmic components: initial code drafting, neighborhood code generation, candidate evaluation, and incumbent code updating, each of which can be instantiated with specific decision rules to realize different local search algorithms such as Hill Climbing (HC) or Genetic Algorithm (GA). Furthermore, we develop a specialized revision reward model that evaluates code quality based on revision distance to produce fine-grained preferences that guide the local search toward more promising candidates. Finally, our extensive experimental results demonstrate that our approach achieves superior performance across diverse code generation tasks, significantly outperforming both construction-based tree search as well as the state-of-the-art improvement-based code generation methods.
- Abstract(参考訳): 推論時間スケーリング技術を備えた大規模言語モデル(LLM)は、コード生成を約束するが、顕著な効率性とスケーラビリティの課題に直面している。
建設をベースとした木探索手法は,木の大きさの急激な増加,高いトークン消費,時間的特性の欠如に悩まされている。
対照的に、改善ベースの手法はより良い性能を提供するが、しばしば非形式的な報酬信号と非効率的な探索戦略に苦しむ。
本研究では,ステップバイステップのコード修正を効果的に行う統一ローカル検索フレームワークである \textbf{ReLoc} を提案する。
具体的には、ReLocは、初期コードドラフト、近傍コード生成、候補評価、既存のコード更新の4つの主要なアルゴリズムコンポーネントを通じて、一連のローカルリビジョンを探索し、それぞれに特定の決定ルールをインスタンス化して、ヒルクライミング(HC)や遺伝的アルゴリズム(GA)のような異なるローカル検索アルゴリズムを実現する。
さらに,リビジョン距離に基づいたコード品質評価モデルを構築し,より有望な候補に向けて局所探索を誘導するきめ細かい選好を生成する。
最後に,提案手法は多様なコード生成タスクにまたがって優れた性能を達成し,構築ベースツリー検索と最先端の改良ベースコード生成手法の両方を著しく上回っていることを示す。
関連論文リスト
- LSR-MCTS: Alleviating Long Range Dependency in Code Generation [42.10272627826627]
大規模言語モデル(LLM)は、コード生成タスクの開発を著しく促進している。
本稿では,MCTS を利用した textbfLSR-MCTS アルゴリズムを提案する。
論文 参考訳(メタデータ) (2025-04-10T04:03:25Z) - Chain-of-Programming (CoP) : Empowering Large Language Models for Geospatial Code Generation [2.6026969939746705]
本稿では,コード生成プロセスを5段階に分解するプログラミングフレームワークを提案する。
このフレームワークには、共有情報プール、知識ベース検索、ユーザフィードバック機構が含まれている。
生成されたコードの論理的明確性、構文的正確性、実行可能性を大幅に改善する。
論文 参考訳(メタデータ) (2024-11-16T09:20:35Z) - CodeTree: Agent-guided Tree Search for Code Generation with Large Language Models [106.11371409170818]
大規模言語モデル(LLM)は、生成されたコードを自己定義し、自律的に改善する機能を持つエージェントとして機能する。
コード生成プロセスの異なる段階における探索空間を効率的に探索するLLMエージェントのためのフレームワークであるCodeTreeを提案する。
具体的には、異なるコーディング戦略を明示的に探求し、対応するコーディングソリューションを生成し、その後、ソリューションを洗練するために統合されたツリー構造を採用しました。
論文 参考訳(メタデータ) (2024-11-07T00:09:54Z) - DOCE: Finding the Sweet Spot for Execution-Based Code Generation [69.5305729627198]
本稿では,候補生成,$n$-best再ランク,最小ベイズリスク(MBR)復号化,自己老化などを含む包括的フレームワークを提案する。
本研究は,実行ベースメソッドの重要性と,実行ベースメソッドと実行フリーメソッドとの差を明らかにする。
論文 参考訳(メタデータ) (2024-08-25T07:10:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。