論文の概要: Execution Guided Line-by-Line Code Generation
- arxiv url: http://arxiv.org/abs/2506.10948v1
- Date: Thu, 12 Jun 2025 17:50:05 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-13 15:37:22.886234
- Title: Execution Guided Line-by-Line Code Generation
- Title(参考訳): 実行ガイドによるライン・バイ・ラインコード生成
- Authors: Boaz Lavon, Shahar Katz, Lior Wolf,
- Abstract要約: 本稿では,言語モデル生成プロセスにリアルタイム実行信号を組み込んだニューラルコード生成手法を提案する。
提案手法であるExecutionGuidedFree Guidance (EGCFG) は,実行信号をモデルが生成するコードとして組み込む。
- 参考スコア(独自算出の注目度): 49.1574468325115
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present a novel approach to neural code generation that incorporates real-time execution signals into the language model generation process. While large language models (LLMs) have demonstrated impressive code generation capabilities, they typically do not utilize execution feedback during inference, a critical signal that human programmers regularly leverage. Our method, Execution-Guided Classifier-Free Guidance (EG-CFG), dynamically incorporates execution signals as the model generates code, providing line-by-line feedback that guides the generation process toward executable solutions. EG-CFG employs a multi-stage process: first, we conduct beam search to sample candidate program completions for each line; second, we extract execution signals by executing these candidates against test cases; and finally, we incorporate these signals into the prompt during generation. By maintaining consistent signals across tokens within the same line and refreshing signals at line boundaries, our approach provides coherent guidance while preserving syntactic structure. Moreover, the method naturally supports native parallelism at the task level in which multiple agents operate in parallel, exploring diverse reasoning paths and collectively generating a broad set of candidate solutions. Our experiments across diverse coding tasks demonstrate that EG-CFG significantly improves code generation performance compared to standard approaches, achieving state-of-the-art results across various levels of complexity, from foundational problems to challenging competitive programming tasks. Our code is available at: https://github.com/boazlavon/eg_cfg
- Abstract(参考訳): 本稿では,言語モデル生成プロセスにリアルタイム実行信号を組み込んだニューラルコード生成手法を提案する。
大きな言語モデル(LLM)は印象的なコード生成機能を示しているが、一般的には人間のプログラマが定期的に利用する重要な信号である推論中に実行フィードバックを使わない。
提案手法であるEG-CFG(Execution-Guided Classifier-Free Guidance)は,実行信号を動的に組み込んでコードを生成する。
EG-CFGは、まず、各行の候補プログラム完了をサンプリングするためにビームサーチを行い、次に、これらの候補をテストケースに対して実行することで実行信号を抽出し、最後に、これらの信号を生成時にプロンプトに組み込む。
同線内のトークン間の一貫性のある信号の維持とライン境界での信号のリフレッシュにより,本手法は統語構造を保ちながらコヒーレントなガイダンスを提供する。
さらに,複数のエージェントが並列に動作するタスクレベルでネイティブ並列性を自然にサポートし,多様な推論経路を探索し,幅広い候補解を生成する。
多様なコーディングタスクに対する我々の実験は、EG-CFGが標準的なアプローチと比較してコード生成性能を著しく改善し、基礎的な問題から競争力のあるプログラミングタスクまで、様々なレベルの複雑さで最先端の結果を達成することを実証している。
私たちのコードは、https://github.com/boazlavon/eg_cfgで利用可能です。
関連論文リスト
- LSR-MCTS: Alleviating Long Range Dependency in Code Generation [42.10272627826627]
大規模言語モデル(LLM)は、コード生成タスクの開発を著しく促進している。
本稿では,MCTS を利用した textbfLSR-MCTS アルゴリズムを提案する。
論文 参考訳(メタデータ) (2025-04-10T04:03:25Z) - RGD: Multi-LLM Based Agent Debugger via Refinement and Generation Guidance [0.6062751776009752]
大規模言語モデル(LLM)は、コード生成タスクにおいて驚くべきポテンシャルを示しています。
LLMはタスク記述に基づいてコードを生成することができるが、精度は限られている。
コード生成と自動デバッグのためのLLMエージェントの新しいアーキテクチャ:Refinement and Guidancebug (RGD)を紹介する。
RGDはコード生成タスクを複数のステップに分割し、より明確なワークフローを確保し、自己回帰とフィードバックに基づいた反復的なコード改善を可能にする。
論文 参考訳(メタデータ) (2024-10-02T05:07:02Z) - InterCode: Standardizing and Benchmarking Interactive Coding with
Execution Feedback [50.725076393314964]
標準的な強化学習環境として,インタラクティブコーディングの軽量でフレキシブルで使いやすいフレームワークであるInterCodeを紹介した。
私たちのフレームワークは、言語とプラットフォームに依存しない、自己完結型のDocker環境を使用して、安全で再現可能な実行を提供します。
我々は、異なるプロンプト戦略で構成された複数の最先端LLMを評価することにより、InterCodeの生存性をテストベッドとして示す。
論文 参考訳(メタデータ) (2023-06-26T17:59:50Z) - SignalGP-Lite: Event Driven Genetic Programming Library for Large-Scale
Artificial Life Applications [62.997667081978825]
イベント駆動型遺伝的プログラミング表現は、相互作用集約問題における従来の命令的表現よりも優れていることが示されている。
イベント駆動型アプローチは、環境信号に応答してトリガーされるモジュールにゲノムコンテンツを整理する。
SignalGPライブラリは、従来のプログラム合成アプリケーションに対応している。
論文 参考訳(メタデータ) (2021-08-01T07:20:49Z) - Text Generation with Efficient (Soft) Q-Learning [91.47743595382758]
強化学習(RL)は、任意のタスクメトリクスを報酬としてプラグインすることで、より柔軟なソリューションを提供する。
ソフトQ-ラーニングの観点からテキスト生成のための新しいRL式を導入する。
雑音/負の例から学習し、敵攻撃、即時生成など、幅広いタスクにアプローチを適用する。
論文 参考訳(メタデータ) (2021-06-14T18:48:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。