論文の概要: An Exploratory Study of Bayesian Prompt Optimization for Test-Driven Code Generation with Large Language Models
- arxiv url: http://arxiv.org/abs/2512.15076v1
- Date: Wed, 17 Dec 2025 04:39:19 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-18 17:06:26.855908
- Title: An Exploratory Study of Bayesian Prompt Optimization for Test-Driven Code Generation with Large Language Models
- Title(参考訳): 大規模言語モデルを用いたテスト駆動コード生成のためのベイジアンプロンプト最適化に関する探索的研究
- Authors: Shlok Tomar, Aryan Deshwal, Ethan Villalovoz, Mattia Fazzini, Haipeng Cai, Janardhan Rao Doppa,
- Abstract要約: 大規模言語モデル(LLM)を用いた機能的正しいコード生成の課題について考察する。
本稿では、コードジェネレーション(BODE-GEN)のためのエムBOと呼ばれるベイズ最適化(BO)手法を提案する。
BODE-GENは、与えられたテストケースのセット上で、試験されたプロンプトと生成されたコードの機能的正確さの形式で、トレーニングデータによってガイドされたプロンプトを適応的にデータ駆動で探索する。
- 参考スコア(独自算出の注目度): 28.532456798313376
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: We consider the task of generating functionally correct code using large language models (LLMs). The correctness of generated code is influenced by the prompt used to query the given base LLM. We formulate the problem of finding the appropriate prompt as combinatorial search process and propose a Bayesian optimization (BO) approach referred to as {\em BO for Code GENeration (BODE-GEN)}. BODE-GEN performs an adaptive data-driven search over prompts guided by training data in the form of prompts tried and the functional accuracy of the generated code over a set of given test cases. The key insight is to perform BO in continuous embedding space by using an auxiliary LLM to bridge the gap between discrete prompt space and continuous embedding space. We leverage two synergistic ideas, namely, random projections and dimensionality scaled priors, to build effective Gaussian process based surrogate models over the high-dimensional embedding space. Our experiments on the HumanEval+ benchmark using multiple base LLMs show that BODE-GEN can improve performance in terms of code generation accuracy compared to fixed prompts and manual prompt engineering. Additionally, we demonstrate that BODE-GEN is sample-efficient, requiring relatively few iterations of BO to demonstrate improvements in code accuracy.
- Abstract(参考訳): 大規模言語モデル(LLM)を用いて,機能的に正しいコードを生成するタスクについて検討する。
生成されたコードの正確性は、与えられたベースLLMに問い合わせるプロンプトに影響される。
本稿では、組合せ探索プロセスとして適切なプロンプトを見つける問題を定式化し、コードジェネレーション (BODE-GEN) のための {\em BOと呼ばれるベイズ最適化(BO)アプローチを提案する。
BODE-GENは、与えられたテストケースのセット上で、試験されたプロンプトと生成されたコードの機能的正確さの形式で、トレーニングデータによってガイドされたプロンプトを適応的にデータ駆動で探索する。
鍵となる洞察は、離散的なプロンプト空間と連続な埋め込み空間の間のギャップを埋めるために補助的なLCMを使用することで、連続的な埋め込み空間においてBOを実行することである。
高次元埋め込み空間上の効果的なガウス過程に基づく代理モデルを構築するために、ランダムな射影と次元スケールされた事前の2つの相乗的考えを利用する。
複数のLLMを用いたHumanEval+ベンチマーク実験により、BODE-GENは、固定プロンプトや手動プロンプトよりもコード生成精度が向上することを示した。
さらに,BODE-GENはサンプル効率が高く,コード精度の向上を示すためにBOを比較的数回反復する必要があることを実証した。
関連論文リスト
- Alignment with Fill-In-the-Middle for Enhancing Code Generation [56.791415642365415]
コードスニペットを小さな粒度のブロックに分割し,同じテストケースからより多様なDPOペアを生成する手法を提案する。
提案手法は,HumanEval (+), MBPP (+), APPS, LiveCodeBench, BigCodeBenchといったベンチマークデータセットの実験によって検証された,コード生成タスクの大幅な改善を示す。
論文 参考訳(メタデータ) (2025-08-27T03:15:53Z) - DDPT: Diffusion-Driven Prompt Tuning for Large Language Model Code Generation [3.4483302359883305]
大規模言語モデル(LLM)は、コード生成において顕著な能力を示している。
生成されたコードの品質は、使用するプロンプトの構造と構成に大きく依存する。
本稿では,ガウス雑音から最適なプロンプト埋め込みを生成する方法を学習する新しい手法を提案する。
論文 参考訳(メタデータ) (2025-04-06T04:19:19Z) - CodeDPO: Aligning Code Models with Self Generated and Verified Source Code [52.70310361822519]
我々は、コード生成に好み学習を統合するフレームワークであるCodeDPOを提案し、コードの正確性と効率性という2つの重要なコード優先要因を改善した。
CodeDPOは、コードとテストケースを同時に生成、評価するセルフジェネレーション・アンド・バリデーションメカニズムを利用して、新しいデータセット構築方法を採用している。
論文 参考訳(メタデータ) (2024-10-08T01:36:15Z) - Exploring Data-Efficient Adaptation of Large Language Models for Code Generation [64.5583894165813]
コード生成のための誤り駆動学習を用いたデータ効率向上のための新しい適応手法DEEDを提案する。
実験により、他の主流の微調整手法と比較して、DEEDは訓練データが少なく、優れた性能を発揮することが示された。
論文 参考訳(メタデータ) (2024-02-29T16:09:02Z) - StepCoder: Improve Code Generation with Reinforcement Learning from
Compiler Feedback [58.20547418182074]
2つの主要コンポーネントからなるコード生成の新しいフレームワークであるStepCoderを紹介します。
CCCSは、長いシーケンスのコード生成タスクをCurriculum of Code Completion Subtaskに分割することで、探索課題に対処する。
FGOは、未実行のコードセグメントをマスクすることでのみモデルを最適化し、Fine-Grained Optimizationを提供する。
提案手法は,出力空間を探索し,対応するベンチマークにおいて最先端の手法より優れた性能を発揮する。
論文 参考訳(メタデータ) (2024-02-02T13:14:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。