論文の概要: SEED: Customize Large Language Models with Sample-Efficient Adaptation
for Code Generation
- arxiv url: http://arxiv.org/abs/2403.00046v1
- Date: Thu, 29 Feb 2024 16:09:02 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-05 19:13:29.711837
- Title: SEED: Customize Large Language Models with Sample-Efficient Adaptation
for Code Generation
- Title(参考訳): seed: サンプル効率のよいコード生成適応による大規模言語モデルのカスタマイズ
- Authors: Xue Jiang, Yihong Dong, Zhi Jin, Ge Li
- Abstract要約: 大規模言語モデル(LLM)は、特定のシナリオでコード生成タスクに苦労する。
コード生成のための誤り駆動学習を用いたサンプル効率適応のためのSEEDという新しい適応手法を提案する。
その結果,SEEDではPass@1で27.2%-325.0%の改善が見られた。
- 参考スコア(独自算出の注目度): 39.19979759086193
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Although Large Language Models (LLMs) have made significant progress in code
generation, they still struggle with code generation tasks in specific
scenarios. These scenarios usually necessitate the adaptation of LLMs to
fulfill specific needs, but the limited training data available in practice
leads to poor code generation performance. How to effectively adapt LLMs to new
scenarios with fewer training samples is a major challenge for current code
generation. In this paper, we propose a novel adaptation approach named SEED,
which stands for Sample-Efficient adaptation with Error-Driven learning for
code generation. SEED leverages the errors made by LLMs as learning
opportunities, using error revision to overcome its own shortcomings, thus
achieving efficient learning. Specifically, SEED involves identifying error
code generated by LLMs, employing Self-revise for code revision, optimizing the
model with revised code, and iteratively adapting the process for continuous
improvement. Experimental results show that, compared to traditional
fine-tuning approaches, SEED achieves superior performance with fewer training
samples, showing a relative improvement of 27.2%-325.0% in Pass@1. We also
validate the effectiveness of Self-revise, which generates revised code that
optimizes the model more efficiently compared to the code samples from
datasets. Moreover, SEED consistently demonstrates strong performance across
various LLMs, underscoring its generalizability.
- Abstract(参考訳): 大きな言語モデル(LLM)はコード生成に大きな進歩を遂げているが、特定のシナリオでコード生成タスクに苦戦している。
これらのシナリオは通常、特定のニーズを満たすためにLLMの適応を必要とするが、実際に利用可能な限られたトレーニングデータは、コード生成のパフォーマンスを低下させる。
LLMをトレーニングサンプルが少ない新しいシナリオに効果的に適応する方法は、現在のコード生成において大きな課題である。
本稿では,コード生成のための誤り駆動学習を用いたサンプル効率適応のためのSEEDという新しい適応手法を提案する。
SEEDは、LLMによる誤りを学習機会として活用し、エラー修正を使用して自身の欠点を克服し、効率的な学習を実現する。
具体的には、LLMによって生成されたエラーコードを特定し、コード修正にSelf-Reviseを採用し、修正されたコードでモデルを最適化し、継続的改善のために反復的にプロセスを適用する。
実験の結果,従来の微調整手法と比較して,SEEDはトレーニングサンプルが少ないほど優れた性能を示し,Pass@1では相対的に27.2%-325.0%向上した。
また,データセットのサンプルコードと比較して,モデルをより効率的に最適化する修正コードを生成する自己修正の有効性を検証する。
さらに、SEEDは様々なLLMに対して高い性能を示し、その一般化性を示している。
関連論文リスト
- CodecLM: Aligning Language Models with Tailored Synthetic Data [51.59223474427153]
命令追従能力のための高品質な合成データを適応的に生成するフレームワークであるCodecLMを紹介する。
まず、ターゲットの指示分布をキャプチャするために、オンザフライで生成された簡潔なキーワードであるメタデータにシード命令をエンコードする。
また、デコード中に自己論理とコントラストフィルタを導入し、データ効率の良いサンプルを調整する。
論文 参考訳(メタデータ) (2024-04-08T21:15:36Z) - Are Large Language Models Good Prompt Optimizers? [65.48910201816223]
我々は,LLMに基づくPrompt Optimizationの実際のメカニズムを明らかにするために研究を行っている。
以上の結果から, LLMは, 反射中の誤差の真の原因を特定するのに苦慮し, 自己の事前知識に偏っていることが明らかとなった。
我々は、より制御可能な方法でターゲットモデルの振舞いを直接最適化する新しい「自動振舞い最適化」パラダイムを導入する。
論文 参考訳(メタデータ) (2024-02-03T09:48:54Z) - StepCoder: Improve Code Generation with Reinforcement Learning from
Compiler Feedback [58.20547418182074]
2つの主要コンポーネントからなるコード生成の新しいフレームワークであるStepCoderを紹介します。
CCCSは、長いシーケンスのコード生成タスクをCurriculum of Code Completion Subtaskに分割することで、探索課題に対処する。
FGOは、未実行のコードセグメントをマスクすることでのみモデルを最適化し、Fine-Grained Optimizationを提供する。
提案手法は,出力空間を探索し,対応するベンチマークにおいて最先端の手法より優れた性能を発揮する。
論文 参考訳(メタデータ) (2024-02-02T13:14:31Z) - Finetuning Large Language Models for Vulnerability Detection [0.0]
本稿では,ソースコードの脆弱性を検出するために,大規模言語モデル(LLM)の微調整を行った結果について述べる。
我々は、最新のLLM StarCoderの改良であるWizardCoderを活用し、さらなる微調整により脆弱性検出に適応する。
主なコントリビューションは、最先端のコードLLMであるWizardCoderの微調整、パフォーマンスを損なわないトレーニング速度の向上、トレーニング手順とレシフィケーションの最適化、クラス不均衡の処理、困難な脆弱性検出データセットのパフォーマンス向上である。
論文 参考訳(メタデータ) (2024-01-30T13:46:49Z) - LLM-Assisted Code Cleaning For Training Accurate Code Generators [53.087019724256606]
コードの品質を調査した結果,より構造化され,読みやすくなれば,コード生成性能が向上することがわかった。
私たちは、これらの原則を使って既存のプログラムを変換する、新しいデータクリーニングパイプラインを構築します。
提案手法を2つのアルゴリズムコード生成ベンチマークで評価した結果,微調整のCodeLLaMa-7Bでは,元のデータセットの微調整に比べて最大30%性能が向上していることがわかった。
論文 参考訳(メタデータ) (2023-11-25T02:45:50Z) - Which Examples to Annotate for In-Context Learning? Towards Effective
and Efficient Selection [35.924633625147365]
大規模言語モデル(LLM)は、文脈内学習(ICL)を介して新しいタスクに適応できる
そこで本研究では,ICLのアクティブな学習手法について検討し,アノテートのための予算が限られている。
本稿では,モデルが不確実であることを示すモデル適応型最適化自由アルゴリズムAdaICLを提案する。
論文 参考訳(メタデータ) (2023-10-30T22:03:55Z) - Test-Case-Driven Programming Understanding in Large Language Models for
Better Code Generation [15.166827643436346]
muFiXは、大きな言語モデル(LLM)のコード生成性能を改善する新しいプロンプト技術である。
まず、テストケース分析を利用して仕様の理解を得、自己改善プロセスを可能にする。
muFiXはさらに、提供された理解と実際の理解の間のギャップを減らす方向に向けた仕様理解を修正している。
論文 参考訳(メタデータ) (2023-09-28T02:58:07Z) - Let's Sample Step by Step: Adaptive-Consistency for Efficient Reasoning
and Coding with LLMs [60.58434523646137]
大規模言語モデル(LLM)からの出力の正確性を改善するための一般的なアプローチは、自己整合性である。
コスト効率のよいモデルに依存しない手法であるAdaptive-Consistencyを導入し,各質問のサンプル数を動的に調整する。
実験の結果,Adaptive-Consistencyはサンプル予算を最大7.9倍に削減し,平均精度は0.1%以下であった。
論文 参考訳(メタデータ) (2023-05-19T17:49:25Z) - CodeRL: Mastering Code Generation through Pretrained Models and Deep
Reinforcement Learning [92.36705236706678]
CodeRLは、事前訓練されたLMと深層強化学習によるプログラム合成タスクのための新しいフレームワークである。
推論中、我々は重要なサンプリング戦略を持つ新しい生成手順を導入する。
モデルバックボーンについては,CodeT5のエンコーダデコーダアーキテクチャを拡張し,学習目標を拡張した。
論文 参考訳(メタデータ) (2022-07-05T02:42:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。