論文の概要: Exploring Continual Learning for Code Generation Models
- arxiv url: http://arxiv.org/abs/2307.02435v1
- Date: Wed, 5 Jul 2023 16:58:39 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-06 12:58:24.403963
- Title: Exploring Continual Learning for Code Generation Models
- Title(参考訳): コード生成モデルのための継続的学習の探索
- Authors: Prateek Yadav, Qing Sun, Hantian Ding, Xiaopeng Li, Dejiao Zhang, Ming
Tan, Xiaofei Ma, Parminder Bhatia, Ramesh Nallapati, Murali Krishna
Ramanathan, Mohit Bansal, Bing Xiang
- Abstract要約: 継続的学習(CL)は、コードドメインの中でまだ過小評価されていない重要な側面である。
コード生成,翻訳,要約,改良など,幅広いタスクをカバーするCodeTask-CLというベンチマークを導入する。
即時選択機構の不安定な訓練により,プロンプトプール (PP) などの有効手法が破滅的な忘れ込みに悩まされることが判明した。
- 参考スコア(独自算出の注目度): 80.78036093054855
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large-scale code generation models such as Codex and CodeT5 have achieved
impressive performance. However, libraries are upgraded or deprecated very
frequently and re-training large-scale language models is computationally
expensive. Therefore, Continual Learning (CL) is an important aspect that
remains underexplored in the code domain. In this paper, we introduce a
benchmark called CodeTask-CL that covers a wide range of tasks, including code
generation, translation, summarization, and refinement, with different input
and output programming languages. Next, on our CodeTask-CL benchmark, we
compare popular CL techniques from NLP and Vision domains. We find that
effective methods like Prompt Pooling (PP) suffer from catastrophic forgetting
due to the unstable training of the prompt selection mechanism caused by stark
distribution shifts in coding tasks. We address this issue with our proposed
method, Prompt Pooling with Teacher Forcing (PP-TF), that stabilizes training
by enforcing constraints on the prompt selection mechanism and leads to a
21.54% improvement over Prompt Pooling. Along with the benchmark, we establish
a training pipeline that can be used for CL on code models, which we believe
can motivate further development of CL methods for code models. Our code is
available at https://github.com/amazon-science/codetaskcl-pptf
- Abstract(参考訳): CodexやCodeT5のような大規模なコード生成モデルは、素晴らしいパフォーマンスを達成した。
しかし、ライブラリは非常に頻繁にアップグレードまたは廃止され、大規模言語モデルの再学習は計算コストがかかる。
したがって、継続的学習(cl)は、コードドメインにおいて未熟な部分である。
本稿では,入力言語や出力言語が異なるコード生成,翻訳,要約,洗練といった幅広いタスクをカバーする,codetask-clと呼ばれるベンチマークを紹介する。
次に、CodeTask-CLベンチマークで、NLPとVisionドメインの一般的なCLテクニックを比較します。
その結果,プロンプト・プーリング(pp)のような効果的な手法では,コーディングタスクにおける急速分布シフトによるプロンプト選択機構の不安定なトレーニングが原因で,壊滅的な忘れが生じた。
提案手法である教師強制型プロンプトプール(pp-tf)では,プロンプト選択機構の制約を課すことでトレーニングを安定させ,プロンプトプールよりも21.54%向上させる。
ベンチマークとともに、コードモデル上でCLに使用できるトレーニングパイプラインを確立し、コードモデルのためのCLメソッドのさらなる開発を動機付けることができると考えています。
私たちのコードはhttps://github.com/amazon-science/codetaskcl-pptfで利用可能です。
関連論文リスト
- CodeRAG-Bench: Can Retrieval Augment Code Generation? [78.37076502395699]
検索拡張生成を用いたコード生成の系統的,大規模な解析を行う。
まず、コード生成タスクの3つのカテゴリを含む総合的な評価ベンチマークであるCodeRAG-Benchをキュレートする。
CodeRAG-Bench上のトップパフォーマンスモデルについて、1つまたは複数のソースから検索したコンテキストを提供することにより検討する。
論文 参考訳(メタデータ) (2024-06-20T16:59:52Z) - StepCoder: Improve Code Generation with Reinforcement Learning from
Compiler Feedback [58.20547418182074]
2つの主要コンポーネントからなるコード生成の新しいフレームワークであるStepCoderを紹介します。
CCCSは、長いシーケンスのコード生成タスクをCurriculum of Code Completion Subtaskに分割することで、探索課題に対処する。
FGOは、未実行のコードセグメントをマスクすることでのみモデルを最適化し、Fine-Grained Optimizationを提供する。
提案手法は,出力空間を探索し,対応するベンチマークにおいて最先端の手法より優れた性能を発揮する。
論文 参考訳(メタデータ) (2024-02-02T13:14:31Z) - Introducing Language Guidance in Prompt-based Continual Learning [95.03110230754423]
本稿では,Prompt-based Continual Learning (LGCL) のための言語指導手法を提案する。
LGCLは、新しい最先端技術を設定するために、プロンプトベースの連続学習手法の性能を一貫して改善する。
論文 参考訳(メタデータ) (2023-08-30T08:03:49Z) - CodeT5+: Open Code Large Language Models for Code Understanding and
Generation [72.1638273937025]
大きな言語モデル (LLM) は膨大なソースコードで事前訓練されており、コードインテリジェンスにおいて顕著な進歩を遂げている。
CodeT5+は、コンポーネントモジュールを柔軟に組み合わせて、幅広い下流のコードタスクに適合させることができるコードのためのエンコーダ-デコーダLLMのファミリーである。
我々は、ゼロショット、微調整、命令調整を含む20以上のコード関連ベンチマークでCodeT5+を広範囲に評価した。
論文 参考訳(メタデータ) (2023-05-13T14:23:07Z) - Execution-based Code Generation using Deep Reinforcement Learning [8.085533911328577]
PPOCoderは、事前訓練されたPLモデルとプロキシポリシー最適化を組み合わせた、コード生成のための新しいフレームワークである。
PPOCoderは、外部コード固有の知識をモデル最適化プロセスにシームレスに統合する。
PPOCoderはタスクに依存しない、モデルに依存しないフレームワークで、さまざまなコード生成タスクやPLで使用できます。
論文 参考訳(メタデータ) (2023-01-31T18:02:26Z) - CLAWSAT: Towards Both Robust and Accurate Code Models [74.57590254102311]
比較学習(CL)と逆学習を統合して、コードモデルの堅牢性と精度を協調的に最適化する。
私たちの知る限りでは、これはコードモデルにおける(マルチビュー)コードの難読化の堅牢性と正確性について調査し、活用する最初の体系的な研究です。
論文 参考訳(メタデータ) (2022-11-21T18:32:50Z) - CodeT5: Identifier-aware Unified Pre-trained Encoder-Decoder Models for
Code Understanding and Generation [36.47905744758698]
我々は、開発者が指定した識別子から伝達されるコードセマンティクスをよりよく活用する、事前訓練されたエンコーダ-デコーダ変換モデルであるCodeT5を提案する。
我々のモデルは、コード理解と生成タスクの両方をシームレスにサポートし、マルチタスク学習を可能にする統一的なフレームワークを採用している。
論文 参考訳(メタデータ) (2021-09-02T12:21:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。