論文の概要: InverseCoder: Unleashing the Power of Instruction-Tuned Code LLMs with Inverse-Instruct
- arxiv url: http://arxiv.org/abs/2407.05700v1
- Date: Mon, 8 Jul 2024 08:00:05 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-09 16:40:17.374511
- Title: InverseCoder: Unleashing the Power of Instruction-Tuned Code LLMs with Inverse-Instruct
- Title(参考訳): InverseCoder: Inverse-InstructingによるインストラクションチューニングコードLLMのパワーの解放
- Authors: Yutong Wu, Di Huang, Wenxuan Shi, Wei Wang, Lingzhe Gao, Shihao Liu, Ziyuan Nan, Kaizhao Yuan, Rui Zhang, Xishan Zhang, Zidong Du, Qi Guo, Yewen Pu, Dawei Yin, Xing Hu, Yunji Chen,
- Abstract要約: 本稿では,逆ではなくコードスニペットからの命令を要約したINVERSE-INSTRUCTを提案する。
InverseCoder というコード LLM のシリーズを提示する。これは、広範囲のベンチマークにおいて、元のコード LLM のパフォーマンスを上回ります。
- 参考スコア(独自算出の注目度): 43.7550233177368
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent advancements in open-source code large language models (LLMs) have demonstrated remarkable coding abilities by fine-tuning on the data generated from powerful closed-source LLMs such as GPT-3.5 and GPT-4 for instruction tuning. This paper explores how to further improve an instruction-tuned code LLM by generating data from itself rather than querying closed-source LLMs. Our key observation is the misalignment between the translation of formal and informal languages: translating formal language (i.e., code) to informal language (i.e., natural language) is more straightforward than the reverse. Based on this observation, we propose INVERSE-INSTRUCT, which summarizes instructions from code snippets instead of the reverse. Specifically, given an instruction tuning corpus for code and the resulting instruction-tuned code LLM, we ask the code LLM to generate additional high-quality instructions for the original corpus through code summarization and self-evaluation. Then, we fine-tune the base LLM on the combination of the original corpus and the self-generated one, which yields a stronger instruction-tuned LLM. We present a series of code LLMs named InverseCoder, which surpasses the performance of the original code LLMs on a wide range of benchmarks, including Python text-to-code generation, multilingual coding, and data-science code generation.
- Abstract(参考訳): 近年のオープンソースコード大言語モデル(LLM)の進歩は, GPT-3.5 や GPT-4 などの強力なクローズドソース LLM から生成したデータを微調整することで, 顕著な符号化能力を示している。
本稿では,LLMをクローズドソースに問い合わせるのではなく,それ自身からデータを生成することで,命令調整型LLMをさらに改善する方法について検討する。
フォーマルな言語(コード)をフォーマルな言語(すなわち自然言語)に翻訳することは、逆よりも単純である。
そこで本研究では,逆ではなくコードスニペットからの命令を要約したINVERSE-INSTRUCTを提案する。
具体的には、コードのための命令チューニングコーパスと、結果の命令チューニングコードLLMが与えられた場合、コード要約と自己評価により、元のコーパスに対してさらに高品質な命令を生成するよう、コードLLMに依頼する。
そして、元のコーパスと自己生成コーパスの組み合わせでベースLLMを微調整し、より強い命令調整LLMを生成する。
InverseCoderは,Pythonのテキスト・ツー・コード生成,多言語コーディング,データサイエンスコード生成など,さまざまなベンチマークにおいて,オリジナルのコードLLMのパフォーマンスを超越したコードである。
関連論文リスト
- OpenCoder: The Open Cookbook for Top-Tier Code Large Language Models [70.72097493954067]
コードのための大規模言語モデル(LLM)は、コード生成、推論タスク、エージェントシステムなど、さまざまな領域で必須になっている。
オープンアクセスのコード LLM はプロプライエタリなモデルの性能レベルに近づきつつあるが、高品質なコード LLM は依然として限られている。
トップクラスのコードLLMであるOpenCoderは、主要なモデルに匹敵するパフォーマンスを達成するだけでなく、研究コミュニティの"オープンクックブック"としても機能します。
論文 参考訳(メタデータ) (2024-11-07T17:47:25Z) - SelfCodeAlign: Self-Alignment for Code Generation [15.23960029671979]
SelfCodeAlignは、自己整合型コード言語モデル(LLM)のための、初めて完全に透明で許容可能なパイプラインである
まず、高品質なシードスニペットから多様なコーディング概念を抽出し、新しいタスクを生成する。
次に、タスク毎に複数のレスポンスをサンプリングし、それぞれがテストケースとペアリングし、サンドボックス環境で検証する。
このデータセットの微調整は、HumanEval+で67.1パス@1を達成するモデルにつながります。
論文 参考訳(メタデータ) (2024-10-31T17:55:13Z) - AlchemistCoder: Harmonizing and Eliciting Code Capability by Hindsight Tuning on Multi-source Data [64.69872638349922]
本稿では、マルチソースデータに微調整されたコード生成と一般化機能を備えたコードLLMのシリーズであるAlchemistCoderを紹介する。
本稿では,データ構築過程を微調整データに組み込んで,命令の進化,データフィルタリング,コードレビューなどのコード理解タスクを提案する。
論文 参考訳(メタデータ) (2024-05-29T16:57:33Z) - CodecLM: Aligning Language Models with Tailored Synthetic Data [51.59223474427153]
命令追従能力のための高品質な合成データを適応的に生成するフレームワークであるCodecLMを紹介する。
まず、ターゲットの指示分布をキャプチャするために、オンザフライで生成された簡潔なキーワードであるメタデータにシード命令をエンコードする。
また、デコード中に自己論理とコントラストフィルタを導入し、データ効率の良いサンプルを調整する。
論文 参考訳(メタデータ) (2024-04-08T21:15:36Z) - Magicoder: Empowering Code Generation with OSS-Instruct [14.414411313794911]
Magicoderは、コードのためのLarge Language Models(LLM)シリーズの完全なオープンソース(コード、重み、データ)を紹介します。
MagicoderモデルはOSS-Instructを使って75Kの合成命令データに基づいて訓練される。
MagicoderとMagicoderSはどちらも、幅広いコーディングベンチマークにおいて、類似またはそれ以上の大きさの最先端のコードモデルよりも大幅に優れている。
論文 参考訳(メタデータ) (2023-12-04T18:50:35Z) - InstructCoder: Instruction Tuning Large Language Models for Code Editing [26.160498475809266]
ユーザインストラクションに基づいたコード編集にLLM(Large Language Models)を用いる方法について検討する。
InstructCoderは、汎用コード編集にLLMを適用するために設計された最初の命令チューニングデータセットである。
InstructCoderで微調整されたオープンソースのLLMは、コード編集の精度を大幅に向上させることができる。
論文 参考訳(メタデータ) (2023-10-31T10:15:35Z) - Tuna: Instruction Tuning using Feedback from Large Language Models [74.04950416204551]
本稿では,新しいテキスト確率的ランキングとテキストコンテクスチュアルランキングを用いた命令調整型大規模言語モデルの微調整を提案する。
確率的ランク付けにより、教師のLCMから高品質で低品質なレスポンスの相対的なランク付けを継承することができる。
一方、文脈的ランキングを学習することで、より強いLLMの文脈的理解能力を用いて、モデルが独自の応答分布を洗練できる。
論文 参考訳(メタデータ) (2023-10-20T09:55:06Z) - WizardCoder: Empowering Code Large Language Models with Evol-Instruct [67.24653703564492]
WezardCoderは、複雑な命令の微調整でコードLLMをパワーアップする。
私たちのモデルは、他のすべてのオープンソースコードLLMをかなり上回ります。
論文 参考訳(メタデータ) (2023-06-14T15:18:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。