論文の概要: GiFT: Gibbs Fine-Tuning for Code Generation
- arxiv url: http://arxiv.org/abs/2502.11466v1
- Date: Mon, 17 Feb 2025 05:52:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-18 14:17:25.313321
- Title: GiFT: Gibbs Fine-Tuning for Code Generation
- Title(参考訳): GiFT:コード生成のためのファインチューニングをギブズ
- Authors: Haochen Li, Wanjin Feng, Xin Zhou, Zhiqi Shen,
- Abstract要約: Gibbs Fine-Tuning (GiFT)は、Gibbsサンプリングにインスパイアされた新しい自己学習手法である。
GiFTは、ジョイント空間の限界分布から自己生成データを描画することを可能にする。
- 参考スコア(独自算出の注目度): 7.160587154372696
- License:
- Abstract: Training Large Language Models (LLMs) with synthetic data is a prevalent practice in code generation. A key approach is self-training, where LLMs are iteratively trained on self-generated correct code snippets. In this case, the self-generated codes are drawn from a conditional distribution, conditioned on a specific seed description. However, the seed description is not the only valid representation that aligns with its intended meaning. With all valid descriptions and codes forming a joint space, codes drawn from the conditional distribution would lead to an underrepresentation of the full description-code space. As such, we propose Gibbs Fine-Tuning (GiFT), a novel self-training method inspired by Gibbs sampling. GiFT allows self-generated data to be drawn from the marginal distribution of the joint space, thereby mitigating the biases inherent in conditional sampling. We provide a theoretical analysis demonstrating the potential benefits of fine-tuning LLMs with code derived from the marginal distribution. Furthermore, we propose a perplexity-based code selection method to mitigate the imbalanced long-tail distribution of the self-generated codes. Empirical evaluation of two LLMs across four datasets demonstrates that GiFT achieves superior performance, particularly on more challenging benchmarks.
- Abstract(参考訳): 合成データを用いた大規模言語モデル(LLM)のトレーニングは、コード生成において一般的なプラクティスである。
LLMは自己生成された正しいコードスニペットに対して反復的にトレーニングされる。
この場合、自己生成コードは、特定のシード記述に基づいて条件分布から引き出される。
しかし、シード記述はその意図した意味と一致する唯一の有効な表現ではない。
すべての有効な記述や符号が合同空間を形成しているため、条件分布から引き出された符号は完全な記述符号空間の表現不足につながる。
そこで我々は,Gibbs Fine-Tuning (GiFT)を提案する。
GiFTは、ジョイント空間の限界分布から自己生成データを引き出すことができるので、条件付きサンプリングに固有のバイアスを軽減できる。
限界分布から派生したコードを用いた微調整LDMの潜在的な利点を理論的に示す。
さらに、自己生成符号の不均衡な長テール分布を緩和するパープレキシティに基づく符号選択法を提案する。
4つのデータセットにまたがる2つのLLMの実証的な評価は、GiFTが優れたパフォーマンス、特により困難なベンチマークを達成していることを示している。
関連論文リスト
- OpenCoder: The Open Cookbook for Top-Tier Code Large Language Models [70.72097493954067]
コードのための大規模言語モデル(LLM)は、コード生成、推論タスク、エージェントシステムなど、さまざまな領域で必須になっている。
オープンアクセスのコード LLM はプロプライエタリなモデルの性能レベルに近づきつつあるが、高品質なコード LLM は依然として限られている。
トップクラスのコードLLMであるOpenCoderは、主要なモデルに匹敵するパフォーマンスを達成するだけでなく、研究コミュニティの"オープンクックブック"としても機能します。
論文 参考訳(メタデータ) (2024-11-07T17:47:25Z) - CodecLM: Aligning Language Models with Tailored Synthetic Data [51.59223474427153]
命令追従能力のための高品質な合成データを適応的に生成するフレームワークであるCodecLMを紹介する。
まず、ターゲットの指示分布をキャプチャするために、オンザフライで生成された簡潔なキーワードであるメタデータにシード命令をエンコードする。
また、デコード中に自己論理とコントラストフィルタを導入し、データ効率の良いサンプルを調整する。
論文 参考訳(メタデータ) (2024-04-08T21:15:36Z) - Symmetric Equilibrium Learning of VAEs [56.56929742714685]
可変オートエンコーダ(VAE)をデコーダ-エンコーダペアとみなし,データ空間内の分布を潜在空間内の分布にマッピングする。
本研究では,エンコーダとデコーダに対して対称なナッシュ均衡学習手法を提案し,データと潜伏分布の両方がサンプリングによってのみアクセス可能な状況下でのVAEの学習を可能にする。
論文 参考訳(メタデータ) (2023-07-19T10:27:34Z) - Coarse-Tuning Models of Code with Reinforcement Learning Feedback [0.0]
コード上で事前訓練されたLarge Language Models (LLM) が、プログラム合成の主流のアプローチとして登場した。
コードの品質を評価する接地関数からのフィードバックを用いて、強化学習により事前学習したLLMをさらに訓練するRCCFを提案する。
論文 参考訳(メタデータ) (2023-05-25T22:09:08Z) - Self-Conditioned Generative Adversarial Networks for Image Editing [61.50205580051405]
Generative Adversarial Networks (GAN) はバイアスの影響を受けやすい。
我々は、このバイアスが公平性だけでなく、分布のコアから逸脱する際の潜在トラバース編集手法の崩壊に重要な役割を果たしていると論じる。
論文 参考訳(メタデータ) (2022-02-08T18:08:24Z) - S2cGAN: Semi-Supervised Training of Conditional GANs with Fewer Labels [1.3764085113103222]
条件付きGAN(cGAN)は、ユーザ定義入力に出力を条件付けすることで生成プロセスを制御するメカニズムを提供する。
スパースラベルを用いて条件付きマッピングを学習するcGANの半教師付きトレーニングフレームワークを提案する。
提案手法の有効性を,複数のデータセットと異なる条件付きタスクで示す。
論文 参考訳(メタデータ) (2020-10-23T19:13:44Z) - Improving Generative Adversarial Networks with Local Coordinate Coding [150.24880482480455]
GAN(Generative Adversarial Network)は、事前定義された事前分布から現実的なデータを生成することに成功している。
実際には、意味情報はデータから学んだ潜在的な分布によって表現される。
ローカル座標符号化(LCC)を用いたLCCGANモデルを提案する。
論文 参考訳(メタデータ) (2020-07-28T09:17:50Z) - Self-Supervised Bernoulli Autoencoders for Semi-Supervised Hashing [1.8899300124593648]
本稿では,変分オートエンコーダに基づくハッシュ手法のロバスト性と,監督の欠如について検討する。
本稿では,モデルがラベル分布予測を用いて一対の目的を実現する新しい監視手法を提案する。
実験の結果,いずれの手法もハッシュコードの品質を大幅に向上させることができることがわかった。
論文 参考訳(メタデータ) (2020-07-17T07:47:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。