論文の概要: Coder Reviewer Reranking for Code Generation
- arxiv url: http://arxiv.org/abs/2211.16490v1
- Date: Tue, 29 Nov 2022 18:56:33 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-30 15:28:53.637604
- Title: Coder Reviewer Reranking for Code Generation
- Title(参考訳): Coder Reviewerがコード生成に昇格
- Authors: Tianyi Zhang, Tao Yu, Tatsunori B. Hashimoto, Mike Lewis, Wen-tau Yih,
Daniel Fried, Sida I. Wang
- Abstract要約: 本稿では,コード言語モデルから多様なプログラムを抽出し,モデル確率で再ランク付けする手法として,Coder-Reviewerの再ランク付けを提案する。
実験の結果、Coder-Reviewerのリランクは、Coderモデルのみのリランクよりも一貫性と大幅な改善をもたらすことが示された。
Coder-Reviewerのリランクは、プロンプトによって実装が容易で、異なるプログラミング言語に一般化でき、既定のハイパーパラメータとうまく機能する。
- 参考スコア(独自算出の注目度): 56.80381384717
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Sampling diverse programs from a code language model and reranking with model
likelihood is a popular method for code generation but it is prone to
preferring degenerate solutions. Inspired by collaborative programming, we
propose Coder-Reviewer reranking. We augment Coder language models from past
work, which generate programs given language instructions, with Reviewer
models, which evaluate the likelihood of the instruction given the generated
programs. We perform an extensive study across six datasets with eight models
from three model families. Experimental results show that Coder-Reviewer
reranking leads to consistent and significant improvement (up to 17% absolute
accuracy gain) over reranking with the Coder model only. When combined with
executability filtering, Coder-Reviewer reranking can often outperform the
minimum Bayes risk method. Coder-Reviewer reranking is easy to implement by
prompting, can generalize to different programming languages, and works well
with off-the-shelf hyperparameters.
- Abstract(参考訳): コード言語モデルから多様なプログラムをサンプリングし、モデルの可能性を再評価することは、コード生成の一般的な方法であるが、退化したソリューションを好む傾向にある。
協調プログラミングにインスパイアされた我々は,Coder-Reviewerの再評価を提案する。
我々は,プログラムに与えられた命令を生成するコーダ言語モデルと,生成されたプログラムが与えた命令の可能性を評価するレビュアーモデルの拡張を行った。
3つのモデルファミリーの8つのモデルを持つ6つのデータセットにわたる広範な研究を行う。
実験結果から、Coder-Reviewerのリランクは、Coderモデルのみのリランクよりも一貫性と大幅な改善(最大17%の精度向上)をもたらすことが示された。
実行可能性フィルタリングと組み合わせると、coder-reviewer再ランク付けが最小ベイズリスクメソッドを上回ることが少なくない。
Coder-Reviewerのリランクは、プロンプトによって実装が容易で、異なるプログラミング言語に一般化でき、既製のハイパーパラメータとうまく機能する。
関連論文リスト
- SparseCoder: Identifier-Aware Sparse Transformer for File-Level Code
Summarization [51.67317895094664]
本稿では,大規模なソースコードプロジェクトの理解と維持を支援するファイルレベルのコード要約について検討する。
長いコードシーケンスを効果的に処理するための識別子対応スパース変換器であるSparseCoderを提案する。
論文 参考訳(メタデータ) (2024-01-26T09:23:27Z) - Rewriting the Code: A Simple Method for Large Language Model Augmented Code Search [7.822427053078387]
Generation-Augmented Retrieval (GAR)フレームワークは、クエリを拡張するための例のコードスニペットを生成する。
本稿では、forスタイルの正規化内でコード(ReCo)を書き換える、シンプルで効果的な方法を提案する。
コードスタイル類似度(Code Style similarity)は、コード内のスタイリスティック類似度を定量化するための最初のメートル法である。
論文 参考訳(メタデータ) (2024-01-09T12:12:50Z) - Refactoring Programs Using Large Language Models with Few-Shot Examples [20.48175387745551]
ユーザ記述型Pythonプログラムのより複雑なバージョンを提案するために,大規模言語モデル (LLM) である GPT-3.5 を用いることを実演する。
95.68%のプログラムは、それぞれ10の候補を発生させ、結果として平均的なサイクロマティックな複雑さが17.35%減少することを示した。
論文 参考訳(メタデータ) (2023-11-20T11:43:45Z) - PanGu-Coder2: Boosting Large Language Models for Code with Ranking
Feedback [5.459517921633247]
本稿では,コード生成のための事前学習された大規模言語モデルを効果的かつ効率的に向上するRRTF(Rank Responses toaligned Test&Teacher Feedback)フレームワークを提案する。
このフレームワークでは、OpenAI HumanEvalベンチマークで62.20%パス@1を達成したPanGu-Coder2を紹介します。
論文 参考訳(メタデータ) (2023-07-27T15:28:29Z) - Enriching Source Code with Contextual Data for Code Completion Models:
An Empirical Study [4.438873396405334]
コンテクストデータを用いてコードを理解しやすくすることで、コード補完作業のための事前学習された言語モデルの性能が向上するかどうかを問う。
コメントについては、マルチラインコメントの存在下でモデルの性能が向上していることが分かる。
論文 参考訳(メタデータ) (2023-04-24T17:09:14Z) - Stochastic Code Generation [1.7205106391379026]
コード生成のために事前訓練された大きな言語モデルは、高品質のショートコードを生成するが、コヒーレントな長いコードを生成するのにしばしば苦労する。
この問題は、長文生成のための言語モデリングにも見られる。
本研究では,この手法をコード生成に適用してコヒーレンスを向上できるかを検討する。
論文 参考訳(メタデータ) (2023-04-14T00:01:05Z) - CodeExp: Explanatory Code Document Generation [94.43677536210465]
既存のコード・トゥ・テキスト生成モデルは、コードの高レベルな要約のみを生成する。
我々は、コードのための高品質な説明記述の基準を特定するために、人間の研究を行う。
タスクのための多段階微調整戦略とベースラインモデルを提案する。
論文 参考訳(メタデータ) (2022-11-25T18:05:44Z) - Fault-Aware Neural Code Rankers [64.41888054066861]
サンプルプログラムの正しさを予測できる故障認識型ニューラルネットワークローダを提案する。
我々のフォールト・アウェア・ローダは、様々なコード生成モデルのpass@1精度を大幅に向上させることができる。
論文 参考訳(メタデータ) (2022-06-04T22:01:05Z) - Twist Decoding: Diverse Generators Guide Each Other [116.20780037268801]
様々なモデルの恩恵を受けながらテキストを生成するシンプルで一般的な推論アルゴリズムであるTwist decodingを導入する。
我々の方法は、語彙、トークン化、あるいは生成順序が共有されていると仮定しない。
論文 参考訳(メタデータ) (2022-05-19T01:27:53Z) - InCoder: A Generative Model for Code Infilling and Synthesis [88.46061996766348]
InCoderは、プログラム合成(左から右への生成)と編集(埋め込み)が可能な統合生成モデルである。
InCoderは、許可されたコードの大きなコーパスからコードファイルを生成するように訓練されている。
私たちのモデルは、ゼロショットコードの埋め込みを直接実行できる最初の生成モデルです。
論文 参考訳(メタデータ) (2022-04-12T16:25:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。