論文の概要: Coder Reviewer Reranking for Code Generation
- arxiv url: http://arxiv.org/abs/2211.16490v1
- Date: Tue, 29 Nov 2022 18:56:33 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-30 15:28:53.637604
- Title: Coder Reviewer Reranking for Code Generation
- Title(参考訳): Coder Reviewerがコード生成に昇格
- Authors: Tianyi Zhang, Tao Yu, Tatsunori B. Hashimoto, Mike Lewis, Wen-tau Yih,
Daniel Fried, Sida I. Wang
- Abstract要約: 本稿では,コード言語モデルから多様なプログラムを抽出し,モデル確率で再ランク付けする手法として,Coder-Reviewerの再ランク付けを提案する。
実験の結果、Coder-Reviewerのリランクは、Coderモデルのみのリランクよりも一貫性と大幅な改善をもたらすことが示された。
Coder-Reviewerのリランクは、プロンプトによって実装が容易で、異なるプログラミング言語に一般化でき、既定のハイパーパラメータとうまく機能する。
- 参考スコア(独自算出の注目度): 56.80381384717
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Sampling diverse programs from a code language model and reranking with model
likelihood is a popular method for code generation but it is prone to
preferring degenerate solutions. Inspired by collaborative programming, we
propose Coder-Reviewer reranking. We augment Coder language models from past
work, which generate programs given language instructions, with Reviewer
models, which evaluate the likelihood of the instruction given the generated
programs. We perform an extensive study across six datasets with eight models
from three model families. Experimental results show that Coder-Reviewer
reranking leads to consistent and significant improvement (up to 17% absolute
accuracy gain) over reranking with the Coder model only. When combined with
executability filtering, Coder-Reviewer reranking can often outperform the
minimum Bayes risk method. Coder-Reviewer reranking is easy to implement by
prompting, can generalize to different programming languages, and works well
with off-the-shelf hyperparameters.
- Abstract(参考訳): コード言語モデルから多様なプログラムをサンプリングし、モデルの可能性を再評価することは、コード生成の一般的な方法であるが、退化したソリューションを好む傾向にある。
協調プログラミングにインスパイアされた我々は,Coder-Reviewerの再評価を提案する。
我々は,プログラムに与えられた命令を生成するコーダ言語モデルと,生成されたプログラムが与えた命令の可能性を評価するレビュアーモデルの拡張を行った。
3つのモデルファミリーの8つのモデルを持つ6つのデータセットにわたる広範な研究を行う。
実験結果から、Coder-Reviewerのリランクは、Coderモデルのみのリランクよりも一貫性と大幅な改善(最大17%の精度向上)をもたらすことが示された。
実行可能性フィルタリングと組み合わせると、coder-reviewer再ランク付けが最小ベイズリスクメソッドを上回ることが少なくない。
Coder-Reviewerのリランクは、プロンプトによって実装が容易で、異なるプログラミング言語に一般化でき、既製のハイパーパラメータとうまく機能する。
関連論文リスト
- RefineCoder: Iterative Improving of Large Language Models via Adaptive Critique Refinement for Code Generation [13.75248879205993]
本稿では,自己生成コードと外部批判によってモデルを洗練できる適応的批評精細化(ACR)を提案する。
ACRは、コード応答の品質を評価するためのLCM-as-a-Judgeを備えた複合スコアシステムを含む。
我々は、ACRを反復的に適用し、複数のコード生成ベンチマークで連続的な性能改善を実現するRefineCoderシリーズを開発した。
論文 参考訳(メタデータ) (2025-02-13T11:17:53Z) - GenX: Mastering Code and Test Generation with Execution Feedback [7.225594526057816]
本稿では,コード生成モデルとテスト生成モデルを同時にトレーニングする新しい手法を提案する。
テストデータとコードデータの増大のための2つの戦略と、コードとテストランキングのための新しいスコアリング機能を導入します。
その結果、我々のモデルは、テストケースやコードソリューションの数の増加で反復的にトレーニングされた場合、元のデータセットでトレーニングされたモデルよりも優れています。
論文 参考訳(メタデータ) (2024-12-18T03:18:21Z) - SparseCoder: Identifier-Aware Sparse Transformer for File-Level Code
Summarization [51.67317895094664]
本稿では,大規模なソースコードプロジェクトの理解と維持を支援するファイルレベルのコード要約について検討する。
長いコードシーケンスを効果的に処理するための識別子対応スパース変換器であるSparseCoderを提案する。
論文 参考訳(メタデータ) (2024-01-26T09:23:27Z) - Rewriting the Code: A Simple Method for Large Language Model Augmented Code Search [7.822427053078387]
Generation-Augmented Retrieval (GAR)フレームワークは、クエリを拡張するための例のコードスニペットを生成する。
本稿では、forスタイルの正規化内でコード(ReCo)を書き換える、シンプルで効果的な方法を提案する。
コードスタイル類似度(Code Style similarity)は、コード内のスタイリスティック類似度を定量化するための最初のメートル法である。
論文 参考訳(メタデータ) (2024-01-09T12:12:50Z) - Refactoring Programs Using Large Language Models with Few-Shot Examples [20.48175387745551]
ユーザ記述型Pythonプログラムのより複雑なバージョンを提案するために,大規模言語モデル (LLM) である GPT-3.5 を用いることを実演する。
95.68%のプログラムは、それぞれ10の候補を発生させ、結果として平均的なサイクロマティックな複雑さが17.35%減少することを示した。
論文 参考訳(メタデータ) (2023-11-20T11:43:45Z) - Enriching Source Code with Contextual Data for Code Completion Models:
An Empirical Study [4.438873396405334]
コンテクストデータを用いてコードを理解しやすくすることで、コード補完作業のための事前学習された言語モデルの性能が向上するかどうかを問う。
コメントについては、マルチラインコメントの存在下でモデルの性能が向上していることが分かる。
論文 参考訳(メタデータ) (2023-04-24T17:09:14Z) - CodeExp: Explanatory Code Document Generation [94.43677536210465]
既存のコード・トゥ・テキスト生成モデルは、コードの高レベルな要約のみを生成する。
我々は、コードのための高品質な説明記述の基準を特定するために、人間の研究を行う。
タスクのための多段階微調整戦略とベースラインモデルを提案する。
論文 参考訳(メタデータ) (2022-11-25T18:05:44Z) - Fault-Aware Neural Code Rankers [64.41888054066861]
サンプルプログラムの正しさを予測できる故障認識型ニューラルネットワークローダを提案する。
我々のフォールト・アウェア・ローダは、様々なコード生成モデルのpass@1精度を大幅に向上させることができる。
論文 参考訳(メタデータ) (2022-06-04T22:01:05Z) - Twist Decoding: Diverse Generators Guide Each Other [116.20780037268801]
様々なモデルの恩恵を受けながらテキストを生成するシンプルで一般的な推論アルゴリズムであるTwist decodingを導入する。
我々の方法は、語彙、トークン化、あるいは生成順序が共有されていると仮定しない。
論文 参考訳(メタデータ) (2022-05-19T01:27:53Z) - InCoder: A Generative Model for Code Infilling and Synthesis [88.46061996766348]
InCoderは、プログラム合成(左から右への生成)と編集(埋め込み)が可能な統合生成モデルである。
InCoderは、許可されたコードの大きなコーパスからコードファイルを生成するように訓練されている。
私たちのモデルは、ゼロショットコードの埋め込みを直接実行できる最初の生成モデルです。
論文 参考訳(メタデータ) (2022-04-12T16:25:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。