論文の概要: Self-Infilling Code Generation
- arxiv url: http://arxiv.org/abs/2311.17972v1
- Date: Wed, 29 Nov 2023 16:02:06 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-01 19:11:26.165735
- Title: Self-Infilling Code Generation
- Title(参考訳): 自己埋込コード生成
- Authors: Lin Zheng, Jianbo Yuan, Zhi Zhang, Hongxia Yang, Lingpeng Kong
- Abstract要約: 本稿では,入力操作を自動回帰復号化に組み込んだ汎用コード生成フレームワークを提案する。
我々のアプローチは、近年のコード言語モデルがエンフェールインフィル化を実現できるという観察に乗じている。
我々はこの特徴を利用して,非単調な生成を容易にする拡張デコードプロセスを開発する。
- 参考スコア(独自算出の注目度): 64.50898251405434
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This work introduces a general code generation framework that incorporates
infilling operations into auto-regressive decoding. Our approach capitalizes on
the observation that recent code language models with infilling capabilities
can perform \emph{self-infilling}: whereas infilling operations aim to fill in
the middle based on a predefined prefix and suffix, self-infilling sequentially
generates both such surrounding context and the infilled content. We utilize
this feature to develop an infilling-augmented decoding process that
facilitates non-monotonic generation. This approach allows for postponing the
generation of uncertain code snippets until a definitive suffix is established,
leading to improved control over the generation sequence. In addition, it
facilitates a looping mechanism, which can iteratively update and synchronize
each piece of generation in a cyclic manner. Extensive experiments are
conducted to demonstrate that our proposed decoding process is effective in
enhancing regularity and quality across several code generation benchmarks.
- Abstract(参考訳): この作業は、インフィルディング操作を自動回帰デコードに組み込む一般的なコード生成フレームワークを導入している。
提案手法は,近年のコード言語モデルにおいて,事前定義したプレフィックスと接尾辞に基づいて中央に埋めることを目的としているのに対して,自己埋め込みは周囲のコンテキストと埋め込んだコンテンツの両方を逐次生成する。
我々はこの特徴を利用して,非単調な生成を容易にする拡張デコードプロセスを開発する。
このアプローチは、確定した接尾辞が確立されるまで不確実なコードスニペットの生成を延期し、生成シーケンスの制御を改善する。
さらに、循環的な方法で各生成を反復的に更新および同期することができるループ機構を容易にする。
提案する復号処理が,複数のコード生成ベンチマークにおける正規性と品質の向上に有効であることを示すため,大規模な実験を行った。
関連論文リスト
- Speculative Diffusion Decoding: Accelerating Language Generation through Diffusion [59.17158389902231]
投機的復号化は,大規模言語モデル推論を高速化する手法として広く採用されている。
本稿では,離散拡散モデルを用いてドラフトシーケンスを生成する投機的復号法を提案する。
論文 参考訳(メタデータ) (2024-08-10T21:24:25Z) - Fast and Robust Early-Exiting Framework for Autoregressive Language
Models with Synchronized Parallel Decoding [43.659680579686544]
本稿では,浅層深度モジュールと並列デコーディングを併用したFast and Robust Early-Exitingフレームワークを提案する。
我々のフレームワークは、既存のトークンの復号処理を、以前に積み重ねられた早期発行トークンと同期させることで、より高速な推論を可能にする。
並列デコーディングにより,浅層モデルと深部モデルの両方からの予測を観測できるので,新しい適応しきい値推定器を提案する。
論文 参考訳(メタデータ) (2023-10-09T05:53:05Z) - Real-World Compositional Generalization with Disentangled
Sequence-to-Sequence Learning [81.24269148865555]
最近提案されたDunangled sequence-to-sequence model (Dangle)は、有望な一般化能力を示している。
このモデルに2つの重要な変更を加え、より不整合表現を奨励し、その計算とメモリ効率を改善する。
具体的には、各タイミングでソースキーと値を適応的に再エンコードするのではなく、表現をアンタングルし、キーを定期的に再エンコードする。
論文 参考訳(メタデータ) (2022-12-12T15:40:30Z) - Towards More Efficient Insertion Transformer with Fractional Positional
Encoding [44.45401243989363]
自動回帰ニューラルシーケンスモデルは、テキスト生成タスクで有効であることが示されている。
左から右への復号命令は、生成が並列化されるのを防ぐ。
Insertion Transformerは、単一の生成ステップで複数のトークンを出力できる魅力的な代替手段である。
論文 参考訳(メタデータ) (2021-12-12T18:38:27Z) - On Efficient Training, Controllability and Compositional Generalization
of Insertion-based Language Generators [18.98725770517241]
InsNetは挿入ベースのシーケンスモデルで、トランスフォーマーデコーダと同じくらい効率的にトレーニングできる。
InsNetのストーリー生成とCleVR-CoGENTキャプションの評価を行った。
論文 参考訳(メタデータ) (2021-02-12T11:05:02Z) - Cross-Thought for Sentence Encoder Pre-training [89.32270059777025]
Cross-Thoughtは、事前トレーニングシーケンスエンコーダに対する新しいアプローチである。
我々は、Transformerベースのシーケンスエンコーダを、多数の短いシーケンスに対してトレーニングする。
質問応答とテキストのエンコーダタスクの実験は、事前学習したエンコーダが最先端のエンコーダより優れていることを示す。
論文 参考訳(メタデータ) (2020-10-07T21:02:41Z) - Cascaded Text Generation with Markov Transformers [122.76100449018061]
ニューラルテキスト生成における2つの主要なアプローチは、シリアルビームサーチデコーディングを使用した完全自己回帰モデルと、出力依存のない並列デコーディングを使用した非自己回帰モデルである。
本稿では,境界付きコンテキストを持つ条件付きランダムフィールドを並列にデコードできることに言及し,高品質な出力を生成するための効率的なカスケードデコード手法を提案する。
このアプローチでは,5つの機械翻訳データセットの既存の手法と比較して,競争力のある精度と速度のトレードオフを示す一方で,標準的な自己回帰トレーニングからのわずかな変更しか必要としない。
論文 参考訳(メタデータ) (2020-06-01T17:52:15Z) - Neural Syntactic Preordering for Controlled Paraphrase Generation [57.5316011554622]
私たちの研究は、構文変換を使用して、ソース文をソフトに"リオーダー"し、神経パラフレージングモデルをガイドします。
まず、入力文が与えられた場合、エンコーダ・デコーダモデルを用いて、実行可能な構文再構成のセットを導出する。
次に、提案した各再構成を用いて位置埋め込みのシーケンスを生成し、最終的なエンコーダ-デコーダパラフレーズモデルが特定の順序でソース語に従属することを奨励する。
論文 参考訳(メタデータ) (2020-05-05T09:02:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。