論文の概要: LongCoder: A Long-Range Pre-trained Language Model for Code Completion
- arxiv url: http://arxiv.org/abs/2306.14893v1
- Date: Mon, 26 Jun 2023 17:59:24 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-27 12:08:31.981608
- Title: LongCoder: A Long-Range Pre-trained Language Model for Code Completion
- Title(参考訳): LongCoder: コード補完のための長距離事前訓練型言語モデル
- Authors: Daya Guo and Canwen Xu and Nan Duan and Jian Yin and Julian McAuley
- Abstract要約: LongCoderは自己アテンションにスライディングウィンドウ機構を採用し、グローバルアクセス可能なトークンを2種類導入している。
ブリッジトークンは入力シーケンス全体を通して挿入され、ローカル情報を集約し、グローバルな相互作用を促進する。
メモリトークンは、後で呼び出され、記憶する必要がある重要なステートメントをハイライトするために含まれます。
- 参考スコア(独自算出の注目度): 56.813974784131624
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we introduce a new task for code completion that focuses on
handling long code input and propose a sparse Transformer model, called
LongCoder, to address this task. LongCoder employs a sliding window mechanism
for self-attention and introduces two types of globally accessible tokens -
bridge tokens and memory tokens - to improve performance and efficiency. Bridge
tokens are inserted throughout the input sequence to aggregate local
information and facilitate global interaction, while memory tokens are included
to highlight important statements that may be invoked later and need to be
memorized, such as package imports and definitions of classes, functions, or
structures. We conduct experiments on a newly constructed dataset that contains
longer code context and the publicly available CodeXGLUE benchmark.
Experimental results demonstrate that LongCoder achieves superior performance
on code completion tasks compared to previous models while maintaining
comparable efficiency in terms of computational resources during inference. All
the codes and data are available at https://github.com/microsoft/CodeBERT.
- Abstract(参考訳): 本稿では,長いコード入力を扱うことに焦点を当てたコード補完のための新しいタスクを紹介し,このタスクに対処するためにLongCoderと呼ばれるスパーストランスフォーマーモデルを提案する。
longcoderはセルフアテンションにスライディングウィンドウ機構を採用し、グローバルにアクセス可能なtokensbridgeトークンとメモリトークンの2つのタイプを導入している。
ブリッジトークンは入力シーケンス全体に挿入され、ローカル情報を集約し、グローバルなインタラクションを促進する。一方、メモリトークンは後で呼び出され、パッケージのインポートやクラス、関数、構造などの記憶が必要な重要なステートメントをハイライトするために含まれる。
我々は、より長いコードコンテキストと利用可能なCodeXGLUEベンチマークを含む、新しく構築されたデータセットで実験を行う。
実験結果から,LongCoderは従来のモデルに比べてコード補完タスクの性能が優れており,推論時の計算資源の面では同等の効率を保っていることがわかった。
すべてのコードとデータはhttps://github.com/microsoft/CodeBERT.comで入手できる。
関連論文リスト
- SparseCoder: Identifier-Aware Sparse Transformer for File-Level Code
Summarization [51.67317895094664]
本稿では,大規模なソースコードプロジェクトの理解と維持を支援するファイルレベルのコード要約について検討する。
長いコードシーケンスを効果的に処理するための識別子対応スパース変換器であるSparseCoderを提案する。
論文 参考訳(メタデータ) (2024-01-26T09:23:27Z) - InterCode: Standardizing and Benchmarking Interactive Coding with
Execution Feedback [50.725076393314964]
標準的な強化学習環境として,インタラクティブコーディングの軽量でフレキシブルで使いやすいフレームワークであるInterCodeを紹介した。
私たちのフレームワークは、言語とプラットフォームに依存しない、自己完結型のDocker環境を使用して、安全で再現可能な実行を提供します。
我々は、異なるプロンプト戦略で構成された複数の最先端LLMを評価することにより、InterCodeの生存性をテストベッドとして示す。
論文 参考訳(メタデータ) (2023-06-26T17:59:50Z) - RepoCoder: Repository-Level Code Completion Through Iterative Retrieval
and Generation [96.75695811963242]
RepoCoderはリポジトリレベルのコード補完プロセスを合理化するフレームワークである。
類似性ベースのレトリバーと、事前訓練されたコード言語モデルが組み込まれている。
バニラ検索で拡張されたコード補完アプローチよりも一貫して優れています。
論文 参考訳(メタデータ) (2023-03-22T13:54:46Z) - ReACC: A Retrieval-Augmented Code Completion Framework [53.49707123661763]
本稿では,語彙のコピーと類似したセマンティクスを持つコード参照の両方を検索により活用する検索拡張コード補完フレームワークを提案する。
我々は,Python および Java プログラミング言語のコード補完タスクにおけるアプローチを評価し,CodeXGLUE ベンチマークで最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2022-03-15T08:25:08Z) - CLSEBERT: Contrastive Learning for Syntax Enhanced Code Pre-Trained
Model [23.947178895479464]
CLSEBERTは,構文強化符号事前学習モデルのための構築学習フレームワークである。
事前学習段階では、抽象構文木(AST)に含まれるコード構文と階層について検討する。
ひとつは抽象構文木内のノード間のエッジを予測することであり、もう一つはコードトークンの型を予測することである。
論文 参考訳(メタデータ) (2021-08-10T10:08:21Z) - InferCode: Self-Supervised Learning of Code Representations by
Predicting Subtrees [17.461451218469062]
本稿では,自己言語学習機構をソースコードモデルに適用することにより,制限を克服するinfercodeを提案する。
ASTのサブツリーは、人間のラベル付けや高価なグラフ構築のオーバーヘッドなしにコード表現をトレーニングするためのラベルとして、InferCodeで扱われる。
Code2Vec、Code2Seq、ASTNNなど、同じ下流タスクに適用される以前のコード学習技術と比較して、事前に訓練されたInferCodeモデルを使用して、より高いパフォーマンスを達成できます。
論文 参考訳(メタデータ) (2020-12-13T10:33:41Z) - GraphCodeBERT: Pre-training Code Representations with Data Flow [97.00641522327699]
本稿では,コード固有の構造を考慮したプログラミング言語の事前学習モデルであるGraphCodeBERTを提案する。
これは変数間の"where-the-value-comes-from"の関係をエンコードするコードのセマンティックレベルの構造です。
コード検索,クローン検出,コード翻訳,コード改良の4つのタスクにおいて,本モデルを評価する。
論文 参考訳(メタデータ) (2020-09-17T15:25:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。