論文の概要: IntelliCode Compose: Code Generation Using Transformer
- arxiv url: http://arxiv.org/abs/2005.08025v2
- Date: Thu, 29 Oct 2020 18:40:12 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-02 13:32:15.592916
- Title: IntelliCode Compose: Code Generation Using Transformer
- Title(参考訳): IntelliCode Compose: Transformerを使ったコード生成
- Authors: Alexey Svyatkovskiy, Shao Kun Deng, Shengyu Fu, Neel Sundaresan
- Abstract要約: 汎用多言語コード補完ツールであるIntelliCode Compose $-$を紹介する。
任意の型のコードトークンのシーケンスを予測でき、構文的に正しいコードの行全体を生成することができる。
IntelliCode ComposeはクラウドベースのWebサービスとしてデプロイされる。
- 参考スコア(独自算出の注目度): 7.623136583706195
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In software development through integrated development environments (IDEs),
code completion is one of the most widely used features. Nevertheless, majority
of integrated development environments only support completion of methods and
APIs, or arguments.
In this paper, we introduce IntelliCode Compose $-$ a general-purpose
multilingual code completion tool which is capable of predicting sequences of
code tokens of arbitrary types, generating up to entire lines of syntactically
correct code. It leverages state-of-the-art generative transformer model
trained on 1.2 billion lines of source code in Python, $C\#$, JavaScript and
TypeScript programming languages. IntelliCode Compose is deployed as a
cloud-based web service. It makes use of client-side tree-based caching,
efficient parallel implementation of the beam search decoder, and compute graph
optimizations to meet edit-time completion suggestion requirements in the
Visual Studio Code IDE and Azure Notebook.
Our best model yields an average edit similarity of $86.7\%$ and a perplexity
of 1.82 for Python programming language.
- Abstract(参考訳): 統合開発環境(ide)を通じたソフトウェア開発では、コード補完は最も広く使われている機能の1つです。
それでも,統合開発環境の大部分は,メソッドやAPI,あるいは引数の補完のみをサポートする。
本稿では,任意のタイプのコードトークンのシーケンスを予測し,構文的に正しいコード行全体を生成可能な汎用多言語コード補完ツールであるIntelliCode Compose $-$を紹介する。
Pythonの12億行のソースコード、$C\#$、JavaScript、TypeScriptでトレーニングされた最先端の生成変換モデルを活用する。
IntelliCode ComposeはクラウドベースのWebサービスとしてデプロイされる。
クライアントサイドのツリーベースのキャッシング、ビームサーチデコーダの効率的な並列実装、およびvisual studio code ideとazure notebookの編集時間補完提案要件を満たすためにグラフの最適化を利用する。
我々の最良のモデルは、平均編集類似度が86.7 %$で、Pythonプログラミング言語のパープリケーションが1.82である。
関連論文リスト
- Full Line Code Completion: Bringing AI to Desktop [3.5296482958373447]
JetBrainsのIntelliJ Platform用のマルチトークンコード補完機能を構築するためのアプローチについて説明する。
この機能は構文的に正しいコードのみを推奨し、ローカルで完全に動作する。
論文 参考訳(メタデータ) (2024-05-14T15:42:55Z) - Context Composing for Full Line Code Completion [0.46040036610482665]
本稿では,機能実装のコアとなるTransformerモデルに対するコンテクスト構成のアプローチについて述べる。
我々は、機能を改善するための次のステップを共有し、この分野におけるいくつかの研究面の重要性を強調します。
論文 参考訳(メタデータ) (2024-02-14T15:17:37Z) - InterCode: Standardizing and Benchmarking Interactive Coding with
Execution Feedback [50.725076393314964]
標準的な強化学習環境として,インタラクティブコーディングの軽量でフレキシブルで使いやすいフレームワークであるInterCodeを紹介した。
私たちのフレームワークは、言語とプラットフォームに依存しない、自己完結型のDocker環境を使用して、安全で再現可能な実行を提供します。
我々は、異なるプロンプト戦略で構成された複数の最先端LLMを評価することにより、InterCodeの生存性をテストベッドとして示す。
論文 参考訳(メタデータ) (2023-06-26T17:59:50Z) - Coeditor: Leveraging Contextual Changes for Multi-round Code Auto-editing [57.776971051512234]
本研究では,複数ラウンドのコードの自動編集設定について検討し,その内部の最近の変更に基づいて,コード領域への編集を予測することを目的とした。
我々のモデルであるCoeditorは、コード編集タスクに特化して設計された微調整言語モデルである。
単純化されたシングルラウンドのシングル編集タスクでは、Coeditor は GPT-3.5 と SOTA のオープンソースコード補完モデルを大幅に上回っている。
論文 参考訳(メタデータ) (2023-05-29T19:57:36Z) - CodeGeeX: A Pre-Trained Model for Code Generation with Multilingual Benchmarking on HumanEval-X [50.008474888951525]
コード生成に130億のパラメータを持つ多言語モデルであるCodeGeeXを紹介する。
CodeGeeXは、23のプログラミング言語の8500億のトークンで事前訓練されている。
論文 参考訳(メタデータ) (2023-03-30T17:34:01Z) - CodeBERTScore: Evaluating Code Generation with Pretrained Models of Code [75.08995072899594]
コード生成のための評価指標であるCodeBERTScoreを提案する。
CodeBERTScoreは生成されたコードの前に入力された自然言語をエンコードする。
CodeBERTScoreは、既存のすべての指標よりも、人間の嗜好と機能的正しさとの相関性が高いことがわかった。
論文 参考訳(メタデータ) (2023-02-10T22:12:05Z) - Tackling Long Code Search with Splitting, Encoding, and Aggregating [67.02322603435628]
長いコード検索のための新しいベースラインSEA(Split, Encode, Aggregate)を提案する。
長いコードをコードブロックに分割し、これらのブロックを埋め込みにエンコードし、それらを集約して包括的な長いコード表現を得る。
エンコーダとしてGraphCodeBERTを使用すると、SEAはコードSearchNetベンチマークでGraphCodeBERTよりも10.1%高い0.785という総合的な平均逆ランキングスコアを達成する。
論文 参考訳(メタデータ) (2022-08-24T02:27:30Z) - ReACC: A Retrieval-Augmented Code Completion Framework [53.49707123661763]
本稿では,語彙のコピーと類似したセマンティクスを持つコード参照の両方を検索により活用する検索拡張コード補完フレームワークを提案する。
我々は,Python および Java プログラミング言語のコード補完タスクにおけるアプローチを評価し,CodeXGLUE ベンチマークで最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2022-03-15T08:25:08Z) - Towards Full-line Code Completion with Neural Language Models [25.458883198815393]
単一トークンではなく,コード行全体を直接完了する可能性について論じる。
最近のニューラルネットワークモデルは、コード補完の好ましいアプローチとして採用されている。
論文 参考訳(メタデータ) (2020-09-18T03:12:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。