論文の概要: Fast and Memory-Efficient Neural Code Completion
- arxiv url: http://arxiv.org/abs/2004.13651v4
- Date: Tue, 16 Mar 2021 07:48:36 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-08 23:43:46.914606
- Title: Fast and Memory-Efficient Neural Code Completion
- Title(参考訳): 高速かつメモリ効率のよいニューラルコード補完
- Authors: Alexey Svyatkovskiy, Sebastian Lee, Anna Hadjitofi, Maik Riechert,
Juliana Franco, Miltiadis Allamanis
- Abstract要約: コード補完のためのモジュラー・ニューラル・フレームワークを提案する。これにより設計空間を探索し、異なるテクニックを評価することができる。
第2に,静的解析とグラニュラートークンエンコーディングを組み合わせたニューラルコンプリートモデルの設計を行う。
最高のニューラルリグレードモデルはRAMを6MB(以前のモデルより19倍少ない)しか消費せず、8ミリ秒で1回の完了を計算し、上位5つの提案で90%の精度を達成する。
- 参考スコア(独自算出の注目度): 14.69615254304723
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Code completion is one of the most widely used features of modern integrated
development environments (IDEs). While deep learning has made significant
progress in the statistical prediction of source code, state-of-the-art neural
network models consume hundreds of megabytes of memory, bloating the
development environment. We address this in two steps: first we present a
modular neural framework for code completion. This allows us to explore the
design space and evaluate different techniques. Second, within this framework
we design a novel reranking neural completion model that combines static
analysis with granular token encodings. The best neural reranking model
consumes just 6 MB of RAM, - 19x less than previous models - computes a single
completion in 8 ms, and achieves 90% accuracy in its top five suggestions.
- Abstract(参考訳): コード補完は、現代の統合開発環境(IDE)で最も広く使われている機能の1つである。
ディープラーニングはソースコードの統計的予測に大きな進歩を遂げているが、最先端のニューラルネットワークモデルは数百メガバイトのメモリを消費し、開発環境を肥大化させている。
まず、コード補完のためのモジュール型ニューラルフレームワークを示します。
これにより、デザインスペースを探索し、異なるテクニックを評価することができます。
第2に、このフレームワークでは、静的解析と粒度のトークンエンコーディングを組み合わせた、新しい階層的ニューラルネットワーク補完モデルを設計します。
最高のニューラルリグレードモデルはRAMを6MB(以前のモデルより19倍少ない)しか消費せず、8ミリ秒で1回の完了を計算し、上位5つの提案で90%の精度を達成する。
関連論文リスト
- RelChaNet: Neural Network Feature Selection using Relative Change Scores [0.0]
本稿では、ニューラルネットワークの入力層にニューロンのプルーニングと再成長を利用する、新しくて軽量な特徴選択アルゴリズムであるRelChaNetを紹介する。
我々の手法は一般に現在の最先端手法よりも優れており、特にMNISTデータセットの平均精度を2%向上させる。
論文 参考訳(メタデータ) (2024-10-03T09:56:39Z) - Neural-g: A Deep Learning Framework for Mixing Density Estimation [16.464806944964003]
混合(または先行)密度推定は、機械学習と統計学において重要な問題である。
本稿では,新しいニューラルネットワークを用いたモデリング手法であるNeural-$g$を提案する。
論文 参考訳(メタデータ) (2024-06-10T03:00:28Z) - NAR-Former: Neural Architecture Representation Learning towards Holistic
Attributes Prediction [37.357949900603295]
本稿では,属性の全体的推定に使用できるニューラルネットワーク表現モデルを提案する。
実験の結果,提案するフレームワークは,セルアーキテクチャとディープニューラルネットワーク全体の遅延特性と精度特性を予測できることがわかった。
論文 参考訳(メタデータ) (2022-11-15T10:15:21Z) - Towards Theoretically Inspired Neural Initialization Optimization [66.04735385415427]
我々は,ニューラルネットワークの初期状態を評価するための理論的知見を備えた,GradCosineという微分可能な量を提案する。
標準制約下でGradCosineを最大化することにより、ネットワークのトレーニングとテストの両方の性能を向上させることができることを示す。
サンプル分析から実際のバッチ設定に一般化されたNIOは、無視可能なコストで、より優れた初期化を自動で探すことができる。
論文 参考訳(メタデータ) (2022-10-12T06:49:16Z) - Variable Bitrate Neural Fields [75.24672452527795]
本稿では,特徴格子を圧縮し,メモリ消費を最大100倍に削減する辞書手法を提案する。
辞書の最適化をベクトル量子化オートデコーダ問題として定式化し、直接監督できない空間において、エンドツーエンドの離散神経表現を学習する。
論文 参考訳(メタデータ) (2022-06-15T17:58:34Z) - Neural Capacitance: A New Perspective of Neural Network Selection via
Edge Dynamics [85.31710759801705]
現在の実践は、性能予測のためのモデルトレーニングにおいて高価な計算コストを必要とする。
本稿では,学習中のシナプス接続(エッジ)上の制御ダイナミクスを解析し,ニューラルネットワーク選択のための新しいフレームワークを提案する。
我々のフレームワークは、ニューラルネットワークトレーニング中のバックプロパゲーションがシナプス接続の動的進化と等価であるという事実に基づいて構築されている。
論文 参考訳(メタデータ) (2022-01-11T20:53:15Z) - Involution: Inverting the Inherence of Convolution for Visual
Recognition [72.88582255910835]
本稿では,畳み込みの原理を逆転させることにより,深層ニューラルネットワークの新たな原子操作を提案する。
提案する畳み込み演算子は、視覚認識のための新しい世代のニューラルネットワークを構築するための基本ブロックとして利用することができる。
当社のInvolutionベースのモデルは、ResNet-50を使用した畳み込みベースラインのパフォーマンスを最大1.6%の精度、2.5%と2.4%のバウンディングボックスAP、4.7%は絶対にIoUを意味します。
論文 参考訳(メタデータ) (2021-03-10T18:40:46Z) - Differentiable Neural Architecture Learning for Efficient Neural Network
Design [31.23038136038325]
スケールド・シグモイド関数に基づく新しいemphアーキテクチャのパラメータ化を提案する。
そこで本論文では,候補ニューラルネットワークを評価することなく,ニューラルネットワークを最適化するための汎用的エファイブルニューラルネットワーク学習(DNAL)手法を提案する。
論文 参考訳(メタデータ) (2021-03-03T02:03:08Z) - The Neural Coding Framework for Learning Generative Models [91.0357317238509]
本稿では,脳の予測処理理論に触発された新しい神経生成モデルを提案する。
同様に、私たちの生成モデルにおける人工ニューロンは、隣接するニューロンが何をするかを予測し、予測が現実にどの程度一致するかに基づいてパラメータを調整します。
論文 参考訳(メタデータ) (2020-12-07T01:20:38Z) - Towards Full-line Code Completion with Neural Language Models [25.458883198815393]
単一トークンではなく,コード行全体を直接完了する可能性について論じる。
最近のニューラルネットワークモデルは、コード補完の好ましいアプローチとして採用されている。
論文 参考訳(メタデータ) (2020-09-18T03:12:13Z) - Model Fusion via Optimal Transport [64.13185244219353]
ニューラルネットワークのための階層モデル融合アルゴリズムを提案する。
これは、不均一な非i.d.データに基づいてトレーニングされたニューラルネットワーク間での"ワンショット"な知識伝達に成功していることを示す。
論文 参考訳(メタデータ) (2019-10-12T22:07:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。