論文の概要: On the Embeddings of Variables in Recurrent Neural Networks for Source
Code
- arxiv url: http://arxiv.org/abs/2010.12693v2
- Date: Tue, 27 Apr 2021 16:05:27 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-03 22:09:29.737497
- Title: On the Embeddings of Variables in Recurrent Neural Networks for Source
Code
- Title(参考訳): ソースコードに対するリカレントニューラルネットワークにおける変数の埋め込みについて
- Authors: Nadezhda Chirkova
- Abstract要約: 変数の学習セマンティクスを調整するリカレントメカニズムである動的埋め込みを開発する。
提案した動的埋め込みを用いることで、繰り返しニューラルネットワークの性能が大幅に向上することを示す。
- 参考スコア(独自算出の注目度): 11.858514933732305
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Source code processing heavily relies on the methods widely used in natural
language processing (NLP), but involves specifics that need to be taken into
account to achieve higher quality. An example of this specificity is that the
semantics of a variable is defined not only by its name but also by the
contexts in which the variable occurs. In this work, we develop dynamic
embeddings, a recurrent mechanism that adjusts the learned semantics of the
variable when it obtains more information about the variable's role in the
program. We show that using the proposed dynamic embeddings significantly
improves the performance of the recurrent neural network, in code completion
and bug fixing tasks.
- Abstract(参考訳): ソースコード処理は自然言語処理(NLP)で広く使われている手法に大きく依存するが、高い品質を達成するために考慮する必要がある特定の要素が関係している。
この特異性の例として、変数の意味論は名前だけでなく、変数が発生するコンテキストによっても定義される。
本研究では,プログラムにおける変数の役割についてより多くの情報を得る際に,学習した変数の意味を調節する動的埋め込みを開発する。
提案する動的組込みは,コード補完やバグ修正タスクにおいて,再帰ニューラルネットワークの性能を大幅に向上させる。
関連論文リスト
- Enhancing Source Code Representations for Deep Learning with Static
Analysis [10.222207222039048]
本稿では,静的解析とバグレポートやデザインパターンなどのコンテキストを,ディープラーニングモデルのためのソースコード表現に統合する方法について検討する。
我々はASTNN(Abstract Syntax Tree-based Neural Network)法を用いて,バグレポートやデザインパターンから得られたコンテキスト情報を追加して拡張する。
提案手法はソースコードの表現と処理を改善し,タスク性能を向上させる。
論文 参考訳(メタデータ) (2024-02-14T20:17:04Z) - Incrementally-Computable Neural Networks: Efficient Inference for
Dynamic Inputs [75.40636935415601]
ディープラーニングは、センサーデータやユーザ入力などの動的入力を効率的に処理するという課題に直面していることが多い。
インクリメンタルな計算アプローチを採用し、入力の変化に応じて計算を再利用する。
本稿では,この手法をトランスフォーマーアーキテクチャに適用し,修正入力の分数に比例した複雑性を持つ効率的なインクリメンタル推論アルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-07-27T16:30:27Z) - Permutation Equivariant Neural Functionals [92.0667671999604]
この研究は、他のニューラルネットワークの重みや勾配を処理できるニューラルネットワークの設計を研究する。
隠れた層状ニューロンには固有の順序がないため, 深いフィードフォワードネットワークの重みに生じる置換対称性に着目する。
実験の結果, 置換同変ニューラル関数は多種多様なタスクに対して有効であることがわかった。
論文 参考訳(メタデータ) (2023-02-27T18:52:38Z) - Consensus Function from an $L_p^q-$norm Regularization Term for its Use
as Adaptive Activation Functions in Neural Networks [0.0]
本稿では,学習過程においてその形状に適応する暗黙的,パラメトリックな非線形活性化関数の定義と利用を提案する。
この事実は、ネットワーク内で最適化するパラメータの空間を増大させるが、柔軟性を高め、ニューラルネットワークの概念を一般化する。
予備的な結果は、この種の適応的アクティベーション関数によるニューラルネットワークの使用は、回帰や分類の例における誤差を減少させることを示している。
論文 参考訳(メタデータ) (2022-06-30T04:48:14Z) - Convolutional Dictionary Learning by End-To-End Training of Iterative
Neural Networks [3.6280929178575994]
本研究では,教師付きおよび物理情報を用いたオンライン畳み込み辞書学習アルゴリズムとして利用可能な INN を構築する。
提案手法は,従来の2つのモデルに依存しない訓練法よりも改善され,深い INN と比較して競争結果が得られることを示す。
論文 参考訳(メタデータ) (2022-06-09T12:15:38Z) - Adaptive Discrete Communication Bottlenecks with Dynamic Vector
Quantization [76.68866368409216]
入力に条件付けされた離散化の厳密度を動的に選択する学習を提案する。
コミュニケーションボトルネックの動的に変化する厳密さは、視覚的推論や強化学習タスクにおけるモデル性能を向上させることができることを示す。
論文 参考訳(メタデータ) (2022-02-02T23:54:26Z) - Context Decoupling Augmentation for Weakly Supervised Semantic
Segmentation [53.49821324597837]
微調整されたセマンティックセグメンテーションは、近年深く研究されている困難な問題です。
本稿では、オブジェクトが現れる固有のコンテキストを変更する Context Decoupling Augmentation (CDA) メソッドを紹介します。
提案手法の有効性を検証するため, PASCAL VOC 2012データセットにいくつかの代替ネットワークアーキテクチャを用いた広範な実験を行い, CDAが様々なWSSS手法を新たな最先端技術に拡張できることを実証した。
論文 参考訳(メタデータ) (2021-03-02T15:05:09Z) - Explainable AI for ML jet taggers using expert variables and layerwise
relevance propagation [0.0]
ジェットサブ構造タグ付け技術のディープニューラルネットワーク(DNN)から、意思決定情報を抽出し、理解するためのフレームワークが提示される。
一般的な方法は、入力を拡大する専門家変数("eXpert AUGmented"変数またはXAUG変数)を提供し、ネットワークにレイヤワイド伝搬(LRP)を適用することである。
ネットワークをXAUG変数を追加・追加せずに比較した結果,XAUG変数は動作の解釈に利用でき,低レベル特徴と組み合わせて識別能力を高めることができ,場合によっては分類器の動作を完全に捉えることができる。
論文 参考訳(メタデータ) (2020-11-26T20:36:08Z) - Learning to Learn Variational Semantic Memory [132.39737669936125]
我々はメタラーニングに変分セマンティックメモリを導入し、数ショットラーニングのための長期的知識を得る。
セマンティックメモリはスクラッチから成長し、経験したタスクから情報を吸収することで徐々に統合される。
アドレスコンテンツから潜在記憶変数の変動推論としてメモリリコールを定式化する。
論文 参考訳(メタデータ) (2020-10-20T15:05:26Z) - Improve Variational Autoencoder for Text Generationwith Discrete Latent
Bottleneck [52.08901549360262]
変分オートエンコーダ(VAE)は、エンドツーエンドの表現学習において必須のツールである。
VAEは強い自己回帰デコーダで潜伏変数を無視する傾向がある。
よりコンパクトな潜在空間において暗黙的な潜在特徴マッチングを強制する原理的アプローチを提案する。
論文 参考訳(メタデータ) (2020-04-22T14:41:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。