論文の概要: On the Generalizability of Neural Program Models with respect to
Semantic-Preserving Program Transformations
- arxiv url: http://arxiv.org/abs/2008.01566v3
- Date: Thu, 18 Mar 2021 07:35:13 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-04 07:20:07.606498
- Title: On the Generalizability of Neural Program Models with respect to
Semantic-Preserving Program Transformations
- Title(参考訳): 意味保存型プログラム変換に関するニューラルプログラムモデルの一般化可能性について
- Authors: Md Rafiqul Islam Rabin, Nghi D. Q. Bui, Ke Wang, Yijun Yu, Lingxiao
Jiang, Mohammad Amin Alipour
- Abstract要約: 意味保存変換に対するニューラルプログラムモデルの一般化性を評価する。
コードには3つの異なるサイズのJavaデータセットと3つの最先端ニューラルネットワークモデルを使用します。
本結果は,抽象構文木のみに基づくニューラルプログラムモデルよりも,プログラム内のデータおよび制御依存性に基づくニューラルプログラムモデルの方が一般化可能であることを示唆している。
- 参考スコア(独自算出の注目度): 25.96895574298886
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With the prevalence of publicly available source code repositories to train
deep neural network models, neural program models can do well in source code
analysis tasks such as predicting method names in given programs that cannot be
easily done by traditional program analysis techniques. Although such neural
program models have been tested on various existing datasets, the extent to
which they generalize to unforeseen source code is largely unknown. Since it is
very challenging to test neural program models on all unforeseen programs, in
this paper, we propose to evaluate the generalizability of neural program
models with respect to semantic-preserving transformations: a generalizable
neural program model should perform equally well on programs that are of the
same semantics but of different lexical appearances and syntactical structures.
We compare the results of various neural program models for the method name
prediction task on programs before and after automated semantic-preserving
transformations. We use three Java datasets of different sizes and three
state-of-the-art neural network models for code, namely code2vec, code2seq, and
GGNN, to build nine such neural program models for evaluation. Our results show
that even with small semantically preserving changes to the programs, these
neural program models often fail to generalize their performance. Our results
also suggest that neural program models based on data and control dependencies
in programs generalize better than neural program models based only on abstract
syntax trees. On the positive side, we observe that as the size of the training
dataset grows and diversifies the generalizability of correct predictions
produced by the neural program models can be improved too. Our results on the
generalizability of neural program models provide insights to measure their
limitations and provide a stepping stone for their improvement.
- Abstract(参考訳): ディープニューラルネットワークモデルをトレーニングするための公開ソースコードリポジトリが普及しているため、ニューラルプログラムモデルは、従来のプログラム分析技術では不可能な、与えられたプログラムのメソッド名を予測するなどのソースコード解析タスクでうまく機能する。
このようなニューラルプログラムモデルは、さまざまな既存のデータセットでテストされてきたが、予測できないソースコードに一般化する範囲は、ほとんど知られていない。
本稿では,神経プログラムモデルの汎用性を,意味保存変換に関して評価することを提案する。 一般化可能な神経プログラムモデルは,同じ意味を持つが,語彙的外観や構文構造が異なるプログラムに対して,等しく機能するべきである。
自動意味保存変換の前後のプログラムにおけるメソッド名予測タスクに対する様々なニューラルプログラムモデルの結果を比較した。
異なるサイズの3つのJavaデータセットと、コードのための最先端ニューラルネットワークモデル、すなわちcode2vec、code2seq、GGNNを使用して、評価のための9つのニューラルネットワークモデルを構築します。
その結果,プログラムのセマンティックな変化が小さい場合でも,これらのニューラルプログラムモデルは性能の一般化に失敗することが多いことがわかった。
また,プログラム内のデータと制御依存に基づくニューラルプログラムモデルは,抽象構文木のみに基づくニューラルプログラムモデルよりも一般化することが示唆された。
ポジティブな面では、トレーニングデータセットのサイズが大きくなるにつれて、神経プログラムモデルによって生成された正しい予測の一般化可能性も向上できると観察する。
ニューラルプログラムモデルの一般化可能性に関する結果は,その限界を測定するための洞察を与え,その改善のための足場を提供する。
関連論文リスト
- Towards Scalable and Versatile Weight Space Learning [51.78426981947659]
本稿では,重み空間学習におけるSANEアプローチを紹介する。
ニューラルネットワーク重みのサブセットの逐次処理に向けて,超表現の概念を拡張した。
論文 参考訳(メタデータ) (2024-06-14T13:12:07Z) - Graph Neural Networks for Learning Equivariant Representations of Neural Networks [55.04145324152541]
本稿では,ニューラルネットワークをパラメータの計算グラフとして表現することを提案する。
我々のアプローチは、ニューラルネットワークグラフを多種多様なアーキテクチャでエンコードする単一モデルを可能にする。
本稿では,暗黙的ニューラル表現の分類や編集など,幅広いタスクにおける本手法の有効性を示す。
論文 参考訳(メタデータ) (2024-03-18T18:01:01Z) - Mechanistic Neural Networks for Scientific Machine Learning [58.99592521721158]
我々は、科学における機械学習応用のためのニューラルネットワーク設計であるメカニスティックニューラルネットワークを提案する。
新しいメカニスティックブロックを標準アーキテクチャに組み込んで、微分方程式を表現として明示的に学習する。
我々のアプローチの中心は、線形プログラムを解くために線形ODEを解く技術に着想を得た、新しい線形計画解法(NeuRLP)である。
論文 参考訳(メタデータ) (2024-02-20T15:23:24Z) - A Spectral Theory of Neural Prediction and Alignment [8.65717258105897]
我々は、回帰からモデルと対象のスペクトル特性への一般化誤差を関連づける最近の理論的枠組みを用いる。
我々は、視覚的皮質活動を予測するディープニューラルネットワークを多数テストし、回帰によって測定された低ニューラルネットワーク予測誤差をもたらす複数のタイプのジオメトリーが存在することを示す。
論文 参考訳(メタデータ) (2023-09-22T12:24:06Z) - Dependency-based Mixture Language Models [53.152011258252315]
依存性に基づく混合言語モデルを紹介する。
より詳しくは、依存関係モデリングの新たな目的により、まずニューラルネットワークモデルを訓練する。
次に、前回の依存性モデリング確率分布と自己意図を混合することにより、次の確率を定式化する。
論文 参考訳(メタデータ) (2022-03-19T06:28:30Z) - Deep Reinforcement Learning Models Predict Visual Responses in the
Brain: A Preliminary Result [1.0323063834827415]
強化学習を用いてニューラルネットワークモデルをトレーニングし、3Dコンピュータゲームをプレイします。
これらの強化学習モデルは、初期視覚領域において、神経応答予測精度のスコアを得る。
対照的に、教師付きニューラルネットワークモデルでは、より高い視覚領域において、より優れた神経応答予測が得られる。
論文 参考訳(メタデータ) (2021-06-18T13:10:06Z) - BF++: a language for general-purpose program synthesis [0.483420384410068]
強化学習(RL)に基づく技術決定システムのほとんどの状態は、データ駆動型ブラックボックスニューラルモデルである。
我々は,部分可観測マルコフ決定過程におけるエージェントの自動プログラミング用に設計された新しいプログラミング言語bf++を提案する。
論文 参考訳(メタデータ) (2021-01-23T19:44:44Z) - The Neural Coding Framework for Learning Generative Models [91.0357317238509]
本稿では,脳の予測処理理論に触発された新しい神経生成モデルを提案する。
同様に、私たちの生成モデルにおける人工ニューロンは、隣接するニューロンが何をするかを予測し、予測が現実にどの程度一致するかに基づいてパラメータを調整します。
論文 参考訳(メタデータ) (2020-12-07T01:20:38Z) - Learning to learn generative programs with Memoised Wake-Sleep [52.439550543743536]
本研究では,ニューラルネットワークをシンボル型データ生成プログラムの前提として,推論と先行の両方に使用するニューロシンボリック生成モデルのクラスについて検討する。
そこで本研究では,Wake Sleepを拡張したMemoised Wake-Sleep(MWS)アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-07-06T23:51:03Z) - Evaluation of Generalizability of Neural Program Analyzers under
Semantic-Preserving Transformations [1.3477892615179483]
プログラムのセマンティックな等価な7つの変換を用いて,2つの一般的なニューラルプログラム解析器の一般化性を評価する。
その結果、多くの場合、ニューラルプログラムアナライザは、しばしば無視可能なテキスト差のあるプログラムに対して、うまく一般化できないことに注意した。
論文 参考訳(メタデータ) (2020-04-15T19:55:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。