論文の概要: Learning Semantic Program Embeddings with Graph Interval Neural Network
- arxiv url: http://arxiv.org/abs/2005.09997v2
- Date: Wed, 27 May 2020 02:11:25 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-02 00:49:07.296574
- Title: Learning Semantic Program Embeddings with Graph Interval Neural Network
- Title(参考訳): グラフインターバルニューラルネットワークを用いたセマンティックプログラム埋め込み学習
- Authors: Yu Wang, Fengjuan Gao, Linzhang Wang, Ke Wang
- Abstract要約: 我々は,既存のGNNの弱点に対処するため,グラフインターバルニューラルネットワーク(GINN)と呼ばれる新しいグラフニューラルネットワークを提案する。
GINNはモデル学習を支援するために設計された抽象手法を用いて得られたグラフ表現から一般化する。
Javaコードのnullポインタ参照バグをキャッチするために、GINNに基づいたニューラルバグ検出装置を作成しました。
- 参考スコア(独自算出の注目度): 7.747173589929493
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Learning distributed representations of source code has been a challenging
task for machine learning models. Earlier works treated programs as text so
that natural language methods can be readily applied. Unfortunately, such
approaches do not capitalize on the rich structural information possessed by
source code. Of late, Graph Neural Network (GNN) was proposed to learn
embeddings of programs from their graph representations. Due to the homogeneous
and expensive message-passing procedure, GNN can suffer from precision issues,
especially when dealing with programs rendered into large graphs. In this
paper, we present a new graph neural architecture, called Graph Interval Neural
Network (GINN), to tackle the weaknesses of the existing GNN. Unlike the
standard GNN, GINN generalizes from a curated graph representation obtained
through an abstraction method designed to aid models to learn. In particular,
GINN focuses exclusively on intervals for mining the feature representation of
a program, furthermore, GINN operates on a hierarchy of intervals for scaling
the learning to large graphs. We evaluate GINN for two popular downstream
applications: variable misuse prediction and method name prediction. Results
show in both cases GINN outperforms the state-of-the-art models by a
comfortable margin. We have also created a neural bug detector based on GINN to
catch null pointer deference bugs in Java code. While learning from the same
9,000 methods extracted from 64 projects, GINN-based bug detector significantly
outperforms GNN-based bug detector on 13 unseen test projects. Next, we deploy
our trained GINN-based bug detector and Facebook Infer to scan the codebase of
20 highly starred projects on GitHub. Through our manual inspection, we confirm
38 bugs out of 102 warnings raised by GINN-based bug detector compared to 34
bugs out of 129 warnings for Facebook Infer.
- Abstract(参考訳): ソースコードの分散表現を学ぶことは、機械学習モデルにとって難しい課題である。
初期の作品は、自然言語メソッドが容易に適用できるように、プログラムをテキストとして扱いました。
残念ながら、そのようなアプローチはソースコードが持つ豊富な構造情報を活かさない。
最近では、グラフ表現からプログラムの埋め込みを学ぶためにグラフニューラルネットワーク(GNN)が提案されている。
均一で高価なメッセージパス処理により、GNNは特に大きなグラフに描画されたプログラムを扱う際に、精度の問題に悩まされる。
本稿では,既存のGNNの弱点に対処するため,グラフインターバルニューラルネットワーク(GINN)と呼ばれる新しいグラフニューラルネットワークを提案する。
標準のGNNとは異なり、GINNはモデル学習を支援するために設計された抽象手法を用いて得られたグラフ表現から一般化する。
特に、GINNはプログラムの特徴表現をマイニングするためのインターバルのみに重点を置いており、さらに、GINNは学習を大きなグラフにスケールするためのインターバル階層を運用している。
我々は、変数誤用予測とメソッド名予測の2つの人気下流アプリケーションに対してGINNを評価する。
どちらのケースにおいても、GINNは最先端のモデルよりも快適なマージンで優れています。
Javaコードのnullポインタ参照バグをキャッチするために,GINNに基づいたニューラルバグ検出機能も開発した。
64のプロジェクトから抽出された9,000のメソッドから学習しながら、ginnベースのバグ検出器は、13のテストプロジェクトでgnnベースのバグ検出器を大きく上回っている。
次に、トレーニングされたGINNベースのバグ検出ツールとFacebook Inferをデプロイして、GitHub上の20の高スタープロジェクトのコードベースをスキャンします。
手動の検査によって、ginnベースのバグ検出器によって引き起こされた102の警告のうち、38のバグを確認しました。
関連論文リスト
- Graph Structure Prompt Learning: A Novel Methodology to Improve Performance of Graph Neural Networks [13.655670509818144]
グラフネットワーク(GNN)のトレーニングを強化するための新しいグラフ構造Prompt Learning法(GPL)を提案する。
GPLはタスク非依存のグラフ構造損失を利用して、GNNが下流タスクを同時に解決しながら固有のグラフ特性を学習することを奨励している。
11の実世界のデータセットの実験では、ニューラルネットワークによってトレーニングされた後、GNNはノード分類、グラフ分類、エッジタスクにおいて、元のパフォーマンスを大幅に上回った。
論文 参考訳(メタデータ) (2024-07-16T03:59:18Z) - LazyGNN: Large-Scale Graph Neural Networks via Lazy Propagation [51.552170474958736]
グラフ表現学習においてより効率的なモデルであるLazyGNNを実現するために,より深いモデルではなく,より浅いモデルによってグラフの長距離依存性をキャプチャすることを提案する。
LazyGNNは、ミニバッチのLazyGNNの開発を通じてさらに加速するために、既存のスケーラブルなアプローチ(サンプリング方法など)と互換性がある。
総合的な実験は、大規模なベンチマークで優れた予測性能とスケーラビリティを示す。
論文 参考訳(メタデータ) (2023-02-03T02:33:07Z) - Geodesic Graph Neural Network for Efficient Graph Representation
Learning [34.047527874184134]
我々はGeodesic GNN(GDGNN)と呼ばれる効率的なGNNフレームワークを提案する。
ラベル付けなしでノード間の条件付き関係をモデルに注入する。
ジオデシック表現を前提としたGDGNNは、通常のGNNよりもはるかにリッチな構造情報を持つノード、リンク、グラフ表現を生成することができる。
論文 参考訳(メタデータ) (2022-10-06T02:02:35Z) - GARNET: Reduced-Rank Topology Learning for Robust and Scalable Graph
Neural Networks [15.448462928073635]
グラフニューラルネットワーク(GNN)は、非ユークリッドデータでの学習を含むさまざまなアプリケーションにますます導入されている。
近年の研究では、GNNはグラフ敵攻撃に弱いことが示されている。
本稿では,GNNモデルの対角的ロバスト性を高めるため,スケーラブルなスペクトル法であるGARNETを提案する。
論文 参考訳(メタデータ) (2022-01-30T06:32:44Z) - Customizing Graph Neural Networks using Path Reweighting [23.698877985105312]
経路再重み付きカスタムグラフニューラルネットワーク(略してCustomGNN)という新しいGNNソリューションを提案する。
具体的には、提案したCustomGNNは、特定の下流タスクのハイレベルなセマンティクスを自動的に学習し、意味論的に関連するパスをハイライトし、グラフ内のタスク非関連ノイズをフィルタリングする。
ノード分類タスクの実験では、CustomGNNは3つの標準グラフデータセットと4つの大きなグラフデータセットに対して最先端の精度を達成する。
論文 参考訳(メタデータ) (2021-06-21T05:38:26Z) - Combining Label Propagation and Simple Models Out-performs Graph Neural
Networks [52.121819834353865]
多くの標準的なトランスダクティブノード分類ベンチマークでは、最先端のGNNの性能を超えたり、一致させることができる。
これをC&S(Correct and Smooth)と呼ぶ。
我々のアプローチは、様々なベンチマークで最先端のGNNの性能を上回るか、ほぼ一致している。
論文 参考訳(メタデータ) (2020-10-27T02:10:52Z) - Learning to Execute Programs with Instruction Pointer Attention Graph
Neural Networks [55.98291376393561]
グラフニューラルネットワーク(GNN)は、ソフトウェアエンジニアリングタスクを学習するための強力なツールとして登場した。
リカレントニューラルネットワーク(RNN)は、長いシーケンシャルな推論の連鎖に適しているが、プログラム構造を自然に組み込んでいるわけではない。
本稿では,新しいGNNアーキテクチャ,IPA-GNN(Instruction Pointer Attention Graph Neural Networks)を導入する。
論文 参考訳(メタデータ) (2020-10-23T19:12:30Z) - Distance Encoding: Design Provably More Powerful Neural Networks for
Graph Representation Learning [63.97983530843762]
グラフニューラルネットワーク(GNN)はグラフ表現学習において大きな成功を収めている。
GNNは、実際には非常に異なるグラフ部分構造に対して同一の表現を生成する。
より強力なGNNは、最近高階試験を模倣して提案され、基礎となるグラフ構造を疎結合にできないため、非効率である。
本稿では,グラフ表現学習の新たなクラスとして距離分解(DE)を提案する。
論文 参考訳(メタデータ) (2020-08-31T23:15:40Z) - Scaling Graph Neural Networks with Approximate PageRank [64.92311737049054]
GNNにおける情報拡散の効率的な近似を利用したPPRGoモデルを提案する。
高速であることに加えて、PPRGoは本質的にスケーラブルであり、業界設定で見られるような大規模なデータセットに対して、自明に並列化することができる。
このグラフのすべてのノードに対するPPRGoのトレーニングとラベルの予測には1台のマシンで2分未満で、同じグラフ上の他のベースラインをはるかに上回ります。
論文 参考訳(メタデータ) (2020-07-03T09:30:07Z) - XGNN: Towards Model-Level Explanations of Graph Neural Networks [113.51160387804484]
グラフニューラルネットワーク(GNN)は、隣の情報を集約して組み合わせることでノードの特徴を学習する。
GNNはブラックボックスとして扱われ、人間の知的な説明が欠けている。
我々はモデルレベルでGNNを解釈する新しい手法 XGNN を提案する。
論文 参考訳(メタデータ) (2020-06-03T23:52:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。