論文の概要: Distance and Hop-wise Structures Encoding Enhanced Graph Attention
Networks
- arxiv url: http://arxiv.org/abs/2112.02868v1
- Date: Mon, 6 Dec 2021 08:45:38 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-08 01:58:54.550380
- Title: Distance and Hop-wise Structures Encoding Enhanced Graph Attention
Networks
- Title(参考訳): 拡張グラフ注意ネットワークを符号化する距離とホップワイド構造
- Authors: Zhiguo Huang, Xiaowei Chen, Bojuan Wang
- Abstract要約: 構造,距離,位置,空間的特徴を注入することで,GNNの性能を著しく向上させることができることを示す。
まず、ホップ構造情報を抽出し、距離分布情報を計算し、ノード固有の特徴を収集し、それらを同じベクトル空間に埋め込み、それらを加算する。
実験の結果、DHSEGATは競争力を発揮することが示された。
- 参考スコア(独自算出の注目度): 3.2872586139884623
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Numerous works have proven that existing neighbor-averaging Graph Neural
Networks cannot efficiently catch structure features, and many works show that
injecting structure, distance, position or spatial features can significantly
improve performance of GNNs, however, injecting overall structure and distance
into GNNs is an intuitive but remaining untouched idea. In this work, we shed
light on the direction. We first extracting hop-wise structure information and
compute distance distributional information, gathering with node's intrinsic
features, embedding them into same vector space and then adding them up. The
derived embedding vectors are then fed into GATs(like GAT, AGDN) and then
Correct and Smooth, experiments show that the DHSEGATs achieve competitive
result. The code is available at https://github.com/hzg0601/DHSEGATs.
- Abstract(参考訳): 既存のグラフニューラルネットワークは構造的特徴を効率的にキャッチできないことが証明されており、構造、距離、位置、空間的特徴の注入はGNNの性能を著しく向上させることができるが、全体の構造と距離をGNNに注入することは直感的であるが、未修正のアイデアである。
この作業では、方向を光を当てました。
まず,ホップ方向の構造情報を抽出して距離分布情報を計算し,ノード固有の特徴を収集し,同じベクトル空間に埋め込み,それを付加する。
導出された埋め込みベクトルは、GAT(GAT、AGDN)に供給され、それからCorrectとSmoothの実験により、DHSEGATが競合する結果を得ることを示した。
コードはhttps://github.com/hzg0601/DHSEGATsで入手できる。
関連論文リスト
- Spatio-Spectral Graph Neural Networks [50.277959544420455]
比スペクトルグラフネットワーク(S$2$GNN)を提案する。
S$2$GNNは空間的およびスペクトル的にパラメータ化されたグラフフィルタを組み合わせる。
S$2$GNNsは、MPGNNsよりも厳密な近似理論誤差境界を生じる。
論文 参考訳(メタデータ) (2024-05-29T14:28:08Z) - LazyGNN: Large-Scale Graph Neural Networks via Lazy Propagation [51.552170474958736]
グラフ表現学習においてより効率的なモデルであるLazyGNNを実現するために,より深いモデルではなく,より浅いモデルによってグラフの長距離依存性をキャプチャすることを提案する。
LazyGNNは、ミニバッチのLazyGNNの開発を通じてさらに加速するために、既存のスケーラブルなアプローチ(サンプリング方法など)と互換性がある。
総合的な実験は、大規模なベンチマークで優れた予測性能とスケーラビリティを示す。
論文 参考訳(メタデータ) (2023-02-03T02:33:07Z) - Learnable Graph Convolutional Attention Networks [7.465923786151107]
グラフニューラルネットワーク(GNN)は、ノード間のメッセージ交換を、隣接するすべてのノードの特徴を均一に(関連する)集約するか、あるいは特徴に一様でないスコア(動作)を適用することによって計算する。
最近の研究は、それぞれGCNとGATのGNNアーキテクチャの長所と短所を示している。
本稿では、注目スコアを計算するために、畳み込みに依存するグラフ畳み込みアテンション層(CAT)を紹介する。
以上の結果から,L-CATはネットワーク上の異なるGNN層を効率よく結合し,競合する手法よりも広い範囲で優れた性能を発揮することが示された。
論文 参考訳(メタデータ) (2022-11-21T21:08:58Z) - Spiking GATs: Learning Graph Attentions via Spiking Neural Network [14.573383849211773]
グラフデータ表現と学習のための新しいグラフスパイキング注意ネットワーク(GSAT)を提案する。
既存のGATの自己保持機構とは対照的に,提案したGSATでは,エネルギー効率のよいSNNモジュールアーキテクチャを採用している。
いくつかのデータセットに対する実験結果は、提案したGSATモデルの有効性、エネルギー効率、ロバスト性を示している。
論文 参考訳(メタデータ) (2022-09-05T01:18:12Z) - Neo-GNNs: Neighborhood Overlap-aware Graph Neural Networks for Link
Prediction [23.545059901853815]
グラフニューラルネットワーク(GNN)は,グラフ構造データの学習に広く応用されている。
リンク予測のために隣接重畳された近傍から有用な構造特徴を学習する近傍オーバーラップ対応グラフニューラルネットワーク(Neo-GNN)を提案する。
論文 参考訳(メタデータ) (2022-06-09T01:43:49Z) - Graph Neural Networks with Learnable Structural and Positional
Representations [83.24058411666483]
任意のグラフの大きな問題は、ノードの標準位置情報の欠如である。
ノードの位置ノード(PE)を導入し、Transformerのように入力層に注入する。
両方のGNNクラスで学習可能なPEを考えると、分子データセットのパフォーマンスは2.87%から64.14%に向上する。
論文 参考訳(メタデータ) (2021-10-15T05:59:15Z) - Graph Attention Networks with Positional Embeddings [7.552100672006174]
グラフニューラルネットワーク(GNN)は、ノード分類タスクにおける芸術的パフォーマンスの現在の状態を提供するディープラーニング手法である。
本論文では,GATを位置埋め込みで強化するフレームワークであるG Graph Attentional Networks with Positional Embeddings(GAT-POS)を提案する。
GAT-POSは、強いGNNベースラインや、非ホモフィルグラフ上の最近の構造埋め込み強化GNNと比較して著しく改善されている。
論文 参考訳(メタデータ) (2021-05-09T22:13:46Z) - Distance Encoding: Design Provably More Powerful Neural Networks for
Graph Representation Learning [63.97983530843762]
グラフニューラルネットワーク(GNN)はグラフ表現学習において大きな成功を収めている。
GNNは、実際には非常に異なるグラフ部分構造に対して同一の表現を生成する。
より強力なGNNは、最近高階試験を模倣して提案され、基礎となるグラフ構造を疎結合にできないため、非効率である。
本稿では,グラフ表現学習の新たなクラスとして距離分解(DE)を提案する。
論文 参考訳(メタデータ) (2020-08-31T23:15:40Z) - Isometric Graph Neural Networks [5.306334746787569]
我々はIsometric Graph Neural Networks (IGNN) の学習手法を提案する。
IGNNは、任意のGNNアルゴリズムがノード間の距離を反映した表現を生成するために、入力表現空間と損失関数を変更する必要がある。
我々はケンドールのタウ(KT)の400%まで、一貫した実質的な改善を観察する。
論文 参考訳(メタデータ) (2020-06-16T22:51:13Z) - Towards Deeper Graph Neural Networks with Differentiable Group
Normalization [61.20639338417576]
グラフニューラルネットワーク(GNN)は、隣接するノードを集約することでノードの表現を学習する。
オーバースムーシングは、レイヤーの数が増えるにつれてGNNのパフォーマンスが制限される重要な問題のひとつです。
2つのオーバースムースなメトリクスと新しいテクニック、すなわち微分可能群正規化(DGN)を導入する。
論文 参考訳(メタデータ) (2020-06-12T07:18:02Z) - EdgeNets:Edge Varying Graph Neural Networks [179.99395949679547]
本稿では、EdgeNetの概念を通じて、最先端グラフニューラルネットワーク(GNN)を統一する一般的なフレームワークを提案する。
EdgeNetはGNNアーキテクチャであり、異なるノードが異なるパラメータを使って異なる隣人の情報を測定することができる。
これは、ノードが実行でき、既存のグラフ畳み込みニューラルネットワーク(GCNN)とグラフアテンションネットワーク(GAT)の1つの定式化の下で包含できる一般的な線形で局所的な操作である。
論文 参考訳(メタデータ) (2020-01-21T15:51:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。