論文の概要: Locality Preserving Dense Graph Convolutional Networks with Graph
Context-Aware Node Representations
- arxiv url: http://arxiv.org/abs/2010.05404v1
- Date: Mon, 12 Oct 2020 02:12:27 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-08 07:35:56.307689
- Title: Locality Preserving Dense Graph Convolutional Networks with Graph
Context-Aware Node Representations
- Title(参考訳): グラフコンテキスト認識ノード表現を用いた高密度グラフ畳み込みネットワークの局所性保存
- Authors: Wenfeng Liu, Maoguo Gong, Zedong Tang, A. K. Qin
- Abstract要約: グラフ畳み込みネットワーク(GCN)はグラフデータの表現学習に広く利用されている。
多くのグラフ分類アプリケーションにおいて、GCNベースのアプローチは従来の手法よりも優れている。
グラフコンテキスト対応ノード表現を用いた局所性保存型高密度GCNを提案する。
- 参考スコア(独自算出の注目度): 19.623379678611744
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph convolutional networks (GCNs) have been widely used for representation
learning on graph data, which can capture structural patterns on a graph via
specifically designed convolution and readout operations. In many graph
classification applications, GCN-based approaches have outperformed traditional
methods. However, most of the existing GCNs are inefficient to preserve local
information of graphs -- a limitation that is especially problematic for graph
classification. In this work, we propose a locality-preserving dense GCN with
graph context-aware node representations. Specifically, our proposed model
incorporates a local node feature reconstruction module to preserve initial
node features into node representations, which is realized via a simple but
effective encoder-decoder mechanism. To capture local structural patterns in
neighbourhoods representing different ranges of locality, dense connectivity is
introduced to connect each convolutional layer and its corresponding readout
with all previous convolutional layers. To enhance node representativeness, the
output of each convolutional layer is concatenated with the output of the
previous layer's readout to form a global context-aware node representation. In
addition, a self-attention module is introduced to aggregate layer-wise
representations to form the final representation. Experiments on benchmark
datasets demonstrate the superiority of the proposed model over
state-of-the-art methods in terms of classification accuracy.
- Abstract(参考訳): グラフ畳み込みネットワーク(GCN)は、グラフデータの表現学習に広く使われており、具体的に設計された畳み込みと読み出し操作によってグラフ上の構造パターンをキャプチャすることができる。
多くのグラフ分類アプリケーションでは、gcnベースのアプローチが従来の手法を上回っている。
しかし、既存のGCNのほとんどは、グラフの局所的な情報を保存するのに非効率である。
本研究では,グラフコンテキスト対応ノード表現を用いた局所性保存型高密度GCNを提案する。
具体的には、初期ノードの特徴をノード表現に保存するためのローカルノード特徴再構成モジュールを組み込み、単純だが効果的なエンコーダデコーダ機構によって実現した。
異なる範囲の局所性を示す近傍の局所構造パターンを捉えるため、各畳み込み層とそれに対応する読み出し層を従来の畳み込み層に接続するために密結合を導入する。
ノード代表性を高めるために、各畳み込み層の出力と前層の読み出しの出力とを結合して、グローバルコンテキスト認識ノード表現を形成する。
さらに、レイヤ毎の表現を集約して最終的な表現を形成するセルフアテンションモジュールが導入された。
ベンチマークデータセットの実験は、分類精度の観点から、最先端手法よりも提案モデルの方が優れていることを示す。
関連論文リスト
- Conditional Local Feature Encoding for Graph Neural Networks [14.983942698240293]
グラフニューラルネットワーク(GNN)は,グラフベースのデータから学ぶ上で大きな成功を収めている。
現在のGNNのキーとなるメカニズムはメッセージパッシングであり、ノードの機能は、その近隣から渡される情報に基づいて更新される。
本研究では,局所的特徴符号化(CLFE)を提案する。
論文 参考訳(メタデータ) (2024-05-08T01:51:19Z) - DGNN: Decoupled Graph Neural Networks with Structural Consistency
between Attribute and Graph Embedding Representations [62.04558318166396]
グラフニューラルネットワーク(GNN)は、複雑な構造を持つグラフ上での表現学習の堅牢性を示す。
ノードのより包括的な埋め込み表現を得るために、Decoupled Graph Neural Networks (DGNN)と呼ばれる新しいGNNフレームワークが導入された。
複数のグラフベンチマークデータセットを用いて、ノード分類タスクにおけるDGNNの優位性を検証した。
論文 参考訳(メタデータ) (2024-01-28T06:43:13Z) - Local Structure-aware Graph Contrastive Representation Learning [12.554113138406688]
複数のビューからノードの構造情報をモデル化するための局所構造対応グラフ比較表現学習法(LS-GCL)を提案する。
ローカルビューでは、各ターゲットノードのセマンティックサブグラフが共有GNNエンコーダに入力され、サブグラフレベルに埋め込まれたターゲットノードを取得する。
グローバルな視点では、元のグラフはノードの必要不可欠な意味情報を保存しているので、共有GNNエンコーダを利用して、グローバルなグラフレベルでターゲットノードの埋め込みを学習する。
論文 参考訳(メタデータ) (2023-08-07T03:23:46Z) - Seq-HGNN: Learning Sequential Node Representation on Heterogeneous Graph [57.2953563124339]
本稿では,シーケンシャルノード表現,すなわちSeq-HGNNを用いた新しい異種グラフニューラルネットワークを提案する。
Heterogeneous Graph Benchmark (HGB) と Open Graph Benchmark (OGB) の4つの広く使われているデータセットについて広範な実験を行った。
論文 参考訳(メタデータ) (2023-05-18T07:27:18Z) - Graph Ordering Attention Networks [22.468776559433614]
グラフニューラルネットワーク(GNN)は、グラフ構造化データに関わる多くの問題でうまく使われている。
近隣ノード間のインタラクションをキャプチャする新しいGNNコンポーネントであるグラフ順序付け注意層(GOAT)を導入する。
GOATレイヤは、複雑な情報をキャプチャするグラフメトリクスのモデリングにおけるパフォーマンスの向上を示す。
論文 参考訳(メタデータ) (2022-04-11T18:13:19Z) - A Variational Edge Partition Model for Supervised Graph Representation
Learning [51.30365677476971]
本稿では,重なり合うノード群間の相互作用を集約することで,観測されたエッジがどのように生成されるかをモデル化するグラフ生成プロセスを提案する。
それぞれのエッジを複数のコミュニティ固有の重み付きエッジの和に分割し、コミュニティ固有のGNNを定義する。
エッジを異なるコミュニティに分割するGNNベースの推論ネットワーク,これらのコミュニティ固有のGNN,およびコミュニティ固有のGNNを最終分類タスクに組み合わせたGNNベースの予測器を共同で学習するために,変分推論フレームワークを提案する。
論文 参考訳(メタデータ) (2022-02-07T14:37:50Z) - SLGCN: Structure Learning Graph Convolutional Networks for Graphs under
Heterophily [5.619890178124606]
本稿では2つの側面から問題を緩和する構造学習グラフ畳み込みネットワーク(SLGCN)を提案する。
具体的には、全ての類似ノードから特徴表現を効率的に集約するために、アンカーを用いた効率的なスペクトルクラスタリング(ESC-ANCH)を設計する。
幅広いベンチマークデータセットの実験結果は、提案されたSLGCNが、最先端のGNNよりも優れていることを示している。
論文 参考訳(メタデータ) (2021-05-28T13:00:38Z) - Non-Recursive Graph Convolutional Networks [33.459371861932574]
非再帰グラフ畳み込みネットワーク(NRGCN)と呼ばれる新しいアーキテクチャを提案し、GCNのトレーニング効率と学習パフォーマンスの両方を改善します。
NRGCNは、内部層凝集と層非依存サンプリングに基づいて、各ノードの隣人のホップを表す。
このようにして、各ノードは、隣人の各ホップから独立して抽出された情報を連結することで直接表現することができる。
論文 参考訳(メタデータ) (2021-05-09T08:12:18Z) - Node Similarity Preserving Graph Convolutional Networks [51.520749924844054]
グラフニューラルネットワーク(GNN)は、ノード近傍の情報を集約し変換することで、グラフ構造とノードの特徴を探索する。
グラフ構造を利用してノード類似性を効果的かつ効率的に保存できるSimP-GCNを提案する。
本研究は,SimP-GCNが3つの分類グラフと4つの非補助グラフを含む7つのベンチマークデータセットに対して有効であることを示す。
論文 参考訳(メタデータ) (2020-11-19T04:18:01Z) - Multi-Level Graph Convolutional Network with Automatic Graph Learning
for Hyperspectral Image Classification [63.56018768401328]
HSI分類のための自動グラフ学習法(MGCN-AGL)を用いたマルチレベルグラフ畳み込みネットワーク(GCN)を提案する。
空間的に隣接する領域における重要度を特徴付けるために注意機構を利用することで、最も関連性の高い情報を適応的に組み込んで意思決定を行うことができる。
MGCN-AGLは局所的に生成した表現表現に基づいて画像領域間の長距離依存性を符号化する。
論文 参考訳(メタデータ) (2020-09-19T09:26:20Z) - CatGCN: Graph Convolutional Networks with Categorical Node Features [99.555850712725]
CatGCNはグラフ学習に適したノード機能である。
エンドツーエンドでCatGCNを訓練し、半教師付きノード分類でそれを実証する。
論文 参考訳(メタデータ) (2020-09-11T09:25:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。