論文の概要: SLGCN: Structure Learning Graph Convolutional Networks for Graphs under
Heterophily
- arxiv url: http://arxiv.org/abs/2105.13795v1
- Date: Fri, 28 May 2021 13:00:38 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-31 13:31:12.836352
- Title: SLGCN: Structure Learning Graph Convolutional Networks for Graphs under
Heterophily
- Title(参考訳): SLGCN: ヘテロフォリーなグラフのための構造学習グラフ畳み込みネットワーク
- Authors: Mengying Jiang, Guizhong Liu, Yuanchao Su, Xinliang Wu
- Abstract要約: 本稿では2つの側面から問題を緩和する構造学習グラフ畳み込みネットワーク(SLGCN)を提案する。
具体的には、全ての類似ノードから特徴表現を効率的に集約するために、アンカーを用いた効率的なスペクトルクラスタリング(ESC-ANCH)を設計する。
幅広いベンチマークデータセットの実験結果は、提案されたSLGCNが、最先端のGNNよりも優れていることを示している。
- 参考スコア(独自算出の注目度): 5.619890178124606
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The performances of GNNs for representation learning on the graph-structured
data are generally limited to the issue that existing GNNs rely on one
assumption, i.e., the original graph structure is reliable. However, since
real-world graphs is inevitably noisy or incomplete, this assumption is often
unrealistic. In this paper, we propose a structure learning graph convolutional
networks (SLGCNs) to alleviate the issue from two aspects, and the proposed
approach is applied to node classification. Specifically, the first is node
features, we design a efficient-spectral-clustering with anchors (ESC-ANCH)
approach to efficiently aggregate feature representationsfrom all similar
nodes, no matter how far away they are. The second is edges, our approach
generates a re-connected adjacency matrix according to the similarities between
nodes and optimized for the downstream prediction task so as to make up for the
shortcomings of original adjacency matrix, considering that the original
adjacency matrix usually provides misleading information for aggregation step
of GCN in the graphs with low level of homophily. Both the re-connected
adjacency matrix and original adjacency matrix are applied to SLGCNs to
aggregate feature representations from nearby nodes. Thus, SLGCNs can be
applied to graphs with various levels of homophily. Experimental results on a
wide range of benchmark datasets illustrate that the proposed SLGCNs outperform
the stat-of-the-art GNN counterparts.
- Abstract(参考訳): グラフ構造化データ上での表現学習におけるGNNの性能は、既存のGNNが1つの仮定に依存する問題、すなわち、元のグラフ構造が信頼できる問題に限られる。
しかし、実世界のグラフは必然的にノイズや不完全であるため、この仮定はしばしば非現実的である。
本稿では,この問題を2つの側面から解決するための構造学習グラフ畳み込みネットワーク(slgcns)を提案し,提案手法をノード分類に適用する。
具体的には,全ての類似ノードから特徴表現を効率的に集約する,アンカーを用いた効率的なスペクトルクラスタリング(ESC-ANCH)を設計する。
二つ目はエッジであり、我々のアプローチはノード間の類似性に応じて再接続された隣接行列を生成し、元の隣接行列の欠点を補うために下流予測タスクに最適化する。
re-connected adjacency matrix と original adjacency matrix の両方を slgcns に適用し、近傍ノードから特徴表現を集約する。
したがって、SLGCNは様々なレベルのホモフィリーを持つグラフに適用できる。
幅広いベンチマークデータセットの実験結果は、提案されたSLGCNが最先端のGNNよりも優れていることを示している。
関連論文リスト
- Scalable Graph Compressed Convolutions [68.85227170390864]
ユークリッド畳み込みのための入力グラフのキャリブレーションに置換を適用する微分可能手法を提案する。
グラフキャリブレーションに基づいて,階層型グラフ表現学習のための圧縮畳み込みネットワーク(CoCN)を提案する。
論文 参考訳(メタデータ) (2024-07-26T03:14:13Z) - Self-Attention Empowered Graph Convolutional Network for Structure
Learning and Node Embedding [5.164875580197953]
グラフ構造化データの表現学習では、多くの人気のあるグラフニューラルネットワーク(GNN)が長距離依存をキャプチャできない。
本稿では,自己注意型グラフ畳み込みネットワーク(GCN-SA)と呼ばれる新しいグラフ学習フレームワークを提案する。
提案手法はノードレベルの表現学習において例外的な一般化能力を示す。
論文 参考訳(メタデータ) (2024-03-06T05:00:31Z) - DGNN: Decoupled Graph Neural Networks with Structural Consistency
between Attribute and Graph Embedding Representations [62.04558318166396]
グラフニューラルネットワーク(GNN)は、複雑な構造を持つグラフ上での表現学習の堅牢性を示す。
ノードのより包括的な埋め込み表現を得るために、Decoupled Graph Neural Networks (DGNN)と呼ばれる新しいGNNフレームワークが導入された。
複数のグラフベンチマークデータセットを用いて、ノード分類タスクにおけるDGNNの優位性を検証した。
論文 参考訳(メタデータ) (2024-01-28T06:43:13Z) - Beyond Graph Convolutional Network: An Interpretable
Regularizer-centered Optimization Framework [12.116373546916078]
グラフ畳み込みネットワーク(GCN)は、性能向上と強力な一般化により、広く注目を集めている。
本稿では,ほとんどのGCNを解釈可能な正規化器中心最適化フレームワークを提案する。
提案フレームワークでは,グラフデータからトポロジとセマンティック構造を捉えるために,二重正規化グラフ畳み込みネットワーク(dubed tsGCN)を考案した。
論文 参考訳(メタデータ) (2023-01-11T05:51:33Z) - EGRC-Net: Embedding-induced Graph Refinement Clustering Network [66.44293190793294]
埋め込みによるグラフリファインメントクラスタリングネットワーク (EGRC-Net) という新しいグラフクラスタリングネットワークを提案する。
EGRC-Netは学習した埋め込みを利用して初期グラフを適応的に洗練し、クラスタリング性能を向上させる。
提案手法はいくつかの最先端手法より一貫して優れている。
論文 参考訳(メタデータ) (2022-11-19T09:08:43Z) - ES-GNN: Generalizing Graph Neural Networks Beyond Homophily with Edge Splitting [32.69196871253339]
本稿では,学習タスクに関係のないグラフエッジを適応的に識別する新しいエッジ分割GNN(ES-GNN)フレームワークを提案する。
本稿では,ES-GNNを非交叉グラフ記述問題の解とみなすことができることを示す。
論文 参考訳(メタデータ) (2022-05-27T01:29:03Z) - A Variational Edge Partition Model for Supervised Graph Representation
Learning [51.30365677476971]
本稿では,重なり合うノード群間の相互作用を集約することで,観測されたエッジがどのように生成されるかをモデル化するグラフ生成プロセスを提案する。
それぞれのエッジを複数のコミュニティ固有の重み付きエッジの和に分割し、コミュニティ固有のGNNを定義する。
エッジを異なるコミュニティに分割するGNNベースの推論ネットワーク,これらのコミュニティ固有のGNN,およびコミュニティ固有のGNNを最終分類タスクに組み合わせたGNNベースの予測器を共同で学習するために,変分推論フレームワークを提案する。
論文 参考訳(メタデータ) (2022-02-07T14:37:50Z) - Feature Correlation Aggregation: on the Path to Better Graph Neural
Networks [37.79964911718766]
グラフニューラルネットワーク(GNN)が導入される以前、不規則なデータ、特にグラフのモデリングと解析は、ディープラーニングのアキレスのヒールであると考えられていた。
本稿では,GNNのコア操作に対して,極めて単純かつ無作為な修正を施した中央ノード置換変分関数を提案する。
モデルの具体的な性能向上は、モデルがより少ないパラメータを使用しながら、有意なマージンで過去の最先端結果を上回った場合に観察される。
論文 参考訳(メタデータ) (2021-09-20T05:04:26Z) - Node Similarity Preserving Graph Convolutional Networks [51.520749924844054]
グラフニューラルネットワーク(GNN)は、ノード近傍の情報を集約し変換することで、グラフ構造とノードの特徴を探索する。
グラフ構造を利用してノード類似性を効果的かつ効率的に保存できるSimP-GCNを提案する。
本研究は,SimP-GCNが3つの分類グラフと4つの非補助グラフを含む7つのベンチマークデータセットに対して有効であることを示す。
論文 参考訳(メタデータ) (2020-11-19T04:18:01Z) - Locality Preserving Dense Graph Convolutional Networks with Graph
Context-Aware Node Representations [19.623379678611744]
グラフ畳み込みネットワーク(GCN)はグラフデータの表現学習に広く利用されている。
多くのグラフ分類アプリケーションにおいて、GCNベースのアプローチは従来の手法よりも優れている。
グラフコンテキスト対応ノード表現を用いた局所性保存型高密度GCNを提案する。
論文 参考訳(メタデータ) (2020-10-12T02:12:27Z) - Binarized Graph Neural Network [65.20589262811677]
我々は二項化グラフニューラルネットワークを開発し、二項化ネットワークパラメータを用いてノードのバイナリ表現を学習する。
提案手法は既存のGNNベースの埋め込み手法にシームレスに統合できる。
実験により、提案された二項化グラフニューラルネットワーク、すなわちBGNは、時間と空間の両方の観点から、桁違いに効率的であることが示されている。
論文 参考訳(メタデータ) (2020-04-19T09:43:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。