論文の概要: SoGCN: Second-Order Graph Convolutional Networks
- arxiv url: http://arxiv.org/abs/2110.07141v1
- Date: Thu, 14 Oct 2021 03:56:34 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-15 14:44:13.686117
- Title: SoGCN: Second-Order Graph Convolutional Networks
- Title(参考訳): SoGCN: 2次グラフ畳み込みネットワーク
- Authors: Peihao Wang, Yuehao Wang, Hua Lin, Jianbo Shi
- Abstract要約: 多層二階グラフ畳み込み(SoGC)は任意の係数でスペクトルフィルタを表現するのに十分であることを示す。
We build our Second-Order Graph Convolutional Networks (SoGCN) with SoGC and design a synthetic dataset to verify its filter fitabilities。
- 参考スコア(独自算出の注目度): 20.840026487716404
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph Convolutional Networks (GCN) with multi-hop aggregation is more
expressive than one-hop GCN but suffers from higher model complexity. Finding
the shortest aggregation range that achieves comparable expressiveness and
minimizes this side effect remains an open question. We answer this question by
showing that multi-layer second-order graph convolution (SoGC) is sufficient to
attain the ability of expressing polynomial spectral filters with arbitrary
coefficients. Compared to models with one-hop aggregation, multi-hop
propagation, and jump connections, SoGC possesses filter representational
completeness while being lightweight, efficient, and easy to implement.
Thereby, we suggest that SoGC is a simple design capable of forming the basic
building block of GCNs, playing the same role as $3 \times 3$ kernels in CNNs.
We build our Second-Order Graph Convolutional Networks (SoGCN) with SoGC and
design a synthetic dataset to verify its filter fitting capability to validate
these points. For real-world tasks, we present the state-of-the-art performance
of SoGCN on the benchmark of node classification, graph classification, and
graph regression datasets.
- Abstract(参考訳): マルチホップアグリゲーションを持つグラフ畳み込みネットワーク(GCN)は、1ホップGCNよりも表現力が高いが、モデルの複雑さに悩まされている。
同等の表現性を達成し、この副作用を最小限にする最短集約範囲を見つけることは、未解決の問題である。
本稿では,多層二階グラフ畳み込み(sogc)により任意の係数の多項式スペクトルフィルタを表現できることを示すことで,この疑問に答える。
単一ホップアグリゲーション、マルチホップ伝搬、ジャンプ接続を持つモデルと比較すると、sogcは軽量で効率的で実装が容易なフィルタ表現完全性を持っている。
そこで我々は,GCNの基本構築ブロックを形成するためのシンプルな設計であり,CNNの3ドル3ドルカーネルと同じ役割を果たすことを示唆した。
我々は2次グラフ畳み込みネットワーク(sogcn)をsoccで構築し,それらの点を検証するフィルタ適合性を検証するための合成データセットを設計する。
実世界のタスクに対しては,ノード分類,グラフ分類,グラフ回帰データセットのベンチマーク上で,SoGCNの最先端性能を示す。
関連論文リスト
- Scalable Graph Compressed Convolutions [68.85227170390864]
ユークリッド畳み込みのための入力グラフのキャリブレーションに置換を適用する微分可能手法を提案する。
グラフキャリブレーションに基づいて,階層型グラフ表現学習のための圧縮畳み込みネットワーク(CoCN)を提案する。
論文 参考訳(メタデータ) (2024-07-26T03:14:13Z) - Graph Transformers for Large Graphs [57.19338459218758]
この研究は、モデルの特徴と重要な設計制約を識別することに焦点を当てた、単一の大規模グラフでの表現学習を前進させる。
この研究の重要な革新は、局所的な注意機構と組み合わされた高速な近傍サンプリング技術の作成である。
ogbn-products と snap-patents の3倍の高速化と16.8%の性能向上を報告し、ogbn-100M で LargeGT を5.9% の性能改善で拡張した。
論文 参考訳(メタデータ) (2023-12-18T11:19:23Z) - Learnable Graph Convolutional Attention Networks [7.465923786151107]
グラフニューラルネットワーク(GNN)は、ノード間のメッセージ交換を、隣接するすべてのノードの特徴を均一に(関連する)集約するか、あるいは特徴に一様でないスコア(動作)を適用することによって計算する。
最近の研究は、それぞれGCNとGATのGNNアーキテクチャの長所と短所を示している。
本稿では、注目スコアを計算するために、畳み込みに依存するグラフ畳み込みアテンション層(CAT)を紹介する。
以上の結果から,L-CATはネットワーク上の異なるGNN層を効率よく結合し,競合する手法よりも広い範囲で優れた性能を発揮することが示された。
論文 参考訳(メタデータ) (2022-11-21T21:08:58Z) - Simplified Graph Convolution with Heterophily [25.7577503312319]
単純グラフ畳み込み(SGC)は異種グラフ(非同種グラフ)には有効でないことを示す。
本稿では、同好性グラフ構造と異好性グラフ構造の両方に適応できる適応的単純グラフ畳み込み(ASGC)を提案する。
論文 参考訳(メタデータ) (2022-02-08T20:52:08Z) - AnchorGAE: General Data Clustering via $O(n)$ Bipartite Graph
Convolution [79.44066256794187]
我々は、グラフ畳み込みネットワーク(GCN)を構築するために使用される生成グラフモデルを導入することにより、グラフに非グラフデータセットを変換する方法を示す。
アンカーによって構築された二部グラフは、データの背後にある高レベル情報を利用するために動的に更新される。
理論的には、単純な更新が退化につながることを証明し、それに従って特定の戦略が設計される。
論文 参考訳(メタデータ) (2021-11-12T07:08:13Z) - VQ-GNN: A Universal Framework to Scale up Graph Neural Networks using
Vector Quantization [70.8567058758375]
VQ-GNNは、Vector Quantization(VQ)を使用して、パフォーマンスを損なうことなく、畳み込みベースのGNNをスケールアップするための普遍的なフレームワークである。
我々のフレームワークは,グラフ畳み込み行列の低ランク版と組み合わせた量子化表現を用いて,GNNの「隣の爆発」問題を回避する。
論文 参考訳(メタデータ) (2021-10-27T11:48:50Z) - Towards Efficient Graph Convolutional Networks for Point Cloud Handling [181.59146413326056]
ポイントクラウド上で学習するためのグラフ畳み込みネットワーク(GCN)の計算効率の向上を目指します。
一連の実験により、最適化されたネットワークは計算複雑性を減らし、メモリ消費を減らし、推論速度を加速した。
論文 参考訳(メタデータ) (2021-04-12T17:59:16Z) - Representative Graph Neural Network [113.67254049938629]
いくつかの代表的特徴を動的にサンプリングするために、代表グラフ層を提示する。
すべての位置からメッセージを伝搬する代わりに、RepGraphレイヤは1つのノードの応答を数個の代表ノードで計算します。
論文 参考訳(メタデータ) (2020-08-12T09:46:52Z) - RGCF: Refined Graph Convolution Collaborative Filtering with concise and
expressive embedding [42.46797662323393]
我々はRefined Graph Convolution Collaborative Filtering(RGCF)というGCNベースの新しい協調フィルタリングモデルを開発した。
RGCFはグラフ内の暗黙の高次連結性を捉えることができ、結果として得られるベクトル表現はより表現力が高い。
我々は3つの公開百万規模のデータセットに対して広範な実験を行い、我々のRGCFが最先端のモデルを大幅に上回っていることを実証した。
論文 参考訳(メタデータ) (2020-07-07T12:26:10Z) - Connecting Graph Convolutional Networks and Graph-Regularized PCA [23.592657600394215]
GCNモデルのグラフ畳み込み演算子は、もともとスペクトルグラフ畳み込みの局所化一階近似から動機付けられたものである。
グラフ畳み込みとグラフ正規化PCA(GPCA)のテキスト数学的接続を確立する。
論文 参考訳(メタデータ) (2020-06-22T14:27:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。