論文の概要: Scalable Graph Compressed Convolutions
- arxiv url: http://arxiv.org/abs/2407.18480v2
- Date: Thu, 31 Oct 2024 04:58:09 GMT
- ステータス: 処理完了
- システム内更新日: 2024-11-08 14:50:05.102898
- Title: Scalable Graph Compressed Convolutions
- Title(参考訳): スケーラブルグラフ圧縮コンボリューション
- Authors: Junshu Sun, Shuhui Wang, Chenxue Yang, Qingming Huang,
- Abstract要約: ユークリッド畳み込みのための入力グラフのキャリブレーションに置換を適用する微分可能手法を提案する。
グラフキャリブレーションに基づいて,階層型グラフ表現学習のための圧縮畳み込みネットワーク(CoCN)を提案する。
- 参考スコア(独自算出の注目度): 68.85227170390864
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Designing effective graph neural networks (GNNs) with message passing has two fundamental challenges, i.e., determining optimal message-passing pathways and designing local aggregators. Previous methods of designing optimal pathways are limited with information loss on the input features. On the other hand, existing local aggregators generally fail to extract multi-scale features and approximate diverse operators under limited parameter scales. In contrast to these methods, Euclidean convolution has been proven as an expressive aggregator, making it a perfect candidate for GNN construction. However, the challenges of generalizing Euclidean convolution to graphs arise from the irregular structure of graphs. To bridge the gap between Euclidean space and graph topology, we propose a differentiable method that applies permutations to calibrate input graphs for Euclidean convolution. The permutations constrain all nodes in a row regardless of their input order and therefore enable the flexible generalization of Euclidean convolution to graphs. Based on the graph calibration, we propose the Compressed Convolution Network (CoCN) for hierarchical graph representation learning. CoCN follows local feature-learning and global parameter-sharing mechanisms of convolution neural networks. The whole model can be trained end-to-end, with compressed convolution applied to learn individual node features and their corresponding structure features. CoCN can further borrow successful practices from Euclidean convolution, including residual connection and inception mechanism. We validate CoCN on both node-level and graph-level benchmarks. CoCN achieves superior performance over competitive GNN baselines. Codes are available at https://github.com/sunjss/CoCN.
- Abstract(参考訳): メッセージパッシングによる効果的なグラフニューラルネットワーク(GNN)の設計には、最適なメッセージパッシング経路の決定と、局所的なアグリゲータの設計という、2つの根本的な課題がある。
従来の最適経路設計手法は入力特性の情報損失に制限される。
一方、既存の局所アグリゲータは、一般にマルチスケールの特徴を抽出できず、パラメータスケールの制限下では様々な演算子を近似する。
これらの方法とは対照的に、ユークリッドの畳み込みは表現的アグリゲータとして証明されており、GNN構築の完璧な候補となっている。
しかし、ユークリッドのグラフへの畳み込みを一般化するという課題は、グラフの不規則構造から生じる。
ユークリッド空間とグラフトポロジーのギャップを埋めるために、ユークリッド畳み込みのための入力グラフのキャリブレーションに置換を適用する微分可能な方法を提案する。
置換は入力順序に関係なく行内のすべてのノードを制約し、したがってユークリッドのグラフへの畳み込みの柔軟な一般化を可能にする。
グラフキャリブレーションに基づいて,階層型グラフ表現学習のための圧縮畳み込みネットワーク(CoCN)を提案する。
CoCNは畳み込みニューラルネットワークの局所的な特徴学習とグローバルなパラメータ共有メカニズムに従う。
モデル全体をエンドツーエンドにトレーニングし、個々のノードの特徴とそれに対応する構造の特徴を学習するために圧縮畳み込みを適用する。
CoCNは、残りの接続や開始機構を含むユークリッドの畳み込みから成功したプラクティスをさらに借りることができる。
ノードレベルのベンチマークとグラフレベルのベンチマークでCoCNを検証する。
CoCNは競合するGNNベースラインよりも優れたパフォーマンスを実現している。
コードはhttps://github.com/sunjss/CoCNで入手できる。
関連論文リスト
- L^2GC:Lorentzian Linear Graph Convolutional Networks for Node Classification [12.69417276887153]
ローレンツ線形GCNの新しいフレームワークを提案する。
グラフノードの学習した特徴を双曲空間にマッピングする。
次に、ロレンツ線形特徴変換を行い、基礎となる木のようなデータ構造をキャプチャする。
論文 参考訳(メタデータ) (2024-03-10T02:16:13Z) - T-GAE: Transferable Graph Autoencoder for Network Alignment [79.89704126746204]
T-GAEはグラフオートエンコーダフレームワークで、GNNの転送性と安定性を活用して、再トレーニングなしに効率的なネットワークアライメントを実現する。
実験の結果、T-GAEは最先端の最適化手法と最高のGNN手法を最大38.7%、50.8%で上回っていることがわかった。
論文 参考訳(メタデータ) (2023-10-05T02:58:29Z) - Learning Adaptive Neighborhoods for Graph Neural Networks [45.94778766867247]
グラフ畳み込みネットワーク(GCN)は、グラフ構造化データのエンドツーエンド学習を可能にする。
本稿では,グラフトポロジを構築する新しいエンドツーエンドの微分可能なグラフ生成器を提案する。
私たちのモジュールは、グラフ畳み込み操作を含む既存のパイプラインに簡単に統合できます。
論文 参考訳(メタデータ) (2023-07-18T08:37:25Z) - NodeFormer: A Scalable Graph Structure Learning Transformer for Node
Classification [70.51126383984555]
本稿では,任意のノード間のノード信号を効率的に伝搬する全ペアメッセージパッシング方式を提案する。
効率的な計算は、カーナライズされたGumbel-Softmax演算子によって実現される。
グラフ上のノード分類を含む様々なタスクにおいて,本手法の有望な有効性を示す実験を行った。
論文 参考訳(メタデータ) (2023-06-14T09:21:15Z) - Seq-HGNN: Learning Sequential Node Representation on Heterogeneous Graph [57.2953563124339]
本稿では,シーケンシャルノード表現,すなわちSeq-HGNNを用いた新しい異種グラフニューラルネットワークを提案する。
Heterogeneous Graph Benchmark (HGB) と Open Graph Benchmark (OGB) の4つの広く使われているデータセットについて広範な実験を行った。
論文 参考訳(メタデータ) (2023-05-18T07:27:18Z) - Deformable Graph Convolutional Networks [12.857403315970231]
グラフニューラルネットワーク(GNN)は、グラフ構造化データの表現能力を大幅に改善した。
本稿では,複数の潜在空間における畳み込みを適応的に行うDeformable Graph Convolutional Networks (Deformable GCNs)を提案する。
我々のフレームワークはノードの位置埋め込みを同時に学習し、ノード間の関係をエンドツーエンドで決定する。
論文 参考訳(メタデータ) (2021-12-29T07:55:29Z) - ACE-HGNN: Adaptive Curvature Exploration Hyperbolic Graph Neural Network [72.16255675586089]
本稿では、入力グラフと下流タスクに基づいて最適な曲率を適応的に学習する適応曲率探索ハイパーボリックグラフニューラルネットワークACE-HGNNを提案する。
複数の実世界のグラフデータセットの実験は、競争性能と優れた一般化能力を備えたモデル品質において、顕著で一貫したパフォーマンス改善を示す。
論文 参考訳(メタデータ) (2021-10-15T07:18:57Z) - Action Recognition with Kernel-based Graph Convolutional Networks [14.924672048447338]
learning graph convolutional networks(gcns)は、ディープラーニングを任意の非正規ドメインに一般化することを目的としている。
再生カーネルヒルベルト空間(RKHS)における空間グラフ畳み込みを実現する新しいGCNフレームワークを提案する。
gcnモデルの特長は、学習グラフフィルタの受容野のノードと入力グラフのノードを明示的に認識せずに畳み込みを実現する能力にも関係しています。
論文 参考訳(メタデータ) (2020-12-28T11:02:51Z) - Permutation-equivariant and Proximity-aware Graph Neural Networks with
Stochastic Message Passing [88.30867628592112]
グラフニューラルネットワーク(GNN)は、グラフ上の新たな機械学習モデルである。
置換等価性と近接認識性は、GNNにとって非常に望ましい2つの重要な特性である。
既存のGNNは、主にメッセージパッシング機構に基づいており、同時に2つの特性を保存できないことを示す。
ノードの近さを保つため,既存のGNNをノード表現で拡張する。
論文 参考訳(メタデータ) (2020-09-05T16:46:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。