論文の概要: Framelet Message Passing
- arxiv url: http://arxiv.org/abs/2302.14806v1
- Date: Tue, 28 Feb 2023 17:56:19 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-01 15:02:46.863310
- Title: Framelet Message Passing
- Title(参考訳): Frameletメッセージパッシング
- Authors: Xinliang Liu, Bingxin Zhou, Chutian Zhang, Yu Guang Wang
- Abstract要約: フレームレットメッセージパッシング(Framelet Message Passing)と呼ばれる,マルチスケールのフレームレット変換に基づく新しいメッセージパッシングを提案する。
ノードメッセージ更新時に複数のホップから隣ノードのフレームレット表現を統合する。
また,ニューラルODEソルバを用いた連続メッセージパッシングを提案する。
- 参考スコア(独自算出の注目度): 2.479720095773358
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Graph neural networks (GNNs) have achieved champion in wide applications.
Neural message passing is a typical key module for feature propagation by
aggregating neighboring features. In this work, we propose a new message
passing based on multiscale framelet transforms, called Framelet Message
Passing. Different from traditional spatial methods, it integrates framelet
representation of neighbor nodes from multiple hops away in node message
update. We also propose a continuous message passing using neural ODE solvers.
It turns both discrete and continuous cases can provably achieve network
stability and limit oversmoothing due to the multiscale property of framelets.
Numerical experiments on real graph datasets show that the continuous version
of the framelet message passing significantly outperforms existing methods when
learning heterogeneous graphs and achieves state-of-the-art performance on
classic node classification tasks with low computational costs.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)は、幅広いアプリケーションでチャンピオンを獲得している。
ニューラルメッセージパッシング(Neural message passing)は、隣り合う機能の集約による機能の伝搬のための典型的なキーモジュールである。
本研究では,マルチスケールのフレームレット変換に基づく新しいメッセージパッシングを提案する。
従来の空間的手法とは異なり、複数のホップから隣接ノードのフレームレット表現をノードメッセージ更新に統合する。
また,ニューラルODEソルバを用いた連続メッセージパッシングを提案する。
離散ケースと連続ケースの両方がネットワークの安定性を実現し、フレームレットのマルチスケール性によってオーバースムーシングを制限できる。
実グラフデータセットの数値実験により、フレームレットメッセージパッシングの連続バージョンは、異種グラフを学習する際に既存の手法よりも著しく優れており、計算コストの低い古典ノード分類タスクにおける最先端のパフォーマンスを実現する。
関連論文リスト
- Towards Dynamic Message Passing on Graphs [104.06474765596687]
グラフニューラルネットワーク(GNN)のための新しい動的メッセージパッシング機構を提案する。
グラフノードと学習可能な擬似ノードを、測定可能な空間関係を持つ共通空間に投影する。
ノードが空間内を移動すると、その進化する関係は動的メッセージパッシングプロセスのための柔軟な経路構築を促進する。
論文 参考訳(メタデータ) (2024-10-31T07:20:40Z) - A Pure Transformer Pretraining Framework on Text-attributed Graphs [50.833130854272774]
グラフ構造を先行として扱うことで,特徴中心の事前学習の視点を導入する。
我々のフレームワークであるGraph Sequence Pretraining with Transformer (GSPT)はランダムウォークを通してノードコンテキストをサンプリングする。
GSPTはノード分類とリンク予測の両方に容易に適応でき、様々なデータセットで有望な経験的成功を示す。
論文 参考訳(メタデータ) (2024-06-19T22:30:08Z) - Multi-Scene Generalized Trajectory Global Graph Solver with Composite
Nodes for Multiple Object Tracking [61.69892497726235]
複合ノードメッセージパッシングネットワーク(CoNo-Link)は、超長いフレーム情報を関連付けるためのフレームワークである。
オブジェクトをノードとして扱う従来の方法に加えて、このネットワークは情報インタラクションのためのノードとしてオブジェクトトラジェクトリを革新的に扱う。
我々のモデルは、合成ノードを追加することで、より長い時間スケールでより良い予測を学習することができる。
論文 参考訳(メタデータ) (2023-12-14T14:00:30Z) - Half-Hop: A graph upsampling approach for slowing down message passing [31.26080679115766]
メッセージパッシングニューラルネットワークにおける学習を改善するためのフレームワークを提案する。
我々のアプローチは基本的に、各エッジに"スローノード"を追加することで、元のグラフのエッジをサンプリングする。
提案手法は入力グラフのみを修正し,既存のモデルでプラグイン・アンド・プレイしやすくする。
論文 参考訳(メタデータ) (2023-08-17T22:24:15Z) - Temporal Aggregation and Propagation Graph Neural Networks for Dynamic
Representation [67.26422477327179]
時間グラフは連続時間を通してノード間の動的相互作用を示す。
本研究では,周辺地域全体と時間的グラフ畳み込みの新たな手法を提案する。
提案するTAP-GNNは,予測性能とオンライン推論遅延の両面で,既存の時間グラフ手法よりも優れた性能を示す。
論文 参考訳(メタデータ) (2023-04-15T08:17:18Z) - Dynamic Graph Message Passing Networks for Visual Recognition [112.49513303433606]
長距離依存のモデリングは、コンピュータビジョンにおけるシーン理解タスクに不可欠である。
完全連結グラフはそのようなモデリングには有益であるが、計算オーバーヘッドは禁じられている。
本稿では,計算複雑性を大幅に低減する動的グラフメッセージパッシングネットワークを提案する。
論文 参考訳(メタデータ) (2022-09-20T14:41:37Z) - VQ-GNN: A Universal Framework to Scale up Graph Neural Networks using
Vector Quantization [70.8567058758375]
VQ-GNNは、Vector Quantization(VQ)を使用して、パフォーマンスを損なうことなく、畳み込みベースのGNNをスケールアップするための普遍的なフレームワークである。
我々のフレームワークは,グラフ畳み込み行列の低ランク版と組み合わせた量子化表現を用いて,GNNの「隣の爆発」問題を回避する。
論文 参考訳(メタデータ) (2021-10-27T11:48:50Z) - DPGNN: Dual-Perception Graph Neural Network for Representation Learning [21.432960458513826]
グラフニューラルネットワーク(GNN)は近年注目を集め、グラフベースのタスクの多くで顕著なパフォーマンスを実現している。
既存のGNNの多くは、メッセージパッシングパラダイムに基づいて、1つのトポロジ空間内の近隣情報を反復的に集約している。
本稿では,マルチステップメッセージソースの特性,ノード固有のメッセージ出力,マルチスペースメッセージインタラクションに基づく新しいメッセージパッシングパラダイムを提案する。
論文 参考訳(メタデータ) (2021-10-15T05:47:26Z) - GMLP: Building Scalable and Flexible Graph Neural Networks with
Feature-Message Passing [16.683813354137254]
Graph Multi-layer Perceptron (GMLP)は、ニューラルアップデートとメッセージパッシングを分離する。
11のベンチマークデータセットに対して広範な評価を行う。
論文 参考訳(メタデータ) (2021-04-20T10:19:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。