論文の概要: Learning Long Range Dependencies on Graphs via Random Walks
- arxiv url: http://arxiv.org/abs/2406.03386v1
- Date: Wed, 5 Jun 2024 15:36:57 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-06 17:31:45.600630
- Title: Learning Long Range Dependencies on Graphs via Random Walks
- Title(参考訳): ランダムウォークによるグラフの長距離依存性の学習
- Authors: Dexiong Chen, Till Hendrik Schulz, Karsten Borgwardt,
- Abstract要約: この研究は、ランダムウォークとメッセージパッシングを組み合わせることによって、両方のメソッドの制限を克服する新しいアーキテクチャであるNeuralWalkerを提案する。
NeuralWalkerは19のグラフとノードベンチマークデータセットで大幅なパフォーマンス向上を実現している。
- 参考スコア(独自算出の注目度): 6.7864586321550595
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Message-passing graph neural networks (GNNs), while excelling at capturing local relationships, often struggle with long-range dependencies on graphs. Conversely, graph transformers (GTs) enable information exchange between all nodes but oversimplify the graph structure by treating them as a set of fixed-length vectors. This work proposes a novel architecture, NeuralWalker, that overcomes the limitations of both methods by combining random walks with message passing. NeuralWalker achieves this by treating random walks as sequences, allowing for the application of recent advances in sequence models in order to capture long-range dependencies within these walks. Based on this concept, we propose a framework that offers (1) more expressive graph representations through random walk sequences, (2) the ability to utilize any sequence model for capturing long-range dependencies, and (3) the flexibility by integrating various GNN and GT architectures. Our experimental evaluations demonstrate that NeuralWalker achieves significant performance improvements on 19 graph and node benchmark datasets, notably outperforming existing methods by up to 13% on the PascalVoc-SP and COCO-SP datasets. Code is available at https://github.com/BorgwardtLab/NeuralWalker.
- Abstract(参考訳): メッセージパッシンググラフニューラルネットワーク(GNN)は、局所的な関係を捉えるのに優れ、グラフ上の長距離依存に悩まされることが多い。
逆にグラフ変換器(GT)は全てのノード間の情報交換を可能にするが、固定長ベクトルの集合として扱うことによりグラフ構造を単純化する。
この研究は、ランダムウォークとメッセージパッシングを組み合わせることによって、両方のメソッドの制限を克服する新しいアーキテクチャであるNeuralWalkerを提案する。
NeuralWalkerはランダムウォークをシーケンスとして扱うことでこれを実現し、シーケンスモデルの最近の進歩を適用して、これらのウォーク内の長距離依存関係をキャプチャする。
この概念に基づき、(1)ランダムウォークシーケンスによるより表現力のあるグラフ表現、(2)長距離依存関係をキャプチャする任意のシーケンスモデルを利用する機能、(3)様々なGNNとGTアーキテクチャを統合することで柔軟性を提供するフレームワークを提案する。
実験により、NeuralWalkerは19のグラフとノードベンチマークデータセットで大幅なパフォーマンス向上を実現しており、特にPascalVoc-SPおよびCOCO-SPデータセットでは、既存のメソッドを最大13%上回っている。
コードはhttps://github.com/BorgwardtLab/NeuralWalker.comで入手できる。
関連論文リスト
- What Can We Learn from State Space Models for Machine Learning on Graphs? [11.38076877943004]
グラフ構造化データに対する状態空間モデル(SSM)の原則拡張として,グラフ状態空間畳み込み(GSSC)を提案する。
グローバルな置換同変集合アグリゲーションと分解可能なグラフカーネルを活用することにより、GSSCはSSMの3つの利点を全て保持する。
グラフ機械学習のパワフルでスケーラブルなモデルとしてのGSSCの可能性を明らかにする。
論文 参考訳(メタデータ) (2024-06-09T15:03:36Z) - Multi-Scene Generalized Trajectory Global Graph Solver with Composite
Nodes for Multiple Object Tracking [61.69892497726235]
複合ノードメッセージパッシングネットワーク(CoNo-Link)は、超長いフレーム情報を関連付けるためのフレームワークである。
オブジェクトをノードとして扱う従来の方法に加えて、このネットワークは情報インタラクションのためのノードとしてオブジェクトトラジェクトリを革新的に扱う。
我々のモデルは、合成ノードを追加することで、より長い時間スケールでより良い予測を学習することができる。
論文 参考訳(メタデータ) (2023-12-14T14:00:30Z) - Sparsity exploitation via discovering graphical models in multi-variate
time-series forecasting [1.2762298148425795]
本稿では,グラフ生成モジュールとGNN予測モジュールを含む分離学習手法を提案する。
まず、Graphical Lasso(またはGraphLASSO)を使用して、データから空間パターンを直接利用してグラフ構造を構築します。
次に、これらのグラフ構造と入力データをGCRN(Graph Convolutional Recurrent Network)に適合させて予測モデルをトレーニングする。
論文 参考訳(メタデータ) (2023-06-29T16:48:00Z) - Towards Better Dynamic Graph Learning: New Architecture and Unified
Library [29.625205125350313]
DyGFormerは、動的グラフ学習のためのTransformerベースのアーキテクチャである。
DyGLibは、標準のトレーニングパイプラインとコーディングインターフェースを備えた統一ライブラリである。
論文 参考訳(メタデータ) (2023-03-23T05:27:32Z) - GrannGAN: Graph annotation generative adversarial networks [72.66289932625742]
本稿では,高次元分布をモデル化し,グラフスケルトンと整合した複雑な関係特徴構造を持つデータの新しい例を生成することの問題点を考察する。
提案するモデルは,タスクを2つのフェーズに分割することで,各データポイントのグラフ構造に制約されたデータ特徴を生成する問題に対処する。
第一に、与えられたグラフのノードに関連する機能の分布をモデル化し、第二に、ノードのフィーチャに条件付きでエッジ機能を補完する。
論文 参考訳(メタデータ) (2022-12-01T11:49:07Z) - Dynamic Graph Message Passing Networks for Visual Recognition [112.49513303433606]
長距離依存のモデリングは、コンピュータビジョンにおけるシーン理解タスクに不可欠である。
完全連結グラフはそのようなモデリングには有益であるが、計算オーバーヘッドは禁じられている。
本稿では,計算複雑性を大幅に低減する動的グラフメッセージパッシングネットワークを提案する。
論文 参考訳(メタデータ) (2022-09-20T14:41:37Z) - Neural Graph Matching for Pre-training Graph Neural Networks [72.32801428070749]
グラフニューラルネットワーク(GNN)は、構造データのモデリングにおいて強力な能力を示している。
GMPTと呼ばれる新しいグラフマッチングベースのGNN事前学習フレームワークを提案する。
提案手法は,完全自己指導型プレトレーニングと粗粒型プレトレーニングに適用できる。
論文 参考訳(メタデータ) (2022-03-03T09:53:53Z) - Representing Long-Range Context for Graph Neural Networks with Global
Attention [37.212747564546156]
本稿では,トランスフォーマーに基づく自己認識を用いて,長距離ペア関係の学習を提案する。
提案手法はGraphTransと呼ばれ,標準のGNNモジュールに代えて置換不変なTransformerモジュールを適用している。
その結果,グラフ構造を持たない純粋学習に基づくアプローチは,グラフ上の高レベルな長距離関係を学習するのに適している可能性が示唆された。
論文 参考訳(メタデータ) (2022-01-21T18:16:21Z) - Connecting the Dots: Multivariate Time Series Forecasting with Graph
Neural Networks [91.65637773358347]
多変量時系列データに特化して設計された汎用グラフニューラルネットワークフレームワークを提案する。
グラフ学習モジュールを用いて,変数間の一方向関係を自動的に抽出する。
提案手法は,4つのベンチマークデータセットのうち3つにおいて,最先端のベースライン手法よりも優れている。
論文 参考訳(メタデータ) (2020-05-24T04:02:18Z) - Gated Graph Recurrent Neural Networks [176.3960927323358]
グラフ処理の一般的な学習フレームワークとしてグラフリカレントニューラルネットワーク(GRNN)を導入する。
勾配の消失問題に対処するため,時間,ノード,エッジゲートの3つの異なるゲーティング機構でGRNNを前進させた。
数値的な結果は、GRNNがGNNやRNNよりも優れており、グラフプロセスの時間構造とグラフ構造の両方を考慮することが重要であることを示している。
論文 参考訳(メタデータ) (2020-02-03T22:35:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。