論文の概要: Non-backtracking Graph Neural Networks
- arxiv url: http://arxiv.org/abs/2310.07430v1
- Date: Wed, 11 Oct 2023 12:32:13 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-12 22:52:00.774101
- Title: Non-backtracking Graph Neural Networks
- Title(参考訳): 非バックトラックグラフニューラルネットワーク
- Authors: Seonghyun Park, Narae Ryu, Gahee Kim, Dongyeop Woo, Se-Young Yun,
Sungsoo Ahn
- Abstract要約: 本稿では、以前に訪れたノードからメッセージを取り込むことなくメッセージを更新する非バックトラックグラフニューラルネットワーク(NBA-GNN)を提案する。
我々は,NBA-GNNと,ブロックモデル回復のための非バックトラック更新の印象的な性能との接続を確立する。
- 参考スコア(独自算出の注目度): 29.88831978586963
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: The celebrated message-passing updates for graph neural networks allow the
representation of large-scale graphs with local and computationally tractable
updates. However, the local updates suffer from backtracking, i.e., a message
flows through the same edge twice and revisits the previously visited node.
Since the number of message flows increases exponentially with the number of
updates, the redundancy in local updates prevents the graph neural network from
accurately recognizing a particular message flow for downstream tasks. In this
work, we propose to resolve such a redundancy via the non-backtracking graph
neural network (NBA-GNN) that updates a message without incorporating the
message from the previously visited node. We further investigate how NBA-GNN
alleviates the over-squashing of GNNs, and establish a connection between
NBA-GNN and the impressive performance of non-backtracking updates for
stochastic block model recovery. We empirically verify the effectiveness of our
NBA-GNN on long-range graph benchmark and transductive node classification
problems.
- Abstract(参考訳): グラフニューラルネットワークの有名なメッセージパッシング更新は、ローカルで計算可能な更新を伴う大規模グラフの表現を可能にする。
しかし、ローカル更新はバックトラックに悩まされ、すなわちメッセージは同じエッジを2回流し、以前訪問したノードを再変更する。
メッセージフローの数は更新数によって指数関数的に増加するため、ローカル更新の冗長性は、グラフニューラルネットワークが下流タスクの特定のメッセージフローを正確に認識することを妨げる。
本研究では,非バックトラックグラフニューラルネットワーク(NBA-GNN)を用いて,以前に訪れたノードからのメッセージを組み込むことなくメッセージを更新する冗長性を解決することを提案する。
さらに, NBA-GNNは, GNNの過度な監視を緩和し, NBA-GNNと, 確率的ブロックモデル回復のための非追跡更新の顕著な性能との接続を確立する。
NBA-GNNの長距離グラフベンチマークとトランスダクティブノード分類問題に対する有効性を実証的に検証した。
関連論文リスト
- Towards Dynamic Message Passing on Graphs [104.06474765596687]
グラフニューラルネットワーク(GNN)のための新しい動的メッセージパッシング機構を提案する。
グラフノードと学習可能な擬似ノードを、測定可能な空間関係を持つ共通空間に投影する。
ノードが空間内を移動すると、その進化する関係は動的メッセージパッシングプロセスのための柔軟な経路構築を促進する。
論文 参考訳(メタデータ) (2024-10-31T07:20:40Z) - STAG: Enabling Low Latency and Low Staleness of GNN-based Services with
Dynamic Graphs [20.94927463359297]
本稿では,GNN ベースのサービスの低レイテンシと低安定化を実現する GNN サービスフレームワーク STAG を提案する。
実験の結果、STAGは更新フェーズを1.3x90.1xで加速し、応答遅延をわずかに増加させ、安定化時間を劇的に短縮することがわかった。
論文 参考訳(メタデータ) (2023-09-27T05:15:02Z) - Is Rewiring Actually Helpful in Graph Neural Networks? [11.52174067809364]
本稿では,ノードやグラフ表現の学習を必要としない,メッセージパッシングモデルに基づく評価設定を提案する。
実世界のノードとグラフ分類タスクの体系的比較を行い、基礎となるグラフを書き換えることが、メッセージパッシングの実用的な利点をもたらすことは滅多にないことを示した。
論文 参考訳(メタデータ) (2023-05-31T10:12:23Z) - Neo-GNNs: Neighborhood Overlap-aware Graph Neural Networks for Link
Prediction [23.545059901853815]
グラフニューラルネットワーク(GNN)は,グラフ構造データの学習に広く応用されている。
リンク予測のために隣接重畳された近傍から有用な構造特徴を学習する近傍オーバーラップ対応グラフニューラルネットワーク(Neo-GNN)を提案する。
論文 参考訳(メタデータ) (2022-06-09T01:43:49Z) - Very Deep Graph Neural Networks Via Noise Regularisation [57.450532911995516]
グラフニューラルネットワーク(GNN)は、入力グラフを介して学習されたメッセージパッシングを実行する。
最大100のメッセージパッシングステップを持つディープGNNをトレーニングし、いくつかの最先端の結果を得る。
論文 参考訳(メタデータ) (2021-06-15T08:50:10Z) - Increase and Conquer: Training Graph Neural Networks on Growing Graphs [116.03137405192356]
本稿では,このグラフからBernoulliをサンプリングしたグラフ上でGNNをトレーニングすることで,WNN(Graphon Neural Network)を学習する問題を考察する。
これらの結果から着想を得た大規模グラフ上でGNNを学習するアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-06-07T15:05:59Z) - Binary Graph Neural Networks [69.51765073772226]
グラフニューラルネットワーク(gnns)は、不規則データに対する表現学習のための強力で柔軟なフレームワークとして登場した。
本稿では,グラフニューラルネットワークのバイナライゼーションのための異なる戦略を提示し,評価する。
モデルの慎重な設計とトレーニングプロセスの制御によって、バイナリグラフニューラルネットワークは、挑戦的なベンチマークの精度において、適度なコストでトレーニングできることを示しています。
論文 参考訳(メタデータ) (2020-12-31T18:48:58Z) - Overcoming Catastrophic Forgetting in Graph Neural Networks [50.900153089330175]
破滅的な忘れは、ニューラルネットワークが新しいタスクを学ぶ前に学んだ知識を「忘れる」傾向を指します。
本稿では,この問題を克服し,グラフニューラルネットワーク(GNN)における継続学習を強化するための新しいスキームを提案する。
私たちのアプローチの中心には、トポロジ認識重量保存(TWP)と呼ばれる汎用モジュールがあります。
論文 参考訳(メタデータ) (2020-12-10T22:30:25Z) - A Unified View on Graph Neural Networks as Graph Signal Denoising [49.980783124401555]
グラフニューラルネットワーク(GNN)は,グラフ構造化データの学習表現において顕著に普及している。
本研究では,代表的GNNモデル群における集約過程を,グラフ記述問題の解法とみなすことができることを数学的に確立する。
UGNNから派生した新しいGNNモデルADA-UGNNをインスタンス化し、ノード間の適応的滑らかさでグラフを処理する。
論文 参考訳(メタデータ) (2020-10-05T04:57:18Z) - Graph Convolutional Neural Networks with Node Transition
Probability-based Message Passing and DropNode Regularization [32.260055351563324]
最近、グラフ構造化データを扱う能力のため、グラフ畳み込みニューラルネットワーク(GCNN)が注目されている。
本研究は,ノード遷移確率に基づくメッセージパッシングプロセスを改善するための新しい手法を提案する。
また,DropNodeと呼ばれる新しい正規化手法を提案する。
論文 参考訳(メタデータ) (2020-08-28T10:51:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。