論文の概要: Non-backtracking Graph Neural Networks
- arxiv url: http://arxiv.org/abs/2310.07430v2
- Date: Wed, 25 Sep 2024 11:19:47 GMT
- ステータス: 処理完了
- システム内更新日: 2024-11-09 10:01:09.826293
- Title: Non-backtracking Graph Neural Networks
- Title(参考訳): 非バックトラックグラフニューラルネットワーク
- Authors: Seonghyun Park, Narae Ryu, Gahee Kim, Dongyeop Woo, Se-Young Yun, Sungsoo Ahn,
- Abstract要約: 本稿では、以前に訪れたノードからメッセージを取り込むことなくメッセージを更新する非バックトラックグラフニューラルネットワーク(NBA-GNN)を提案する。
理論的には、NBA-GNNがGNNの過度な監視を緩和し、ブロック回復のための非追跡更新の印象的な性能を確立する。
- 参考スコア(独自算出の注目度): 28.206751149328216
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: The celebrated message-passing updates for graph neural networks allow representing large-scale graphs with local and computationally tractable updates. However, the updates suffer from backtracking, i.e., a message flowing through the same edge twice and revisiting the previously visited node. Since the number of message flows increases exponentially with the number of updates, the redundancy in local updates prevents the graph neural network from accurately recognizing a particular message flow relevant for downstream tasks. In this work, we propose to resolve such a redundancy issue via the non-backtracking graph neural network (NBA-GNN) that updates a message without incorporating the message from the previously visited node. We theoretically investigate how NBA-GNN alleviates the over-squashing of GNNs, and establish a connection between NBA-GNN and the impressive performance of non-backtracking updates for stochastic block model recovery. Furthermore, we empirically verify the effectiveness of our NBA-GNN on the long-range graph benchmark and transductive node classification problems.
- Abstract(参考訳): グラフニューラルネットワークの有望なメッセージパス更新により、局所的および計算学的に抽出可能なアップデートで、大規模グラフを表現することができる。
しかし、更新はバックトラッキング、すなわち、同じエッジを2回流し、以前訪問したノードを再訪するメッセージに悩まされる。
更新数に応じてメッセージフローの数が指数関数的に増加するため、ローカル更新の冗長性により、下流タスクに関連する特定のメッセージフローを正確に認識することができない。
本研究では、これまで訪れたノードからのメッセージを組み込むことなくメッセージを更新する非バックトラックグラフニューラルネットワーク(NBA-GNN)を介して、そのような冗長性問題を解決することを提案する。
理論的には、NBA-GNNがGNNの過度な監視を緩和し、NBA-GNNと確率的ブロックモデル回復のための非バックトラック更新の顕著なパフォーマンスとの接続を確立する。
さらに,長距離グラフベンチマークとトランスダクティブノード分類問題に対するNBA-GNNの有効性を実証的に検証した。
関連論文リスト
- Towards Dynamic Message Passing on Graphs [104.06474765596687]
グラフニューラルネットワーク(GNN)のための新しい動的メッセージパッシング機構を提案する。
グラフノードと学習可能な擬似ノードを、測定可能な空間関係を持つ共通空間に投影する。
ノードが空間内を移動すると、その進化する関係は動的メッセージパッシングプロセスのための柔軟な経路構築を促進する。
論文 参考訳(メタデータ) (2024-10-31T07:20:40Z) - STAG: Enabling Low Latency and Low Staleness of GNN-based Services with
Dynamic Graphs [20.94927463359297]
本稿では,GNN ベースのサービスの低レイテンシと低安定化を実現する GNN サービスフレームワーク STAG を提案する。
実験の結果、STAGは更新フェーズを1.3x90.1xで加速し、応答遅延をわずかに増加させ、安定化時間を劇的に短縮することがわかった。
論文 参考訳(メタデータ) (2023-09-27T05:15:02Z) - Is Rewiring Actually Helpful in Graph Neural Networks? [11.52174067809364]
本稿では,ノードやグラフ表現の学習を必要としない,メッセージパッシングモデルに基づく評価設定を提案する。
実世界のノードとグラフ分類タスクの体系的比較を行い、基礎となるグラフを書き換えることが、メッセージパッシングの実用的な利点をもたらすことは滅多にないことを示した。
論文 参考訳(メタデータ) (2023-05-31T10:12:23Z) - Neo-GNNs: Neighborhood Overlap-aware Graph Neural Networks for Link
Prediction [23.545059901853815]
グラフニューラルネットワーク(GNN)は,グラフ構造データの学習に広く応用されている。
リンク予測のために隣接重畳された近傍から有用な構造特徴を学習する近傍オーバーラップ対応グラフニューラルネットワーク(Neo-GNN)を提案する。
論文 参考訳(メタデータ) (2022-06-09T01:43:49Z) - Very Deep Graph Neural Networks Via Noise Regularisation [57.450532911995516]
グラフニューラルネットワーク(GNN)は、入力グラフを介して学習されたメッセージパッシングを実行する。
最大100のメッセージパッシングステップを持つディープGNNをトレーニングし、いくつかの最先端の結果を得る。
論文 参考訳(メタデータ) (2021-06-15T08:50:10Z) - Increase and Conquer: Training Graph Neural Networks on Growing Graphs [116.03137405192356]
本稿では,このグラフからBernoulliをサンプリングしたグラフ上でGNNをトレーニングすることで,WNN(Graphon Neural Network)を学習する問題を考察する。
これらの結果から着想を得た大規模グラフ上でGNNを学習するアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-06-07T15:05:59Z) - Binary Graph Neural Networks [69.51765073772226]
グラフニューラルネットワーク(gnns)は、不規則データに対する表現学習のための強力で柔軟なフレームワークとして登場した。
本稿では,グラフニューラルネットワークのバイナライゼーションのための異なる戦略を提示し,評価する。
モデルの慎重な設計とトレーニングプロセスの制御によって、バイナリグラフニューラルネットワークは、挑戦的なベンチマークの精度において、適度なコストでトレーニングできることを示しています。
論文 参考訳(メタデータ) (2020-12-31T18:48:58Z) - Overcoming Catastrophic Forgetting in Graph Neural Networks [50.900153089330175]
破滅的な忘れは、ニューラルネットワークが新しいタスクを学ぶ前に学んだ知識を「忘れる」傾向を指します。
本稿では,この問題を克服し,グラフニューラルネットワーク(GNN)における継続学習を強化するための新しいスキームを提案する。
私たちのアプローチの中心には、トポロジ認識重量保存(TWP)と呼ばれる汎用モジュールがあります。
論文 参考訳(メタデータ) (2020-12-10T22:30:25Z) - A Unified View on Graph Neural Networks as Graph Signal Denoising [49.980783124401555]
グラフニューラルネットワーク(GNN)は,グラフ構造化データの学習表現において顕著に普及している。
本研究では,代表的GNNモデル群における集約過程を,グラフ記述問題の解法とみなすことができることを数学的に確立する。
UGNNから派生した新しいGNNモデルADA-UGNNをインスタンス化し、ノード間の適応的滑らかさでグラフを処理する。
論文 参考訳(メタデータ) (2020-10-05T04:57:18Z) - Graph Convolutional Neural Networks with Node Transition
Probability-based Message Passing and DropNode Regularization [32.260055351563324]
最近、グラフ構造化データを扱う能力のため、グラフ畳み込みニューラルネットワーク(GCNN)が注目されている。
本研究は,ノード遷移確率に基づくメッセージパッシングプロセスを改善するための新しい手法を提案する。
また,DropNodeと呼ばれる新しい正規化手法を提案する。
論文 参考訳(メタデータ) (2020-08-28T10:51:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。