論文の概要: On the Two Sides of Redundancy in Graph Neural Networks
- arxiv url: http://arxiv.org/abs/2310.04190v2
- Date: Thu, 28 Mar 2024 12:56:25 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-29 21:43:17.460814
- Title: On the Two Sides of Redundancy in Graph Neural Networks
- Title(参考訳): グラフニューラルネットワークにおける冗長性の両面について
- Authors: Franka Bause, Samir Moustafa, Johannes Langguth, Wilfried N. Gansterer, Nils M. Kriege,
- Abstract要約: 我々は近所の木に基づく新しい集約手法を開発した。
近傍木をコンパクトに表現し,それらをマージし,計算冗長性を生かした。
我々の手法は従来のメッセージパッシングニューラルネットワークよりも過度に理解されにくい。
- 参考スコア(独自算出の注目度): 6.14580854336436
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Message passing neural networks iteratively generate node embeddings by aggregating information from neighboring nodes. With increasing depth, information from more distant nodes is included. However, node embeddings may be unable to represent the growing node neighborhoods accurately and the influence of distant nodes may vanish, a problem referred to as oversquashing. Information redundancy in message passing, i.e., the repetitive exchange and encoding of identical information amplifies oversquashing. We develop a novel aggregation scheme based on neighborhood trees, which allows for controlling redundancy by pruning redundant branches of unfolding trees underlying standard message passing. While the regular structure of unfolding trees allows the reuse of intermediate results in a straightforward way, the use of neighborhood trees poses computational challenges. We propose compact representations of neighborhood trees and merge them, exploiting computational redundancy by identifying isomorphic subtrees. From this, node and graph embeddings are computed via a neural architecture inspired by tree canonization techniques. Our method is less susceptible to oversquashing than traditional message passing neural networks and can improve the accuracy on widely used benchmark datasets.
- Abstract(参考訳): メッセージパッシングニューラルネットワークは、近隣ノードからの情報を集約することで、ノード埋め込みを反復的に生成する。
深度が増すにつれて、より遠方のノードからの情報は含まれる。
しかし、ノード埋め込みは成長するノード近傍を正確に表現することができず、遠くのノードの影響が消える可能性がある。
メッセージパッシングにおける情報冗長性、すなわち、同一情報の繰り返し交換と符号化は、過度な監視を増幅する。
本研究では,標準的なメッセージパッシングを基礎とした展開木の冗長な枝を刈り取ることで冗長性を制御できる,近傍木に基づく新しいアグリゲーション手法を開発した。
展開木の正規構造は、中間結果を直接的に再利用することを可能にするが、近傍木の使用は計算上の問題を引き起こす。
近傍木をコンパクトに表現し,それらをマージし,同型部分木を同定して計算冗長性を利用する。
このことから、ノードとグラフの埋め込みは、ツリーのカノン化技術にインスパイアされたニューラルネットワークによって計算される。
提案手法は従来のメッセージパッシングニューラルネットワークよりも過度に扱いにくいため,広く使用されているベンチマークデータセットの精度を向上させることができる。
関連論文リスト
- NetDiff: Deep Graph Denoising Diffusion for Ad Hoc Network Topology Generation [1.6768151308423371]
本稿では,無線アドホックネットワークリンクトポロジを生成する拡散確率的アーキテクチャを記述したグラフであるNetDiffを紹介する。
この結果から,生成したリンクは現実的であり,データセットグラフに類似した構造的特性を有しており,操作するには小さな修正と検証ステップのみが必要であることがわかった。
論文 参考訳(メタデータ) (2024-10-09T15:39:49Z) - NodeFormer: A Scalable Graph Structure Learning Transformer for Node
Classification [70.51126383984555]
本稿では,任意のノード間のノード信号を効率的に伝搬する全ペアメッセージパッシング方式を提案する。
効率的な計算は、カーナライズされたGumbel-Softmax演算子によって実現される。
グラフ上のノード分類を含む様々なタスクにおいて,本手法の有望な有効性を示す実験を行った。
論文 参考訳(メタデータ) (2023-06-14T09:21:15Z) - Deep Graph Neural Networks via Posteriori-Sampling-based Node-Adaptive Residual Module [65.81781176362848]
グラフニューラルネットワーク(GNN)は、近隣情報収集を通じてグラフ構造化データから学習することができる。
レイヤーの数が増えるにつれて、ノード表現は区別不能になり、オーバー・スムーシング(over-smoothing)と呼ばれる。
我々は,textbfPosterior-Sampling-based, Node-distinguish Residual Module (PSNR)を提案する。
論文 参考訳(メタデータ) (2023-05-09T12:03:42Z) - A Systematic Evaluation of Node Embedding Robustness [77.29026280120277]
本研究では,ノード埋め込みモデルのランダムおよび逆毒攻撃に対する経験的ロバスト性を評価する。
ネットワーク特性とノードラベルを用いて計算したエッジの追加,削除,再切り替えの戦略を比較した。
その結果,ノード分類はネットワーク再構成とは対照的に,高い性能劣化に悩まされていることがわかった。
論文 参考訳(メタデータ) (2022-09-16T17:20:23Z) - Shortest Path Networks for Graph Property Prediction [13.986963122264632]
ほとんどのグラフニューラルネットワークモデルは、グラフのノード表現を直接近傍の各ノードに反復的に伝播するという、特定のメッセージパッシングパラダイムに依存している。
本稿では,最短経路近傍の各ノードにグラフのノード表現を伝搬する最短経路メッセージパッシングニューラルネットワークを提案する。
我々のフレームワークは、メッセージパッシングニューラルネットワークを一般化し、より表現力のあるモデルをもたらす。
論文 参考訳(メタデータ) (2022-06-02T12:04:29Z) - Improving Fraud detection via Hierarchical Attention-based Graph Neural
Network [6.7713383844867385]
不正検出のためのグラフニューラルネットワーク(HA-GNN)は、カモフラージュに対する異なる関係にわたって重み付けされた隣接行列を組み込む。
ローカル/ロングレンジ構造と元のノード特徴から情報を集約してノード埋め込みを生成する。
実世界の3つのデータセットの実験は、最先端技術に対する我々のモデルの有効性を実証している。
論文 参考訳(メタデータ) (2022-02-12T16:27:16Z) - Graph Tree Neural Networks [0.43012765978447565]
グラフツリーニューラルネットワーク(GTNN)は、人間のニューラルネットワークの構造を分析することによって、既存のネットワークの問題を解決するように設計されている。
GTNNでは、情報ユニットはグラフの形式と関連付けられ、その後再び大きな情報の単位となり、他の情報ユニットと関係を持つ。
論文 参考訳(メタデータ) (2021-10-31T07:58:00Z) - Reinforced Neighborhood Selection Guided Multi-Relational Graph Neural
Networks [68.9026534589483]
RioGNNはReinforceed, recursive, flexible neighborhood selection guided multi-relational Graph Neural Network architectureである。
RioGNNは、各関係の個々の重要性の認識により、説明性を高めた差別的なノード埋め込みを学ぶことができる。
論文 参考訳(メタデータ) (2021-04-16T04:30:06Z) - Artificial Neural Networks generated by Low Discrepancy Sequences [59.51653996175648]
我々は、高密度ネットワークグラフ上のランダムウォーキングとして、人工ニューラルネットワークを生成する。
このようなネットワークはスクラッチからスパースを訓練することができ、高密度ネットワークをトレーニングし、その後圧縮する高価な手順を避けることができる。
我々は,低差分シーケンスで生成された人工ニューラルネットワークが,より低い計算複雑性で,密度の高いニューラルネットワークの到達範囲内で精度を達成できることを実証した。
論文 参考訳(メタデータ) (2021-03-05T08:45:43Z) - Graph Neural Networks with Composite Kernels [60.81504431653264]
カーネル重み付けの観点からノード集約を再解釈する。
本稿では,アグリゲーション方式における特徴類似性を考慮したフレームワークを提案する。
特徴空間における特徴類似性をエンコードするために,元の隣り合うカーネルと学習可能なカーネルの合成として特徴集約を提案する。
論文 参考訳(メタデータ) (2020-05-16T04:44:29Z) - Temporal Network Representation Learning via Historical Neighborhoods
Aggregation [28.397309507168128]
本稿では,EHNAアルゴリズムによる埋め込みを提案する。
まず,歴史地区のノードを特定できる時間的ランダムウォークを提案する。
次に,ノード埋め込みを誘導するカスタムアテンション機構を用いたディープラーニングモデルを適用する。
論文 参考訳(メタデータ) (2020-03-30T04:18:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。