論文の概要: Non-Redundant Graph Neural Networks with Improved Expressiveness
- arxiv url: http://arxiv.org/abs/2310.04190v1
- Date: Fri, 6 Oct 2023 12:09:09 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-09 16:28:56.030497
- Title: Non-Redundant Graph Neural Networks with Improved Expressiveness
- Title(参考訳): 表現性を改善した非冗長グラフニューラルネットワーク
- Authors: Franka Bause, Samir Moustafa, Johannes Langguth, Wilfried N.
Gansterer, Nils M. Kriege
- Abstract要約: メッセージパッシンググラフニューラルネットワークは、すべての隣人からのメッセージを集約することで、ノードの埋め込みを反復的に計算する。
オーバースムーシングとオーバースキャッシングは、これらのネットワークが効果的に活用できるレイヤの数を制限する。
本研究では,開花樹の枝を刈り取ることで冗長性を制御できる,近傍木に基づく新しい集約手法を提案する。
- 参考スコア(独自算出の注目度): 6.5935058305047285
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Message passing graph neural networks iteratively compute node embeddings by
aggregating messages from all neighbors. This procedure can be viewed as a
neural variant of the Weisfeiler-Leman method, which limits their expressive
power. Moreover, oversmoothing and oversquashing restrict the number of layers
these networks can effectively utilize. The repeated exchange and encoding of
identical information in message passing amplifies oversquashing. We propose a
novel aggregation scheme based on neighborhood trees, which allows for
controlling the redundancy by pruning branches of the unfolding trees
underlying standard message passing. We prove that reducing redundancy improves
expressivity and experimentally show that it alleviates oversquashing. We
investigate the interaction between redundancy in message passing and
redundancy in computation and propose a compact representation of neighborhood
trees, from which we compute node and graph embeddings via a neural tree
canonization technique. Our method is provably more expressive than the
Weisfeiler-Leman method, less susceptible to oversquashing than message passing
neural networks, and provides high classification accuracy on widely-used
benchmark datasets.
- Abstract(参考訳): メッセージパッシンググラフニューラルネットワークは、すべての隣人からのメッセージを集約することで、ノード埋め込みを反復的に計算する。
この手順はWeisfeiler-Leman法の神経変種と見なすことができ、表現力を制限する。
さらに、オーバースムーシングやオーバースキャッシングは、これらのネットワークが効果的に活用できるレイヤの数を制限する。
メッセージパッシングにおける同一情報の繰り返しの交換と符号化はオーバーカッシングを増幅する。
本研究では,標準メッセージパッシングの基盤となる展開木の枝を刈り取ることにより冗長性を制御できる,近傍木に基づく新しい集約方式を提案する。
冗長性の低減が表現力を向上させることを実証し, 過渡を緩和できることを実験的に示す。
本研究では,メッセージパッシングにおける冗長性と計算における冗長性の相互作用を調査し,ノードとグラフの埋め込みをニューラルネットワークによる正規化によって計算する近傍木のコンパクト表現を提案する。
提案手法はWeisfeiler-Leman法よりも明らかに表現力が高く,メッセージパッシングニューラルネットワークよりも過度な監視を受けにくく,広く使用されているベンチマークデータセットに対して高い分類精度を提供する。
関連論文リスト
- NetDiff: Deep Graph Denoising Diffusion for Ad Hoc Network Topology Generation [1.6768151308423371]
本稿では,無線アドホックネットワークリンクトポロジを生成する拡散確率的アーキテクチャを記述したグラフであるNetDiffを紹介する。
この結果から,生成したリンクは現実的であり,データセットグラフに類似した構造的特性を有しており,操作するには小さな修正と検証ステップのみが必要であることがわかった。
論文 参考訳(メタデータ) (2024-10-09T15:39:49Z) - NodeFormer: A Scalable Graph Structure Learning Transformer for Node
Classification [70.51126383984555]
本稿では,任意のノード間のノード信号を効率的に伝搬する全ペアメッセージパッシング方式を提案する。
効率的な計算は、カーナライズされたGumbel-Softmax演算子によって実現される。
グラフ上のノード分類を含む様々なタスクにおいて,本手法の有望な有効性を示す実験を行った。
論文 参考訳(メタデータ) (2023-06-14T09:21:15Z) - Deep Graph Neural Networks via Posteriori-Sampling-based Node-Adaptive Residual Module [65.81781176362848]
グラフニューラルネットワーク(GNN)は、近隣情報収集を通じてグラフ構造化データから学習することができる。
レイヤーの数が増えるにつれて、ノード表現は区別不能になり、オーバー・スムーシング(over-smoothing)と呼ばれる。
我々は,textbfPosterior-Sampling-based, Node-distinguish Residual Module (PSNR)を提案する。
論文 参考訳(メタデータ) (2023-05-09T12:03:42Z) - A Systematic Evaluation of Node Embedding Robustness [77.29026280120277]
本研究では,ノード埋め込みモデルのランダムおよび逆毒攻撃に対する経験的ロバスト性を評価する。
ネットワーク特性とノードラベルを用いて計算したエッジの追加,削除,再切り替えの戦略を比較した。
その結果,ノード分類はネットワーク再構成とは対照的に,高い性能劣化に悩まされていることがわかった。
論文 参考訳(メタデータ) (2022-09-16T17:20:23Z) - Shortest Path Networks for Graph Property Prediction [13.986963122264632]
ほとんどのグラフニューラルネットワークモデルは、グラフのノード表現を直接近傍の各ノードに反復的に伝播するという、特定のメッセージパッシングパラダイムに依存している。
本稿では,最短経路近傍の各ノードにグラフのノード表現を伝搬する最短経路メッセージパッシングニューラルネットワークを提案する。
我々のフレームワークは、メッセージパッシングニューラルネットワークを一般化し、より表現力のあるモデルをもたらす。
論文 参考訳(メタデータ) (2022-06-02T12:04:29Z) - Improving Fraud detection via Hierarchical Attention-based Graph Neural
Network [6.7713383844867385]
不正検出のためのグラフニューラルネットワーク(HA-GNN)は、カモフラージュに対する異なる関係にわたって重み付けされた隣接行列を組み込む。
ローカル/ロングレンジ構造と元のノード特徴から情報を集約してノード埋め込みを生成する。
実世界の3つのデータセットの実験は、最先端技術に対する我々のモデルの有効性を実証している。
論文 参考訳(メタデータ) (2022-02-12T16:27:16Z) - Graph Tree Neural Networks [0.43012765978447565]
グラフツリーニューラルネットワーク(GTNN)は、人間のニューラルネットワークの構造を分析することによって、既存のネットワークの問題を解決するように設計されている。
GTNNでは、情報ユニットはグラフの形式と関連付けられ、その後再び大きな情報の単位となり、他の情報ユニットと関係を持つ。
論文 参考訳(メタデータ) (2021-10-31T07:58:00Z) - Reinforced Neighborhood Selection Guided Multi-Relational Graph Neural
Networks [68.9026534589483]
RioGNNはReinforceed, recursive, flexible neighborhood selection guided multi-relational Graph Neural Network architectureである。
RioGNNは、各関係の個々の重要性の認識により、説明性を高めた差別的なノード埋め込みを学ぶことができる。
論文 参考訳(メタデータ) (2021-04-16T04:30:06Z) - Artificial Neural Networks generated by Low Discrepancy Sequences [59.51653996175648]
我々は、高密度ネットワークグラフ上のランダムウォーキングとして、人工ニューラルネットワークを生成する。
このようなネットワークはスクラッチからスパースを訓練することができ、高密度ネットワークをトレーニングし、その後圧縮する高価な手順を避けることができる。
我々は,低差分シーケンスで生成された人工ニューラルネットワークが,より低い計算複雑性で,密度の高いニューラルネットワークの到達範囲内で精度を達成できることを実証した。
論文 参考訳(メタデータ) (2021-03-05T08:45:43Z) - Graph Neural Networks with Composite Kernels [60.81504431653264]
カーネル重み付けの観点からノード集約を再解釈する。
本稿では,アグリゲーション方式における特徴類似性を考慮したフレームワークを提案する。
特徴空間における特徴類似性をエンコードするために,元の隣り合うカーネルと学習可能なカーネルの合成として特徴集約を提案する。
論文 参考訳(メタデータ) (2020-05-16T04:44:29Z) - Temporal Network Representation Learning via Historical Neighborhoods
Aggregation [28.397309507168128]
本稿では,EHNAアルゴリズムによる埋め込みを提案する。
まず,歴史地区のノードを特定できる時間的ランダムウォークを提案する。
次に,ノード埋め込みを誘導するカスタムアテンション機構を用いたディープラーニングモデルを適用する。
論文 参考訳(メタデータ) (2020-03-30T04:18:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。