論文の概要: Spectral Theory for Edge Pruning in Asynchronous Recurrent Graph Neural Networks
- arxiv url: http://arxiv.org/abs/2502.17522v1
- Date: Sun, 23 Feb 2025 13:05:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-26 15:22:51.501543
- Title: Spectral Theory for Edge Pruning in Asynchronous Recurrent Graph Neural Networks
- Title(参考訳): Asynchronous Recurrent Graph Neural Networkにおけるエッジプルーニングのスペクトル理論
- Authors: Nicolas Bessone,
- Abstract要約: 非同期リカレントグラフニューラルネットワーク(ARGNN)は、生物の複雑で適応的な性質に似た、動的グラフの複雑な依存関係をキャプチャする。
本稿では,ネットワークグラフのラプラシアンの固有値の虚像成分を利用して,グラフスペクトル理論に基づく動的プルーニング手法を提案する。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: Graph Neural Networks (GNNs) have emerged as a powerful tool for learning on graph-structured data, finding applications in numerous domains including social network analysis and molecular biology. Within this broad category, Asynchronous Recurrent Graph Neural Networks (ARGNNs) stand out for their ability to capture complex dependencies in dynamic graphs, resembling living organisms' intricate and adaptive nature. However, their complexity often leads to large and computationally expensive models. Therefore, pruning unnecessary edges becomes crucial for enhancing efficiency without significantly compromising performance. This paper presents a dynamic pruning method based on graph spectral theory, leveraging the imaginary component of the eigenvalues of the network graph's Laplacian.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)は、グラフ構造化データから学習するための強力なツールとして登場し、ソーシャルネットワーク分析や分子生物学など多くの分野に応用されている。
この広いカテゴリの中で、非同期リカレントグラフニューラルネットワーク(ARGNN)は、生物の複雑で適応的な性質に似た、動的グラフにおける複雑な依存関係をキャプチャする能力において際立っている。
しかし、その複雑さはしばしば大規模で計算コストのかかるモデルに繋がる。
したがって、不必要なエッジを刈り取ることは、性能を著しく損なうことなく効率を高めるために重要である。
本稿では,ネットワークグラフのラプラシアンの固有値の虚像成分を利用して,グラフスペクトル理論に基づく動的プルーニング手法を提案する。
関連論文リスト
- Revisiting Graph Neural Networks on Graph-level Tasks: Comprehensive Experiments, Analysis, and Improvements [54.006506479865344]
グラフレベルグラフニューラルネットワーク(GNN)のための統一評価フレームワークを提案する。
このフレームワークは、さまざまなデータセットにわたるGNNを評価するための標準化された設定を提供する。
また,表現性の向上と一般化機能を備えた新しいGNNモデルを提案する。
論文 参考訳(メタデータ) (2025-01-01T08:48:53Z) - Superhypergraph Neural Networks and Plithogenic Graph Neural Networks: Theoretical Foundations [0.0]
ハイパーグラフは、エッジが複数のノードを接続できるようにすることによって伝統的なグラフを拡張し、一方スーパーハイパーグラフは、この概念をさらに複雑な関係を表すように一般化する。
確立されたフレームワークであるグラフニューラルネットワーク(GNN)が先日,ハイパーグラフニューラルネットワーク(HGNN)に拡張された。
本稿では,超HyperGraph Neural Networks(SHGNNs)とPlithogenic Graph Neural Networks(Plithogenic Graph Neural Networks)の理論的基盤を確立する。
論文 参考訳(メタデータ) (2024-12-02T06:33:02Z) - Self-Supervised Graph Neural Networks for Enhanced Feature Extraction in Heterogeneous Information Networks [16.12856816023414]
本稿では,インターネットの急速な発展に伴う複雑なグラフデータ処理におけるグラフニューラルネットワーク(GNN)の適用と課題について考察する。
自己監督機構を導入することにより、グラフデータの多様性と複雑さに対する既存モデルの適合性を向上させることが期待されている。
論文 参考訳(メタデータ) (2024-10-23T07:14:37Z) - Relation Embedding based Graph Neural Networks for Handling
Heterogeneous Graph [58.99478502486377]
我々は、同種GNNが不均一グラフを扱うのに十分な能力を持つように、シンプルで効率的なフレームワークを提案する。
具体的には、エッジ型関係と自己ループ接続の重要性を埋め込むために、関係1つのパラメータのみを使用する関係埋め込みベースのグラフニューラルネットワーク(RE-GNN)を提案する。
論文 参考訳(メタデータ) (2022-09-23T05:24:18Z) - Simple and Efficient Heterogeneous Graph Neural Network [55.56564522532328]
不均一グラフニューラルネットワーク(HGNN)は、不均一グラフの豊富な構造的および意味的な情報をノード表現に埋め込む強力な能力を持つ。
既存のHGNNは、同種グラフ上のグラフニューラルネットワーク(GNN)から多くのメカニズム、特に注意機構と多層構造を継承する。
本稿では,これらのメカニズムを詳細に検討し,簡便かつ効率的なヘテロジニアスグラフニューラルネットワーク(SeHGNN)を提案する。
論文 参考訳(メタデータ) (2022-07-06T10:01:46Z) - Learning Graph Structure from Convolutional Mixtures [119.45320143101381]
本稿では、観測されたグラフと潜伏グラフのグラフ畳み込み関係を提案し、グラフ学習タスクをネットワーク逆(デコンボリューション)問題として定式化する。
固有分解に基づくスペクトル法の代わりに、近似勾配反復をアンロール・トランケートして、グラフデコンボリューションネットワーク(GDN)と呼ばれるパラメータ化ニューラルネットワークアーキテクチャに到達させる。
GDNは、教師付き方式でグラフの分布を学習し、損失関数を適応させることでリンク予測やエッジウェイト回帰タスクを実行し、本質的に帰納的である。
論文 参考訳(メタデータ) (2022-05-19T14:08:15Z) - LSP : Acceleration and Regularization of Graph Neural Networks via
Locality Sensitive Pruning of Graphs [2.4250821950628234]
グラフニューラルネットワーク(GNN)は、グラフ関連のタスクのための非常に成功したツールとして登場した。
大きなグラフは、性能を損なうことなく取り除くことができる多くの冗長なコンポーネントを含むことが多い。
そこで我々はLocality-Sensitive Hashingに基づくグラフプルーニングのためのLocality-Sensitive Pruning(LSP)という体系的手法を提案する。
論文 参考訳(メタデータ) (2021-11-10T14:12:28Z) - Spectral Graph Convolutional Networks With Lifting-based Adaptive Graph
Wavelets [81.63035727821145]
スペクトルグラフ畳み込みネットワーク(SGCN)はグラフ表現学習において注目を集めている。
本稿では,適応グラフウェーブレットを用いたグラフ畳み込みを実装した新しいスペクトルグラフ畳み込みネットワークを提案する。
論文 参考訳(メタデータ) (2021-08-03T17:57:53Z) - Analyzing the Performance of Graph Neural Networks with Pipe Parallelism [2.269587850533721]
ノードやエッジの分類やリンクの予測といったタスクで大きな成功を収めたグラフニューラルネットワーク(GNN)に注目した。
グラフ技術の進歩には,大規模ネットワーク処理のための新たなアプローチが必要である。
私たちは、ディープラーニングコミュニティで成功したと知られている既存のツールとフレームワークを使用して、GNNを並列化する方法を研究します。
論文 参考訳(メタデータ) (2020-12-20T04:20:38Z) - Learning to Drop: Robust Graph Neural Network via Topological Denoising [50.81722989898142]
グラフニューラルネットワーク(GNN)のロバスト性および一般化性能を向上させるために,パラメータ化トポロジカルデノイングネットワークであるPTDNetを提案する。
PTDNetは、パラメータ化されたネットワークでスパーシファイドグラフ内のエッジ数をペナル化することで、タスク非関連エッジを創出する。
PTDNetはGNNの性能を著しく向上させ,さらにノイズの多いデータセットでは性能が向上することを示す。
論文 参考訳(メタデータ) (2020-11-13T18:53:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。