論文の概要: Sheaves Reloaded: A Directional Awakening
- arxiv url: http://arxiv.org/abs/2506.02842v1
- Date: Tue, 03 Jun 2025 13:13:56 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-04 21:47:35.686942
- Title: Sheaves Reloaded: A Directional Awakening
- Title(参考訳): Sheavesのリロード: 方向性の覚醒
- Authors: Stefano Fiorini, Hakan Aktas, Iulia Duta, Stefano Coniglio, Pietro Morerio, Alessio Del Bue, Pietro Liò,
- Abstract要約: シェーフニューラルネットワーク(SNN)はグラフニューラルネットワーク(GNN)の強力な一般化を表す
エッジオリエンテーションを明示的に考慮した特殊な細胞シーフであるDirected Cellular Sheafを紹介した。
この構造に基づいて、グラフの位相と方向情報の両方をキャプチャする新しい層ラプラシアンを定義する。
このオペレータは、指向バイアスをアーキテクチャに埋め込んだ最初のSNNモデルであるDirected Sheaf Neural Network(DSNN)のバックボーンとして機能する。
- 参考スコア(独自算出の注目度): 31.634923352992324
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Sheaf Neural Networks (SNNs) represent a powerful generalization of Graph Neural Networks (GNNs) that significantly improve our ability to model complex relational data. While directionality has been shown to substantially boost performance in graph learning tasks and is key to many real-world applications, existing SNNs fall short in representing it. To address this limitation, we introduce the Directed Cellular Sheaf, a special type of cellular sheaf designed to explicitly account for edge orientation. Building on this structure, we define a new sheaf Laplacian, the Directed Sheaf Laplacian, which captures both the graph's topology and its directional information. This operator serves as the backbone of the Directed Sheaf Neural Network (DSNN), the first SNN model to embed a directional bias into its architecture. Extensive experiments on nine real-world benchmarks show that DSNN consistently outperforms baseline methods.
- Abstract(参考訳): せん断ニューラルネットワーク(SNN)はグラフニューラルネットワーク(GNN)の強力な一般化であり、複雑なリレーショナルデータをモデル化する能力を大幅に向上させる。
指向性はグラフ学習タスクのパフォーマンスを大幅に向上させることが示されており、多くの実世界のアプリケーションにとって鍵となっているが、既存のSNNはそれを表現するのに不足している。
この制限に対処するために、我々は、エッジオリエンテーションを明示的に考慮した特別なタイプの細胞シーフであるDirected Cellular Sheafを紹介した。
この構造に基づいて、グラフの位相と方向情報の両方をキャプチャする新しいシェフラプラシアン(Directed Sheaf Laplacian)を定義する。
このオペレータは、指向バイアスをアーキテクチャに埋め込んだ最初のSNNモデルであるDirected Sheaf Neural Network(DSNN)のバックボーンとして機能する。
9つの実世界のベンチマークの大規模な実験は、DSNNが一貫してベースライン法より優れていることを示している。
関連論文リスト
- Do graph neural network states contain graph properties? [5.222978725954348]
診断分類器を用いたグラフニューラルネットワーク(GNN)のモデル説明可能性パイプラインを提案する。
このパイプラインは、さまざまなアーキテクチャやデータセットにわたるGNNの学習した表現を探索し、解釈することを目的としている。
論文 参考訳(メタデータ) (2024-11-04T15:26:07Z) - Joint Diffusion Processes as an Inductive Bias in Sheaf Neural Networks [14.224234978509026]
せん断ニューラルネットワーク(SNN)は自然にグラフニューラルネットワーク(GNN)を拡張する
構造図をより直感的に理解するための2つの新しいせん断学習手法を提案する。
評価では,これまでのSNNで使用されている実世界のベンチマークの限界を示す。
論文 参考訳(メタデータ) (2024-07-30T07:17:46Z) - Continuous Spiking Graph Neural Networks [43.28609498855841]
連続グラフニューラルネットワーク(CGNN)は、既存の離散グラフニューラルネットワーク(GNN)を一般化する能力によって注目されている。
本稿では,2階ODEを用いたCOS-GNNの高次構造について紹介する。
我々は、COS-GNNが爆発や消滅の問題を効果的に軽減し、ノード間の長距離依存関係を捕捉できるという理論的証明を提供する。
論文 参考訳(メタデータ) (2024-04-02T12:36:40Z) - LinkSAGE: Optimizing Job Matching Using Graph Neural Networks [12.088731514483104]
本稿では、グラフニューラルネットワーク(GNN)を大規模パーソナライズされたジョブマッチングシステムに統合する革新的なフレームワークであるLinkSAGEを紹介する。
当社のアプローチは、数十億のノードとエッジを持つ、業界最大の、そして最も複雑な、新しい求人市場グラフに乗じています。
LinkSAGEの重要なイノベーションは、そのトレーニングと提供の方法論である。これは、不均一で進化するグラフ上の帰納的グラフ学習とエンコーダ-デコーダGNNモデルとを効果的に組み合わせている。
論文 参考訳(メタデータ) (2024-02-20T23:49:25Z) - Deep Graph Neural Networks via Posteriori-Sampling-based Node-Adaptive Residual Module [65.81781176362848]
グラフニューラルネットワーク(GNN)は、近隣情報収集を通じてグラフ構造化データから学習することができる。
レイヤーの数が増えるにつれて、ノード表現は区別不能になり、オーバー・スムーシング(over-smoothing)と呼ばれる。
我々は,textbfPosterior-Sampling-based, Node-distinguish Residual Module (PSNR)を提案する。
論文 参考訳(メタデータ) (2023-05-09T12:03:42Z) - Overcoming Catastrophic Forgetting in Graph Neural Networks [50.900153089330175]
破滅的な忘れは、ニューラルネットワークが新しいタスクを学ぶ前に学んだ知識を「忘れる」傾向を指します。
本稿では,この問題を克服し,グラフニューラルネットワーク(GNN)における継続学習を強化するための新しいスキームを提案する。
私たちのアプローチの中心には、トポロジ認識重量保存(TWP)と呼ばれる汎用モジュールがあります。
論文 参考訳(メタデータ) (2020-12-10T22:30:25Z) - A Unified View on Graph Neural Networks as Graph Signal Denoising [49.980783124401555]
グラフニューラルネットワーク(GNN)は,グラフ構造化データの学習表現において顕著に普及している。
本研究では,代表的GNNモデル群における集約過程を,グラフ記述問題の解法とみなすことができることを数学的に確立する。
UGNNから派生した新しいGNNモデルADA-UGNNをインスタンス化し、ノード間の適応的滑らかさでグラフを処理する。
論文 参考訳(メタデータ) (2020-10-05T04:57:18Z) - The Surprising Power of Graph Neural Networks with Random Node
Initialization [54.4101931234922]
グラフニューラルネットワーク(GNN)は、関係データ上での表現学習に有効なモデルである。
標準 GNN はその表現力に制限があり、Weisfeiler-Leman グラフ同型(英語版)の能力以外の区別はできない。
本研究では,ランダムノード(RNI)を用いたGNNの表現力の解析を行う。
我々はこれらのモデルが普遍的であることを証明し、GNNが高次特性の計算に頼らない最初の結果である。
論文 参考訳(メタデータ) (2020-10-02T19:53:05Z) - Architectural Implications of Graph Neural Networks [17.01480604968118]
グラフニューラルネットワーク(GNN)は、グラフ構造を操作するディープラーニングモデルの新たなラインである。
GNNは、多層パーセプトロンや畳み込みニューラルネットワークなど、システムやアーキテクチャのコミュニティでは理解されていない。
論文 参考訳(メタデータ) (2020-09-02T03:36:24Z) - Binarized Graph Neural Network [65.20589262811677]
我々は二項化グラフニューラルネットワークを開発し、二項化ネットワークパラメータを用いてノードのバイナリ表現を学習する。
提案手法は既存のGNNベースの埋め込み手法にシームレスに統合できる。
実験により、提案された二項化グラフニューラルネットワーク、すなわちBGNは、時間と空間の両方の観点から、桁違いに効率的であることが示されている。
論文 参考訳(メタデータ) (2020-04-19T09:43:14Z) - Node Masking: Making Graph Neural Networks Generalize and Scale Better [71.51292866945471]
グラフニューラルネットワーク(GNN)は近年,多くの関心を集めている。
本稿では,芸術空間のGNNの状態によって実行される操作をよりよく可視化するために,いくつかの理論ツールを利用する。
私たちはNode Maskingというシンプルなコンセプトを導入しました。
論文 参考訳(メタデータ) (2020-01-17T06:26:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。