論文の概要: On the Necessity of Learnable Sheaf Laplacians
- arxiv url: http://arxiv.org/abs/2603.05395v1
- Date: Thu, 05 Mar 2026 17:24:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-06 22:06:11.338905
- Title: On the Necessity of Learnable Sheaf Laplacians
- Title(参考訳): 学習可能なシーフラプラシアンの必要性について
- Authors: Ferran Hernandez Caralt, Mar Gonzàlez i Català, Adrián Bazaga, Pietro Liò,
- Abstract要約: SNN(Sheaf Neural Networks)は、グラフ畳み込みネットワークの拡張として導入され、異種グラフのオーバースムーシングに対処した。
我々は,アイデンティティ・シェアード・ネットワークがSNNのネットワークよりも過度に過度に悩まされているようには見えないことを示した。
- 参考スコア(独自算出の注目度): 12.949900291633943
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Sheaf Neural Networks (SNNs) were introduced as an extension of Graph Convolutional Networks to address oversmoothing on heterophilous graphs by attaching a sheaf to the input graph and replacing the adjacency-based operator with a sheaf Laplacian defined by (learnable) restriction maps. Prior work motivates this design through theoretical properties of sheaf diffusion and the kernel of the sheaf Laplacian, suggesting that suitable non-identity restriction maps can avoid representations converging to constants across connected components. Since oversmoothing can also be mitigated through residual connections and normalization, we revisit a trivial sheaf construction to ask whether the additional complexity of learning restriction maps is necessary. We introduce an Identity Sheaf Network baseline, where all restriction maps are fixed to the identity, and use it to ablate the empirical improvements reported by sheaf-learning architectures. Across five popular heterophilic benchmarks, the identity baseline achieves comparable performance to a range of SNN variants. Finally, we introduce the Rayleigh quotient as a normalized measure for comparing oversmoothing across models and show that, in trained networks, the behavior predicted by the diffusion-based analysis of SNNs is not reflected empirically. In particular, Identity Sheaf Networks do not appear to suffer more significant oversmoothing than their SNN counterparts.
- Abstract(参考訳): グラフ畳み込みニューラルネットワーク(SNN)は、入力グラフにシーフを付加し、(学習可能な)制限マップで定義されたシーフラプラシアンにアジャケーシに基づく演算子を置き換えることで、異種グラフ上のオーバースムーシングに対処するグラフ畳み込みネットワークの拡張として導入された。
従来の研究は、層拡散と層ラプラシアンの核の理論的性質を通じてこの設計を動機付けており、適切な非同一性制限写像は連結成分間の定数に収束する表現を避けることができることを示唆している。
余剰接続や正規化によって過平滑化を緩和できるため,学習制限写像のさらなる複雑さの必要性を問うため,自明なせん断構造を再考する。
本稿では,Identity Sheaf Networkベースラインを導入し,すべての制限マップをアイデンティティに固定し,それを用いて,棚学習アーキテクチャによって報告される経験的改善を緩和する。
一般的な5つのヘテロ親和性ベンチマークにおいて、アイデンティティベースラインはSNNの亜種に匹敵するパフォーマンスを達成している。
最後に、レイリー商法をモデル間での過度な平滑化を比較するための正規化尺度として導入し、訓練ネットワークにおいて、SNNの拡散に基づく解析によって予測される挙動が実験的に反映されないことを示す。
特にIdentity Sheaf Networksは、SNNのネットワークよりも相当な過度なオーバースムーシングに苦しむようには見えない。
関連論文リスト
- Variational Bayesian Flow Network for Graph Generation [54.94088904387278]
グラフ生成のための変分ベイズフローネットワーク(VBFN)を提案する。
VBFNは、構造化精度で支配されるトラクタブルジョイントガウス変分信念ファミリーに対して変分リフトを行う。
合成グラフと分子グラフのデータセットでは、VBFNは忠実度と多様性を改善し、ベースライン法を超えている。
論文 参考訳(メタデータ) (2026-01-30T03:59:38Z) - ReDiSC: A Reparameterized Masked Diffusion Model for Scalable Node Classification with Structured Predictions [64.17845687013434]
本稿では,構造化ノード分類のための構造拡散モデルであるReDiSCを提案する。
本稿では,ReDiSCが最先端のGNN,ラベル伝搬,拡散ベースラインと比較して,優れた,あるいは高い競争力を発揮することを示す。
特にReDiSCは、従来の構造化拡散法が計算制約によって失敗する大規模データセットに効果的にスケールする。
論文 参考訳(メタデータ) (2025-07-19T04:46:53Z) - Learning local discrete features in explainable-by-design convolutional neural networks [0.0]
本稿では,側方抑制機構に基づくCNN(Design-by-Design Convolutional Neural Network)を提案する。
このモデルは、残留または高密度のスキップ接続を持つ高精度CNNである予測器で構成されている。
観測を収集し,直接確率を計算することにより,隣接するレベルのモチーフ間の因果関係を説明することができる。
論文 参考訳(メタデータ) (2024-10-31T18:39:41Z) - Joint Diffusion Processes as an Inductive Bias in Sheaf Neural Networks [14.224234978509026]
せん断ニューラルネットワーク(SNN)は自然にグラフニューラルネットワーク(GNN)を拡張する
構造図をより直感的に理解するための2つの新しいせん断学習手法を提案する。
評価では,これまでのSNNで使用されている実世界のベンチマークの限界を示す。
論文 参考訳(メタデータ) (2024-07-30T07:17:46Z) - Bundle Neural Networks for message diffusion on graphs [28.19981068815194]
結合ニューラルネットワーク(BuNN)は,任意のグラフ上の任意の特徴変換をインジェクティブな位置符号化で近似できることを示す。
また、BuNNが任意のグラフの族上の任意の特徴変換を近似して、任意の射影的位置エンコーディングを行えば、普遍的なノードレベルの表現性が得られることを証明した。
論文 参考訳(メタデータ) (2024-05-24T13:28:48Z) - SCAAT: Improving Neural Network Interpretability via Saliency
Constrained Adaptive Adversarial Training [10.716021768803433]
サリエンシマップは、特徴属性のヒートマップを示す一般的な説明形式である。
本研究では,DNNの解釈能力を向上させるために,Saliency Constrained Adversarial Training (SCAAT) と呼ばれるモデルに依存しない学習手法を提案する。
論文 参考訳(メタデータ) (2023-11-09T04:48:38Z) - Geometric Graph Filters and Neural Networks: Limit Properties and
Discriminability Trade-offs [122.06927400759021]
本稿では,グラフニューラルネットワーク (GNN) と多様体ニューラルネットワーク (MNN) の関係について検討する。
これらのグラフ上の畳み込みフィルタとニューラルネットワークが連続多様体上の畳み込みフィルタとニューラルネットワークに収束することを示す。
論文 参考訳(メタデータ) (2023-05-29T08:27:17Z) - Entangled Residual Mappings [59.02488598557491]
残余接続の構造を一般化するために、絡み合った残余写像を導入する。
絡み合い残余写像は、アイデンティティスキップ接続を特別な絡み合い写像に置き換える。
絡み合った写像は、様々な深層モデルにまたがる特徴の反復的洗練を保ちながら、畳み込みネットワークにおける表現学習プロセスに影響を及ぼすことを示す。
論文 参考訳(メタデータ) (2022-06-02T19:36:03Z) - Deep Architecture Connectivity Matters for Its Convergence: A
Fine-Grained Analysis [94.64007376939735]
我々は、勾配降下訓練におけるディープニューラルネットワーク(DNN)の収束に対する接続パターンの影響を理論的に特徴づける。
接続パターンの単純なフィルタリングによって、評価対象のモデルの数を削減できることが示される。
論文 参考訳(メタデータ) (2022-05-11T17:43:54Z) - Learning Chebyshev Basis in Graph Convolutional Networks for
Skeleton-based Action Recognition [14.924672048447338]
スペクトルグラフ畳み込みネットワーク(GCN)は、ニューラルネットワークを任意の不規則領域に拡張することを目的とした、特に深いモデルである。
通常の畳み込みパラメータだけでなくラプラシア作用素も学習する新しいスペクトルGCNを導入する。
論文 参考訳(メタデータ) (2021-04-12T14:08:58Z) - Discriminability of Single-Layer Graph Neural Networks [172.5042368548269]
グラフニューラルネットワーク(GNN)は、幅広い問題について有望な性能を示した。
本稿では, 識別可能性の特性に着目し, 安定グラフフィルタバンクへのポイントワイド非線形性の適用により, 高固有値コンテンツに対する識別能力が向上する条件を確立する。
論文 参考訳(メタデータ) (2020-10-17T18:52:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。