論文の概要: Polynomial Neural Sheaf Diffusion: A Spectral Filtering Approach on Cellular Sheaves
- arxiv url: http://arxiv.org/abs/2512.00242v1
- Date: Fri, 28 Nov 2025 23:10:54 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-02 19:46:34.127029
- Title: Polynomial Neural Sheaf Diffusion: A Spectral Filtering Approach on Cellular Sheaves
- Title(参考訳): ポリノミアルニューラルシーフ拡散 : 細胞シーブのスペクトルフィルタリング法
- Authors: Alessio Borgi, Fabrizio Silvestri, Pietro Liò,
- Abstract要約: シーフニューラルネットワークは、局所ベクトル空間(ストーク)を割り当てる幾何学構造と、ノードやエッジへの線形学習可能な制限/転送マップを割り当てる。
正規化層ラプラシアンにおいて,伝播作用素が次数-Kである新しい層拡散法であるPolyNSDを導入する。
- 参考スコア(独自算出の注目度): 23.06390960959433
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Sheaf Neural Networks equip graph structures with a cellular sheaf: a geometric structure which assigns local vector spaces (stalks) and a linear learnable restriction/transport maps to nodes and edges, yielding an edge-aware inductive bias that handles heterophily and limits oversmoothing. However, common Neural Sheaf Diffusion implementations rely on SVD-based sheaf normalization and dense per-edge restriction maps, which scale with stalk dimension, require frequent Laplacian rebuilds, and yield brittle gradients. To address these limitations, we introduce Polynomial Neural Sheaf Diffusion (PolyNSD), a new sheaf diffusion approach whose propagation operator is a degree-K polynomial in a normalised sheaf Laplacian, evaluated via a stable three-term recurrence on a spectrally rescaled operator. This provides an explicit K-hop receptive field in a single layer (independently of the stalk dimension), with a trainable spectral response obtained as a convex mixture of K+1 orthogonal polynomial basis responses. PolyNSD enforces stability via convex mixtures, spectral rescaling, and residual/gated paths, reaching new state-of-the-art results on both homophilic and heterophilic benchmarks, inverting the Neural Sheaf Diffusion trend by obtaining these results with just diagonal restriction maps, decoupling performance from large stalk dimension, while reducing runtime and memory requirements.
- Abstract(参考訳): シーフニューラルネットワークは、局所ベクトル空間(ストークス)を割り当てる幾何学構造と、ノードとエッジに線形に学習可能な制限/転送マップを割り当て、ヘテロフィリーに対処し、過剰なスムースを制限するエッジ認識誘導バイアスを与える。
しかし、一般的なニューラルシーフ拡散の実装は、SVDベースのシーフ正規化と、ストーク次元で拡大し、ラプラシアの頻繁な再構築を必要とし、脆度勾配を生じるような、密集したエッジごとの制限写像に依存している。
これらの制約に対処するため,正規化層ラプラシアンの次数-K多項式を伝播演算子とする新しい層拡散法であるPolyNSDを導入する。
これは、K+1直交多項式基底応答の凸混合として得られる訓練可能なスペクトル応答を単一の層(ストーク次元とは独立に)に明示的なKホップ受容場を与える。
PolyNSDは凸混合、スペクトル再スケーリング、残留/ゲート経路を通した安定性を強制し、同好性ベンチマークとヘテロフィル性ベンチマークの両方で新たな最先端結果に到達し、これらの結果を単に斜めの制限写像で取得し、大きなストーク次元から性能を分離し、ランタイムとメモリ要求を低減し、ニューラルシーフ拡散傾向を逆転させる。
関連論文リスト
- Quantum-Inspired Tensor Networks for Approximating PDE Flow Maps [1.7887197093662073]
流体力学偏微分方程式(PDE)のフローマップの近似のための量子インスパイアされたテンソルネットワーク(QTN)について検討する。
テンソル化後に現われる効果的な低ランク構造により、PDE状態を行列積状態(MPS)として符号化する。
一次元および二次元の線形対流拡散と非線形粘性バーガース方程式の実験は、正確な短水平予測、滑らかな拡散状態における良好なスケーリング、非線形多段階予測における誤差成長を示す。
論文 参考訳(メタデータ) (2026-02-16T10:06:19Z) - Structure-Informed Estimation for Pilot-Limited MIMO Channels via Tensor Decomposition [51.56484100374058]
本稿では、スパース観測から低ランクテンソル完備化としてパイロットリミテッドチャネル推定を定式化する。
合成チャネル実験による最小二乗平均二乗誤差(NMSE)の最小二乗平均誤差(LS)に対する改善
DeepMIMO線トレーシングチャネルの評価では、純粋なテンソル法よりも24-44%NMSEが減少している。
論文 参考訳(メタデータ) (2026-02-03T23:38:05Z) - Manifold limit for the training of shallow graph convolutional neural networks [1.2744523252873352]
本研究では,浅部グラフ畳み込みニューラルネットワーク(GCNN)のサンプル点雲近傍グラフにおけるトレーニングの整合性について検討した。
我々は、正規化された経験的リスク最小化関数の$$-convergenceと、それらの大域的最小化関数の対応する収束を証明した。
論文 参考訳(メタデータ) (2026-01-09T18:59:20Z) - The Homogeneity Trap: Spectral Collapse in Doubly-Stochastic Deep Networks [1.7523718031184992]
構造保存深層構造に固有の臨界スペクトル劣化現象を同定する。
最大エントロピーバイアスは混合作用素を均一なバリセンターへ誘導し、従属特異値 を抑えることを示す。
ネットワークの有効深度にリンクするスペクトル境界を導出し、高エントロピー制約が浅層受容場への特徴変換を制限することを示す。
論文 参考訳(メタデータ) (2026-01-05T13:09:42Z) - Sheaf Graph Neural Networks via PAC-Bayes Spectral Optimization [13.021238902084647]
グラフニューラルネットワーク(GNN)のオーバースムース化は、異なるノード機能で崩壊を引き起こす。
SGPC (Sheaf GNNs with PAC-Bayes) は,セルラーシェーフメッセージパッシングと複数のメカニズムを組み合わせた統一アーキテクチャである。
9つのホモ親和性およびヘテロ親和性ベンチマークの実験により、SGPCは最先端スペクトルおよび層ベースGNNよりも優れた性能を示した。
論文 参考訳(メタデータ) (2025-08-01T06:39:28Z) - Low-Rank Tensor Recovery via Variational Schatten-p Quasi-Norm and Jacobian Regularization [49.85875869048434]
暗黙的神経表現のためのニューラルネットワークによりパラメータ化されたCPベースの低ランクテンソル関数を提案する。
本研究では、スペーサーCP分解を実現するために、冗長なランク1成分に変分Schatten-p quasi-normを導入する。
滑らか性のために、ヤコビアンとハッチンソンのトレース推定器のスペクトルノルムに基づく正規化項を提案する。
論文 参考訳(メタデータ) (2025-06-27T11:23:10Z) - Enabling Probabilistic Learning on Manifolds through Double Diffusion Maps [3.081704060720176]
本稿では,PLoM(Probabilistic Learning on Manifolds)アプローチの拡張に基づく確率的サンプリングのための生成学習フレームワークを提案する。
我々は、システム全体の動的複雑さを保ちながら、潜在空間で直接、全順序ISDEを解く。
論文 参考訳(メタデータ) (2025-06-02T20:58:49Z) - Approximation properties of neural ODEs [5.828989070109041]
連続関数空間における浅部ニューラルネットワークの普遍近似特性(UAP)を証明した。
特に、ニューラルネットワークODEのフローマップのリプシッツ定数と重みのノルムを制約し、ネットワークの安定性を高める。
論文 参考訳(メタデータ) (2025-03-19T21:11:28Z) - Stable Nonconvex-Nonconcave Training via Linear Interpolation [51.668052890249726]
本稿では,ニューラルネットワークトレーニングを安定化(大規模)するための原理的手法として,線形アヘッドの理論解析を提案する。
最適化過程の不安定性は、しばしば損失ランドスケープの非単調性によって引き起こされるものであり、非拡張作用素の理論を活用することによって線型性がいかに役立つかを示す。
論文 参考訳(メタデータ) (2023-10-20T12:45:12Z) - Towards Training Without Depth Limits: Batch Normalization Without
Gradient Explosion [83.90492831583997]
バッチ正規化ネットワークは,信号伝搬特性を最適に保ちつつ,爆発的な勾配を回避することができることを示す。
線形アクティベーションとバッチ正規化を備えた多層パーセプトロン(MLP)を用いて,有界深度を実証する。
また、ある非線形活性化に対して同じ特性を経験的に達成する活性化整形法を設計する。
論文 参考訳(メタデータ) (2023-10-03T12:35:02Z) - Convergence of mean-field Langevin dynamics: Time and space
discretization, stochastic gradient, and variance reduction [49.66486092259376]
平均場ランゲヴィンダイナミクス(英: mean-field Langevin dynamics、MFLD)は、分布依存のドリフトを含むランゲヴィン力学の非線形一般化である。
近年の研究では、MFLDは測度空間で機能するエントロピー規則化された凸関数を地球規模で最小化することが示されている。
有限粒子近似,時間分散,勾配近似による誤差を考慮し,MFLDのカオスの均一時間伝播を示す枠組みを提供する。
論文 参考訳(メタデータ) (2023-06-12T16:28:11Z) - Decomposed Diffusion Sampler for Accelerating Large-Scale Inverse
Problems [64.29491112653905]
本稿では, 拡散サンプリング法とクリロフ部分空間法を相乗的に組み合わせた, 新規で効率的な拡散サンプリング手法を提案する。
具体的には、ツイーディの公式による分母化標本における接空間がクリロフ部分空間を成すならば、その分母化データによるCGは、接空間におけるデータの整合性更新を確実に維持する。
提案手法は,従来の最先端手法よりも80倍以上高速な推論時間を実現する。
論文 参考訳(メタデータ) (2023-03-10T07:42:49Z) - Spectra of the Conjugate Kernel and Neural Tangent Kernel for
linear-width neural networks [22.57374777395746]
本研究では,フィードフォワードニューラルネットワークに関連する共役ニューラルカーネルとタンジェントカーネルの固有値について検討する。
CKとNTKの固有値分布は決定論的極限に収束することを示す。
論文 参考訳(メタデータ) (2020-05-25T01:11:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。