論文の概要: On the Sheafification of Higher-Order Message Passing
- arxiv url: http://arxiv.org/abs/2509.23020v1
- Date: Sat, 27 Sep 2025 00:33:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-30 22:32:18.986893
- Title: On the Sheafification of Higher-Order Message Passing
- Title(参考訳): 高次メッセージパッシングの整合性について
- Authors: Jacob Hume, Pietro Liò,
- Abstract要約: トポロジカルディープラーニング(TDL)における最近の研究は、グラフ学習の卓越した$message passing$パラダイムをより複雑な構造に一般化しようとしている。
そのような高次メッセージパッシング(HOMP)に対する多くのアプローチは、ホッジ・ラプラシアンの非線形拡散という観点からの定式化を認めている。
しかし、高い階調では、ホッジ・ラプラシアンの偏見はより不透明であり、さらに退化する可能性がある。
- 参考スコア(独自算出の注目度): 12.742362967590417
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent work in Topological Deep Learning (TDL) seeks to generalize graph learning's preeminent $message \ passing$ paradigm to more complex relational structures: simplicial complexes, cell complexes, hypergraphs, and combinations thereof. Many approaches to such ${higher\text{-}order \ message \ passing}$ (HOMP) admit formulation in terms of nonlinear diffusion with the Hodge (combinatorial) Laplacian, a graded operator which carries an inductive bias that dimension-$k$ data features correlate with dimension-$k$ topological features encoded in the (singular) cohomology of the underlying domain. For $k=0$ this recovers the graph Laplacian and its well-studied homophily bias. In higher gradings, however, the Hodge Laplacian's bias is more opaque and potentially even degenerate. In this essay, we position sheaf theory as a natural and principled formalism for modifying the Hodge Laplacian's diffusion-mediated interface between local and global descriptors toward more expressive message passing. The sheaf Laplacian's inductive bias correlates dimension-$k$ data features with dimension-$k$ $sheaf$ cohomology, a data-aware generalization of singular cohomology. We will contextualize and novelly extend prior theory on sheaf diffusion in graph learning ($k=0$) in such a light -- and explore how it fails to generalize to $k>0$ -- before developing novel theory and practice for the higher-order setting. Our exposition is accompanied by a self-contained introduction shepherding sheaves from the abstract to the applied.
- Abstract(参考訳): トポロジカルディープラーニング(TDL)における最近の研究は、グラフ学習の卓越した$message \ passing$パラダイムをより複雑な関係構造(simplicial complex, cell complex, hypergraphs, and combinations)に一般化しようとしている。
そのような${higher\text{-}order \ message \ passing}$ (HOMP) への多くのアプローチは、基底領域の(特異)コホモロジーにエンコードされた次元-$k$データ特徴と相関する誘導バイアスを持つ次数付き作用素であるホッジ(組合せ)ラプラシアンとの非線形拡散という観点からの定式化を認める。
k=0$ の場合、これはグラフラプラシアンとそのよく研究されたホモフィリーバイアスを回復する。
しかし、高い階調では、ホッジ・ラプラシアンの偏見はより不透明であり、さらに退化する可能性がある。
このエッセイでは、より表現力のあるメッセージパッシングに向けて、局所的およびグローバルな記述子間のHodge Laplacianの拡散を媒介とするインターフェースを修正するための自然で原理的な形式主義として、層理論を位置づけている。
層ラプラシアンの帰納バイアスは次元-$k$データ特徴と次元-$k$$$sheaf$コホモロジーと相関する。
このような光のグラフ学習におけるせん断拡散に関する先行理論(k=0$)を文脈化し、新規に拡張し、高階設定のための新しい理論と実践を開発する前に、どのようにして$k>0$に一般化できないかを探求する。
我々の展示には抽象から応用まで自己完結型シェパードシーブが添付されている。
関連論文リスト
- Persistent de Rham-Hodge Laplacians in Eulerian representation for manifold topological learning [7.0103981121698355]
多様体トポロジカルラーニングのための持続的ド・ラム・ホッジ・ラプラシアン(英語版)、または持続的ホッジ・ラプラシアン(英語版)を導入する。
我々のPHLは、カルテシアン格子を構造パーバーするユーレリア表現で構築されている。
本稿では,タンパク質-リガンド結合親和性の2つのベンチマークデータセットによる予測について考察する。
論文 参考訳(メタデータ) (2024-08-01T01:15:52Z) - Conformal inference for regression on Riemannian Manifolds [45.560812800359685]
回帰シナリオの予測セットは、応答変数が$Y$で、多様体に存在し、共変変数が$X$で、ユークリッド空間にあるときに検討する。
我々は、多様体上のこれらの領域の経験的バージョンが、その集団に対するほぼ確実に収束していることを証明する。
論文 参考訳(メタデータ) (2023-10-12T10:56:25Z) - DIFFormer: Scalable (Graph) Transformers Induced by Energy Constrained
Diffusion [66.21290235237808]
本稿では,データセットからのインスタンスのバッチを進化状態にエンコードするエネルギー制約拡散モデルを提案する。
任意のインスタンス対間の対拡散強度に対する閉形式最適推定を示唆する厳密な理論を提供する。
各種タスクにおいて優れた性能を有する汎用エンコーダバックボーンとして,本モデルの適用性を示す実験を行った。
論文 参考訳(メタデータ) (2023-01-23T15:18:54Z) - Deep Invertible Approximation of Topologically Rich Maps between
Manifolds [17.60434807901964]
位相的に興味深い多様体間の写像を安定に近似できるニューラルネットワークの設計法を示す。
局所ビリプシッツ写像、被覆空間、局所同相写像の間の位相的平行性を利用して、$mathcalT circ p circ MathcalE$ という形の新しいネットワークが局所微分同相の普遍近似器であることが分かる。
また、分子の分子イメージングを対称性で処理するためのアーキテクチャの拡張の可能性についても概説する。
論文 参考訳(メタデータ) (2022-10-02T17:14:43Z) - The Manifold Hypothesis for Gradient-Based Explanations [55.01671263121624]
勾配に基づく説明アルゴリズムは知覚的に整合した説明を提供する。
特徴属性がデータの接する空間と一致しているほど、知覚的に一致している傾向にあることを示す。
説明アルゴリズムは、その説明をデータ多様体と整合させるよう積極的に努力すべきである。
論文 参考訳(メタデータ) (2022-06-15T08:49:24Z) - Neural Sheaf Diffusion: A Topological Perspective on Heterophily and
Oversmoothing in GNNs [16.88394293874848]
セルラーシーフ理論を用いて、グラフの基盤となる幾何学がGNNの性能と深く関連していることを示す。
一般化されたシーブの階層構造を考慮し、無限時間極限におけるクラスの線形分離を実現するための層拡散過程の能力がいかに拡大するかを考察する。
我々は, せん断が非自明な場合, 離散パラメトリック拡散過程はGNNよりもその挙動を制御できることを証明した。
論文 参考訳(メタデータ) (2022-02-09T17:25:02Z) - Dist2Cycle: A Simplicial Neural Network for Homology Localization [66.15805004725809]
単純複体は多方向順序関係を明示的にエンコードするグラフの高次元一般化と見なすことができる。
単体錯体の$k$-homological特徴によってパラメータ化された関数のグラフ畳み込みモデルを提案する。
論文 参考訳(メタデータ) (2021-10-28T14:59:41Z) - A Precise High-Dimensional Asymptotic Theory for Boosting and
Minimum-$\ell_1$-Norm Interpolated Classifiers [3.167685495996986]
本稿では,分離可能なデータの強化に関する高精度な高次元理論を確立する。
統計モデルのクラスでは、ブースティングの普遍性誤差を正確に解析する。
また, 推力試験誤差と最適ベイズ誤差の関係を明示的に説明する。
論文 参考訳(メタデータ) (2020-02-05T00:24:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。