論文の概要: Complex-Weighted Convolutional Networks: Provable Expressiveness via Complex Diffusion
- arxiv url: http://arxiv.org/abs/2511.13937v1
- Date: Mon, 17 Nov 2025 21:45:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-19 16:23:52.813733
- Title: Complex-Weighted Convolutional Networks: Provable Expressiveness via Complex Diffusion
- Title(参考訳): 複雑重畳畳み込みネットワーク:複素拡散による予測表現性
- Authors: Cristina López Amado, Tassilo Schwarz, Yu Tian, Renaud Lambiotte,
- Abstract要約: グラフニューラルネットワーク(GNN)は、様々なアプリケーションで顕著な成功を収めていますが、ヘテロ親和性のあるグラフ上での過度なスムーシングと低パフォーマンスによって制限され続けています。
グラフに複素重み付き構造を持たせる新しいフレームワークを導入し、各エッジに複素数を与え、ランダムなウォークを複素領域に拡大する拡散過程を駆動する。
本稿では,データから直接適切な複素重み付き構造を学習する複合重み付き畳み込みネットワーク(CWCN)を提案する。
- 参考スコア(独自算出の注目度): 5.766027446111051
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Graph Neural Networks (GNNs) have achieved remarkable success across diverse applications, yet they remain limited by oversmoothing and poor performance on heterophilic graphs. To address these challenges, we introduce a novel framework that equips graphs with a complex-weighted structure, assigning each edge a complex number to drive a diffusion process that extends random walks into the complex domain. We prove that this diffusion is highly expressive: with appropriately chosen complex weights, any node-classification task can be solved in the steady state of a complex random walk. Building on this insight, we propose the Complex-Weighted Convolutional Network (CWCN), which learns suitable complex-weighted structures directly from data while enriching diffusion with learnable matrices and nonlinear activations. CWCN is simple to implement, requires no additional hyperparameters beyond those of standard GNNs, and achieves competitive performance on benchmark datasets. Our results demonstrate that complex-weighted diffusion provides a principled and general mechanism for enhancing GNN expressiveness, opening new avenues for models that are both theoretically grounded and practically effective.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)は、様々なアプリケーションで顕著な成功を収めていますが、ヘテロ親和性のあるグラフ上での過度なスムーシングと低パフォーマンスによって制限され続けています。
これらの課題に対処するため、我々はグラフに複素重み付き構造を持たせる新しいフレームワークを導入し、各エッジに複素数を与え、ランダムに複素領域に足を踏み入れる拡散過程を駆動する。
適切に選択された複素重みで、任意のノード分類タスクは、複素ランダムウォークの定常状態で解決できる。
この知見に基づいて,学習可能な行列と非線形アクティベーションとの拡散を豊かにしながら,データから直接適切な複素重み付き構造を学習する複合重み付き畳み込みネットワーク(CWCN)を提案する。
CWCNは実装が簡単で、標準のGNN以外のハイパーパラメータを必要とせず、ベンチマークデータセット上での競合的なパフォーマンスを実現する。
本研究は,GNN表現性を向上し,理論的基盤と実用的有効性を両立するモデルに新たな道を開くための原理的,汎用的なメカニズムを提供するものであることを示す。
関連論文リスト
- High-Fidelity Scientific Simulation Surrogates via Adaptive Implicit Neural Representations [51.90920900332569]
入射神経表現(INR)は空間的に構造化されたデータをモデリングするためのコンパクトで連続的なフレームワークを提供する。
近年のアプローチでは、剛性幾何学的構造に沿った付加的な特徴を導入することでこの問題に対処している。
機能適応型INR(FA-INR)を提案する。
論文 参考訳(メタデータ) (2025-06-07T16:45:17Z) - Continuous Simplicial Neural Networks [14.60720265850122]
連続単純ニューラルネットワーク(COSIMO)を導入する。
COSIMOは、単純錯体上の偏微分方程式(PDE)から派生した新しいSNNアーキテクチャである。
複雑でノイズの多い環境下では,COSIMOは最先端のSNNと比較して競争性能が高いことを示す。
論文 参考訳(メタデータ) (2025-03-17T08:31:25Z) - Higher-order Graph Convolutional Network with Flower-Petals Laplacians
on Simplicial Complexes [5.838832985156104]
FPラプラシアンをsimplicial Complex(SC)に組み込んだ高次フラワー・ペタールス(FP)モデルを提案する。
また、FPラプラシアンを基盤とした高階グラフ畳み込みネットワーク(HiGCN)を導入し、様々な位相スケールで固有の特徴を識別する。
HiGCNは、様々なグラフタスクにおける最先端のパフォーマンスを達成し、グラフにおける高次相互作用を探索するためのスケーラブルで柔軟なソリューションを提供する。
論文 参考訳(メタデータ) (2023-09-22T16:11:17Z) - DIFFormer: Scalable (Graph) Transformers Induced by Energy Constrained
Diffusion [66.21290235237808]
本稿では,データセットからのインスタンスのバッチを進化状態にエンコードするエネルギー制約拡散モデルを提案する。
任意のインスタンス対間の対拡散強度に対する閉形式最適推定を示唆する厳密な理論を提供する。
各種タスクにおいて優れた性能を有する汎用エンコーダバックボーンとして,本モデルの適用性を示す実験を行った。
論文 参考訳(メタデータ) (2023-01-23T15:18:54Z) - Simple and Efficient Heterogeneous Graph Neural Network [55.56564522532328]
不均一グラフニューラルネットワーク(HGNN)は、不均一グラフの豊富な構造的および意味的な情報をノード表現に埋め込む強力な能力を持つ。
既存のHGNNは、同種グラフ上のグラフニューラルネットワーク(GNN)から多くのメカニズム、特に注意機構と多層構造を継承する。
本稿では,これらのメカニズムを詳細に検討し,簡便かつ効率的なヘテロジニアスグラフニューラルネットワーク(SeHGNN)を提案する。
論文 参考訳(メタデータ) (2022-07-06T10:01:46Z) - Deep Architecture Connectivity Matters for Its Convergence: A
Fine-Grained Analysis [94.64007376939735]
我々は、勾配降下訓練におけるディープニューラルネットワーク(DNN)の収束に対する接続パターンの影響を理論的に特徴づける。
接続パターンの単純なフィルタリングによって、評価対象のモデルの数を削減できることが示される。
論文 参考訳(メタデータ) (2022-05-11T17:43:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。