論文の概要: Dynamic Graph Structure Learning via Resistance Curvature Flow
- arxiv url: http://arxiv.org/abs/2601.08149v1
- Date: Tue, 13 Jan 2026 02:23:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-14 18:27:19.023583
- Title: Dynamic Graph Structure Learning via Resistance Curvature Flow
- Title(参考訳): 抵抗曲率流による動的グラフ構造学習
- Authors: Chaoqun Fei, Huanjiang Liu, Tinglve Zhou, Yangyang Li, Tianyong Hao,
- Abstract要約: Geometric Representation Learningは、離散グラフ構造を通して高次元データの非ユークリッド位相を近似することを目的としている。
ユークリッド距離に基づく従来の静的グラフ構築法は、データ多様体の固有曲率特性を捉えるのに失敗することが多い。
本稿では、新しい幾何学的進化の枠組みである抵抗曲率フロー(RCF)を提案する。
- 参考スコア(独自算出の注目度): 8.07689343442439
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Geometric Representation Learning (GRL) aims to approximate the non-Euclidean topology of high-dimensional data through discrete graph structures, grounded in the manifold hypothesis. However, traditional static graph construction methods based on Euclidean distance often fail to capture the intrinsic curvature characteristics of the data manifold. Although Ollivier-Ricci Curvature Flow (OCF) has proven to be a powerful tool for dynamic topological optimization, its core reliance on Optimal Transport (Wasserstein distance) leads to prohibitive computational complexity, severely limiting its application in large-scale datasets and deep learning frameworks. To break this bottleneck, this paper proposes a novel geometric evolution framework: Resistance Curvature Flow (RCF). Leveraging the concept of effective resistance from circuit physics, RCF transforms expensive curvature optimization into efficient matrix operations. This approach achieves over 100x computational acceleration while maintaining geometric optimization capabilities comparable to OCF. We provide an in-depth exploration of the theoretical foundations and dynamical principles of RCF, elucidating how it guides the redistribution of edge weights via curvature gradients to eliminate topological noise and strengthen local cluster structures. Furthermore, we provide a mechanistic explanation of RCF's role in manifold enhancement and noise suppression, as well as its compatibility with deep learning models. We design a graph optimization algorithm, DGSL-RCF, based on this framework. Experimental results across deep metric learning, manifold learning, and graph structure learning demonstrate that DGSL-RCF significantly improves representation quality and downstream task performance.
- Abstract(参考訳): Geometric Representation Learning (GRL) は、高次元データの非ユークリッド位相を、多様体仮説に基づく離散グラフ構造によって近似することを目的としている。
しかし、ユークリッド距離に基づく従来の静的グラフ構築法は、データ多様体の固有曲率特性を捉えることができないことが多い。
Ollivier-Ricci Curvature Flow (OCF)は、動的トポロジ的最適化のための強力なツールであることが証明されているが、その中核となるのは、最適輸送(ワッサースタイン距離)に依存しているため、計算の複雑さが禁止され、大規模なデータセットやディープラーニングフレームワークでの応用が著しく制限される。
本稿では,このボトルネックを克服するために,新しい幾何学的進化の枠組みである抵抗曲率フロー(RCF)を提案する。
RCFは、回路物理学の効果的な抵抗の概念を活用し、高価な曲率最適化を効率的な行列演算に変換する。
このアプローチは、OCFに匹敵する幾何最適化能力を維持しながら、100倍以上の計算加速度を達成する。
本稿では, RCFの理論的基礎と力学原理を深く探求し, 曲率勾配によるエッジウェイトの再分配を導いて, トポロジカルノイズを排除し, 局所クラスタ構造を強化する方法について検討する。
さらに,RCFが多様体拡張や雑音抑制において果たす役割や,ディープラーニングモデルとの整合性についても論じる。
本手法に基づいてグラフ最適化アルゴリズムDGSL-RCFを設計する。
DGSL-RCFは,ディープラーニング,多様体学習,グラフ構造学習にまたがる実験結果から,表現品質と下流タスク性能を著しく向上させることが示された。
関連論文リスト
- Gradient Descent as a Perceptron Algorithm: Understanding Dynamics and Implicit Acceleration [67.12978375116599]
勾配降下(GD)のステップが一般化されたパーセプトロンアルゴリズムのステップに還元されることを示す。
これは、ニューラルネットワークで観測される最適化力学と暗黙の加速現象を説明するのに役立つ。
論文 参考訳(メタデータ) (2025-12-12T14:16:35Z) - Efficient Curvature-aware Graph Network [8.665262442928217]
本稿では,グラフエッジに沿ったメッセージパッシングの容易さを定量化する新しいグラフ曲率尺度-効果抵抗曲率-を提案する。
有効抵抗曲率の計算複雑性を低く証明し,Ollivier-Ricci曲率の置換性を確立する。
論文 参考訳(メタデータ) (2025-11-03T10:51:58Z) - Curvature Learning for Generalization of Hyperbolic Neural Networks [51.888534247573894]
ハイパーボリックニューラルネットワーク(HNN)は,階層構造を持つ実世界のデータを表現する上で,顕著な有効性を示している。
不適切な曲率により、HNNは最適以下のパラメータに収束し、全体的な性能が低下する可能性がある。
本研究では,損失景観の平滑化を図り,HNNの一般化を向上するシャープネス対応曲率学習法を提案する。
論文 参考訳(メタデータ) (2025-08-24T07:14:30Z) - Geometry-Aware Spiking Graph Neural Network [24.920334588995072]
本稿では,スパイクに基づくニューラルダイナミクスを適応表現学習と統合するGeometry-Aware Spiking Graph Neural Networkを提案する。
複数のベンチマーク実験により、GSGはユークリッドSNNと多様体ベースGNNと比較して精度、堅牢性、エネルギー効率が優れていることが示された。
論文 参考訳(メタデータ) (2025-08-09T02:52:38Z) - Flows and Diffusions on the Neural Manifold [0.0]
拡散およびフローベース生成モデルは、画像合成、ビデオ生成、自然言語モデリングといった領域で顕著に成功している。
本研究では、最近の手法を活用して、これらの進歩を重み空間学習に拡張し、最適化力学から導かれる構造的事前を組み込む。
我々は,勾配流の整合性を考慮した軌道推論手法を統一し,最適化経路を帰納バイアスとして扱うための理論的枠組みを提供する。
論文 参考訳(メタデータ) (2025-07-14T02:26:06Z) - Generalization Bound of Gradient Flow through Training Trajectory and Data-dependent Kernel [55.82768375605861]
我々は、カーネル法における古典的ラデマッハ複雑性と整合する勾配流の一般化を確立する。
NTKのような静的カーネルとは異なり、LPKはトレーニング軌跡全体をキャプチャし、データと最適化の両方に適応する。
論文 参考訳(メタデータ) (2025-06-12T23:17:09Z) - Discrete Curvature Graph Information Bottleneck [15.867882286328774]
本稿では,情報伝達構造を最適化する新しい離散曲率グラフ情報ボトルネック(CurvGIB)フレームワークを提案する。
CurvGIBは、リッチ曲率最適化のための変分情報ボトルネック(VIB)の原理を進化させ、最適な情報伝達パターンを学習する。
様々なデータセットの実験は、CurvGIBの優れた有効性と解釈可能性を示している。
論文 参考訳(メタデータ) (2024-12-28T03:33:55Z) - On the Generalization Capability of Temporal Graph Learning Algorithms:
Theoretical Insights and a Simpler Method [59.52204415829695]
テンポラルグラフ学習(TGL)は、様々な現実世界のアプリケーションにまたがる一般的なテクニックとなっている。
本稿では,異なるTGLアルゴリズムの一般化能力について検討する。
一般化誤差が小さく、全体的な性能が向上し、モデルの複雑さが低下する単純化されたTGLネットワークを提案する。
論文 参考訳(メタデータ) (2024-02-26T08:22:22Z) - Revealing Decurve Flows for Generalized Graph Propagation [108.80758541147418]
本研究は,有向グラフと重み付きグラフを用いて,m文を一般化した伝播を定義することによって,従来のメッセージパッシング(中心からグラフ学習)の限界に対処する。
この分野ではじめて、データセットにおける学習された伝播パターンの予備的な探索を含む。
論文 参考訳(メタデータ) (2024-02-13T14:13:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。