論文の概要: Discrete Curvature Graph Information Bottleneck
- arxiv url: http://arxiv.org/abs/2412.19993v1
- Date: Sat, 28 Dec 2024 03:33:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-31 16:05:33.620488
- Title: Discrete Curvature Graph Information Bottleneck
- Title(参考訳): 離散曲率グラフ情報ボトルネック
- Authors: Xingcheng Fu, Jian Wang, Yisen Gao, Qingyun Sun, Haonan Yuan, Jianxin Li, Xianxian Li,
- Abstract要約: 本稿では,情報伝達構造を最適化する新しい離散曲率グラフ情報ボトルネック(CurvGIB)フレームワークを提案する。
CurvGIBは、リッチ曲率最適化のための変分情報ボトルネック(VIB)の原理を進化させ、最適な情報伝達パターンを学習する。
様々なデータセットの実験は、CurvGIBの優れた有効性と解釈可能性を示している。
- 参考スコア(独自算出の注目度): 15.867882286328774
- License:
- Abstract: Graph neural networks(GNNs) have been demonstrated to depend on whether the node effective information is sufficiently passing. Discrete curvature (Ricci curvature) is used to study graph connectivity and information propagation efficiency with a geometric perspective, and has been raised in recent years to explore the efficient message-passing structure of GNNs. However, most empirical studies are based on directly observed graph structures or heuristic topological assumptions and lack in-depth exploration of underlying optimal information transport structures for downstream tasks. We suggest that graph curvature optimization is more in-depth and essential than directly rewiring or learning for graph structure with richer message-passing characterization and better information transport interpretability. From both graph geometry and information theory perspectives, we propose the novel Discrete Curvature Graph Information Bottleneck (CurvGIB) framework to optimize the information transport structure and learn better node representations simultaneously. CurvGIB advances the Variational Information Bottleneck (VIB) principle for Ricci curvature optimization to learn the optimal information transport pattern for specific downstream tasks. The learned Ricci curvature is used to refine the optimal transport structure of the graph, and the node representation is fully and efficiently learned. Moreover, for the computational complexity of Ricci curvature differentiation, we combine Ricci flow and VIB to deduce a curvature optimization approximation to form a tractable IB objective function. Extensive experiments on various datasets demonstrate the superior effectiveness and interpretability of CurvGIB.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)は、ノードの有効情報が十分に通過しているかどうかに依存することが示されている。
離散曲率 (Ricci curvature) はグラフ接続性や情報伝搬効率を幾何学的視点で研究するために用いられ、近年ではGNNの効率的なメッセージパッシング構造を探るために研究が進められている。
しかし、ほとんどの経験的研究は、直接観測されたグラフ構造やヒューリスティックな位相的仮定に基づいており、下流のタスクに最適な情報伝達構造を深く探究することができない。
グラフの曲率最適化は、よりリッチなメッセージパス特性とより優れた情報伝達の解釈性を備えたグラフ構造を直接書き換えたり学習したりすることよりも、奥行きが深く、必要不可欠なものであることを示唆する。
グラフ幾何学と情報理論の両方の観点から,情報伝達構造を最適化し,ノード表現を同時に学習する新しい離散曲率グラフ情報ボトルネック(CurvGIB)フレームワークを提案する。
CurvGIBは、リッチ曲率最適化のための変動情報ボトルネック(VIB)の原理を進化させ、特定の下流タスクに最適な情報伝達パターンを学習する。
学習したリッチ曲率を用いてグラフの最適輸送構造を洗練し、ノード表現を完全に効率よく学習する。
さらに、リッチ曲率微分の計算複雑性について、リッチフローとVIBを組み合わせて曲率最適化近似を導出し、トラクタブルなIB目的関数を形成する。
様々なデータセットに対する大規模な実験は、CurvGIBの優れた有効性と解釈可能性を示している。
関連論文リスト
- Learning to Model Graph Structural Information on MLPs via Graph Structure Self-Contrasting [50.181824673039436]
本稿では,グラフ構造情報をメッセージパッシングなしで学習するグラフ構造自己コントラスト(GSSC)フレームワークを提案する。
提案するフレームワークは,構造情報を事前知識として暗黙的にのみ組み込む,MLP(Multi-Layer Perceptrons)に基づいている。
これはまず、近傍の潜在的非形式的あるいはノイズの多いエッジを取り除くために構造的スペーシングを適用し、その後、スペーシングされた近傍で構造的自己コントラストを行い、ロバストなノード表現を学ぶ。
論文 参考訳(メタデータ) (2024-09-09T12:56:02Z) - Revealing Decurve Flows for Generalized Graph Propagation [108.80758541147418]
本研究は,有向グラフと重み付きグラフを用いて,m文を一般化した伝播を定義することによって,従来のメッセージパッシング(中心からグラフ学習)の限界に対処する。
この分野ではじめて、データセットにおける学習された伝播パターンの予備的な探索を含む。
論文 参考訳(メタデータ) (2024-02-13T14:13:17Z) - Fast Graph Condensation with Structure-based Neural Tangent Kernel [30.098666399404287]
グラフ構造化データのための新しいデータセット凝縮フレームワーク(GC-SNTK)を提案する。
構造ベースのニューラルタンジェントカーネル(SNTK)はグラフのトポロジを捉えるために開発され、KRRパラダイムのカーネル関数として機能する。
高い予測性能を維持しつつ,グラフ凝縮の高速化における提案モデルの有効性を示す実験を行った。
論文 参考訳(メタデータ) (2023-10-17T07:25:59Z) - GraphGLOW: Universal and Generalizable Structure Learning for Graph
Neural Networks [72.01829954658889]
本稿では,この新たな問題設定の数学的定義を紹介する。
一つのグラフ共有構造学習者と複数のグラフ固有GNNを協調する一般的なフレームワークを考案する。
十分に訓練された構造学習者は、微調整なしで、目に見えない対象グラフの適応的な構造を直接生成することができる。
論文 参考訳(メタデータ) (2023-06-20T03:33:22Z) - Joint Feature and Differentiable $ k $-NN Graph Learning using Dirichlet
Energy [103.74640329539389]
特徴選択と識別可能な$k $-NNグラフ学習を同時に行うディープFS法を提案する。
我々は、ニューラルネットワークで$ k $-NNグラフを学習する際の非微分可能性問題に対処するために、最適輸送理論を用いる。
本モデルの有効性を,合成データセットと実世界のデータセットの両方で広範な実験により検証する。
論文 参考訳(メタデータ) (2023-05-21T08:15:55Z) - Optimal Propagation for Graph Neural Networks [51.08426265813481]
最適グラフ構造を学習するための二段階最適化手法を提案する。
また、時間的複雑さをさらに軽減するために、低ランク近似モデルについても検討する。
論文 参考訳(メタデータ) (2022-05-06T03:37:00Z) - Graph Structure Learning with Variational Information Bottleneck [70.62851953251253]
本稿では,新しい変分情報ボトルネックガイド付きグラフ構造学習フレームワーク,すなわちVIB-GSLを提案する。
VIB-GSLは情報的かつ圧縮的なグラフ構造を学習し、特定の下流タスクに対して実行可能な情報を蒸留する。
論文 参考訳(メタデータ) (2021-12-16T14:22:13Z) - Curvature Graph Neural Network [8.477559786537919]
離散グラフ曲率(リッチ曲率)を導入し、対ノードの構造接続の強度を定量化する。
GNNの適応的局所性能力を効果的に向上する曲線グラフニューラルネットワーク(CGNN)を提案する。
合成データセットの実験結果から,CGNNはトポロジ構造情報を効果的に活用していることがわかった。
論文 参考訳(メタデータ) (2021-06-30T00:56:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。