論文の概要: Boosting Graph Pooling with Persistent Homology
- arxiv url: http://arxiv.org/abs/2402.16346v1
- Date: Mon, 26 Feb 2024 07:00:24 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-27 14:24:33.443081
- Title: Boosting Graph Pooling with Persistent Homology
- Title(参考訳): 永続的ホモロジーによるグラフポーリングの強化
- Authors: Chaolong Ying, Xinjian Zhao, Tianshu Yu
- Abstract要約: GNN層にPH機能を鼻で接続すると、解釈可能性の低い限界改善が得られる。
本研究では,PHの濾過操作が自然にグラフプーリングを切断的に整列させるという観察に動機づけられた,グローバルなトポロジ的不変性を PH を用いてプール層に注入する新しいメカニズムについて検討する。
実験では,この機構をグラフプーリング手法の集合に適用し,複数の一般的なデータセットに対して一貫した,実質的な性能向上を観察する。
- 参考スコア(独自算出の注目度): 9.52772979855822
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recently, there has been an emerging trend to integrate persistent homology
(PH) into graph neural networks (GNNs) to enrich expressive power. However,
naively plugging PH features into GNN layers always results in marginal
improvement with low interpretability. In this paper, we investigate a novel
mechanism for injecting global topological invariance into pooling layers using
PH, motivated by the observation that filtration operation in PH naturally
aligns graph pooling in a cut-off manner. In this fashion, message passing in
the coarsened graph acts along persistent pooled topology, leading to improved
performance. Experimentally, we apply our mechanism to a collection of graph
pooling methods and observe consistent and substantial performance gain over
several popular datasets, demonstrating its wide applicability and flexibility.
- Abstract(参考訳): 近年,グラフニューラルネットワーク(GNN)に永続的ホモロジー(PH)を統合することで,表現力の強化が進んでいる。
しかし、GNN層にPH機能を鼻で接続すると、解釈可能性の低い限界改善が得られる。
本稿では,phの濾過操作が自然にグラフプーリングに整列する観察により,phを用いて大域的な位相不変性をプール層に注入する新しいメカニズムについて検討する。
この方法では、粗いグラフ内のメッセージパッシングが永続的なプールトポロジに沿って動作し、パフォーマンスが向上する。
実験では,この機構をグラフプーリング手法のコレクションに適用し,いくつかの一般的なデータセットに対する一貫性と実質的なパフォーマンス向上を観測し,その適用性と柔軟性を実証した。
関連論文リスト
- PHLP: Sole Persistent Homology for Link Prediction -- Interpretable Feature Extraction [2.8413459430736396]
リンク予測(LP)はグラフデータにおいて重要な研究領域である。
グラフニューラルネットワーク(GNN)ベースのモデルはLPで高いパフォーマンスを達成したが、なぜうまく機能するのかを理解することは難しい。
対象リンクの有無が全体トポロジにどのように影響するかに着目し,PHLP(PHLP)を用いた新しい手法を提案する。
論文 参考訳(メタデータ) (2024-04-23T16:54:56Z) - Revealing Decurve Flows for Generalized Graph Propagation [108.80758541147418]
本研究は,有向グラフと重み付きグラフを用いて,m文を一般化した伝播を定義することによって,従来のメッセージパッシング(中心からグラフ学習)の限界に対処する。
この分野ではじめて、データセットにおける学習された伝播パターンの予備的な探索を含む。
論文 参考訳(メタデータ) (2024-02-13T14:13:17Z) - Going beyond persistent homology using persistent homology [5.724311218570011]
この重要な問題に対する完全な解決を提供するために、色分離集合という新しい概念を導入する。
グラフ上のトポロジ的特徴を学習するためのRePHINEを提案する。
論文 参考訳(メタデータ) (2023-11-10T16:12:35Z) - Advective Diffusion Transformers for Topological Generalization in Graph
Learning [69.2894350228753]
グラフ拡散方程式は、様々なグラフトポロジーの存在下で、どのように外挿して一般化するかを示す。
本稿では,新たなグラフエンコーダのバックボーンであるAdvective Diffusion Transformer (ADiT)を提案する。
論文 参考訳(メタデータ) (2023-10-10T08:40:47Z) - Unifying over-smoothing and over-squashing in graph neural networks: A
physics informed approach and beyond [45.370565281567984]
グラフニューラルネットワーク(GNN)は、グラフ構造化データの機械学習における主要なアプローチの1つである。
過密化、過密化、限られた表現力といった重要な計算課題は、GNNの性能に影響を与え続けている。
本稿では,マルチスケールヒートカーネルベースGNN (MHKG) を導入し,多様なフィルタ関数がノード特性に与える影響について検討する。
論文 参考訳(メタデータ) (2023-09-06T06:22:18Z) - Re-Think and Re-Design Graph Neural Networks in Spaces of Continuous
Graph Diffusion Functionals [7.6435511285856865]
グラフニューラルネットワーク(GNN)は、ソーシャルネットワークや生体システムのようなドメインで広く使われている。
GNNのローカリティ仮定は、グラフ内の長距離依存関係とグローバルパターンをキャプチャする能力を損なう。
本稿では,ブラヒクロニスト問題から着想を得た変分解析に基づく新しい帰納バイアスを提案する。
論文 参考訳(メタデータ) (2023-07-01T04:44:43Z) - The expressive power of pooling in Graph Neural Networks [6.5268245109828005]
グラフプーリングがグラフニューラルネットワーク(GNN)の表現性に与える影響について検討する。
プーリング演算子がMP層の表現力を完全に維持できる十分な条件を導出する。
本稿では,プール層を備えたGNNの表現力を実証的に検証するための実験装置を提案する。
論文 参考訳(メタデータ) (2023-04-04T07:03:08Z) - Relation Embedding based Graph Neural Networks for Handling
Heterogeneous Graph [58.99478502486377]
我々は、同種GNNが不均一グラフを扱うのに十分な能力を持つように、シンプルで効率的なフレームワークを提案する。
具体的には、エッジ型関係と自己ループ接続の重要性を埋め込むために、関係1つのパラメータのみを使用する関係埋め込みベースのグラフニューラルネットワーク(RE-GNN)を提案する。
論文 参考訳(メタデータ) (2022-09-23T05:24:18Z) - Learnable Filters for Geometric Scattering Modules [64.03877398967282]
最近提案された幾何散乱変換の緩和に基づく新しいグラフニューラルネットワーク(GNN)モジュールを提案する。
我々の学習可能な幾何散乱(LEGS)モジュールは、ウェーブレットの適応的なチューニングを可能にし、学習された表現に帯域通過の特徴が現れるように促す。
論文 参考訳(メタデータ) (2022-08-15T22:30:07Z) - Data-Driven Learning of Geometric Scattering Networks [74.3283600072357]
最近提案された幾何散乱変換の緩和に基づく新しいグラフニューラルネットワーク(GNN)モジュールを提案する。
我々の学習可能な幾何散乱(LEGS)モジュールは、ウェーブレットの適応的なチューニングを可能にし、学習された表現に帯域通過の特徴が現れるように促す。
論文 参考訳(メタデータ) (2020-10-06T01:20:27Z) - Infinitely Wide Graph Convolutional Networks: Semi-supervised Learning
via Gaussian Processes [144.6048446370369]
グラフ畳み込みニューラルネットワーク(GCN)は近年,グラフに基づく半教師付き半教師付き分類において有望な結果を示した。
グラフに基づく半教師付き学習のためのGCN(GPGC)を用いたGP回帰モデルを提案する。
GPGCを評価するための広範囲な実験を行い、他の最先端手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2020-02-26T10:02:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。