論文の概要: Diss-l-ECT: Dissecting Graph Data with local Euler Characteristic Transforms
- arxiv url: http://arxiv.org/abs/2410.02622v1
- Date: Thu, 3 Oct 2024 16:02:02 GMT
- ステータス: 処理完了
- システム内更新日: 2024-11-04 02:02:21.120799
- Title: Diss-l-ECT: Dissecting Graph Data with local Euler Characteristic Transforms
- Title(参考訳): Diss-l-ECT: 局所オイラー特性変換を用いたグラフデータの分離
- Authors: Julius von Rohrscheidt, Bastian Rieck,
- Abstract要約: グラフ表現学習における表現性と解釈性を高めるために,局所オイラー特性変換(ell$-ECT)を導入する。
従来のグラフニューラルネットワーク(GNN)とは異なり、アグリゲーションによって重要な局所的な詳細を失う可能性があるが、$ell$-ECTは局所的な地区の無意味な表現を提供する。
提案手法は,多種多様なノード分類タスク,特に高いヘテロフィリエを持つグラフにおいて,標準GNNよりも優れた性能を示す。
- 参考スコア(独自算出の注目度): 13.608942872770855
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The Euler Characteristic Transform (ECT) is an efficiently-computable geometrical-topological invariant that characterizes the global shape of data. In this paper, we introduce the Local Euler Characteristic Transform ($\ell$-ECT), a novel extension of the ECT particularly designed to enhance expressivity and interpretability in graph representation learning. Unlike traditional Graph Neural Networks (GNNs), which may lose critical local details through aggregation, the $\ell$-ECT provides a lossless representation of local neighborhoods. This approach addresses key limitations in GNNs by preserving nuanced local structures while maintaining global interpretability. Moreover, we construct a rotation-invariant metric based on $\ell$-ECTs for spatial alignment of data spaces. Our method exhibits superior performance than standard GNNs on a variety of node classification tasks, particularly in graphs with high heterophily.
- Abstract(参考訳): オイラー特性変換(英: Euler Characteristics Transform、ECT)は、データの大域的な形状を特徴付ける、効率的に計算可能な幾何学的位相不変量である。
本稿では,グラフ表現学習における表現性と解釈性の向上を目的としたECTの新たな拡張である局所オイラー特性変換(\ell$-ECT)を紹介する。
従来のグラフニューラルネットワーク(GNN)とは異なり、アグリゲーションによって重要なローカル詳細を失う可能性がある。
このアプローチは、グローバルな解釈可能性を維持しながら、ニュアンス付きローカル構造を保存することで、GNNの重要な制限に対処する。
さらに,データ空間の空間的アライメントのための$\ell$-ECTsに基づく回転不変計量を構築した。
提案手法は,多種多様なノード分類タスク,特に高いヘテロフィリエを持つグラフにおいて,標準GNNよりも優れた性能を示す。
関連論文リスト
- Towards Stable, Globally Expressive Graph Representations with Laplacian Eigenvectors [29.055130767451036]
本稿では,ラプラシアン固有ベクトルを用いて,安定かつグローバルに表現可能なグラフ表現を生成する手法を提案する。
提案手法は, 数値的近接固有値を円滑に処理し, 摂動に対するロバスト性を向上する。
論文 参考訳(メタデータ) (2024-10-13T06:02:25Z) - Scalable Graph Compressed Convolutions [68.85227170390864]
ユークリッド畳み込みのための入力グラフのキャリブレーションに置換を適用する微分可能手法を提案する。
グラフキャリブレーションに基づいて,階層型グラフ表現学習のための圧縮畳み込みネットワーク(CoCN)を提案する。
論文 参考訳(メタデータ) (2024-07-26T03:14:13Z) - Contextualized Messages Boost Graph Representations [1.5178009359320295]
本稿では,グラフネットワーク(GNN)がグラフとして表現される可能性のあるデータを処理する能力について検討する。
これは、すべてのレベルの能力について調査されているGNNはごくわずかであることを示している。
SIRGCNと広く使われているGNNの関係を数学的に議論し、コントリビューションを文脈に組み込む。
論文 参考訳(メタデータ) (2024-03-19T08:05:49Z) - Learning Invariant Representations of Graph Neural Networks via Cluster
Generalization [58.68231635082891]
グラフニューラルネットワーク(GNN)は、グラフ構造化データのモデリングでますます人気が高まっている。
本稿では,構造変化が発生した場合,GNNの性能が著しく低下することが実験的に確認された。
本稿では,GNNの不変表現を学習するクラスタ情報伝達(CIT)機構を提案する。
論文 参考訳(メタデータ) (2024-03-06T10:36:56Z) - ASWT-SGNN: Adaptive Spectral Wavelet Transform-based Self-Supervised
Graph Neural Network [20.924559944655392]
本稿では,適応スペクトルウェーブレット変換を用いた自己教師付きグラフニューラルネットワーク(ASWT-SGNN)を提案する。
ASWT-SGNNは高密度スペクトル領域におけるフィルタ関数を正確に近似し、コストの高い固有分解を避ける。
ノード分類タスクにおける最先端モデルに匹敵するパフォーマンスを実現する。
論文 参考訳(メタデータ) (2023-12-10T03:07:42Z) - Tuning the Geometry of Graph Neural Networks [0.7614628596146599]
空間グラフ畳み込み演算子はグラフニューラルネットワーク(GNN)の成功の鍵として認識されている
このアグリゲーション作用素は実際にチューナブルであり、作用素の特定の選択 -- 従って、ジオメトリを埋め込む -- がより適切であるような明示的なレギュレーションであることが示される。
論文 参考訳(メタデータ) (2022-07-12T23:28:03Z) - Utility of Equivariant Message Passing in Cortical Mesh Segmentation [25.488181126364186]
E(n)-同変グラフニューラルネットワーク(EGNN)の標準グラフニューラルネットワーク(GNN)に対する有効性について検討する。
評価の結果,グローバル座標系の存在を活用できるため,GNNは協調メッシュ上でのEGNNよりも優れていた。
論文 参考訳(メタデータ) (2022-06-07T10:24:18Z) - Orthogonal Graph Neural Networks [53.466187667936026]
グラフニューラルネットワーク(GNN)は,ノード表現の学習において優れていたため,大きな注目を集めている。
より畳み込み層を積み重ねることで、GNNのパフォーマンスが大幅に低下する。
本稿では,モデルトレーニングの安定化とモデル一般化性能の向上のために,既存のGNNバックボーンを拡張可能なOrtho-GConvを提案する。
論文 参考訳(メタデータ) (2021-09-23T12:39:01Z) - Local Augmentation for Graph Neural Networks [78.48812244668017]
本稿では,局所的な部分グラフ構造によりノード特性を向上する局所拡張を提案する。
局所的な拡張に基づいて、プラグイン・アンド・プレイ方式で任意のGNNモデルに適用可能な、LA-GNNという新しいフレームワークをさらに設計する。
論文 参考訳(メタデータ) (2021-09-08T18:10:08Z) - A Unified View on Graph Neural Networks as Graph Signal Denoising [49.980783124401555]
グラフニューラルネットワーク(GNN)は,グラフ構造化データの学習表現において顕著に普及している。
本研究では,代表的GNNモデル群における集約過程を,グラフ記述問題の解法とみなすことができることを数学的に確立する。
UGNNから派生した新しいGNNモデルADA-UGNNをインスタンス化し、ノード間の適応的滑らかさでグラフを処理する。
論文 参考訳(メタデータ) (2020-10-05T04:57:18Z) - Building powerful and equivariant graph neural networks with structural
message-passing [74.93169425144755]
本稿では,2つのアイデアに基づいた,強力かつ同変なメッセージパッシングフレームワークを提案する。
まず、各ノードの周囲の局所的コンテキスト行列を学習するために、特徴に加えてノードの1ホット符号化を伝搬する。
次に,メッセージのパラメトリゼーション手法を提案する。
論文 参考訳(メタデータ) (2020-06-26T17:15:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。