論文の概要: Tensor-view Topological Graph Neural Network
- arxiv url: http://arxiv.org/abs/2401.12007v3
- Date: Tue, 30 Jan 2024 03:10:15 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-31 11:45:57.708158
- Title: Tensor-view Topological Graph Neural Network
- Title(参考訳): テンソルビュー位相グラフニューラルネットワーク
- Authors: Tao Wen, Elynn Chen, Yuzhou Chen
- Abstract要約: グラフニューラルネットワーク(GNN)は最近、グラフ学習において注目を集めている。
既存のGNNは、各ノード周辺の非常に限られた地区からのローカル情報のみを使用する。
本稿では,単純かつ効果的な深層学習のクラスであるTopological Graph Neural Network (TTG-NN)を提案する。
実データ実験により,提案したTTG-NNは,グラフベンチマークにおいて20の最先端手法より優れていた。
- 参考スコア(独自算出の注目度): 16.433092191206534
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Graph classification is an important learning task for graph-structured data.
Graph neural networks (GNNs) have recently gained growing attention in graph
learning and have shown significant improvements in many important graph
problems. Despite their state-of-the-art performances, existing GNNs only use
local information from a very limited neighborhood around each node, suffering
from loss of multi-modal information and overheads of excessive computation. To
address these issues, we propose a novel Tensor-view Topological Graph Neural
Network (TTG-NN), a class of simple yet effective topological deep learning
built upon persistent homology, graph convolution, and tensor operations. This
new method incorporates tensor learning to simultaneously capture Tensor-view
Topological (TT), as well as Tensor-view Graph (TG) structural information on
both local and global levels. Computationally, to fully exploit graph topology
and structure, we propose two flexible TT and TG representation learning
modules that disentangle feature tensor aggregation and transformation and
learn to preserve multi-modal structure with less computation. Theoretically,
we derive high probability bounds on both the out-of-sample and in-sample mean
squared approximation errors for our proposed Tensor Transformation Layer
(TTL). Real data experiments show that the proposed TTG-NN outperforms 20
state-of-the-art methods on various graph benchmarks.
- Abstract(参考訳): グラフ分類はグラフ構造化データにとって重要な学習課題である。
グラフニューラルネットワーク(gnns)は最近、グラフ学習で注目を集め、多くの重要なグラフ問題で大きな改善が見られた。
最先端のパフォーマンスにもかかわらず、既存のGNNは各ノード周辺の非常に限られたエリアからのローカル情報しか使用せず、マルチモーダル情報や過剰な計算のオーバーヘッドに悩まされている。
これらの問題に対処するために, 永続的ホモロジー, グラフ畳み込み, テンソル演算に基づいて構築された, 単純かつ効果的な位相深層学習のクラスである, テンソルビュートポロジカルグラフニューラルネットワーク(TTG-NN)を提案する。
この新しい方法はテンソル学習を取り入れ、テンソルビュートポロジー(tt)とテンソルビューグラフ(tg)の構造情報を局所的および大域的に同時に捉える。
グラフのトポロジーと構造を十分に活用するために,2つの柔軟なttおよびtg表現学習モジュールを提案し,特徴的テンソル凝集と変換を分離し,少ない計算量でマルチモーダル構造を保存することを学ぶ。
理論的には、提案したテンソル変換層(TTL)に対して、サンプル外およびサンプル内両方の2乗平均近似誤差に高い確率境界を導出する。
実データ実験により,提案したTTG-NNは,グラフベンチマークにおいて20の最先端手法より優れていた。
関連論文リスト
- Graph Structure Prompt Learning: A Novel Methodology to Improve Performance of Graph Neural Networks [13.655670509818144]
グラフネットワーク(GNN)のトレーニングを強化するための新しいグラフ構造Prompt Learning法(GPL)を提案する。
GPLはタスク非依存のグラフ構造損失を利用して、GNNが下流タスクを同時に解決しながら固有のグラフ特性を学習することを奨励している。
11の実世界のデータセットの実験では、ニューラルネットワークによってトレーニングされた後、GNNはノード分類、グラフ分類、エッジタスクにおいて、元のパフォーマンスを大幅に上回った。
論文 参考訳(メタデータ) (2024-07-16T03:59:18Z) - GraphGLOW: Universal and Generalizable Structure Learning for Graph
Neural Networks [72.01829954658889]
本稿では,この新たな問題設定の数学的定義を紹介する。
一つのグラフ共有構造学習者と複数のグラフ固有GNNを協調する一般的なフレームワークを考案する。
十分に訓練された構造学習者は、微調整なしで、目に見えない対象グラフの適応的な構造を直接生成することができる。
論文 参考訳(メタデータ) (2023-06-20T03:33:22Z) - NodeFormer: A Scalable Graph Structure Learning Transformer for Node
Classification [70.51126383984555]
本稿では,任意のノード間のノード信号を効率的に伝搬する全ペアメッセージパッシング方式を提案する。
効率的な計算は、カーナライズされたGumbel-Softmax演算子によって実現される。
グラフ上のノード分類を含む様々なタスクにおいて,本手法の有望な有効性を示す実験を行った。
論文 参考訳(メタデータ) (2023-06-14T09:21:15Z) - Semantic Graph Neural Network with Multi-measure Learning for
Semi-supervised Classification [5.000404730573809]
近年,グラフニューラルネットワーク(GNN)が注目されている。
近年の研究では、GNNはグラフの複雑な基盤構造に弱いことが示されている。
半教師付き分類のための新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2022-12-04T06:17:11Z) - Learning Graph Structure from Convolutional Mixtures [119.45320143101381]
本稿では、観測されたグラフと潜伏グラフのグラフ畳み込み関係を提案し、グラフ学習タスクをネットワーク逆(デコンボリューション)問題として定式化する。
固有分解に基づくスペクトル法の代わりに、近似勾配反復をアンロール・トランケートして、グラフデコンボリューションネットワーク(GDN)と呼ばれるパラメータ化ニューラルネットワークアーキテクチャに到達させる。
GDNは、教師付き方式でグラフの分布を学習し、損失関数を適応させることでリンク予測やエッジウェイト回帰タスクを実行し、本質的に帰納的である。
論文 参考訳(メタデータ) (2022-05-19T14:08:15Z) - Neural Graph Matching for Pre-training Graph Neural Networks [72.32801428070749]
グラフニューラルネットワーク(GNN)は、構造データのモデリングにおいて強力な能力を示している。
GMPTと呼ばれる新しいグラフマッチングベースのGNN事前学習フレームワークを提案する。
提案手法は,完全自己指導型プレトレーニングと粗粒型プレトレーニングに適用できる。
論文 参考訳(メタデータ) (2022-03-03T09:53:53Z) - Topological Relational Learning on Graphs [2.4692806302088868]
グラフニューラルネットワーク(GNN)は、グラフ分類と表現学習のための強力なツールとして登場した。
本稿では,GNNに高階グラフ情報を統合可能な新しいトポロジカルリレーショナル推論(TRI)を提案する。
新しいTRI-GNNは、6つの7つのグラフで14の最先端のベースラインを上回り、摂動に対して高い堅牢性を示すことを示す。
論文 参考訳(メタデータ) (2021-10-29T04:03:27Z) - Co-embedding of Nodes and Edges with Graph Neural Networks [13.020745622327894]
グラフ埋め込みは、高次元および非ユークリッド特徴空間でデータ構造を変換しエンコードする方法である。
CensNetは一般的なグラフ埋め込みフレームワークで、ノードとエッジの両方を潜在機能空間に埋め込む。
提案手法は,4つのグラフ学習課題における最先端のパフォーマンスを達成または一致させる。
論文 参考訳(メタデータ) (2020-10-25T22:39:31Z) - A Unified View on Graph Neural Networks as Graph Signal Denoising [49.980783124401555]
グラフニューラルネットワーク(GNN)は,グラフ構造化データの学習表現において顕著に普及している。
本研究では,代表的GNNモデル群における集約過程を,グラフ記述問題の解法とみなすことができることを数学的に確立する。
UGNNから派生した新しいGNNモデルADA-UGNNをインスタンス化し、ノード間の適応的滑らかさでグラフを処理する。
論文 参考訳(メタデータ) (2020-10-05T04:57:18Z) - CAGNN: Cluster-Aware Graph Neural Networks for Unsupervised Graph
Representation Learning [19.432449825536423]
教師なしグラフ表現学習は、教師なしの低次元ノード埋め込みを学習することを目的としている。
本稿では、自己教師付き手法を用いた教師なしグラフ表現学習のための新しいクラスタ対応グラフニューラルネットワーク(CAGNN)モデルを提案する。
論文 参考訳(メタデータ) (2020-09-03T13:57:18Z) - Towards Deeper Graph Neural Networks [63.46470695525957]
グラフ畳み込みは近傍の集約を行い、最も重要なグラフ操作の1つである。
いくつかの最近の研究で、この性能劣化は過度に滑らかな問題に起因している。
本研究では,大きな受容領域からの情報を適応的に組み込むディープ適応グラフニューラルネットワーク(DAGNN)を提案する。
論文 参考訳(メタデータ) (2020-07-18T01:11:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。