論文の概要: Neural Approximation of Extended Persistent Homology on Graphs
- arxiv url: http://arxiv.org/abs/2201.12032v1
- Date: Fri, 28 Jan 2022 10:54:45 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-31 15:40:54.777586
- Title: Neural Approximation of Extended Persistent Homology on Graphs
- Title(参考訳): グラフ上の拡張永続ホモロジーの神経近似
- Authors: Zuoyu Yan, Tengfei Ma, Liangcai Gao, Zhi Tang, Yusu Wang, Chao Chen
- Abstract要約: 本稿では,グラフ上の拡張永続化図を計算するための新しい学習手法を提案する。
大規模で高密度なグラフでは、計算を100倍近く高速化する。
- 参考スコア(独自算出の注目度): 23.606830663387775
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Persistent homology is a widely used theory in topological data analysis. In
the context of graph learning, topological features based on persistent
homology have been used to capture potentially high-order structural
information so as to augment existing graph neural network methods. However,
computing extended persistent homology summaries remains slow for large and
dense graphs, especially since in learning applications one has to carry out
this computation potentially many times. Inspired by recent success in neural
algorithmic reasoning, we propose a novel learning method to compute extended
persistence diagrams on graphs. The proposed neural network aims to simulate a
specific algorithm and learns to compute extended persistence diagrams for new
graphs efficiently. Experiments on approximating extended persistence diagrams
and several downstream graph representation learning tasks demonstrate the
effectiveness of our method. Our method is also efficient; on large and dense
graphs, we accelerate the computation by nearly 100 times.
- Abstract(参考訳): 永続ホモロジーは、位相データ解析において広く用いられる理論である。
グラフ学習の文脈では、永続的ホモロジーに基づくトポロジ的特徴は、既存のグラフニューラルネットワーク手法を拡張するために、潜在的に高次構造情報をキャプチャするために使われてきた。
しかし、特に学習アプリケーションでは、この計算を何度も行わなければならないため、拡張された永続的ホモロジー要約は、大きくて密度の高いグラフでは遅いままである。
近年のニューラルアルゴリズム推論の成功に触発されて,グラフ上の拡張永続化図を計算するための新しい学習法を提案する。
提案するニューラルネットワークは,特定のアルゴリズムをシミュレートすることを目的として,新しいグラフに対する拡張永続化図の効率的な計算方法を学ぶ。
拡張永続化図と下流グラフ表現学習タスクの近似実験により,本手法の有効性が示された。
大規模かつ高密度なグラフでは、計算を100倍近く高速化する。
関連論文リスト
- NodeFormer: A Scalable Graph Structure Learning Transformer for Node
Classification [70.51126383984555]
本稿では,任意のノード間のノード信号を効率的に伝搬する全ペアメッセージパッシング方式を提案する。
効率的な計算は、カーナライズされたGumbel-Softmax演算子によって実現される。
グラフ上のノード分類を含む様々なタスクにおいて,本手法の有望な有効性を示す実験を行った。
論文 参考訳(メタデータ) (2023-06-14T09:21:15Z) - A Comprehensive Survey on Deep Graph Representation Learning [26.24869157855632]
グラフ表現学習は、高次元スパースグラフ構造化データを低次元密度ベクトルに符号化することを目的としている。
従来の手法ではモデル能力に制限があり、学習性能に制限がある。
深層グラフ表現学習は、浅い(伝統的な)方法よりも大きな可能性と利点を示している。
論文 参考訳(メタデータ) (2023-04-11T08:23:52Z) - State of the Art and Potentialities of Graph-level Learning [54.68482109186052]
グラフレベルの学習は、比較、回帰、分類など、多くのタスクに適用されている。
グラフの集合を学習する伝統的なアプローチは、サブストラクチャのような手作りの特徴に依存している。
ディープラーニングは、機能を自動的に抽出し、グラフを低次元表現に符号化することで、グラフレベルの学習をグラフの規模に適応させるのに役立っている。
論文 参考訳(メタデータ) (2023-01-14T09:15:49Z) - Hyperbolic Graph Neural Networks: A Review of Methods and Applications [55.5502008501764]
グラフニューラルネットワークは、従来のニューラルネットワークをグラフ構造化データに一般化する。
グラフ関連学習におけるユークリッドモデルの性能は、ユークリッド幾何学の表現能力によって依然として制限されている。
近年,木のような構造を持つグラフデータ処理や,ゆるい分布の処理において,双曲空間が人気が高まっている。
論文 参考訳(メタデータ) (2022-02-28T15:08:48Z) - Persistence Homology for Link Prediction: An Interactive View [15.068319518015421]
リンク予測は、グラフ構造データにとって重要な学習タスクです。
2つのノード間の相互作用を特徴付ける新しいトポロジカルアプローチを提案する。
また、異なるベンチマークで最新技術を上回るグラフニューラルネットワーク手法を提案する。
論文 参考訳(メタデータ) (2021-02-20T04:33:59Z) - Discrete Graph Structure Learning for Forecasting Multiple Time Series [14.459541930646205]
時系列予測は統計学、経済学、コンピュータ科学において広く研究されている。
本研究では,グラフが未知である場合,グラフニューラルネットワーク(GNN)を同時に学習することを提案する。
経験的評価は、グラフ構造学習のための最近提案されたバイレベル学習アプローチよりも、よりシンプルで効率的で優れたパフォーマンスを示す。
論文 参考訳(メタデータ) (2021-01-18T03:36:33Z) - Towards Deeper Graph Neural Networks [63.46470695525957]
グラフ畳み込みは近傍の集約を行い、最も重要なグラフ操作の1つである。
いくつかの最近の研究で、この性能劣化は過度に滑らかな問題に起因している。
本研究では,大きな受容領域からの情報を適応的に組み込むディープ適応グラフニューラルネットワーク(DAGNN)を提案する。
論文 参考訳(メタデータ) (2020-07-18T01:11:14Z) - A Heterogeneous Graph with Factual, Temporal and Logical Knowledge for
Question Answering Over Dynamic Contexts [81.4757750425247]
動的テキスト環境における質問応答について検討する。
構築したグラフ上にグラフニューラルネットワークを構築し,エンドツーエンドでモデルをトレーニングする。
論文 参考訳(メタデータ) (2020-04-25T04:53:54Z) - Geometrically Principled Connections in Graph Neural Networks [66.51286736506658]
我々は、幾何学的深層学習の新興分野におけるイノベーションの原動力は、幾何が依然として主要な推進力であるべきだと論じている。
グラフニューラルネットワークとコンピュータグラフィックスとデータ近似モデルとの関係:放射基底関数(RBF)
完全連結層とグラフ畳み込み演算子を組み合わせた新しいビルディングブロックであるアフィンスキップ接続を導入する。
論文 参考訳(メタデータ) (2020-04-06T13:25:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。