論文の概要: Tensor Graph Convolutional Network for Dynamic Graph Representation
Learning
- arxiv url: http://arxiv.org/abs/2401.07065v1
- Date: Sat, 13 Jan 2024 12:49:56 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-17 19:55:58.956010
- Title: Tensor Graph Convolutional Network for Dynamic Graph Representation
Learning
- Title(参考訳): 動的グラフ表現学習のためのテンソルグラフ畳み込みネットワーク
- Authors: Ling Wang, Ye Yuan
- Abstract要約: 動的グラフ(DG)は、多くの現実的なシナリオにおけるエンティティ間の動的相互作用を記述する。
既存のDG表現学習モデルの多くは、グラフ畳み込みネットワークとシーケンスニューラルネットワークを組み合わせている。
1つの畳み込みフレームワークでDG表現を学習するためのテンソルグラフ畳み込みネットワークを提案する。
- 参考スコア(独自算出の注目度): 12.884025972321316
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Dynamic graphs (DG) describe dynamic interactions between entities in many
practical scenarios. Most existing DG representation learning models combine
graph convolutional network and sequence neural network, which model
spatial-temporal dependencies through two different types of neural networks.
However, this hybrid design cannot well capture the spatial-temporal continuity
of a DG. In this paper, we propose a tensor graph convolutional network to
learn DG representations in one convolution framework based on the tensor
product with the following two-fold ideas: a) representing the information of
DG by tensor form; b) adopting tensor product to design a tensor graph
convolutional network modeling spatial-temporal feature simultaneously.
Experiments on real-world DG datasets demonstrate that our model obtains
state-of-the-art performance.
- Abstract(参考訳): 動的グラフ(DG)は、多くの実践シナリオにおいてエンティティ間の動的相互作用を記述する。
既存のdg表現学習モデルのほとんどは、グラフ畳み込みネットワークとシーケンスニューラルネットワークを組み合わせたもので、2つの異なるタイプのニューラルネットワークを通して空間-時間依存をモデル化する。
しかし、このハイブリッド設計は、DGの空間的時間的連続性をうまく捉えられない。
本稿では,テンソル積に基づく一つの畳み込みフレームワークでdg表現を学習するためのテンソルグラフ畳み込みネットワークを提案する。
a) DGの情報をテンソル形式で表現すること
b)空間-時間的特徴を同時にモデル化するテンソルグラフ畳み込みネットワークを設計するためにテンソル積を採用すること。
実世界のDGデータセットの実験により、我々のモデルが最先端の性能を得ることを示す。
関連論文リスト
- Spatial-temporal Graph Convolutional Networks with Diversified Transformation for Dynamic Graph Representation Learning [6.9243139068960895]
本研究では,多角化変換(STGCNDT)を用いた時空間グラフ畳み込みネットワークを提案する。
a) テンソルM-積を用いてテンソルM-積を個別に表現することなく統一グラフテンソル畳み込みネットワーク(GTCN)を構築するb) 時間的情報を集約するために複雑な時間的パターンをモデル化するためにGTNに3つの変換スキームを導入する、c) 多様化された変換のアンサンブルを構築して高い表現能力を得る、という3つの側面を含む。
論文 参考訳(メタデータ) (2024-08-05T09:40:47Z) - DTFormer: A Transformer-Based Method for Discrete-Time Dynamic Graph Representation Learning [38.53424185696828]
離散時間動的グラフ(DTDG)の表現学習は、時間的に変化するエンティティとその進化する接続のダイナミクスをモデル化するために広く応用されている。
本稿では,従来の GNN+RNN フレームワークから Transformer ベースのアーキテクチャへ移行した DTDG のための表現学習手法 DTFormer を提案する。
論文 参考訳(メタデータ) (2024-07-26T05:46:23Z) - A survey of dynamic graph neural networks [26.162035361191805]
グラフニューラルネットワーク(GNN)は、グラフ構造化データから効果的にマイニングし学習するための強力なツールとして登場した。
本稿では,基本的な概念,鍵となる技術,そして最先端の動的GNNモデルについて概観する。
論文 参考訳(メタデータ) (2024-04-28T15:07:48Z) - Learning Dynamic Graph Embeddings with Neural Controlled Differential
Equations [21.936437653875245]
本稿では,時間的相互作用を持つ動的グラフの表現学習に焦点を当てる。
本稿では,ノード埋め込みトラジェクトリの連続的動的進化を特徴付ける動的グラフに対する一般化微分モデルを提案する。
本フレームワークは,セグメントを統合せずにグラフの進化を動的に表現できる機能など,いくつかの望ましい特徴を示す。
論文 参考訳(メタデータ) (2023-02-22T12:59:38Z) - TCL: Transformer-based Dynamic Graph Modelling via Contrastive Learning [87.38675639186405]
我々は,動的に進化するグラフを連続的に扱う,TCLと呼ばれる新しいグラフニューラルネットワークアプローチを提案する。
我々の知る限りでは、これは動的グラフ上の表現学習にコントラスト学習を適用する最初の試みである。
論文 参考訳(メタデータ) (2021-05-17T15:33:25Z) - Hyperbolic Variational Graph Neural Network for Modeling Dynamic Graphs [77.33781731432163]
我々は,ノード表現の推論を目的とした双曲空間における動的グラフ表現を初めて学習する。
本稿では,HVGNNと呼ばれる新しいハイパーボリック変動グラフネットワークを提案する。
特に,動力学をモデル化するために,理論的に接地した時間符号化手法に基づく時間gnn(tgnn)を導入する。
論文 参考訳(メタデータ) (2021-04-06T01:44:15Z) - Pre-Training on Dynamic Graph Neural Networks [26.139844652756334]
本稿では,動的グラフニューラルネットワーク(PT-DGNN)の事前学習手法を提案する。
動的帰結グラフ生成タスクを使用して、グラフの構造、セマンティクス、進化の特徴を同時に学習する。
論文 参考訳(メタデータ) (2021-02-24T16:06:32Z) - E(n) Equivariant Graph Neural Networks [86.75170631724548]
本稿では,E(n)-Equivariant Graph Neural Networks (EGNNs) と呼ばれる回転,翻訳,反射,置換に等価なグラフニューラルネットワークを学習する新しいモデルを提案する。
既存の手法とは対照的に、私たちの仕事は計算的に高価な中間層における高階表現を必要としません。
論文 参考訳(メタデータ) (2021-02-19T10:25:33Z) - GCC: Graph Contrastive Coding for Graph Neural Network Pre-Training [62.73470368851127]
グラフ表現学習は現実世界の問題に対処する強力な手法として登場した。
自己教師付きグラフニューラルネットワーク事前トレーニングフレームワークであるGraph Contrastive Codingを設計する。
3つのグラフ学習タスクと10のグラフデータセットについて実験を行った。
論文 参考訳(メタデータ) (2020-06-17T16:18:35Z) - Binarized Graph Neural Network [65.20589262811677]
我々は二項化グラフニューラルネットワークを開発し、二項化ネットワークパラメータを用いてノードのバイナリ表現を学習する。
提案手法は既存のGNNベースの埋め込み手法にシームレスに統合できる。
実験により、提案された二項化グラフニューラルネットワーク、すなわちBGNは、時間と空間の両方の観点から、桁違いに効率的であることが示されている。
論文 参考訳(メタデータ) (2020-04-19T09:43:14Z) - Tensor Graph Convolutional Networks for Multi-relational and Robust
Learning [74.05478502080658]
本稿では,テンソルで表されるグラフの集合に関連するデータから,スケーラブルな半教師付き学習(SSL)を実現するためのテンソルグラフ畳み込みネットワーク(TGCN)を提案する。
提案アーキテクチャは、標準的なGCNと比較して大幅に性能が向上し、最先端の敵攻撃に対処し、タンパク質間相互作用ネットワーク上でのSSL性能が著しく向上する。
論文 参考訳(メタデータ) (2020-03-15T02:33:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。