論文の概要: Learning Dynamic Graphs via Tensorized and Lightweight Graph Convolutional Networks
- arxiv url: http://arxiv.org/abs/2504.15613v1
- Date: Tue, 22 Apr 2025 06:13:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-30 22:10:46.226115
- Title: Learning Dynamic Graphs via Tensorized and Lightweight Graph Convolutional Networks
- Title(参考訳): テンソル化および軽量グラフ畳み込みネットワークによる動的グラフの学習
- Authors: Minglian Han,
- Abstract要約: 動的グラフの正確な表現学習を実現するために動的グラフ畳み込みネットワーク(DGCN)が成功している。
本研究は,動的グラフ学習のための新しい軽量グラフコナーネットワーク (TLGCN) を提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A dynamic graph (DG) is frequently encountered in numerous real-world scenarios. Consequently, A dynamic graph convolutional network (DGCN) has been successfully applied to perform precise representation learning on a DG. However, conventional DGCNs typically consist of a static GCN coupled with a sequence neural network (SNN) to model spatial and temporal patterns separately. This decoupled modeling mechanism inherently disrupts the intricate spatio-temporal dependencies. To address the issue, this study proposes a novel Tensorized Lightweight Graph Convolutional Network (TLGCN) for accurate dynamic graph learning. It mainly contains the following two key concepts: a) designing a novel spatio-temporal information propagation method for joint propagation of spatio-temporal information based on the tensor M-product framework; b) proposing a tensorized lightweight graph convolutional network based on the above method, which significantly reduces the memory occupation of the model by omitting complex feature transformation and nonlinear activation. Numerical experiments on four real-world datasets demonstrate that the proposed TLGCN outperforms the state-of-the-art models in the weight estimation task on DGs.
- Abstract(参考訳): 動的グラフ(DG)は多くの実世界のシナリオで頻繁に発生する。
その結果、動的グラフ畳み込みネットワーク(DGCN)がDG上で正確な表現学習を行うのに成功している。
しかし、従来のDGCNは通常、静的GCNとシーケンスニューラルネットワーク(SNN)を結合して、空間パターンと時間パターンを別々にモデル化する。
この分離されたモデリングメカニズムは、本質的に複雑な時空間依存を妨害する。
そこで本研究では,動的グラフ学習のための新しいテンソル化軽量グラフ畳み込みネットワーク(TLGCN)を提案する。
主な概念は以下の2つである。
a) テンソルM積の枠組みに基づく時空間情報の共同伝搬のための新しい時空間情報伝搬法を設計すること
b) 上記の手法に基づくテンソル化軽量グラフ畳み込みネットワークを提案し、複雑な特徴変換と非線形活性化を省略することにより、モデルのメモリ占有を著しく減少させる。
実世界の4つのデータセットの数値実験により、提案したTLGCNは、DGの重み推定タスクにおける最先端モデルよりも優れていることが示された。
関連論文リスト
- Spatial-temporal Graph Convolutional Networks with Diversified Transformation for Dynamic Graph Representation Learning [6.9243139068960895]
本研究では,多角化変換(STGCNDT)を用いた時空間グラフ畳み込みネットワークを提案する。
a) テンソルM-積を用いてテンソルM-積を個別に表現することなく統一グラフテンソル畳み込みネットワーク(GTCN)を構築するb) 時間的情報を集約するために複雑な時間的パターンをモデル化するためにGTNに3つの変換スキームを導入する、c) 多様化された変換のアンサンブルを構築して高い表現能力を得る、という3つの側面を含む。
論文 参考訳(メタデータ) (2024-08-05T09:40:47Z) - DTFormer: A Transformer-Based Method for Discrete-Time Dynamic Graph Representation Learning [38.53424185696828]
離散時間動的グラフ(DTDG)の表現学習は、時間的に変化するエンティティとその進化する接続のダイナミクスをモデル化するために広く応用されている。
本稿では,従来の GNN+RNN フレームワークから Transformer ベースのアーキテクチャへ移行した DTDG のための表現学習手法 DTFormer を提案する。
論文 参考訳(メタデータ) (2024-07-26T05:46:23Z) - Dynamic Graph Unlearning: A General and Efficient Post-Processing Method via Gradient Transformation [24.20087360102464]
動的グラフアンラーニングを初めて研究し、DGNNアンラーニングを実装するための効率的で効率的で汎用的で後処理手法を提案する。
提案手法は,将来的な未学習要求を処理できる可能性があり,性能が大幅に向上する。
論文 参考訳(メタデータ) (2024-05-23T10:26:18Z) - A survey of dynamic graph neural networks [26.162035361191805]
グラフニューラルネットワーク(GNN)は、グラフ構造化データから効果的にマイニングし学習するための強力なツールとして登場した。
本稿では,基本的な概念,鍵となる技術,そして最先端の動的GNNモデルについて概観する。
論文 参考訳(メタデータ) (2024-04-28T15:07:48Z) - Tensor Graph Convolutional Network for Dynamic Graph Representation
Learning [12.884025972321316]
動的グラフ(DG)は、多くの現実的なシナリオにおけるエンティティ間の動的相互作用を記述する。
既存のDG表現学習モデルの多くは、グラフ畳み込みネットワークとシーケンスニューラルネットワークを組み合わせている。
1つの畳み込みフレームワークでDG表現を学習するためのテンソルグラフ畳み込みネットワークを提案する。
論文 参考訳(メタデータ) (2024-01-13T12:49:56Z) - Dynamic Causal Explanation Based Diffusion-Variational Graph Neural
Network for Spatio-temporal Forecasting [60.03169701753824]
時間予測のための動的拡散型グラフニューラルネットワーク(DVGNN)を提案する。
提案したDVGNNモデルは最先端のアプローチよりも優れ,Root Mean Squared Errorの結果が優れている。
論文 参考訳(メタデータ) (2023-05-16T11:38:19Z) - Dynamic Graph Representation Learning via Edge Temporal States Modeling and Structure-reinforced Transformer [5.093187534912688]
本稿では,動的グラフ表現学習のための新しいフレームワークであるRecurrent Structure-Reinforced Graph Transformer (RSGT)を紹介する。
RSGTは、繰り返し学習パラダイムを通じて、グラフトポロジと進化力学の両方をコードする時間ノード表現をキャプチャする。
離散動的グラフ表現学習におけるRSGTの優れた性能を示し、動的リンク予測タスクにおける既存の手法よりも一貫して優れていることを示す。
論文 参考訳(メタデータ) (2023-04-20T04:12:50Z) - DG-STGCN: Dynamic Spatial-Temporal Modeling for Skeleton-based Action
Recognition [77.87404524458809]
骨格に基づく行動認識のための新しいフレームワーク,すなわち動的グループ時空間GCN(DG-STGCN)を提案する。
DG-GCNとDG-TCNの2つのモジュールで構成される。
DG-STGCNは最先端の手法よりも一貫して優れており、しばしば顕著な差がある。
論文 参考訳(メタデータ) (2022-10-12T03:17:37Z) - Hyperbolic Variational Graph Neural Network for Modeling Dynamic Graphs [77.33781731432163]
我々は,ノード表現の推論を目的とした双曲空間における動的グラフ表現を初めて学習する。
本稿では,HVGNNと呼ばれる新しいハイパーボリック変動グラフネットワークを提案する。
特に,動力学をモデル化するために,理論的に接地した時間符号化手法に基づく時間gnn(tgnn)を導入する。
論文 参考訳(メタデータ) (2021-04-06T01:44:15Z) - On the spatial attention in Spatio-Temporal Graph Convolutional Networks
for skeleton-based human action recognition [97.14064057840089]
カルチャーネットワーク(GCN)は、スケルトンをグラフとしてモデル化することで、スケルトンに基づく人間の行動認識の性能を約束する。
最近提案されたG時間に基づく手法のほとんどは、ネットワークの各層におけるグラフ構造を学習することで、性能を向上させる。
論文 参考訳(メタデータ) (2020-11-07T19:03:04Z) - Lightweight, Dynamic Graph Convolutional Networks for AMR-to-Text
Generation [56.73834525802723]
軽量な動的グラフ畳み込みネットワーク (LDGCN) を提案する。
LDGCNは入力グラフから高次情報を合成することにより、よりリッチな非局所的な相互作用をキャプチャする。
我々は,グループグラフの畳み込みと重み付き畳み込みに基づく2つの新しいパラメータ保存戦略を開発し,メモリ使用量とモデル複雑性を低減する。
論文 参考訳(メタデータ) (2020-10-09T06:03:46Z) - Tensor Graph Convolutional Networks for Multi-relational and Robust
Learning [74.05478502080658]
本稿では,テンソルで表されるグラフの集合に関連するデータから,スケーラブルな半教師付き学習(SSL)を実現するためのテンソルグラフ畳み込みネットワーク(TGCN)を提案する。
提案アーキテクチャは、標準的なGCNと比較して大幅に性能が向上し、最先端の敵攻撃に対処し、タンパク質間相互作用ネットワーク上でのSSL性能が著しく向上する。
論文 参考訳(メタデータ) (2020-03-15T02:33:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。