論文の概要: Spatial-temporal Graph Convolutional Networks with Diversified Transformation for Dynamic Graph Representation Learning
- arxiv url: http://arxiv.org/abs/2408.02704v1
- Date: Mon, 5 Aug 2024 09:40:47 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-07 16:08:09.271198
- Title: Spatial-temporal Graph Convolutional Networks with Diversified Transformation for Dynamic Graph Representation Learning
- Title(参考訳): 動的グラフ表現学習のための多変量変換を用いた時空間グラフ畳み込みネットワーク
- Authors: Ling Wang, Yixiang Huang, Hao Wu,
- Abstract要約: 本研究では,多角化変換(STGCNDT)を用いた時空間グラフ畳み込みネットワークを提案する。
a) テンソルM-積を用いてテンソルM-積を個別に表現することなく統一グラフテンソル畳み込みネットワーク(GTCN)を構築するb) 時間的情報を集約するために複雑な時間的パターンをモデル化するためにGTNに3つの変換スキームを導入する、c) 多様化された変換のアンサンブルを構築して高い表現能力を得る、という3つの側面を含む。
- 参考スコア(独自算出の注目度): 6.9243139068960895
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Dynamic graphs (DG) are often used to describe evolving interactions between nodes in real-world applications. Temporal patterns are a natural feature of DGs and are also key to representation learning. However, existing dynamic GCN models are mostly composed of static GCNs and sequence modules, which results in the separation of spatiotemporal information and cannot effectively capture complex temporal patterns in DGs. To address this problem, this study proposes a spatial-temporal graph convolutional networks with diversified transformation (STGCNDT), which includes three aspects: a) constructing a unified graph tensor convolutional network (GTCN) using tensor M-products without the need to represent spatiotemporal information separately; b) introducing three transformation schemes in GTCN to model complex temporal patterns to aggregate temporal information; and c) constructing an ensemble of diversified transformation schemes to obtain higher representation capabilities. Empirical studies on four DGs that appear in communication networks show that the proposed STGCNDT significantly outperforms state-of-the-art models in solving link weight estimation tasks due to the diversified transformations.
- Abstract(参考訳): 動的グラフ(DG)は、実世界のアプリケーションにおけるノード間の相互作用の進化を記述するためにしばしば用いられる。
時間パターンはDGの自然な特徴であり、表現学習の鍵でもある。
しかし、既存の動的GCNモデルは主に静的GCNとシーケンスモジュールで構成されており、これは時空間情報の分離をもたらし、DGの複雑な時空間パターンを効果的に捉えることができない。
この問題に対処するために,多角化変換(STGCNDT)を用いた時空間グラフ畳み込みネットワークを提案する。
a) 時空間情報を個別に表現することなく、テンソルM積を用いて統一グラフテンソル畳み込みネットワーク(GTCN)を構築すること。
b)GTCNに3つの変換スキームを導入して、複雑な時間的パターンをモデル化し、時間的情報を集約すること。
c) 高い表現能力を得るために、多様化された変換方式の集合を構築すること。
通信ネットワークに現れる4つのDGに関する実証研究により、STGCNDTは、多変量変換によるリンク重み推定タスクの解法において、最先端モデルよりも著しく優れていることが示された。
関連論文リスト
- Point Cloud Denoising With Fine-Granularity Dynamic Graph Convolutional Networks [58.050130177241186]
ノイズの摂動は、しばしば3次元の点雲を破損させ、表面の再構成、レンダリング、さらなる処理といった下流のタスクを妨げる。
本稿では,GDGCNと呼ばれる粒度動的グラフ畳み込みネットワークについて紹介する。
論文 参考訳(メタデータ) (2024-11-21T14:19:32Z) - A Novel Spatiotemporal Coupling Graph Convolutional Network [0.18130068086063336]
本稿では,新しいグラフ・コンテンポラル・ネットワーク(GCN)に基づく動的推定器,すなわちスペース・カップリングGCN(SCG)モデルについて述べる。
その結果、SCGは最先端技術と比較して精度が高く、ユーザやクラウドサービスへの強力な表現を学習できることを示した。
論文 参考訳(メタデータ) (2024-08-09T02:02:01Z) - DTFormer: A Transformer-Based Method for Discrete-Time Dynamic Graph Representation Learning [38.53424185696828]
離散時間動的グラフ(DTDG)の表現学習は、時間的に変化するエンティティとその進化する接続のダイナミクスをモデル化するために広く応用されている。
本稿では,従来の GNN+RNN フレームワークから Transformer ベースのアーキテクチャへ移行した DTDG のための表現学習手法 DTFormer を提案する。
論文 参考訳(メタデータ) (2024-07-26T05:46:23Z) - Learning Invariant Representations of Graph Neural Networks via Cluster
Generalization [58.68231635082891]
グラフニューラルネットワーク(GNN)は、グラフ構造化データのモデリングでますます人気が高まっている。
本稿では,構造変化が発生した場合,GNNの性能が著しく低下することが実験的に確認された。
本稿では,GNNの不変表現を学習するクラスタ情報伝達(CIT)機構を提案する。
論文 参考訳(メタデータ) (2024-03-06T10:36:56Z) - Tensor Graph Convolutional Network for Dynamic Graph Representation
Learning [12.884025972321316]
動的グラフ(DG)は、多くの現実的なシナリオにおけるエンティティ間の動的相互作用を記述する。
既存のDG表現学習モデルの多くは、グラフ畳み込みネットワークとシーケンスニューラルネットワークを組み合わせている。
1つの畳み込みフレームワークでDG表現を学習するためのテンソルグラフ畳み込みネットワークを提案する。
論文 参考訳(メタデータ) (2024-01-13T12:49:56Z) - Dynamic Graph Representation Learning via Edge Temporal States Modeling and Structure-reinforced Transformer [5.093187534912688]
本稿では,動的グラフ表現学習のための新しいフレームワークであるRecurrent Structure-Reinforced Graph Transformer (RSGT)を紹介する。
RSGTは、繰り返し学習パラダイムを通じて、グラフトポロジと進化力学の両方をコードする時間ノード表現をキャプチャする。
離散動的グラフ表現学習におけるRSGTの優れた性能を示し、動的リンク予測タスクにおける既存の手法よりも一貫して優れていることを示す。
論文 参考訳(メタデータ) (2023-04-20T04:12:50Z) - DG-STGCN: Dynamic Spatial-Temporal Modeling for Skeleton-based Action
Recognition [77.87404524458809]
骨格に基づく行動認識のための新しいフレームワーク,すなわち動的グループ時空間GCN(DG-STGCN)を提案する。
DG-GCNとDG-TCNの2つのモジュールで構成される。
DG-STGCNは最先端の手法よりも一貫して優れており、しばしば顕著な差がある。
論文 参考訳(メタデータ) (2022-10-12T03:17:37Z) - Multivariate Time Series Forecasting with Dynamic Graph Neural ODEs [65.18780403244178]
動的グラフニューラル正規微分方程式(MTGODE)を用いた多変量時系列予測連続モデルを提案する。
具体的には、まず、時間進化するノードの特徴と未知のグラフ構造を持つ動的グラフに多変量時系列を抽象化する。
そして、欠落したグラフトポロジを補完し、空間的および時間的メッセージパッシングを統一するために、ニューラルODEを設計、解決する。
論文 参考訳(メタデータ) (2022-02-17T02:17:31Z) - Equivariance-bridged SO(2)-Invariant Representation Learning using Graph
Convolutional Network [0.1657441317977376]
回転に対して堅牢な畳み込みニューラルネットワーク(CNN)のトレーニングは、主にデータ拡張で行われている。
本稿では,ネットワークの構造的回転不変性を実現することにより,データ拡張への依存の軽減を図っている。
本手法は,回転MNISTおよびCIFAR-10画像の最先端画像分類性能を実現する。
論文 参考訳(メタデータ) (2021-06-18T08:37:45Z) - Self-Supervised Graph Representation Learning via Topology
Transformations [61.870882736758624]
本稿では,グラフデータのノード表現のための自己教師型学習の一般的なパラダイムであるトポロジー変換同変表現学習について述べる。
実験では,提案手法を下流ノードおよびグラフ分類タスクに適用し,提案手法が最先端の教師なし手法より優れていることを示す。
論文 参考訳(メタデータ) (2021-05-25T06:11:03Z) - E(n) Equivariant Graph Neural Networks [86.75170631724548]
本稿では,E(n)-Equivariant Graph Neural Networks (EGNNs) と呼ばれる回転,翻訳,反射,置換に等価なグラフニューラルネットワークを学習する新しいモデルを提案する。
既存の手法とは対照的に、私たちの仕事は計算的に高価な中間層における高階表現を必要としません。
論文 参考訳(メタデータ) (2021-02-19T10:25:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。