論文の概要: TG-GAN: Continuous-time Temporal Graph Generation with Deep Generative
Models
- arxiv url: http://arxiv.org/abs/2005.08323v2
- Date: Tue, 9 Jun 2020 19:47:40 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-02 05:17:19.408426
- Title: TG-GAN: Continuous-time Temporal Graph Generation with Deep Generative
Models
- Title(参考訳): TG-GAN:深部生成モデルを用いた連続時間時間グラフ生成
- Authors: Liming Zhang, Liang Zhao, Shan Qin, Dieter Pfoser
- Abstract要約: 本稿では,時系列グラフ生成のためのTG-GAN'と呼ばれる新しいモデルを提案する。
まず,時間予算とノード属性を共同でモデル化する新しい時間グラフ生成手法を提案する。
さらに、繰り返しアーキテクチャ上での時間とノードの符号化操作を組み合わせて生成されたシーケンスを識別する新しい時間グラフ識別器を提案する。
- 参考スコア(独自算出の注目度): 9.75258136573147
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The recent deep generative models for static graphs that are now being
actively developed have achieved significant success in areas such as molecule
design. However, many real-world problems involve temporal graphs whose
topology and attribute values evolve dynamically over time, including important
applications such as protein folding, human mobility networks, and social
network growth. As yet, deep generative models for temporal graphs are not yet
well understood and existing techniques for static graphs are not adequate for
temporal graphs since they cannot 1) encode and decode continuously-varying
graph topology chronologically, 2) enforce validity via temporal constraints,
or 3) ensure efficiency for information-lossless temporal resolution. To
address these challenges, we propose a new model, called ``Temporal Graph
Generative Adversarial Network'' (TG-GAN) for continuous-time temporal graph
generation, by modeling the deep generative process for truncated temporal
random walks and their compositions. Specifically, we first propose a novel
temporal graph generator that jointly model truncated edge sequences, time
budgets, and node attributes, with novel activation functions that enforce
temporal validity constraints under recurrent architecture. In addition, a new
temporal graph discriminator is proposed, which combines time and node encoding
operations over a recurrent architecture to distinguish the generated sequences
from the real ones sampled by a newly-developed truncated temporal random walk
sampler. Extensive experiments on both synthetic and real-world datasets
demonstrate TG-GAN significantly outperforms the comparison methods in
efficiency and effectiveness.
- Abstract(参考訳): 現在活発に開発されている静的グラフの最近の深層生成モデルは、分子設計などの領域で大きな成功を収めている。
しかし、現実の多くの問題は、タンパク質の折り畳み、人間の移動ネットワーク、ソーシャルネットワークの成長といった重要な応用を含む、時間とともにトポロジと属性値が動的に進化する時間グラフを含む。
今のところ、時間グラフの深い生成モデルはまだよく理解されておらず、既存の静的グラフの技法は時間グラフには不十分である。
1)連続的に変化するグラフトポロジーを時系列にエンコード・デコードする。
2 時間的制約による効力の行使又は
3) 情報損失のない時間分解能の効率性を確保する。
これらの課題に対処するため,時間的時間的グラフ生成のための「テンポラルグラフ生成支援ネットワーク」 (TG-GAN) と呼ばれる新しいモデルを提案し,時間的ランダムウォークの深部生成過程とその構成をモデル化した。
具体的には, エッジシーケンス, 時間予算, ノード属性を相互にモデル化し, 再帰的アーキテクチャ下での時間的有効性制約を強制する新たな活性化機能を持つ, 新たな時間グラフ生成器を提案する。
また,新たに開発した時間的ランダムウォークサンプリング器を用いて,生成したシーケンスと実シーケンスを区別するために,リカレントアーキテクチャ上で時間とノードのエンコーディング操作を組み合わせる新しい時間的グラフ判別器を提案する。
合成データと実世界のデータセットの両方に関する広範な実験は、tg-ganが効率と有効性の比較方法を大幅に上回っていることを示している。
関連論文リスト
- THeGCN: Temporal Heterophilic Graph Convolutional Network [51.25112923442657]
本研究では,時間的ヘテロフィルグラフ畳み込みネットワーク(THeGCN)を提案し,両端(空間)ヘテロフィリーと時間的ヘテロフィリーを正確に捉える。
THeGCNモデルは2つの重要なコンポーネントで構成されている。
5つの実世界のデータセットで実施された大規模な実験により、THeGCNの有効性が検証された。
論文 参考訳(メタデータ) (2024-12-21T01:52:03Z) - A Deep Probabilistic Framework for Continuous Time Dynamic Graph Generation [4.568104644312763]
このアプローチを連続時間動的グラフの生成フレームワークであるDG-Genとして定式化する。
実験により,DG-Genは従来の手法に比べて高忠実度グラフを生成するだけでなく,リンク予測タスクも大幅に向上することが示された。
論文 参考訳(メタデータ) (2024-12-20T05:34:11Z) - Efficient Dynamic Attributed Graph Generation [34.15455546339396]
高速な動的属性グラフ生成のための新しい変動リカレントフレームワークであるVRDAGを紹介する。
具体的には、向き付けられた構造知識とスナップショットの属性情報の両方を符号化する双方向メッセージパッシング機構を設計する。
提案した生成パラダイムは、既存のランダムウォーク法における時間を要する経路サンプリングおよびマージプロセスを回避する。
論文 参考訳(メタデータ) (2024-12-11T22:53:27Z) - Inference of Sequential Patterns for Neural Message Passing in Temporal Graphs [0.6562256987706128]
HYPA-DBGNNは、グラフ上の時系列データにおける異常なシーケンシャルパターンの推論を組み合わせた、新しい2段階のアプローチである。
本手法は超幾何グラフアンサンブルを利用して1階グラフと高階グラフの両方において異常なエッジを同定する。
我々の研究は、時間的および因果配列異常を利用した統計的に情報を得たGNNを初めて導入した。
論文 参考訳(メタデータ) (2024-06-24T11:41:12Z) - TimeGraphs: Graph-based Temporal Reasoning [64.18083371645956]
TimeGraphsは階層的時間グラフとして動的相互作用を特徴付ける新しいアプローチである。
提案手法は,コンパクトなグラフベース表現を用いて相互作用をモデル化し,多種多様な時間スケールでの適応推論を可能にする。
我々は,サッカーシミュレータ,抵抗ゲーム,MOMA人間活動データセットなど,複雑でダイナミックなエージェントインタラクションを持つ複数のデータセット上でTimeGraphsを評価する。
論文 参考訳(メタデータ) (2024-01-06T06:26:49Z) - Using Motif Transitions for Temporal Graph Generation [0.0]
我々は,現実的なグローバルな特徴と局所的な特徴を持つ合成時間ネットワークを生成するための実用的な時間グラフ生成装置を開発した。
私たちのキーとなるアイデアは、新しいイベントの到着を時間的モチーフ移行プロセスとしてモデル化することです。
我々は,グローバルおよびローカルな時間グラフ統計と実行時性能の保存に関して,モデルがベースラインを一貫して上回っていることを実証する。
論文 参考訳(メタデータ) (2023-06-19T22:53:42Z) - Dynamic Causal Explanation Based Diffusion-Variational Graph Neural
Network for Spatio-temporal Forecasting [60.03169701753824]
時間予測のための動的拡散型グラフニューラルネットワーク(DVGNN)を提案する。
提案したDVGNNモデルは最先端のアプローチよりも優れ,Root Mean Squared Errorの結果が優れている。
論文 参考訳(メタデータ) (2023-05-16T11:38:19Z) - Temporal Aggregation and Propagation Graph Neural Networks for Dynamic
Representation [67.26422477327179]
時間グラフは連続時間を通してノード間の動的相互作用を示す。
本研究では,周辺地域全体と時間的グラフ畳み込みの新たな手法を提案する。
提案するTAP-GNNは,予測性能とオンライン推論遅延の両面で,既存の時間グラフ手法よりも優れた性能を示す。
論文 参考訳(メタデータ) (2023-04-15T08:17:18Z) - TIGGER: Scalable Generative Modelling for Temporal Interaction Graphs [19.71442902979904]
既存の生成モデルは、時間的地平線やノード数とともにスケールしない。
本稿では,このギャップをTIGGERと呼ばれる新しい生成モデルで埋める。
我々は、TIGGERが優れた忠実度を持つグラフを生成すると同時に、最先端技術よりも最大3桁高速であることを示す。
論文 参考訳(メタデータ) (2022-03-07T18:09:05Z) - Multivariate Time Series Forecasting with Dynamic Graph Neural ODEs [65.18780403244178]
動的グラフニューラル正規微分方程式(MTGODE)を用いた多変量時系列予測連続モデルを提案する。
具体的には、まず、時間進化するノードの特徴と未知のグラフ構造を持つ動的グラフに多変量時系列を抽象化する。
そして、欠落したグラフトポロジを補完し、空間的および時間的メッセージパッシングを統一するために、ニューラルODEを設計、解決する。
論文 参考訳(メタデータ) (2022-02-17T02:17:31Z) - Spatio-Temporal Joint Graph Convolutional Networks for Traffic
Forecasting [75.10017445699532]
近年、時間グラフモデリング問題として交通予測の定式化に焦点が移っている。
本稿では,道路網における交通予測の精度向上のための新しい手法を提案する。
論文 参考訳(メタデータ) (2021-11-25T08:45:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。