論文の概要: TG-GAN: Continuous-time Temporal Graph Generation with Deep Generative
Models
- arxiv url: http://arxiv.org/abs/2005.08323v2
- Date: Tue, 9 Jun 2020 19:47:40 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-02 05:17:19.408426
- Title: TG-GAN: Continuous-time Temporal Graph Generation with Deep Generative
Models
- Title(参考訳): TG-GAN:深部生成モデルを用いた連続時間時間グラフ生成
- Authors: Liming Zhang, Liang Zhao, Shan Qin, Dieter Pfoser
- Abstract要約: 本稿では,時系列グラフ生成のためのTG-GAN'と呼ばれる新しいモデルを提案する。
まず,時間予算とノード属性を共同でモデル化する新しい時間グラフ生成手法を提案する。
さらに、繰り返しアーキテクチャ上での時間とノードの符号化操作を組み合わせて生成されたシーケンスを識別する新しい時間グラフ識別器を提案する。
- 参考スコア(独自算出の注目度): 9.75258136573147
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The recent deep generative models for static graphs that are now being
actively developed have achieved significant success in areas such as molecule
design. However, many real-world problems involve temporal graphs whose
topology and attribute values evolve dynamically over time, including important
applications such as protein folding, human mobility networks, and social
network growth. As yet, deep generative models for temporal graphs are not yet
well understood and existing techniques for static graphs are not adequate for
temporal graphs since they cannot 1) encode and decode continuously-varying
graph topology chronologically, 2) enforce validity via temporal constraints,
or 3) ensure efficiency for information-lossless temporal resolution. To
address these challenges, we propose a new model, called ``Temporal Graph
Generative Adversarial Network'' (TG-GAN) for continuous-time temporal graph
generation, by modeling the deep generative process for truncated temporal
random walks and their compositions. Specifically, we first propose a novel
temporal graph generator that jointly model truncated edge sequences, time
budgets, and node attributes, with novel activation functions that enforce
temporal validity constraints under recurrent architecture. In addition, a new
temporal graph discriminator is proposed, which combines time and node encoding
operations over a recurrent architecture to distinguish the generated sequences
from the real ones sampled by a newly-developed truncated temporal random walk
sampler. Extensive experiments on both synthetic and real-world datasets
demonstrate TG-GAN significantly outperforms the comparison methods in
efficiency and effectiveness.
- Abstract(参考訳): 現在活発に開発されている静的グラフの最近の深層生成モデルは、分子設計などの領域で大きな成功を収めている。
しかし、現実の多くの問題は、タンパク質の折り畳み、人間の移動ネットワーク、ソーシャルネットワークの成長といった重要な応用を含む、時間とともにトポロジと属性値が動的に進化する時間グラフを含む。
今のところ、時間グラフの深い生成モデルはまだよく理解されておらず、既存の静的グラフの技法は時間グラフには不十分である。
1)連続的に変化するグラフトポロジーを時系列にエンコード・デコードする。
2 時間的制約による効力の行使又は
3) 情報損失のない時間分解能の効率性を確保する。
これらの課題に対処するため,時間的時間的グラフ生成のための「テンポラルグラフ生成支援ネットワーク」 (TG-GAN) と呼ばれる新しいモデルを提案し,時間的ランダムウォークの深部生成過程とその構成をモデル化した。
具体的には, エッジシーケンス, 時間予算, ノード属性を相互にモデル化し, 再帰的アーキテクチャ下での時間的有効性制約を強制する新たな活性化機能を持つ, 新たな時間グラフ生成器を提案する。
また,新たに開発した時間的ランダムウォークサンプリング器を用いて,生成したシーケンスと実シーケンスを区別するために,リカレントアーキテクチャ上で時間とノードのエンコーディング操作を組み合わせる新しい時間的グラフ判別器を提案する。
合成データと実世界のデータセットの両方に関する広範な実験は、tg-ganが効率と有効性の比較方法を大幅に上回っていることを示している。
関連論文リスト
- Spatial-temporal Memories Enhanced Graph Autoencoder for Anomaly Detection in Dynamic Graphs [52.956235109354175]
動的グラフにおける異常検出は、グラフ構造と属性の時間的進化によって大きな課題となる。
空間記憶強調グラフオートエンコーダ(STRIPE)について紹介する。
STRIPEは、動的グラフの異なる空間的・時間的ダイナミクスを効果的に活用することにより、異常を識別する優れた能力を示した。
論文 参考訳(メタデータ) (2024-03-14T02:26:10Z) - TimeGraphs: Graph-based Temporal Reasoning [64.18083371645956]
TimeGraphsは階層的時間グラフとして動的相互作用を特徴付ける新しいアプローチである。
提案手法は,コンパクトなグラフベース表現を用いて相互作用をモデル化し,多種多様な時間スケールでの適応推論を可能にする。
我々は,サッカーシミュレータ,抵抗ゲーム,MOMA人間活動データセットなど,複雑でダイナミックなエージェントインタラクションを持つ複数のデータセット上でTimeGraphsを評価する。
論文 参考訳(メタデータ) (2024-01-06T06:26:49Z) - iLoRE: Dynamic Graph Representation with Instant Long-term Modeling and
Re-occurrence Preservation [21.15310868951046]
iLoREは,ノードワイド長期モデリングと再帰保存が可能な動的グラフモデリング手法である。
実世界のデータセットに対する実験結果から,動的グラフモデリングにおけるiLoREの有効性が示された。
論文 参考訳(メタデータ) (2023-09-05T07:48:52Z) - Using Motif Transitions for Temporal Graph Generation [0.0]
我々は,現実的なグローバルな特徴と局所的な特徴を持つ合成時間ネットワークを生成するための実用的な時間グラフ生成装置を開発した。
私たちのキーとなるアイデアは、新しいイベントの到着を時間的モチーフ移行プロセスとしてモデル化することです。
我々は,グローバルおよびローカルな時間グラフ統計と実行時性能の保存に関して,モデルがベースラインを一貫して上回っていることを実証する。
論文 参考訳(メタデータ) (2023-06-19T22:53:42Z) - Networked Time Series Imputation via Position-aware Graph Enhanced
Variational Autoencoders [31.953958053709805]
我々は,変分オートエンコーダ(VAE)を利用して,ノード時系列の特徴とグラフ構造の両方に欠落する値を予測するPoGeVonという新しいモデルを設計する。
実験の結果,ベースライン上でのモデルの有効性が示された。
論文 参考訳(メタデータ) (2023-05-29T21:11:34Z) - Dynamic Causal Explanation Based Diffusion-Variational Graph Neural
Network for Spatio-temporal Forecasting [60.03169701753824]
時間予測のための動的拡散型グラフニューラルネットワーク(DVGNN)を提案する。
提案したDVGNNモデルは最先端のアプローチよりも優れ,Root Mean Squared Errorの結果が優れている。
論文 参考訳(メタデータ) (2023-05-16T11:38:19Z) - Temporal Aggregation and Propagation Graph Neural Networks for Dynamic
Representation [67.26422477327179]
時間グラフは連続時間を通してノード間の動的相互作用を示す。
本研究では,周辺地域全体と時間的グラフ畳み込みの新たな手法を提案する。
提案するTAP-GNNは,予測性能とオンライン推論遅延の両面で,既存の時間グラフ手法よりも優れた性能を示す。
論文 参考訳(メタデータ) (2023-04-15T08:17:18Z) - TIGGER: Scalable Generative Modelling for Temporal Interaction Graphs [19.71442902979904]
既存の生成モデルは、時間的地平線やノード数とともにスケールしない。
本稿では,このギャップをTIGGERと呼ばれる新しい生成モデルで埋める。
我々は、TIGGERが優れた忠実度を持つグラフを生成すると同時に、最先端技術よりも最大3桁高速であることを示す。
論文 参考訳(メタデータ) (2022-03-07T18:09:05Z) - Multivariate Time Series Forecasting with Dynamic Graph Neural ODEs [65.18780403244178]
動的グラフニューラル正規微分方程式(MTGODE)を用いた多変量時系列予測連続モデルを提案する。
具体的には、まず、時間進化するノードの特徴と未知のグラフ構造を持つ動的グラフに多変量時系列を抽象化する。
そして、欠落したグラフトポロジを補完し、空間的および時間的メッセージパッシングを統一するために、ニューラルODEを設計、解決する。
論文 参考訳(メタデータ) (2022-02-17T02:17:31Z) - Spatio-Temporal Joint Graph Convolutional Networks for Traffic
Forecasting [75.10017445699532]
近年、時間グラフモデリング問題として交通予測の定式化に焦点が移っている。
本稿では,道路網における交通予測の精度向上のための新しい手法を提案する。
論文 参考訳(メタデータ) (2021-11-25T08:45:14Z) - Inductive Representation Learning on Temporal Graphs [33.44276155380476]
時間的動的グラフは、新しいノードの処理と時間的パターンのキャプチャを必要とする。
本研究では,時間-トポロジ的特徴を効率的に集約する時間グラフアテンション層を提案する。
TGAT層を積み重ねることで、ネットワークはノードの埋め込みを時間の関数として認識し、新しいノードと観測されたノードの両方の埋め込みを誘導的に推論することができる。
論文 参考訳(メタデータ) (2020-02-19T02:05:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。