論文の概要: TIGGER: Scalable Generative Modelling for Temporal Interaction Graphs
- arxiv url: http://arxiv.org/abs/2203.03564v2
- Date: Tue, 8 Mar 2022 12:13:07 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-09 11:34:01.585268
- Title: TIGGER: Scalable Generative Modelling for Temporal Interaction Graphs
- Title(参考訳): TIGGER: 時間的相互作用グラフのためのスケーラブルな生成モデル
- Authors: Shubham Gupta, Sahil Manchanda, Srikanta Bedathur and Sayan Ranu
- Abstract要約: 既存の生成モデルは、時間的地平線やノード数とともにスケールしない。
本稿では,このギャップをTIGGERと呼ばれる新しい生成モデルで埋める。
我々は、TIGGERが優れた忠実度を持つグラフを生成すると同時に、最先端技術よりも最大3桁高速であることを示す。
- 参考スコア(独自算出の注目度): 19.71442902979904
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: There has been a recent surge in learning generative models for graphs. While
impressive progress has been made on static graphs, work on generative modeling
of temporal graphs is at a nascent stage with significant scope for
improvement. First, existing generative models do not scale with either the
time horizon or the number of nodes. Second, existing techniques are
transductive in nature and thus do not facilitate knowledge transfer. Finally,
due to relying on one-to-one node mapping from source to the generated graph,
existing models leak node identity information and do not allow
up-scaling/down-scaling the source graph size. In this paper, we bridge these
gaps with a novel generative model called TIGGER. TIGGER derives its power
through a combination of temporal point processes with auto-regressive modeling
enabling both transductive and inductive variants. Through extensive
experiments on real datasets, we establish TIGGER generates graphs of superior
fidelity, while also being up to 3 orders of magnitude faster than the
state-of-the-art.
- Abstract(参考訳): 近年,グラフ生成モデルの学習が急増している。
静的グラフ上では目覚ましい進歩があったが、時間グラフの生成モデリングの研究は、改善のための大きなスコープを持つ初期段階にある。
まず、既存の生成モデルは、時間軸とノード数の両方でスケールしない。
第二に、既存の技術は本質的にトランスダクティブであり、そのため知識の伝達が容易ではない。
最後に、ソースから生成されたグラフへの1対1のノードマッピングに依存するため、既存のモデルではノード識別情報が漏洩し、ソースグラフサイズをアップスケーリング/ダウンスケーリングすることができない。
本稿では,このギャップをTIGGERと呼ばれる新しい生成モデルで埋める。
TIGGERは、時間点過程と自己回帰モデリングを組み合わせることで、トランスダクティブとインダクティブの両方の変形を可能にする。
実際のデータセットに関する広範な実験を通じて、TIGGERは優れた忠実度のグラフを生成すると同時に、最先端技術よりも最大3桁高速であることを示す。
関連論文リスト
- IFH: a Diffusion Framework for Flexible Design of Graph Generative Models [53.219279193440734]
グラフ生成モデルは,1行にグラフを生成するワンショットモデルと,ノードとエッジの連続的な付加によるグラフを生成するシーケンシャルモデルという,2つの顕著なファミリーに分類される。
本稿では,逐次度を規定するグラフ生成モデルであるInsert-Fill-Halt(IFH)を提案する。
論文 参考訳(メタデータ) (2024-08-23T16:24:40Z) - Deep Prompt Tuning for Graph Transformers [55.2480439325792]
ファインチューニングはリソース集約型であり、大きなモデルのコピーを複数保存する必要がある。
ファインチューニングの代替として,ディープグラフプロンプトチューニングと呼ばれる新しい手法を提案する。
事前学習したパラメータを凍結し、追加したトークンのみを更新することにより、フリーパラメータの数を減らし、複数のモデルコピーを不要にする。
論文 参考訳(メタデータ) (2023-09-18T20:12:17Z) - Graph Relation Aware Continual Learning [3.908470250825618]
連続グラフ学習(CGL)は、無限のグラフデータストリームから学習する問題を研究する。
我々は、縁の裏側にある潜伏関係を探索する関係発見モジュールからなるRAM-CGと呼ばれる関係認識適応モデルを設計する。
RAM-CGはCitationNet、OGBN-arxiv、TWITCHデータセットの最先端結果に対して2.2%、6.9%、および6.6%の精度向上を提供する。
論文 参考訳(メタデータ) (2023-08-16T09:53:20Z) - Using Motif Transitions for Temporal Graph Generation [0.0]
我々は,現実的なグローバルな特徴と局所的な特徴を持つ合成時間ネットワークを生成するための実用的な時間グラフ生成装置を開発した。
私たちのキーとなるアイデアは、新しいイベントの到着を時間的モチーフ移行プロセスとしてモデル化することです。
我々は,グローバルおよびローカルな時間グラフ統計と実行時性能の保存に関して,モデルがベースラインを一貫して上回っていることを実証する。
論文 参考訳(メタデータ) (2023-06-19T22:53:42Z) - Graph Generation with Diffusion Mixture [57.78958552860948]
グラフの生成は、非ユークリッド構造の複雑な性質を理解する必要がある実世界のタスクにとって大きな課題である。
本稿では,拡散過程の最終グラフ構造を明示的に学習することにより,グラフのトポロジーをモデル化する生成フレームワークを提案する。
論文 参考訳(メタデータ) (2023-02-07T17:07:46Z) - Generative Diffusion Models on Graphs: Methods and Applications [50.44334458963234]
拡散モデルは、新しい生成パラダイムとして、様々な画像生成タスクにおいて顕著な成功を収めた。
グラフ生成は多くの実世界のアプリケーションを持つグラフ上で重要な計算タスクである。
論文 参考訳(メタデータ) (2023-02-06T06:58:17Z) - FLOWGEN: Fast and slow graph generation [49.21890450444187]
本稿では、心の二重過程理論に着想を得たグラフ生成モデルFLOWGENを提案する。
現在のステップでグラフを完成させることの難しさに応じて、グラフ生成は高速(ウェイカー)または遅い(ストロンガー)モデルにルートされる。
実世界のグラフの実験では、一つの大きなモデルが生成したグラフと同じようなグラフを、ほんの少しの時間で生成できることが示されている。
論文 参考訳(メタデータ) (2022-07-15T16:32:23Z) - Dynamic Graph Learning-Neural Network for Multivariate Time Series
Modeling [2.3022070933226217]
静的および動的グラフ学習ニューラルネットワーク(GL)という新しいフレームワークを提案する。
モデルはそれぞれ、データから静的グラフ行列と動的グラフ行列を取得し、長期パターンと短期パターンをモデル化する。
ほぼすべてのデータセットで最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2021-12-06T08:19:15Z) - TCL: Transformer-based Dynamic Graph Modelling via Contrastive Learning [87.38675639186405]
我々は,動的に進化するグラフを連続的に扱う,TCLと呼ばれる新しいグラフニューラルネットワークアプローチを提案する。
我々の知る限りでは、これは動的グラフ上の表現学習にコントラスト学習を適用する最初の試みである。
論文 参考訳(メタデータ) (2021-05-17T15:33:25Z) - TG-GAN: Continuous-time Temporal Graph Generation with Deep Generative
Models [9.75258136573147]
本稿では,時系列グラフ生成のためのTG-GAN'と呼ばれる新しいモデルを提案する。
まず,時間予算とノード属性を共同でモデル化する新しい時間グラフ生成手法を提案する。
さらに、繰り返しアーキテクチャ上での時間とノードの符号化操作を組み合わせて生成されたシーケンスを識別する新しい時間グラフ識別器を提案する。
論文 参考訳(メタデータ) (2020-05-17T17:59:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。