論文の概要: DURENDAL: Graph deep learning framework for temporal heterogeneous
networks
- arxiv url: http://arxiv.org/abs/2310.00336v1
- Date: Sat, 30 Sep 2023 10:46:01 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-05 04:59:06.979556
- Title: DURENDAL: Graph deep learning framework for temporal heterogeneous
networks
- Title(参考訳): DURENDAL:時間的異種ネットワークのためのグラフ深層学習フレームワーク
- Authors: Manuel Dileo, Matteo Zignani and Sabrina Gaito
- Abstract要約: 時間的異種ネットワーク(THN)は、多くの現実世界の応用を特徴付ける進化的ネットワークである。
THNのためのグラフ深層学習フレームワークであるDURENDALを提案する。
- 参考スコア(独自算出の注目度): 0.5156484100374057
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Temporal heterogeneous networks (THNs) are evolving networks that
characterize many real-world applications such as citation and events networks,
recommender systems, and knowledge graphs. Although different Graph Neural
Networks (GNNs) have been successfully applied to dynamic graphs, most of them
only support homogeneous graphs or suffer from model design heavily influenced
by specific THNs prediction tasks. Furthermore, there is a lack of temporal
heterogeneous networked data in current standard graph benchmark datasets.
Hence, in this work, we propose DURENDAL, a graph deep learning framework for
THNs. DURENDAL can help to easily repurpose any heterogeneous graph learning
model to evolving networks by combining design principles from snapshot-based
and multirelational message-passing graph learning models. We introduce two
different schemes to update embedding representations for THNs, discussing the
strengths and weaknesses of both strategies. We also extend the set of
benchmarks for TNHs by introducing two novel high-resolution temporal
heterogeneous graph datasets derived from an emerging Web3 platform and a
well-established e-commerce website. Overall, we conducted the experimental
evaluation of the framework over four temporal heterogeneous network datasets
on future link prediction tasks in an evaluation setting that takes into
account the evolving nature of the data. Experiments show the prediction power
of DURENDAL compared to current solutions for evolving and dynamic graphs, and
the effectiveness of its model design.
- Abstract(参考訳): 時間的異種ネットワーク(THN)は、引用やイベントネットワーク、レコメンダシステム、知識グラフなど、多くの現実世界の応用を特徴付ける進化型ネットワークである。
異なるグラフニューラルネットワーク(GNN)が動的グラフにうまく適用されているが、そのほとんどは同種グラフをサポートしていないか、特定のTHN予測タスクに大きく影響されたモデル設計に悩まされている。
さらに、現在の標準グラフベンチマークデータセットには、時間的ヘテロジニアスなネットワークデータが欠如している。
そこで本研究では,THNのためのグラフ深層学習フレームワークであるDURENDALを提案する。
DURENDALは、スナップショットベースとマルチリレーショナルなメッセージパッシンググラフ学習モデルの設計原則を組み合わせることで、異種グラフ学習モデルを進化するネットワークに容易に再利用することができる。
thnの埋め込み表現を更新するための2つの異なるスキームを導入し、両方の戦略の長所と短所について論じる。
また,新たなWeb3プラットフォームと確立されたeコマースWebサイトから得られた2つの新しい高分解能時間的異種グラフデータセットを導入することで,TNHのベンチマークも拡張する。
全体として,データの進化的性質を考慮した評価設定において,将来のリンク予測タスクにおける4つの時間的異種ネットワークデータセットに対するフレームワークの実験的評価を行った。
実験では、DURENDALの予測能力と、進化と動的グラフに対する現在の解、およびモデル設計の有効性を示す。
関連論文リスト
- Graph Transformer GANs with Graph Masked Modeling for Architectural
Layout Generation [153.92387500677023]
本稿では,グラフノード関係を効果的に学習するために,GTGAN(Graph Transformer Generative Adversarial Network)を提案する。
提案したグラフ変換器エンコーダは、局所的およびグローバルな相互作用をモデル化するために、Transformer内のグラフ畳み込みと自己アテンションを組み合わせる。
また,グラフ表現学習のための自己指導型事前学習手法を提案する。
論文 参考訳(メタデータ) (2024-01-15T14:36:38Z) - Dynamic Causal Explanation Based Diffusion-Variational Graph Neural
Network for Spatio-temporal Forecasting [60.03169701753824]
時間予測のための動的拡散型グラフニューラルネットワーク(DVGNN)を提案する。
提案したDVGNNモデルは最先端のアプローチよりも優れ,Root Mean Squared Errorの結果が優れている。
論文 参考訳(メタデータ) (2023-05-16T11:38:19Z) - Analysis of different temporal graph neural network configurations on
dynamic graphs [0.0]
本研究の目的は,動的グラフ上での空間的時間的依存構造学習の質的解析を行うことにより,文献のギャップを解消することである。
優れたTGNの異なる変種について広範囲にわたるアブレーション研究を行い、その性能に寄与する主要な要因を同定する。
これらの目的を達成することで、動的グラフ解析のためのTGNの設計と最適化に関する貴重な知見を提供する。
論文 参考訳(メタデータ) (2023-05-02T00:07:33Z) - Recurrent Transformer for Dynamic Graph Representation Learning with
Edge Temporal States [19.898902023743467]
本稿では,各スナップショットのエッジに様々なタイプと重みを割り当て,特定の時間状態を明確に記述するRDGT(Recurrent difference graph transformer)フレームワークを提案する。
4つの実世界のデータセットに対する実験結果は、離散動的グラフ表現学習におけるRDGTの優位性を示している。
論文 参考訳(メタデータ) (2023-04-20T04:12:50Z) - Long-term Spatio-temporal Forecasting via Dynamic Multiple-Graph
Attention [20.52864145999387]
長期的テンソル時間予測(LSTF)は、空間的領域と時間的領域、文脈的情報、およびデータ固有のパターン間の長期的依存関係を利用する。
本稿では,各ノードのコンテキスト情報と長期駐車による時間的データ依存構造を表現する新しいグラフモデルを提案する。
提案手法は,LSTF予測タスクにおける既存のグラフニューラルネットワークモデルの性能を大幅に向上させる。
論文 参考訳(メタデータ) (2022-04-23T06:51:37Z) - PGCN: Progressive Graph Convolutional Networks for Spatial-Temporal
Traffic Forecasting [0.0]
我々は、プログレッシブグラフ畳み込みネットワーク(PGCN)と呼ばれる新しいトラフィック予測フレームワークを提案する。
PGCNは、トレーニングとテストフェーズの間、入力データに徐々に適応することで、グラフのセットを構築する。
提案したモデルでは,すべてのデータセットの一貫性を保ちながら,最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2022-02-18T02:15:44Z) - Handling Distribution Shifts on Graphs: An Invariance Perspective [77.14319095965058]
グラフ上のノードレベルの予測にOOD問題を定式化する。
そこで我々は,探索から抽出までのリスク最小化という新たなドメイン不変学習手法を開発した。
理論的に有効なOOD解の保証を示すことによって,本手法の有効性を実証する。
論文 参考訳(メタデータ) (2022-02-05T02:31:01Z) - Anomaly Detection in Dynamic Graphs via Transformer [30.926884264054042]
DYnamic graph(TADDY)のためのトランスフォーマーを用いた新しい異常検出フレームワークを提案する。
本フレームワークは,進化するグラフストリームにおいて,各ノードの構造的役割と時間的役割をよりよく表現するための包括的ノード符号化戦略を構築する。
提案するTADDYフレームワークは,4つの実世界のデータセットに対して,最先端の手法よりも大きなマージンで優れている。
論文 参考訳(メタデータ) (2021-06-18T02:27:19Z) - TCL: Transformer-based Dynamic Graph Modelling via Contrastive Learning [87.38675639186405]
我々は,動的に進化するグラフを連続的に扱う,TCLと呼ばれる新しいグラフニューラルネットワークアプローチを提案する。
我々の知る限りでは、これは動的グラフ上の表現学習にコントラスト学習を適用する最初の試みである。
論文 参考訳(メタデータ) (2021-05-17T15:33:25Z) - GCC: Graph Contrastive Coding for Graph Neural Network Pre-Training [62.73470368851127]
グラフ表現学習は現実世界の問題に対処する強力な手法として登場した。
自己教師付きグラフニューラルネットワーク事前トレーニングフレームワークであるGraph Contrastive Codingを設計する。
3つのグラフ学習タスクと10のグラフデータセットについて実験を行った。
論文 参考訳(メタデータ) (2020-06-17T16:18:35Z) - Tensor Graph Convolutional Networks for Multi-relational and Robust
Learning [74.05478502080658]
本稿では,テンソルで表されるグラフの集合に関連するデータから,スケーラブルな半教師付き学習(SSL)を実現するためのテンソルグラフ畳み込みネットワーク(TGCN)を提案する。
提案アーキテクチャは、標準的なGCNと比較して大幅に性能が向上し、最先端の敵攻撃に対処し、タンパク質間相互作用ネットワーク上でのSSL性能が著しく向上する。
論文 参考訳(メタデータ) (2020-03-15T02:33:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。