論文の概要: Temporal Graph Analysis with TGX
- arxiv url: http://arxiv.org/abs/2402.03651v1
- Date: Tue, 6 Feb 2024 02:56:07 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-07 16:57:14.254303
- Title: Temporal Graph Analysis with TGX
- Title(参考訳): TGXを用いた時間グラフ解析
- Authors: Razieh Shirzadkhani, Shenyang Huang, Elahe Kooshafar, Reihaneh
Rabbany, Farimah Poursafaei
- Abstract要約: TGXは、時間ネットワークの分析用に特別に設計されたPythonパッケージである。
データローディング、データ処理、進化するグラフの分析のための自動パイプラインを含んでいる。
このパッケージは、時間グラフの特徴を調べるための堅牢なツールであり、ソーシャルネットワークの研究、引用ネットワークの研究、ユーザーインタラクションの追跡など、さまざまな分野で使用することができる。
- 参考スコア(独自算出の注目度): 7.843459542448753
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: Real-world networks, with their evolving relations, are best captured as
temporal graphs. However, existing software libraries are largely designed for
static graphs where the dynamic nature of temporal graphs is ignored. Bridging
this gap, we introduce TGX, a Python package specially designed for analysis of
temporal networks that encompasses an automated pipeline for data loading, data
processing, and analysis of evolving graphs. TGX provides access to eleven
built-in datasets and eight external Temporal Graph Benchmark (TGB) datasets as
well as any novel datasets in the .csv format. Beyond data loading, TGX
facilitates data processing functionalities such as discretization of temporal
graphs and node subsampling to accelerate working with larger datasets. For
comprehensive investigation, TGX offers network analysis by providing a diverse
set of measures, including average node degree and the evolving number of nodes
and edges per timestamp. Additionally, the package consolidates meaningful
visualization plots indicating the evolution of temporal patterns, such as
Temporal Edge Appearance (TEA) and Temporal Edge Trafficc (TET) plots. The TGX
package is a robust tool for examining the features of temporal graphs and can
be used in various areas like studying social networks, citation networks, and
tracking user interactions. We plan to continuously support and update TGX
based on community feedback. TGX is publicly available on:
https://github.com/ComplexData-MILA/TGX.
- Abstract(参考訳): 現実世界のネットワークは進化する関係を持ち、時間グラフとして最もよく捉えられている。
しかし、既存のソフトウェアライブラリは、時間グラフの動的性質が無視される静的グラフのために主に設計されている。
このギャップを埋めて、データ読み込み、データ処理、進化するグラフの自動パイプラインを含む時間的ネットワークの分析に特化して設計されたPythonパッケージであるTGXを紹介する。
TGXは、11の組込みデータセットと8つの外部テンポラルグラフベンチマーク(TGB)データセット、および.NET Frameworkの新しいデータセットへのアクセスを提供する。
csvフォーマット。
データローディング以外にも、TGXは、時間グラフの離散化やノードサブサンプリングといったデータ処理機能を促進して、より大きなデータセットの処理を高速化する。
網羅的な調査のために、TGXは、平均ノード度と、タイムスタンプ当たりのノード数とエッジの進化数を含む、さまざまな測定値を提供することで、ネットワーク分析を提供する。
さらに、パッケージは、時間的エッジ外観(tea)や時間的エッジトラフィック(tet)プロットのような時間的パターンの進化を示す有意義な可視化プロットを統合する。
TGXパッケージは、時間グラフの特徴を調べるための堅牢なツールであり、ソーシャルネットワークの研究、引用ネットワークの研究、ユーザインタラクションの追跡など、さまざまな分野で使用することができる。
コミュニティのフィードバックに基づいてTGXを継続的にサポートし、更新する予定です。
TGXは、https://github.com/ComplexData-MILA/TGXで公開されている。
関連論文リスト
- TempoKGAT: A Novel Graph Attention Network Approach for Temporal Graph Analysis [3.5707423185282656]
本稿では,時間遅延重みと空間領域上の選択的な隣接集約機構を組み合わせた新しいタイプのグラフアテンションネットワークであるTempoKGATを提案する。
我々は、時間的データを含む交通、エネルギー、健康セクターから複数のデータセットに対するアプローチを評価する。
論文 参考訳(メタデータ) (2024-08-29T09:54:46Z) - TGB 2.0: A Benchmark for Learning on Temporal Knowledge Graphs and Heterogeneous Graphs [18.157266458255098]
テンポラルグラフベンチマーク2.0 (TGB 2.0) は、テンポラルグラフ上の将来のリンクを予測する手法を評価するための新しいベンチマークフレームワークである。
TGB 2.0は、最大5300万のエッジを持つ5つのドメインにまたがる8つの新しいデータセットを提示することで、包括的な評価を容易にする。
1)エッジタイプの情報を活用することは高いパフォーマンスを得るために不可欠であり、2)単純なベースラインはより複雑な手法と競合することが多く、3)ほとんどのメソッドは我々の最大のデータセット上で動作しない。
論文 参考訳(メタデータ) (2024-06-14T00:08:04Z) - Temporal Graph Benchmark for Machine Learning on Temporal Graphs [54.52243310226456]
テンポラルグラフベンチマーク(TGB)は、困難で多様なベンチマークデータセットのコレクションである。
各データセットをベンチマークし、共通のモデルのパフォーマンスがデータセット間で大きく異なることを発見した。
TGBは、再現可能でアクセス可能な時間グラフ研究のための自動機械学習パイプラインを提供する。
論文 参考訳(メタデータ) (2023-07-03T13:58:20Z) - Sparsity exploitation via discovering graphical models in multi-variate
time-series forecasting [1.2762298148425795]
本稿では,グラフ生成モジュールとGNN予測モジュールを含む分離学習手法を提案する。
まず、Graphical Lasso(またはGraphLASSO)を使用して、データから空間パターンを直接利用してグラフ構造を構築します。
次に、これらのグラフ構造と入力データをGCRN(Graph Convolutional Recurrent Network)に適合させて予測モデルをトレーニングする。
論文 参考訳(メタデータ) (2023-06-29T16:48:00Z) - arXiv4TGC: Large-Scale Datasets for Temporal Graph Clustering [52.63652741011945]
我々は、時間グラフクラスタリングのための新しい学術データセットであるarXiv4TGCを構築した。
特に、最大のデータセットであるarXivLargeには、13万のラベル付き利用可能なノードと1000万の時間エッジが含まれている。
arXiv4TGCのクラスタリング性能は、異なるモデルを評価する上でより明白である。
論文 参考訳(メタデータ) (2023-06-08T06:37:04Z) - Time-aware Dynamic Graph Embedding for Asynchronous Structural Evolution [60.695162101159134]
既存の作業は、動的グラフを変更のシーケンスとして見るだけである。
動的グラフを接合時間に付随する時間的エッジシーケンスとして定式化する。
頂点とエッジのタイムパン
組み込みにはタイムアウェアなTransformerが提案されている。
vertexの動的接続と学習へのToEs。
頂点表現
論文 参考訳(メタデータ) (2022-07-01T15:32:56Z) - Node Feature Extraction by Self-Supervised Multi-scale Neighborhood
Prediction [123.20238648121445]
我々は、新しい自己教師型学習フレームワーク、グラフ情報支援ノード機能exTraction (GIANT)を提案する。
GIANT は eXtreme Multi-label Classification (XMC) 形式を利用しており、これはグラフ情報に基づいた言語モデルの微調整に不可欠である。
我々は,Open Graph Benchmarkデータセット上での標準GNNパイプラインよりもGIANTの方が優れた性能を示す。
論文 参考訳(メタデータ) (2021-10-29T19:55:12Z) - Structural Temporal Graph Neural Networks for Anomaly Detection in
Dynamic Graphs [54.13919050090926]
本稿では,動的グラフの異常エッジを検出するために,エンドツーエンドの時間構造グラフニューラルネットワークモデルを提案する。
特に,まずターゲットエッジを中心にした$h$ホップ囲むサブグラフを抽出し,各ノードの役割を識別するノードラベル機能を提案する。
抽出した特徴に基づき,GRU(Gated Recurrent Unit)を用いて,異常検出のための時間的情報を取得する。
論文 参考訳(メタデータ) (2020-05-15T09:17:08Z) - Open Graph Benchmark: Datasets for Machine Learning on Graphs [86.96887552203479]
スケーラブルで堅牢で再現可能なグラフ機械学習(ML)の研究を容易にするために,Open Graph Benchmark(OGB)を提案する。
OGBデータセットは大規模で、複数の重要なグラフMLタスクを含み、さまざまなドメインをカバーする。
各データセットに対して,有意義なアプリケーション固有のデータ分割と評価指標を用いた統一評価プロトコルを提供する。
論文 参考訳(メタデータ) (2020-05-02T03:09:50Z) - Dynamic Spatiotemporal Graph Neural Network with Tensor Network [12.278768477060137]
動的空間グラフ構築は時系列データ問題に対するグラフニューラルネットワーク(GNN)の課題である。
我々は、全ての動的空間関係を収集する空間テンソルグラフ(STG)と、各ノードにおける遅延パターンを見つけるための時間テンソルグラフ(TTG)を生成する。
提案手法の精度と時間的コストを,公共交通データセット上での最先端のGNN手法と比較した。
論文 参考訳(メタデータ) (2020-03-12T20:47:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。