論文の概要: BenchTemp: A General Benchmark for Evaluating Temporal Graph Neural
Networks
- arxiv url: http://arxiv.org/abs/2308.16385v1
- Date: Thu, 31 Aug 2023 01:03:27 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-01 17:56:49.185655
- Title: BenchTemp: A General Benchmark for Evaluating Temporal Graph Neural
Networks
- Title(参考訳): BenchTemp: 時間グラフニューラルネットワーク評価のための一般的なベンチマーク
- Authors: Qiang Huang, Jiawei Jiang, Xi Susie Rao, Ce Zhang, Zhichao Han, Zitao
Zhang, Xin Wang, Yongjun He, Quanqing Xu, Yang Zhao, Chuang Hu, Shuo Shang,
Bo Du
- Abstract要約: 時間的グラフニューラルネットワーク(TGNN)は、時間とともに機能や接続性が進化しているグラフを扱うために提案されている。
従来のTGNN評価では、1)一貫性のないデータセット、2)一貫性のない評価パイプライン、3)ワークロードの多様性の欠如、4)効率的な比較の欠如という、4つの重要な問題に関するいくつかの制限が示されていた。
各種ワークロード上でTGNNモデルを評価するための一般的なベンチマークであるBenchTempを提案する。
- 参考スコア(独自算出の注目度): 57.63644599395456
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: To handle graphs in which features or connectivities are evolving over time,
a series of temporal graph neural networks (TGNNs) have been proposed. Despite
the success of these TGNNs, the previous TGNN evaluations reveal several
limitations regarding four critical issues: 1) inconsistent datasets, 2)
inconsistent evaluation pipelines, 3) lacking workload diversity, and 4)
lacking efficient comparison. Overall, there lacks an empirical study that puts
TGNN models onto the same ground and compares them comprehensively. To this
end, we propose BenchTemp, a general benchmark for evaluating TGNN models on
various workloads. BenchTemp provides a set of benchmark datasets so that
different TGNN models can be fairly compared. Further, BenchTemp engineers a
standard pipeline that unifies the TGNN evaluation. With BenchTemp, we
extensively compare the representative TGNN models on different tasks (e.g.,
link prediction and node classification) and settings (transductive and
inductive), w.r.t. both effectiveness and efficiency metrics. We have made
BenchTemp publicly available at https://github.com/qianghuangwhu/benchtemp.
- Abstract(参考訳): 時間とともに特徴やコネクティビティが進化するグラフを扱うために、一連の時間グラフニューラルネットワーク(tgnn)が提案されている。
これらのTGNNの成功にもかかわらず、以前のTGNN評価は4つの重要な問題に関していくつかの制限を明らかにしている。
1)一貫性のないデータセット
2)一貫性のない評価パイプライン。
3)ワークロードの多様性の欠如
4)効率比較の欠如。
全体としては、TGNNモデルを同じ場所に置き、それらを総合的に比較する実験的な研究が欠けている。
この目的のために,さまざまなワークロード上でTGNNモデルを評価するための一般的なベンチマークであるBenchTempを提案する。
benchtempはベンチマークデータセットを提供するので、異なるtgnnモデルをかなり比較することができる。
さらに、BenchTempはTGNN評価を統一する標準パイプラインを設計している。
benchtempでは、異なるタスク(リンク予測やノード分類など)と設定(トランスダクティブとインダクティブ)の代表的なtgnnモデルを、有効性と効率の指標の両方で広範囲に比較します。
我々はBenchTempをhttps://github.com/qianghuangwhu/benchtemp.comで公開しました。
関連論文リスト
- Retrofitting Temporal Graph Neural Networks with Transformer [39.13573951756802]
テンポラルグラフニューラルネットワーク(TGNN)は、時間情報をグラフベースの操作に組み込むことで、通常のGNNより優れている。
TGNNのバックボーンモデルとしてTransformer Decoderを用いたTF-TGNを提案する。
TF-TGNは既存のSOTA TGNNと同等あるいはそれ以上の精度でトレーニングを2.20以上加速できることを示す。
論文 参考訳(メタデータ) (2024-09-09T10:11:25Z) - E2GNN: Efficient Graph Neural Network Ensembles for Semi-Supervised Classification [30.55931541782854]
本研究では、グラフニューラルネットワーク(GNN)のアンサンブル学習を、人気のある半教師付き環境下で研究する。
ラベル付きノードとラベルなしノードの両方を活用することで,複数のGNNを学習可能な方法で組み立てる,効率的なアンサンブル学習者を提案する。
さまざまなGNNバックボーンと8つのベンチマークデータセットにまたがる、トランスダクティブとインダクティブ両方の設定に関する包括的な実験は、E2GNNの優位性を実証している。
論文 参考訳(メタデータ) (2024-05-06T12:11:46Z) - Towards Temporal Edge Regression: A Case Study on Agriculture Trade
Between Nations [4.612412025217201]
グラフニューラルネットワーク(GNN)は、動的グラフ上のタスクにおいて有望なパフォーマンスを示している。
本稿では,GNNの静的および動的設定におけるエッジ回帰タスクへの適用について検討する。
論文 参考訳(メタデータ) (2023-08-15T17:13:16Z) - Temporal Graph Benchmark for Machine Learning on Temporal Graphs [54.52243310226456]
テンポラルグラフベンチマーク(TGB)は、困難で多様なベンチマークデータセットのコレクションである。
各データセットをベンチマークし、共通のモデルのパフォーマンスがデータセット間で大きく異なることを発見した。
TGBは、再現可能でアクセス可能な時間グラフ研究のための自動機械学習パイプラインを提供する。
論文 参考訳(メタデータ) (2023-07-03T13:58:20Z) - INK: Injecting kNN Knowledge in Nearest Neighbor Machine Translation [57.952478914459164]
kNN-MTは、推論中に隣接する表現に基づいて予測を円滑にするための効果的なパラダイムを提供する。
我々は,kNN近傍の表現を少数の新しいパラメータで調整することで,表現空間を円滑にするための効果的なトレーニングフレームワークINKを提案する。
4つのベンチマークデータセットでの実験では、メソッドは1.99 COMETと1.0 BLEUの平均ゲインを達成し、0.02倍のメモリ空間と1.9倍の推論速度を持つ最先端のkNN-MTシステムより優れていた。
論文 参考訳(メタデータ) (2023-06-10T08:39:16Z) - BAGEL: A Benchmark for Assessing Graph Neural Network Explanations [4.43959863685757]
グラフニューラルネットワークモデルが与えられた後、GNNモデルを説明するためのいくつかの解釈可能性アプローチが存在する。
本稿では,ベイゲルと呼ばれるGNNにおける説明可能性評価手法を提案する。
我々は4つのGNNモデルと、ノードとグラフの分類タスクに対する9つのポストホックな説明手法に関する広範な実証的研究を行った。
論文 参考訳(メタデータ) (2022-06-28T13:08:28Z) - Shift-Robust GNNs: Overcoming the Limitations of Localized Graph
Training data [52.771780951404565]
Shift-Robust GNN (SR-GNN) は、バイアス付きトレーニングデータとグラフの真の推論分布の分布差を考慮に入れた設計である。
SR-GNNが他のGNNベースラインを精度良く上回り、バイアス付きトレーニングデータから生じる負の効果の少なくとも40%を排除していることを示す。
論文 参考訳(メタデータ) (2021-08-02T18:00:38Z) - Self-supervised Graph Neural Networks without explicit negative sampling [0.36804038214708557]
本論文では,明示的な対比項に頼らずに,新しい対比自己監視グラフニューラルネットワーク(GNN)であるSelfGNNを提案する。
性能を犠牲にすることなく、暗黙の対照的な項を導入するバッチ正規化を利用する。
公開されている7つの実世界のデータに対する実証的な評価は、SelfGNNは強力であり、SOTAが管理するGNNに匹敵する性能をもたらすことを示している。
論文 参考訳(メタデータ) (2021-03-27T18:20:37Z) - A Biased Graph Neural Network Sampler with Near-Optimal Regret [57.70126763759996]
グラフニューラルネットワーク(GNN)は、グラフおよびリレーショナルデータにディープネットワークアーキテクチャを適用する手段として登場した。
本論文では,既存の作業に基づいて,GNN近傍サンプリングをマルチアームバンディット問題として扱う。
そこで本研究では,分散を低減し,不安定かつ非限定的な支払いを回避すべく設計されたバイアスをある程度導入した報酬関数を提案する。
論文 参考訳(メタデータ) (2021-03-01T15:55:58Z) - The Surprising Power of Graph Neural Networks with Random Node
Initialization [54.4101931234922]
グラフニューラルネットワーク(GNN)は、関係データ上での表現学習に有効なモデルである。
標準 GNN はその表現力に制限があり、Weisfeiler-Leman グラフ同型(英語版)の能力以外の区別はできない。
本研究では,ランダムノード(RNI)を用いたGNNの表現力の解析を行う。
我々はこれらのモデルが普遍的であることを証明し、GNNが高次特性の計算に頼らない最初の結果である。
論文 参考訳(メタデータ) (2020-10-02T19:53:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。