論文の概要: An Explainer for Temporal Graph Neural Networks
- arxiv url: http://arxiv.org/abs/2209.00807v1
- Date: Fri, 2 Sep 2022 04:12:40 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-05 12:38:14.795557
- Title: An Explainer for Temporal Graph Neural Networks
- Title(参考訳): 時間グラフニューラルネットワークのための説明器
- Authors: Wenchong He, Minh N. Vu, Zhe Jiang, My T. Thai
- Abstract要約: 時空間グラフニューラルネットワーク(TGNN)は、時間発展するグラフ関連タスクのモデリングに広く用いられている。
本稿では,TGNNモデルのための新しい説明フレームワークを提案する。
- 参考スコア(独自算出の注目度): 27.393641343203363
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Temporal graph neural networks (TGNNs) have been widely used for modeling
time-evolving graph-related tasks due to their ability to capture both graph
topology dependency and non-linear temporal dynamic. The explanation of TGNNs
is of vital importance for a transparent and trustworthy model. However, the
complex topology structure and temporal dependency make explaining TGNN models
very challenging. In this paper, we propose a novel explainer framework for
TGNN models. Given a time series on a graph to be explained, the framework can
identify dominant explanations in the form of a probabilistic graphical model
in a time period. Case studies on the transportation domain demonstrate that
the proposed approach can discover dynamic dependency structures in a road
network for a time period.
- Abstract(参考訳): 時間的グラフニューラルネットワーク(TGNN)は、グラフトポロジ依存と非線形時間的ダイナミクスの両方をキャプチャできるため、時間発展的なグラフ関連タスクのモデル化に広く利用されている。
TGNNの説明は透明で信頼できるモデルにとって極めて重要である。
しかし、複雑なトポロジ構造と時間依存性により、TGNNモデルの説明は非常に困難である。
本稿では,TGNNモデルのための新しい説明フレームワークを提案する。
説明すべきグラフの時系列が与えられると、フレームワークは時間内に確率的グラフィカルモデルという形で支配的な説明を識別することができる。
交通分野のケーススタディでは, 提案手法が道路網内の動的依存構造を一定期間発見できることが示されている。
関連論文リスト
- MGNNI: Multiscale Graph Neural Networks with Implicit Layers [53.75421430520501]
暗黙グラフニューラルネットワーク(GNN)は、基礎となるグラフの長距離依存性をキャプチャするために提案されている。
暗黙的GNNの2つの弱点は、長距離依存を捉えるための限られた有効範囲による制約付き表現性と、複数の解像度でグラフ上のマルチスケール情報をキャプチャする能力の欠如である。
グラフ上のマルチスケール構造をモデル化できる暗黙の層(MGNNI)を持つマルチスケールグラフニューラルネットワークを提案する。
論文 参考訳(メタデータ) (2022-10-15T18:18:55Z) - Explaining Dynamic Graph Neural Networks via Relevance Back-propagation [8.035521056416242]
グラフニューラルネットワーク(GNN)は、グラフ構造化データにおいて、豊富な情報を捕捉する際、顕著な効果を示した。
GNNのブラックボックスの性質は、モデルの理解と信頼を妨げるため、アプリケーションに困難をもたらす。
本稿ではDGExplainerを提案し,動的GNNの信頼性について説明する。
論文 参考訳(メタデータ) (2022-07-22T16:20:34Z) - Graph-Time Convolutional Neural Networks: Architecture and Theoretical
Analysis [12.995632804090198]
グラフ時間畳み込みニューラルネットワーク(GTCNN)を学習支援の原則アーキテクチャとして導入する。
このアプローチはどんな種類のプロダクトグラフでも機能し、パラメトリックグラフを導入して、プロダクトの時間的結合も学べます。
GTCNNが最先端のソリューションと好意的に比較できることを示す。
論文 参考訳(メタデータ) (2022-06-30T10:20:52Z) - Spatio-Temporal Latent Graph Structure Learning for Traffic Forecasting [6.428566223253948]
S-Temporal Latent Graph Structure Learning Network (ST-LGSL) を提案する。
このモデルは多層パーセプトロンとK-Nearest Neighborに基づくグラフを用いて、データ全体から潜在グラフトポロジ情報を学習する。
kNNの接地確率行列に基づく依存関係-kNNと類似度メートル法により、ST-LGSLは地理的およびノード類似度に重点を置くトップを集約する。
論文 参考訳(メタデータ) (2022-02-25T10:02:49Z) - EIGNN: Efficient Infinite-Depth Graph Neural Networks [51.97361378423152]
グラフニューラルネットワーク(GNN)は多くのアプリケーションでグラフ構造化データのモデリングに広く利用されている。
この制限により、無限深度GNNモデルを提案し、これをEIGNN(Efficient Infinite-Depth Graph Neural Networks)と呼ぶ。
EIGNNは、最近のベースラインよりも長距離依存関係をキャプチャする能力が優れており、常に最先端のパフォーマンスを実現していることを示す。
論文 参考訳(メタデータ) (2022-02-22T08:16:58Z) - Temporal Knowledge Graph Forecasting with Neural ODE [19.64877769280854]
連続体深度モデルの概念を時間発展型マルチリレーショナルグラフデータに拡張する。
GNN(Graph Neural Network)によるNODEと構造情報による時間情報のキャプチャ
本モデルでは,連続モデルが実現され,将来予測のためのノード表現を効率的に学習する。
論文 参考訳(メタデータ) (2021-01-13T15:49:48Z) - A Unified View on Graph Neural Networks as Graph Signal Denoising [49.980783124401555]
グラフニューラルネットワーク(GNN)は,グラフ構造化データの学習表現において顕著に普及している。
本研究では,代表的GNNモデル群における集約過程を,グラフ記述問題の解法とみなすことができることを数学的に確立する。
UGNNから派生した新しいGNNモデルADA-UGNNをインスタンス化し、ノード間の適応的滑らかさでグラフを処理する。
論文 参考訳(メタデータ) (2020-10-05T04:57:18Z) - Implicit Graph Neural Networks [46.0589136729616]
Indicit Graph Neural Networks (IGNN) と呼ばれるグラフ学習フレームワークを提案する。
IGNNは一貫して長距離依存を捉え、最先端のGNNモデルより優れている。
論文 参考訳(メタデータ) (2020-09-14T06:04:55Z) - Connecting the Dots: Multivariate Time Series Forecasting with Graph
Neural Networks [91.65637773358347]
多変量時系列データに特化して設計された汎用グラフニューラルネットワークフレームワークを提案する。
グラフ学習モジュールを用いて,変数間の一方向関係を自動的に抽出する。
提案手法は,4つのベンチマークデータセットのうち3つにおいて,最先端のベースライン手法よりも優れている。
論文 参考訳(メタデータ) (2020-05-24T04:02:18Z) - Gated Graph Recurrent Neural Networks [176.3960927323358]
グラフ処理の一般的な学習フレームワークとしてグラフリカレントニューラルネットワーク(GRNN)を導入する。
勾配の消失問題に対処するため,時間,ノード,エッジゲートの3つの異なるゲーティング機構でGRNNを前進させた。
数値的な結果は、GRNNがGNNやRNNよりも優れており、グラフプロセスの時間構造とグラフ構造の両方を考慮することが重要であることを示している。
論文 参考訳(メタデータ) (2020-02-03T22:35:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。