論文の概要: Self-Explainable Temporal Graph Networks based on Graph Information Bottleneck
- arxiv url: http://arxiv.org/abs/2406.13214v1
- Date: Wed, 19 Jun 2024 04:55:34 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-21 23:09:15.547201
- Title: Self-Explainable Temporal Graph Networks based on Graph Information Bottleneck
- Title(参考訳): グラフ情報を用いた自己説明可能な時間グラフネットワーク
- Authors: Sangwoo Seo, Sungwon Kim, Jihyeong Jung, Yoonho Lee, Chanyoung Park,
- Abstract要約: テンポラルグラフネットワーク(TGNN)は、時間とともにグラフ内の相互作用のトポロジと動的依存関係をキャプチャする能力を持つ。
過去の出来事が予測にどのように影響するかを特定するのが困難であるため、TGNNモデルの予測を説明する必要性が高まっている。
これは、時間グラフの予測と説明をエンドツーエンドで同時に行う最初の作品である。
- 参考スコア(独自算出の注目度): 21.591458816091126
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Temporal Graph Neural Networks (TGNN) have the ability to capture both the graph topology and dynamic dependencies of interactions within a graph over time. There has been a growing need to explain the predictions of TGNN models due to the difficulty in identifying how past events influence their predictions. Since the explanation model for a static graph cannot be readily applied to temporal graphs due to its inability to capture temporal dependencies, recent studies proposed explanation models for temporal graphs. However, existing explanation models for temporal graphs rely on post-hoc explanations, requiring separate models for prediction and explanation, which is limited in two aspects: efficiency and accuracy of explanation. In this work, we propose a novel built-in explanation framework for temporal graphs, called Self-Explainable Temporal Graph Networks based on Graph Information Bottleneck (TGIB). TGIB provides explanations for event occurrences by introducing stochasticity in each temporal event based on the Information Bottleneck theory. Experimental results demonstrate the superiority of TGIB in terms of both the link prediction performance and explainability compared to state-of-the-art methods. This is the first work that simultaneously performs prediction and explanation for temporal graphs in an end-to-end manner.
- Abstract(参考訳): 時間的グラフニューラルネットワーク(TGNN)は、時間とともにグラフ内の相互作用のトポロジと動的依存関係の両方をキャプチャする能力を持つ。
過去の出来事が予測にどのように影響するかを特定するのが困難であるため、TGNNモデルの予測を説明する必要性が高まっている。
静的グラフの説明モデルは,時間的依存を捉えることができないため,時間的グラフに容易に適用できないため,最近の研究では時間的グラフの説明モデルが提案されている。
しかし、時間グラフの既存の説明モデルは、説明の効率と正確さの2つの側面に制限された予測と説明のために別々のモデルを必要とする、ポストホックな説明に依存している。
本研究では,グラフ情報ボトルネック(TGIB)に基づく自己説明可能な時間グラフネットワーク(Self-Explainable Temporal Graph Networks)と呼ばれる,時間グラフのための新しい説明フレームワークを提案する。
TGIBは、インフォメーション・ボトルネック理論に基づいて、各時間事象に確率性を導入することで事象の発生を説明する。
リンク予測性能と説明可能性の両面でTGIBの優位性を示す実験結果を得た。
これは、時間グラフの予測と説明をエンドツーエンドで同時に行う最初の作品である。
関連論文リスト
- Time-aware Graph Structure Learning via Sequence Prediction on Temporal
Graphs [10.034072706245544]
時系列グラフのシーケンス予測による時間認識型グラフ構造学習(TGSL)手法を提案する。
特に、タイムアウェアなコンテキスト埋め込みを予測し、Gumble-Top-Kを使用して、このコンテキスト埋め込みに最も近い候補エッジを選択する。
時間リンク予測ベンチマークの実験は、TGSLがTGATやGraphMixerのような一般的なTGNに対して大きな利益をもたらすことを示した。
論文 参考訳(メタデータ) (2023-06-13T11:34:36Z) - Dynamic Causal Explanation Based Diffusion-Variational Graph Neural
Network for Spatio-temporal Forecasting [60.03169701753824]
時間予測のための動的拡散型グラフニューラルネットワーク(DVGNN)を提案する。
提案したDVGNNモデルは最先端のアプローチよりも優れ,Root Mean Squared Errorの結果が優れている。
論文 参考訳(メタデータ) (2023-05-16T11:38:19Z) - Probing Graph Representations [77.7361299039905]
グラフ表現でキャプチャされた意味のある情報の量を定量化するために、探索フレームワークを使用します。
本研究は, グラフモデルにおける帰納的バイアスを理解するための探索の可能性を示すものである。
グラフベースモデルを評価する上で有用な診断ツールとして,探索を提唱する。
論文 参考訳(メタデータ) (2023-03-07T14:58:18Z) - CLEAR: Generative Counterfactual Explanations on Graphs [60.30009215290265]
グラフ上での対実的説明生成の問題について検討する。
グラフに関する反実的な説明を調査する研究はいくつかあるが、この問題の多くの課題はまだ十分に適応されていない。
本稿では,グラフレベルの予測モデルに対して,グラフ上の反実的説明を生成するための新しいフレームワークCLEARを提案する。
論文 参考訳(メタデータ) (2022-10-16T04:35:32Z) - An Explainer for Temporal Graph Neural Networks [27.393641343203363]
時空間グラフニューラルネットワーク(TGNN)は、時間発展するグラフ関連タスクのモデリングに広く用いられている。
本稿では,TGNNモデルのための新しい説明フレームワークを提案する。
論文 参考訳(メタデータ) (2022-09-02T04:12:40Z) - OrphicX: A Causality-Inspired Latent Variable Model for Interpreting
Graph Neural Networks [42.539085765796976]
本稿では、グラフニューラルネットワーク(GNN)の因果説明を生成するための新しいeXplanationフレームワークOrphicXを提案する。
本研究では, 個別な生成モデルを構築し, 因果的, コンパクト, 忠実な説明を生成モデルに推奨する目的関数を設計する。
OrphicXは因果的説明を生成するための因果的意味論を効果的に識別できることを示す。
論文 参考訳(メタデータ) (2022-03-29T03:08:33Z) - ExplaGraphs: An Explanation Graph Generation Task for Structured
Commonsense Reasoning [65.15423587105472]
スタンス予測のための説明グラフ生成の新しい生成および構造化コモンセンスリゾニングタスク(および関連するデータセット)を紹介します。
具体的には、信念と議論が与えられた場合、モデルは、議論が信念を支持しているかどうかを予測し、予測されたスタンスに対する非自明で完全で曖昧な説明として機能する常識強化グラフを生成する必要がある。
グラフの83%は、様々な構造と推論深度を持つ外部のコモンセンスノードを含んでいる。
論文 参考訳(メタデータ) (2021-04-15T17:51:36Z) - Dirichlet Graph Variational Autoencoder [65.94744123832338]
本稿では,グラフクラスタメンバシップを潜在因子とするDGVAE(Dirichlet Graph Variational Autoencoder)を提案する。
バランスグラフカットにおける低パス特性により、入力グラフをクラスタメンバシップにエンコードする、Heattsと呼ばれるGNNの新しい変種を提案する。
論文 参考訳(メタデータ) (2020-10-09T07:35:26Z) - Learning to Extrapolate Knowledge: Transductive Few-shot Out-of-Graph
Link Prediction [69.1473775184952]
数発のアウトオブグラフリンク予測という現実的な問題を導入する。
我々は,新しいメタ学習フレームワークによってこの問題に対処する。
我々は,知識グラフの補完と薬物と薬物の相互作用予測のために,複数のベンチマークデータセット上でモデルを検証した。
論文 参考訳(メタデータ) (2020-06-11T17:42:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。