論文の概要: INGREX: An Interactive Explanation Framework for Graph Neural Networks
- arxiv url: http://arxiv.org/abs/2211.01548v1
- Date: Thu, 3 Nov 2022 01:47:33 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-04 12:24:16.297404
- Title: INGREX: An Interactive Explanation Framework for Graph Neural Networks
- Title(参考訳): INGREX: グラフニューラルネットワークのためのインタラクティブな説明フレームワーク
- Authors: Tien-Cuong Bui, Van-Duc Le, Wen-Syan Li, Sang Kyun Cha
- Abstract要約: グラフニューラルネットワーク(GNN)は多くの現代的なアプリケーションで広く使われており、その決定には説明が必要である。
本稿では,モデル予測の理解を支援するGNNの対話型説明フレームワークであるINGREXを紹介する。
- 参考スコア(独自算出の注目度): 0.17842332554022688
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Graph Neural Networks (GNNs) are widely used in many modern applications,
necessitating explanations for their decisions. However, the complexity of GNNs
makes it difficult to explain predictions. Even though several methods have
been proposed lately, they can only provide simple and static explanations,
which are difficult for users to understand in many scenarios. Therefore, we
introduce INGREX, an interactive explanation framework for GNNs designed to aid
users in comprehending model predictions. Our framework is implemented based on
multiple explanation algorithms and advanced libraries. We demonstrate our
framework in three scenarios covering common demands for GNN explanations to
present its effectiveness and helpfulness.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)は多くの現代的なアプリケーションで広く使われており、その決定には説明が必要である。
しかし、GNNの複雑さは予測の説明を困難にしている。
最近はいくつかの手法が提案されているが、単純な静的な説明しか提供できないため、多くのシナリオでは理解が難しい。
そこで本研究では,モデル予測の理解を支援するGNNの対話型説明フレームワークであるINGREXを紹介する。
フレームワークは複数の説明アルゴリズムと高度なライブラリに基づいて実装されている。
我々は,その有効性と有用性を示すために,GNN説明の共通要求をカバーする3つのシナリオでフレームワークを実証する。
関連論文リスト
- Global Graph Counterfactual Explanation: A Subgraph Mapping Approach [54.42907350881448]
グラフニューラルネットワーク(GNN)は、様々な現実世界のアプリケーションに広くデプロイされている。
対実的説明は、GNN予測を変える入力グラフ上で最小の摂動を見つけることを目的としている。
我々は,グローバルレベルのグラフ対実的説明法であるGlobalGCEを提案する。
論文 参考訳(メタデータ) (2024-10-25T21:39:05Z) - Explainable Graph Neural Networks Under Fire [69.15708723429307]
グラフニューラルネットワーク(GNN)は通常、複雑な計算挙動とグラフの抽象的性質のために解釈性に欠ける。
ほとんどのGNN説明法は、ポストホックな方法で動作し、重要なエッジと/またはノードの小さなサブセットの形で説明を提供する。
本稿では,これらの説明が信頼できないことを実証する。GNNの一般的な説明手法は,敵対的摂動に強い影響を受けやすいことが判明した。
論文 参考訳(メタデータ) (2024-06-10T16:09:16Z) - Incorporating Retrieval-based Causal Learning with Information
Bottlenecks for Interpretable Graph Neural Networks [12.892400744247565]
我々は,検索に基づく因果学習をグラフ情報ボットネック(GIB)理論に組み込んだ,解釈可能な因果GNNフレームワークを開発した。
多様な説明型を持つ実世界の説明シナリオにおいて,32.71%の精度を達成する。
論文 参考訳(メタデータ) (2024-02-07T09:57:39Z) - DEGREE: Decomposition Based Explanation For Graph Neural Networks [55.38873296761104]
我々は,GNN予測に対する忠実な説明を提供するためにDGREEを提案する。
GNNの情報生成と集約機構を分解することにより、DECREEは入力グラフの特定のコンポーネントのコントリビューションを最終的な予測に追跡することができる。
また,従来の手法で見過ごされるグラフノード間の複雑な相互作用を明らかにするために,サブグラフレベルの解釈アルゴリズムを設計する。
論文 参考訳(メタデータ) (2023-05-22T10:29:52Z) - GANExplainer: GAN-based Graph Neural Networks Explainer [5.641321839562139]
グラフニューラルネットワーク(GNN)が、多くのアプリケーションにおいて、特定の予測を行う理由を説明することは重要である。
本稿では,GANアーキテクチャに基づくGANExplainerを提案する。
GANExplainerは、その代替案と比較して、説明精度を最大35%改善する。
論文 参考訳(メタデータ) (2022-12-30T23:11:24Z) - Toward Multiple Specialty Learners for Explaining GNNs via Online
Knowledge Distillation [0.17842332554022688]
グラフニューラルネットワーク(GNN)は、多くのアプリケーションやシステムにおいてますます普及し、それらの予測を説明する必要がある。
そこで我々はSCALEという新しいGNN説明フレームワークを提案する。
トレーニングにおいて、ブラックボックスGNNモデルは、オンライン知識蒸留パラダイムに基づいて学習者をガイドする。
具体的には、エッジマスキングと再起動手順によるランダムウォークを実行し、グラフレベルとノードレベルの予測の構造的説明を提供する。
論文 参考訳(メタデータ) (2022-10-20T08:44:57Z) - PGX: A Multi-level GNN Explanation Framework Based on Separate Knowledge
Distillation Processes [0.2005299372367689]
本稿では,GNNがグラフデータにおける複数のコンポーネントのマルチモーダル学習プロセスであることを示す,多段階GNN説明フレームワークを提案する。
元の問題の複雑さは、階層構造として表される複数の部分部分に分解することで緩和される。
このフレームワークはユーザの好みに基づいて異なる結果を生成することができるため、パーソナライズされた説明も目的としている。
論文 参考訳(メタデータ) (2022-08-05T10:14:48Z) - A Survey of Explainable Graph Neural Networks: Taxonomy and Evaluation
Metrics [8.795591344648294]
本稿では,説明可能なグラフニューラルネットワークに着目し,説明可能な手法を用いて分類する。
我々は,GNNの解説に共通する性能指標を提供し,今後の研究の方向性を指摘する。
論文 参考訳(メタデータ) (2022-07-26T01:45:54Z) - Task-Agnostic Graph Explanations [50.17442349253348]
グラフニューラルネットワーク(GNN)は、グラフ構造化データをエンコードする強力なツールとして登場した。
既存の学習ベースのGNN説明手法は、訓練においてタスク固有である。
本稿では、下流タスクの知識のない自己監督下で訓練されたタスク非依存のGNN Explainer(TAGE)を提案する。
論文 参考訳(メタデータ) (2022-02-16T21:11:47Z) - Parameterized Explainer for Graph Neural Network [49.79917262156429]
グラフニューラルネットワーク(GNN)のためのパラメータ化説明器PGExplainerを提案する。
既存の研究と比較すると、PGExplainerはより優れた一般化能力を持ち、インダクティブな設定で容易に利用することができる。
合成データセットと実生活データセットの両方の実験では、グラフ分類の説明に関するAUCの相対的な改善が24.7%まで高い競争性能を示した。
論文 参考訳(メタデータ) (2020-11-09T17:15:03Z) - XGNN: Towards Model-Level Explanations of Graph Neural Networks [113.51160387804484]
グラフニューラルネットワーク(GNN)は、隣の情報を集約して組み合わせることでノードの特徴を学習する。
GNNはブラックボックスとして扱われ、人間の知的な説明が欠けている。
我々はモデルレベルでGNNを解釈する新しい手法 XGNN を提案する。
論文 参考訳(メタデータ) (2020-06-03T23:52:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。