論文の概要: GraphXAIN: Narratives to Explain Graph Neural Networks
- arxiv url: http://arxiv.org/abs/2411.02540v3
- Date: Wed, 12 Feb 2025 15:14:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-13 13:46:47.608368
- Title: GraphXAIN: Narratives to Explain Graph Neural Networks
- Title(参考訳): GraphXAIN: グラフニューラルネットワークの解説
- Authors: Mateusz Cedro, David Martens,
- Abstract要約: グラフニューラルネットワーク(GNN)は、グラフ構造化データの機械学習において強力な技術である。
既存のGNN説明法では、非データ科学者が理解し難い技術出力が得られる。
GNN予測を説明する自然言語の物語を生成するGraphXAINを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: Graph Neural Networks (GNNs) are a powerful technique for machine learning on graph-structured data, yet they pose challenges in interpretability. Existing GNN explanation methods usually yield technical outputs, such as subgraphs and feature importance scores, that are difficult for non-data scientists to understand and thereby violate the purpose of explanations. Motivated by recent Explainable AI (XAI) research, we propose GraphXAIN, a method that generates natural language narratives explaining GNN predictions. GraphXAIN is a model- and explainer-agnostic method that uses Large Language Models (LLMs) to translate explanatory subgraphs and feature importance scores into coherent, story-like explanations of GNN decision-making processes. Evaluations on real-world datasets demonstrate GraphXAIN's ability to improve graph explanations. A survey of machine learning researchers and practitioners reveals that GraphXAIN enhances four explainability dimensions: understandability, satisfaction, convincingness, and suitability for communicating model predictions. When combined with another graph explainer method, GraphXAIN further improves trustworthiness, insightfulness, confidence, and usability. Notably, 95% of participants found GraphXAIN to be a valuable addition to the GNN explanation method. By incorporating natural language narratives, our approach serves both graph practitioners and non-expert users by providing clearer and more effective explanations.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)は、グラフ構造化データ上での機械学習の強力なテクニックであるが、解釈可能性に課題がある。
既存のGNN説明法は、通常、サブグラフや特徴重要度スコアなどの技術出力を出力し、非データ科学者が説明の目的を理解して違反することは困難である。
近年の Explainable AI (XAI) 研究に触発され,GNN 予測を説明する自然言語物語を生成する GraphXAIN を提案する。
GraphXAINは、Large Language Models (LLMs) を用いて説明文を翻訳し、重要なスコアをGNN意思決定プロセスの一貫性のあるストーリーライクな説明に翻訳するモデルおよび説明手法である。
実世界のデータセットの評価は、グラフ説明を改善するGraphXAINの機能を示している。
機械学習の研究者と実践者の調査によると、GraphXAINは4つの説明可能性次元(可理解性、満足度、説得性、モデルの予測を伝えるための適合性)を強化している。
他のグラフ説明手法と組み合わせることで、GraphXAINは信頼性、洞察力、信頼性、ユーザビリティをさらに向上する。
特に、95%の参加者がGraphXAINをGNN説明法に付加する価値を見出した。
自然言語の物語を取り入れることで、より明確で効果的な説明を提供することで、グラフ実践者と非専門家の両方に役立ちます。
関連論文リスト
- Graph Agent: Explicit Reasoning Agent for Graphs [3.422149942031643]
本稿では,大規模言語モデル(LLM)を活用するインテリジェントエージェントであるグラフエージェント(GA),帰納的推論モジュール,グラフ推論タスクのための長期メモリを紹介する。
GAはシンボリック推論と既存のグラフ埋め込みの側面を統合し、複雑なグラフ推論タスクに革新的なアプローチを提供する。
その結果、GAは最先端のパフォーマンスに達し、精度は90.65%、95.48%、Cola、PubMed、PrimeKGの各データセットで89.32%であった。
論文 参考訳(メタデータ) (2023-10-25T07:20:16Z) - DEGREE: Decomposition Based Explanation For Graph Neural Networks [55.38873296761104]
我々は,GNN予測に対する忠実な説明を提供するためにDGREEを提案する。
GNNの情報生成と集約機構を分解することにより、DECREEは入力グラフの特定のコンポーネントのコントリビューションを最終的な予測に追跡することができる。
また,従来の手法で見過ごされるグラフノード間の複雑な相互作用を明らかにするために,サブグラフレベルの解釈アルゴリズムを設計する。
論文 参考訳(メタデータ) (2023-05-22T10:29:52Z) - Explainability in subgraphs-enhanced Graph Neural Networks [12.526174412246107]
グラフ強化グラフニューラルネットワーク(SGNN)は,GNNの表現力を高めるために導入された。
本稿では, GNN の最近の解説者の一つである PGExplainer を SGNN に適用する。
本稿では,グラフ分類タスクにおけるSGNNの決定過程を説明することに成功していることを示す。
論文 参考訳(メタデータ) (2022-09-16T13:39:10Z) - GraphSVX: Shapley Value Explanations for Graph Neural Networks [81.83769974301995]
グラフニューラルネットワーク(GNN)は、幾何データに基づく様々な学習タスクにおいて大きな性能を発揮する。
本稿では,既存のGNN解説者の多くが満足する統一フレームワークを提案する。
GNN用に特別に設計されたポストホックローカルモデル非依存説明法であるGraphSVXを紹介します。
論文 参考訳(メタデータ) (2021-04-18T10:40:37Z) - ExplaGraphs: An Explanation Graph Generation Task for Structured
Commonsense Reasoning [65.15423587105472]
スタンス予測のための説明グラフ生成の新しい生成および構造化コモンセンスリゾニングタスク(および関連するデータセット)を紹介します。
具体的には、信念と議論が与えられた場合、モデルは、議論が信念を支持しているかどうかを予測し、予測されたスタンスに対する非自明で完全で曖昧な説明として機能する常識強化グラフを生成する必要がある。
グラフの83%は、様々な構造と推論深度を持つ外部のコモンセンスノードを含んでいる。
論文 参考訳(メタデータ) (2021-04-15T17:51:36Z) - On Explainability of Graph Neural Networks via Subgraph Explorations [48.56936527708657]
本稿では,グラフニューラルネットワーク(GNN)を説明するための新しい手法,SubgraphXを提案する。
我々の研究は,GNNのサブグラフを明示的に識別する最初の試みである。
論文 参考訳(メタデータ) (2021-02-09T22:12:26Z) - Parameterized Explainer for Graph Neural Network [49.79917262156429]
グラフニューラルネットワーク(GNN)のためのパラメータ化説明器PGExplainerを提案する。
既存の研究と比較すると、PGExplainerはより優れた一般化能力を持ち、インダクティブな設定で容易に利用することができる。
合成データセットと実生活データセットの両方の実験では、グラフ分類の説明に関するAUCの相対的な改善が24.7%まで高い競争性能を示した。
論文 参考訳(メタデータ) (2020-11-09T17:15:03Z) - XGNN: Towards Model-Level Explanations of Graph Neural Networks [113.51160387804484]
グラフニューラルネットワーク(GNN)は、隣の情報を集約して組み合わせることでノードの特徴を学習する。
GNNはブラックボックスとして扱われ、人間の知的な説明が欠けている。
我々はモデルレベルでGNNを解釈する新しい手法 XGNN を提案する。
論文 参考訳(メタデータ) (2020-06-03T23:52:43Z) - GraphLIME: Local Interpretable Model Explanations for Graph Neural
Networks [45.824642013383944]
グラフニューラルネットワーク(GNN)は,グラフ構造化データを効果的に表現することに成功した。
本稿では,Hilbert-Schmidt Independence Criterion (HSIC) Lasso を用いたグラフの局所的解釈可能なモデル記述法 GraphLIME を提案する。
論文 参考訳(メタデータ) (2020-01-17T09:50:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。