論文の概要: Generating Skyline Explanations for Graph Neural Networks
- arxiv url: http://arxiv.org/abs/2505.07635v1
- Date: Mon, 12 May 2025 15:05:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-13 20:21:49.445192
- Title: Generating Skyline Explanations for Graph Neural Networks
- Title(参考訳): グラフニューラルネットワークのためのスカイライン記述の生成
- Authors: Dazhuo Qiu, Haolai Che, Arijit Khan, Yinghui Wu,
- Abstract要約: 本稿では,グラフニューラルネットワークGNNのサブグラフ説明を生成する新しい手法を提案する。
既存のGNN説明法はしばしば、忠実さや簡潔さなどの事前定義された単一の説明可能性尺度を最適化する部分グラフを計算する。
我々は,複数の説明可能性尺度を同時に最適化することにより,k説明部分グラフの同定を目的としたGNN説明パラダイムであるSkyline説明を導入する。
- 参考スコア(独自算出の注目度): 10.8113772324693
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper proposes a novel approach to generate subgraph explanations for graph neural networks GNNs that simultaneously optimize multiple measures for explainability. Existing GNN explanation methods often compute subgraphs (called ``explanatory subgraphs'') that optimize a pre-defined, single explainability measure, such as fidelity or conciseness. This can lead to biased explanations that cannot provide a comprehensive explanation to clarify the output of GNN models. We introduce skyline explanation, a GNN explanation paradigm that aims to identify k explanatory subgraphs by simultaneously optimizing multiple explainability measures. (1) We formulate skyline explanation generation as a multi-objective optimization problem, and pursue explanations that approximate a skyline set of explanatory subgraphs. We show the hardness for skyline explanation generation. (2) We design efficient algorithms with an onion-peeling approach that strategically removes edges from neighbors of nodes of interests, and incrementally improves explanations as it explores an interpretation domain, with provable quality guarantees. (3) We further develop an algorithm to diversify explanations to provide more comprehensive perspectives. Using real-world graphs, we empirically verify the effectiveness, efficiency, and scalability of our algorithms.
- Abstract(参考訳): 本稿では,グラフニューラルネットワークGNNのサブグラフ説明を生成する手法を提案する。
既存のGNN説明法は、しばしば、忠実さや簡潔さなど、事前に定義された単一の説明可能性尺度を最適化する部分グラフ(「説明的部分グラフ」と呼ばれる)を計算している。
これはGNNモデルのアウトプットを明確にするための包括的説明を提供することができないバイアスのある説明につながる可能性がある。
我々は,複数の説明可能性尺度を同時に最適化することにより,k説明部分グラフの同定を目的としたGNN説明パラダイムであるSkyline説明を導入する。
1)多目的最適化問題としてスカイライン説明生成を定式化し,説明文のスカイライン集合を近似した説明を求める。
スカイラインの説明生成の難しさを示す。
2) 興味のあるノードのエッジを戦略的に除去するオニオンペリング方式で効率的なアルゴリズムを設計し, 解釈領域を探索し, 品質保証を図りながら, 説明を漸進的に改善する。
(3)より包括的な視点を提供するために、説明を多様化するアルゴリズムをさらに開発する。
実世界のグラフを用いて、アルゴリズムの有効性、効率、スケーラビリティを実証的に検証する。
関連論文リスト
- RAW-Explainer: Post-hoc Explanations of Graph Neural Networks on Knowledge Graphs [0.0]
RAW-Explainerは、リンク予測のための連結、簡潔、解釈可能なサブグラフ説明を生成するために設計された新しいフレームワークである。
知識グラフに適した既存の手法とは異なり、我々はニューラルネットワークを用いて説明生成プロセスのパラメータ化を行っている。
提案手法は, 説明品質と計算効率のバランスをとる。
論文 参考訳(メタデータ) (2025-06-14T15:55:17Z) - TreeX: Generating Global Graphical GNN Explanations via Critical Subtree Extraction [38.99239532650183]
メッセージパッシングの内部動作によって生じる重要なサブツリーを分析し,抽出することにより,GNNのアンボックス化を提案する。
埋め込み空間のサブツリーを効率的なアルゴリズムで集約することにより、ローカル、クラス、グローバルレベルでメッセージパッシングGNNの直感的なグラフィカルな説明を行うことができる。
論文 参考訳(メタデータ) (2025-03-12T04:36:28Z) - Explainable Graph Neural Networks Under Fire [69.15708723429307]
グラフニューラルネットワーク(GNN)は通常、複雑な計算挙動とグラフの抽象的性質のために解釈性に欠ける。
ほとんどのGNN説明法は、ポストホックな方法で動作し、重要なエッジと/またはノードの小さなサブセットの形で説明を提供する。
本稿では,これらの説明が信頼できないことを実証する。GNNの一般的な説明手法は,敵対的摂動に強い影響を受けやすいことが判明した。
論文 参考訳(メタデータ) (2024-06-10T16:09:16Z) - A Manifold Perspective on the Statistical Generalization of Graph Neural Networks [84.01980526069075]
我々は、スペクトル領域の多様体からサンプリングされたグラフ上のGNNの統計的一般化理論を確立するために多様体の視点を取る。
我々はGNNの一般化境界が対数スケールのグラフのサイズとともに線形に減少し、フィルタ関数のスペクトル連続定数とともに線形的に増加することを証明した。
論文 参考訳(メタデータ) (2024-06-07T19:25:02Z) - View-based Explanations for Graph Neural Networks [27.19300566616961]
本稿では,表現のためのグラフビューを生成する新しいパラダイムであるGVEXを提案する。
この戦略は近似比が1/2であることを示す。
第2のアルゴリズムは、インプットノードストリームへの単一パスをバッチで実行し、説明ビューを漸進的に維持する。
論文 参考訳(メタデータ) (2024-01-04T06:20:24Z) - Generative Explanations for Graph Neural Network: Methods and
Evaluations [16.67839967139831]
グラフニューラルネットワーク(GNN)は、様々なグラフ関連タスクにおいて最先端のパフォーマンスを達成する。
GNNのブラックボックスの性質は、解釈可能性と信頼性を制限している。
GNNの意思決定ロジックを明らかにするために,多くの説明可能性手法が提案されている。
論文 参考訳(メタデータ) (2023-11-09T22:07:15Z) - MixupExplainer: Generalizing Explanations for Graph Neural Networks with
Data Augmentation [6.307753856507624]
グラフニューラルネットワーク(GNN)は、グラフ構造化データから学習する能力によって、注目を集めている。
GNN予測を理解するために、ポストホックなインスタンスレベルの説明法が提案されている。
我々は,既存手法における分布シフト問題の存在に光を当て,説明の質に影響を及ぼす。
論文 参考訳(メタデータ) (2023-07-15T15:46:38Z) - Quantifying the Optimization and Generalization Advantages of Graph Neural Networks Over Multilayer Perceptrons [50.33260238739837]
グラフネットワーク(GNN)は、グラフ構造化データから学習する際、顕著な能力を示した。
最適化と一般化の観点から、GNNと一般化を比較した分析の欠如がまだ残っている。
論文 参考訳(メタデータ) (2023-06-24T10:21:11Z) - DEGREE: Decomposition Based Explanation For Graph Neural Networks [55.38873296761104]
我々は,GNN予測に対する忠実な説明を提供するためにDGREEを提案する。
GNNの情報生成と集約機構を分解することにより、DECREEは入力グラフの特定のコンポーネントのコントリビューションを最終的な予測に追跡することができる。
また,従来の手法で見過ごされるグラフノード間の複雑な相互作用を明らかにするために,サブグラフレベルの解釈アルゴリズムを設計する。
論文 参考訳(メタデータ) (2023-05-22T10:29:52Z) - Rethinking Explaining Graph Neural Networks via Non-parametric Subgraph
Matching [68.35685422301613]
そこで我々はMatchExplainerと呼ばれる新しい非パラメトリックな部分グラフマッチングフレームワークを提案し、説明的部分グラフを探索する。
ターゲットグラフと他のインスタンスを結合し、ノードに対応する距離を最小化することで最も重要な結合部分構造を識別する。
合成および実世界のデータセットの実験は、最先端のパラメトリックベースラインをかなりのマージンで上回り、MatchExplainerの有効性を示す。
論文 参考訳(メタデータ) (2023-01-07T05:14:45Z) - Faithful Explanations for Deep Graph Models [44.3056871040946]
本稿では,グラフニューラルネットワーク(GNN)の忠実な説明について述べる。
これは、特徴属性やサブグラフ説明を含む既存の説明方法に適用される。
第3に,元のGNNへの忠実度を確実に最大化する新しい説明法である,畳み込みコア(KEC)を用いたEmphk-hop Explanationを導入する。
論文 参考訳(メタデータ) (2022-05-24T07:18:56Z) - Towards Explanation for Unsupervised Graph-Level Representation Learning [108.31036962735911]
既存の説明手法は,教師付き設定,例えばノード分類,グラフ分類に重点を置いているが,教師なしグラフレベルの表現学習に関する説明はまだ探索されていない。
本稿では,非教師付きグラフ表現における説明問題に対処するために,インフォメーション・ボトルネックの原則(IB)を推進し,新しい原理であるtextitUnsupervised Subgraph Information Bottleneck(USIB)を導出する。
また,グラフ表現とラベル空間上の説明部分グラフの関連性も理論的に解析し,表現の堅牢性が説明部分グラフの忠実性に寄与することを明らかにする。
論文 参考訳(メタデータ) (2022-05-20T02:50:15Z) - Reinforced Causal Explainer for Graph Neural Networks [112.57265240212001]
グラフニューラルネットワーク(GNN)の探索には説明可能性が不可欠である
我々は強化学習エージェントReinforced Causal Explainer (RC-Explainer)を提案する。
RC-Explainerは忠実で簡潔な説明を生成し、グラフを見えなくするより優れたパワーを持つ。
論文 参考訳(メタデータ) (2022-04-23T09:13:25Z) - Task-Agnostic Graph Explanations [50.17442349253348]
グラフニューラルネットワーク(GNN)は、グラフ構造化データをエンコードする強力なツールとして登場した。
既存の学習ベースのGNN説明手法は、訓練においてタスク固有である。
本稿では、下流タスクの知識のない自己監督下で訓練されたタスク非依存のGNN Explainer(TAGE)を提案する。
論文 参考訳(メタデータ) (2022-02-16T21:11:47Z) - SEEN: Sharpening Explanations for Graph Neural Networks using
Explanations from Neighborhoods [0.0]
本稿では,補助的説明の集約によるノード分類タスクの説明品質の向上手法を提案する。
SEENを適用するにはグラフを変更する必要はなく、さまざまな説明可能性のテクニックで使用することができる。
与えられたグラフからモチーフ参加ノードをマッチングする実験では、説明精度が最大12.71%向上した。
論文 参考訳(メタデータ) (2021-06-16T03:04:46Z) - Zorro: Valid, Sparse, and Stable Explanations in Graph Neural Networks [6.004582130591279]
GNNモデルによって生成されたラベル分布と説明との相互情報を最大化する以前の説明生成アプローチが制限的であることがわかった。
具体的には、既存のアプローチでは、予測、スパース、あるいは入力摂動に頑健な説明を強制しない。
そこで本稿では, 忠実度を最適化するための簡単な手順を用いて, 速度歪み理論の原理に基づく新しいアプローチZorroを提案する。
論文 参考訳(メタデータ) (2021-05-18T15:53:09Z) - Parameterized Explainer for Graph Neural Network [49.79917262156429]
グラフニューラルネットワーク(GNN)のためのパラメータ化説明器PGExplainerを提案する。
既存の研究と比較すると、PGExplainerはより優れた一般化能力を持ち、インダクティブな設定で容易に利用することができる。
合成データセットと実生活データセットの両方の実験では、グラフ分類の説明に関するAUCの相対的な改善が24.7%まで高い競争性能を示した。
論文 参考訳(メタデータ) (2020-11-09T17:15:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。