論文の概要: Global Explainability of GNNs via Logic Combination of Learned Concepts
- arxiv url: http://arxiv.org/abs/2210.07147v1
- Date: Thu, 13 Oct 2022 16:30:03 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-14 15:04:50.417218
- Title: Global Explainability of GNNs via Logic Combination of Learned Concepts
- Title(参考訳): 学習概念の論理結合によるGNNのグローバル説明可能性
- Authors: Steve Azzolin, Antonio Longa, Pietro Barbiero, Pietro Li\`o, Andrea
Passerini
- Abstract要約: 我々はGLGExplainer (Global Logic-based GNN Explainer)を提案する。
GLGExplainerは、正確で人間の解釈可能なグローバルな説明を提供する。
抽出された公式はモデル予測に忠実であり、モデルによって学習された時に誤った規則に関する洞察を提供する点である。
- 参考スコア(独自算出の注目度): 11.724402780594257
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: While instance-level explanation of GNN is a well-studied problem with plenty
of approaches being developed, providing a global explanation for the behaviour
of a GNN is much less explored, despite its potential in interpretability and
debugging. Existing solutions either simply list local explanations for a given
class, or generate a synthetic prototypical graph with maximal score for a
given class, completely missing any combinatorial aspect that the GNN could
have learned. In this work, we propose GLGExplainer (Global Logic-based GNN
Explainer), the first Global Explainer capable of generating explanations as
arbitrary Boolean combinations of learned graphical concepts. GLGExplainer is a
fully differentiable architecture that takes local explanations as inputs and
combines them into a logic formula over graphical concepts, represented as
clusters of local explanations. Contrary to existing solutions, GLGExplainer
provides accurate and human-interpretable global explanations that are
perfectly aligned with ground-truth explanations (on synthetic data) or match
existing domain knowledge (on real-world data). Extracted formulas are faithful
to the model predictions, to the point of providing insights into some
occasionally incorrect rules learned by the model, making GLGExplainer a
promising diagnostic tool for learned GNNs.
- Abstract(参考訳): GNNのインスタンスレベルの説明は、多くのアプローチが開発されているよく研究されている問題であるが、解釈可能性やデバッグの可能性にもかかわらず、GNNの振る舞いに関するグローバルな説明は、はるかに少ない。
既存の解は、与えられたクラスの局所的な説明を単にリストアップするか、あるいは与えられたクラスの最大スコアを持つ合成原型グラフを生成し、GNNが学べる組合せ的な側面を全く欠いている。
本稿では、学習したグラフィカル概念の任意のブール結合として説明を生成できる最初のグローバル説明器であるglgexplainer(global logic-based gnn explaineder)を提案する。
glgexplainerは、ローカルな説明を入力として取り、それらをグラフィカルな概念の上に論理式に結合し、ローカルな説明のクラスタとして表現する、完全に微分可能なアーキテクチャである。
既存のソリューションとは対照的に、GLGExplainerは、(合成データにおいて)地道的な説明と完全に整合した正確で人間の解釈可能なグローバルな説明を提供する。
抽出された公式はモデル予測に忠実であり、モデルによって学習される時に誤ったルールに対する洞察を提供するため、glgexplainerは学習したgnnにとって有望な診断ツールとなる。
関連論文リスト
- Global Graph Counterfactual Explanation: A Subgraph Mapping Approach [54.42907350881448]
グラフニューラルネットワーク(GNN)は、様々な現実世界のアプリケーションに広くデプロイされている。
対実的説明は、GNN予測を変える入力グラフ上で最小の摂動を見つけることを目的としている。
我々は,グローバルレベルのグラフ対実的説明法であるGlobalGCEを提案する。
論文 参考訳(メタデータ) (2024-10-25T21:39:05Z) - Explainable Graph Neural Networks Under Fire [69.15708723429307]
グラフニューラルネットワーク(GNN)は通常、複雑な計算挙動とグラフの抽象的性質のために解釈性に欠ける。
ほとんどのGNN説明法は、ポストホックな方法で動作し、重要なエッジと/またはノードの小さなサブセットの形で説明を提供する。
本稿では,これらの説明が信頼できないことを実証する。GNNの一般的な説明手法は,敵対的摂動に強い影響を受けやすいことが判明した。
論文 参考訳(メタデータ) (2024-06-10T16:09:16Z) - Incorporating Retrieval-based Causal Learning with Information
Bottlenecks for Interpretable Graph Neural Networks [12.892400744247565]
我々は,検索に基づく因果学習をグラフ情報ボットネック(GIB)理論に組み込んだ,解釈可能な因果GNNフレームワークを開発した。
多様な説明型を持つ実世界の説明シナリオにおいて,32.71%の精度を達成する。
論文 参考訳(メタデータ) (2024-02-07T09:57:39Z) - DEGREE: Decomposition Based Explanation For Graph Neural Networks [55.38873296761104]
我々は,GNN予測に対する忠実な説明を提供するためにDGREEを提案する。
GNNの情報生成と集約機構を分解することにより、DECREEは入力グラフの特定のコンポーネントのコントリビューションを最終的な予測に追跡することができる。
また,従来の手法で見過ごされるグラフノード間の複雑な相互作用を明らかにするために,サブグラフレベルの解釈アルゴリズムを設計する。
論文 参考訳(メタデータ) (2023-05-22T10:29:52Z) - Task-Agnostic Graph Explanations [50.17442349253348]
グラフニューラルネットワーク(GNN)は、グラフ構造化データをエンコードする強力なツールとして登場した。
既存の学習ベースのGNN説明手法は、訓練においてタスク固有である。
本稿では、下流タスクの知識のない自己監督下で訓練されたタスク非依存のGNN Explainer(TAGE)を提案する。
論文 参考訳(メタデータ) (2022-02-16T21:11:47Z) - A Meta-Learning Approach for Training Explainable Graph Neural Networks [10.11960004698409]
本稿では,GNNの学習時間における説明可能性向上のためのメタラーニングフレームワークを提案する。
我々のフレームワークは、例えばノード分類などの元のタスクを解決するためにモデルを共同で訓練し、下流アルゴリズムで容易に処理可能な出力を提供する。
我々のモデルに依存しないアプローチは、異なるGNNアーキテクチャで生成された説明を改善し、このプロセスを駆動するためにインスタンスベースの説明器を使用することができます。
論文 参考訳(メタデータ) (2021-09-20T11:09:10Z) - Generative Causal Explanations for Graph Neural Networks [39.60333255875979]
Gemは、さまざまなグラフ学習タスクで任意のGNNに対して解釈可能な説明を提供するモデルに依存しないアプローチです。
説明精度の相対的な向上を最大30%$で達成し、その最先端の代替品と比較して、説明プロセスを最大$ 10times $でスピードアップします。
論文 参考訳(メタデータ) (2021-04-14T06:22:21Z) - Parameterized Explainer for Graph Neural Network [49.79917262156429]
グラフニューラルネットワーク(GNN)のためのパラメータ化説明器PGExplainerを提案する。
既存の研究と比較すると、PGExplainerはより優れた一般化能力を持ち、インダクティブな設定で容易に利用することができる。
合成データセットと実生活データセットの両方の実験では、グラフ分類の説明に関するAUCの相対的な改善が24.7%まで高い競争性能を示した。
論文 参考訳(メタデータ) (2020-11-09T17:15:03Z) - XGNN: Towards Model-Level Explanations of Graph Neural Networks [113.51160387804484]
グラフニューラルネットワーク(GNN)は、隣の情報を集約して組み合わせることでノードの特徴を学習する。
GNNはブラックボックスとして扱われ、人間の知的な説明が欠けている。
我々はモデルレベルでGNNを解釈する新しい手法 XGNN を提案する。
論文 参考訳(メタデータ) (2020-06-03T23:52:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。