論文の概要: GNN Explanations that do not Explain and How to find Them
- arxiv url: http://arxiv.org/abs/2601.20815v1
- Date: Wed, 28 Jan 2026 18:05:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-29 15:46:07.08858
- Title: GNN Explanations that do not Explain and How to find Them
- Title(参考訳): 説明しないGNN説明と方法
- Authors: Steve Azzolin, Stefano Teso, Bruno Lepri, Andrea Passerini, Sagar Malhotra,
- Abstract要約: 我々はSE-GNNの説明の致命的な失敗を識別する: 説明は、SE-GNNがラベルを推測する方法と明らかに無関係である。
私たちの経験的分析では、退化した説明を悪意的に植え付けることができ(攻撃者が機密属性の使用を隠蔽できる)、また自然に現れる可能性があることが示されています。
この問題に対処するために、退化的説明を不信として確実にマークする新しい忠実度指標を導入する。
- 参考スコア(独自算出の注目度): 20.68967246188274
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Explanations provided by Self-explainable Graph Neural Networks (SE-GNNs) are fundamental for understanding the model's inner workings and for identifying potential misuse of sensitive attributes. Although recent works have highlighted that these explanations can be suboptimal and potentially misleading, a characterization of their failure cases is unavailable. In this work, we identify a critical failure of SE-GNN explanations: explanations can be unambiguously unrelated to how the SE-GNNs infer labels. We show that, on the one hand, many SE-GNNs can achieve optimal true risk while producing these degenerate explanations, and on the other, most faithfulness metrics can fail to identify these failure modes. Our empirical analysis reveals that degenerate explanations can be maliciously planted (allowing an attacker to hide the use of sensitive attributes) and can also emerge naturally, highlighting the need for reliable auditing. To address this, we introduce a novel faithfulness metric that reliably marks degenerate explanations as unfaithful, in both malicious and natural settings. Our code is available in the supplemental.
- Abstract(参考訳): 自己説明可能なグラフニューラルネットワーク(SE-GNN)によって提供される説明は、モデルの内部動作を理解し、機密属性の潜在的な誤用を特定するために基礎となる。
最近の研究は、これらの説明は最適以下であり、誤解を招く可能性があることを強調しているが、それらの障害事例の特徴は利用できない。
本研究は,SE-GNNにおける説明の致命的な失敗を,SE-GNNがラベルを推測する方法と明らかに無関係であることを示す。
一方、多くのSE-GNNは、これらの縮退した説明を作成しながら最適な真のリスクを達成でき、一方、最も忠実なメトリクスは、これらの障害モードを特定するのに失敗する可能性があることを示す。
我々の実証分析では、退化した説明を悪意的に植え付けることができ(攻撃者が機密属性の使用を隠蔽できる)、また自然に現れる可能性も示しており、信頼性のある監査の必要性を強調している。
これを解決するために、悪意と自然の両方の設定において、退化した説明を不誠実であると確実にマークする新しい忠実度指標を導入する。
私たちのコードは補足で利用可能です。
関連論文リスト
- Reconsidering Faithfulness in Regular, Self-Explainable and Domain Invariant GNNs [18.33293911039292]
忠実度を正確に問うことと、それをどのように達成するかを問うことで、異なる忠実度指標が存在することを示す。
インジェクティブな正規GNNアーキテクチャでは、完全に忠実な説明は完全に非形式的であることを証明している。
最後に,テキストフェースフルネスは分布外一般化と密接に関連していることを示す。
論文 参考訳(メタデータ) (2024-06-21T14:01:23Z) - Explainable Graph Neural Networks Under Fire [69.15708723429307]
グラフニューラルネットワーク(GNN)は通常、複雑な計算挙動とグラフの抽象的性質のために解釈性に欠ける。
ほとんどのGNN説明法は、ポストホックな方法で動作し、重要なエッジと/またはノードの小さなサブセットの形で説明を提供する。
本稿では,これらの説明が信頼できないことを実証する。GNNの一般的な説明手法は,敵対的摂動に強い影響を受けやすいことが判明した。
論文 参考訳(メタデータ) (2024-06-10T16:09:16Z) - Link Stealing Attacks Against Inductive Graph Neural Networks [60.931106032824275]
グラフニューラルネットワーク(GNN)は、グラフ構造化データを処理するように設計されたニューラルネットワークの一種である。
これまでの研究によると、トランスダクティブGNNは一連のプライバシー攻撃に弱い。
本稿では,リンク盗難攻撃のレンズを通して,誘導型GNNの包括的プライバシー分析を行う。
論文 参考訳(メタデータ) (2024-05-09T14:03:52Z) - Graph Neural Networks for Vulnerability Detection: A Counterfactual Explanation [41.831831628421675]
グラフニューラルネットワーク(GNN)は、脆弱性検出のための顕著なコード埋め込みアプローチとして登場した。
本稿では,GNNに基づく脆弱性検出のための新しいファクト・ファクト・アナライザCFExplainerを提案する。
論文 参考訳(メタデータ) (2024-04-24T06:52:53Z) - On Consistency in Graph Neural Network Interpretation [34.25952902469481]
インスタンスレベルのGNN説明は、ターゲットのGNNが予測に頼っているノードやエッジなどの重要な入力要素を発見することを目的としている。
様々なアルゴリズムが提案されているが、その多くは最小の部分グラフを探索することによってこのタスクを定式化している。
埋め込みの整列による簡易かつ効果的な対策を提案する。
論文 参考訳(メタデータ) (2022-05-27T02:58:07Z) - Task-Agnostic Graph Explanations [50.17442349253348]
グラフニューラルネットワーク(GNN)は、グラフ構造化データをエンコードする強力なツールとして登場した。
既存の学習ベースのGNN説明手法は、訓練においてタスク固有である。
本稿では、下流タスクの知識のない自己監督下で訓練されたタスク非依存のGNN Explainer(TAGE)を提案する。
論文 参考訳(メタデータ) (2022-02-16T21:11:47Z) - Jointly Attacking Graph Neural Network and its Explanations [50.231829335996814]
グラフニューラルネットワーク(GNN)は多くのグラフ関連タスクのパフォーマンスを向上した。
近年の研究では、GNNは敵の攻撃に対して非常に脆弱であることが示されており、敵はグラフを変更することでGNNの予測を誤認することができる。
本稿では、GNNモデルとその説明の両方を同時に利用して攻撃できる新しい攻撃フレームワーク(GEAttack)を提案する。
論文 参考訳(メタデータ) (2021-08-07T07:44:33Z) - Parameterized Explainer for Graph Neural Network [49.79917262156429]
グラフニューラルネットワーク(GNN)のためのパラメータ化説明器PGExplainerを提案する。
既存の研究と比較すると、PGExplainerはより優れた一般化能力を持ち、インダクティブな設定で容易に利用することができる。
合成データセットと実生活データセットの両方の実験では、グラフ分類の説明に関するAUCの相対的な改善が24.7%まで高い競争性能を示した。
論文 参考訳(メタデータ) (2020-11-09T17:15:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。