論文の概要: Reconsidering Faithfulness in Regular, Self-Explainable and Domain Invariant GNNs
- arxiv url: http://arxiv.org/abs/2406.15156v2
- Date: Thu, 10 Apr 2025 08:55:25 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-11 12:22:51.666113
- Title: Reconsidering Faithfulness in Regular, Self-Explainable and Domain Invariant GNNs
- Title(参考訳): 正規, 自己説明可能, ドメイン不変GNNにおける忠実さの再検討
- Authors: Steve Azzolin, Antonio Longa, Stefano Teso, Andrea Passerini,
- Abstract要約: 忠実度を正確に問うことと、それをどのように達成するかを問うことで、異なる忠実度指標が存在することを示す。
インジェクティブな正規GNNアーキテクチャでは、完全に忠実な説明は完全に非形式的であることを証明している。
最後に,テキストフェースフルネスは分布外一般化と密接に関連していることを示す。
- 参考スコア(独自算出の注目度): 18.33293911039292
- License:
- Abstract: As Graph Neural Networks (GNNs) become more pervasive, it becomes paramount to build reliable tools for explaining their predictions. A core desideratum is that explanations are \textit{faithful}, \ie that they portray an accurate picture of the GNN's reasoning process. However, a number of different faithfulness metrics exist, begging the question of what is faithfulness exactly and how to achieve it. We make three key contributions. We begin by showing that \textit{existing metrics are not interchangeable} -- \ie explanations attaining high faithfulness according to one metric may be unfaithful according to others -- and can systematically ignore important properties of explanations. We proceed to show that, surprisingly, \textit{optimizing for faithfulness is not always a sensible design goal}. Specifically, we prove that for injective regular GNN architectures, perfectly faithful explanations are completely uninformative. This does not apply to modular GNNs, such as self-explainable and domain-invariant architectures, prompting us to study the relationship between architectural choices and faithfulness. Finally, we show that \textit{faithfulness is tightly linked to out-of-distribution generalization}, in that simply ensuring that a GNN can correctly recognize the domain-invariant subgraph, as prescribed by the literature, does not guarantee that it is invariant unless this subgraph is also faithful.The code is publicly available on GitHub
- Abstract(参考訳): グラフニューラルネットワーク(GNN)が普及するにつれて、予測を説明するための信頼性の高いツールを構築することが最重要となる。
中心的なデシプラタムは、説明が『textit{faithful}』であり、GNNの推論過程の正確な図面を描いていることである。
しかし、多くの異なる忠実度指標が存在しており、忠実度を正確に、どのように達成するかという疑問を提起している。
私たちは3つの重要な貢献をします。
まずは、ある指標に従って高い忠実性を達成するためのシャイな説明は、他の指標によっては不信である可能性があることを示し、説明の重要な性質を体系的に無視することができる。
私たちは、驚くべきことに、誠実さを最適化することは、常に合理的な設計目標であるとは限らないことを示そうとしています。
具体的には、インジェクティブ正規GNNアーキテクチャでは、完全に忠実な説明は完全に非形式的であることを証明している。
これは、自己説明可能なアーキテクチャやドメイン不変なアーキテクチャのようなモジュラGNNには適用できません。
最後に、 \textit{faithfulness is tightly linked to out-of-distriion generalization} という記事では、GNNが文献によって規定されているように、ドメイン不変のサブグラフを正しく認識できることは、このサブグラフが忠実でない限り不変であることを保証しない。コードはGitHubで公開されている。
関連論文リスト
- Beyond Topological Self-Explainable GNNs: A Formal Explainability Perspective [19.270404394350944]
自己説明可能なグラフニューラルネットワーク(SE-GNN)は、設計単位のGNNとして人気があるが、その特性と限界はよく理解されていない。
このギャップを埋める最初の貢献は、SE-GNNによって抽出された説明を形式化し、Trivial Explanations (TE) と呼ばれるものである。
ホワイトボックスルール抽出器と標準SE-GNNを統合したDual-Channel GNNを提案する。
論文 参考訳(メタデータ) (2025-02-04T21:08:23Z) - Explainable Graph Neural Networks Under Fire [69.15708723429307]
グラフニューラルネットワーク(GNN)は通常、複雑な計算挙動とグラフの抽象的性質のために解釈性に欠ける。
ほとんどのGNN説明法は、ポストホックな方法で動作し、重要なエッジと/またはノードの小さなサブセットの形で説明を提供する。
本稿では,これらの説明が信頼できないことを実証する。GNNの一般的な説明手法は,敵対的摂動に強い影響を受けやすいことが判明した。
論文 参考訳(メタデータ) (2024-06-10T16:09:16Z) - Uncertainty in Graph Neural Networks: A Survey [50.63474656037679]
グラフニューラルネットワーク(GNN)は、様々な現実世界のアプリケーションで広く使われている。
しかし、多様な情報源から生じるGNNの予測的不確実性は、不安定で誤った予測につながる可能性がある。
本調査は,不確実性の観点からGNNの概要を概観することを目的としている。
論文 参考訳(メタデータ) (2024-03-11T21:54:52Z) - ELEGANT: Certified Defense on the Fairness of Graph Neural Networks [94.10433608311604]
グラフニューラルネットワーク(GNN)は,グラフベースのタスクにおいて,目立ったグラフ学習モデルとして登場した。
悪意のある攻撃者は、入力グラフデータに摂動を追加することで、予測の公平度を容易に損なうことができる。
本稿では, ELEGANT というフレームワークを提案し, GNN の公正度レベルにおける認証防御の新たな課題について検討する。
論文 参考訳(メタデータ) (2023-11-05T20:29:40Z) - How Graph Neural Networks Learn: Lessons from Training Dynamics [80.41778059014393]
グラフニューラルネットワーク(GNN)の関数空間におけるトレーニングダイナミクスについて検討する。
GNNの勾配勾配勾配最適化は暗黙的にグラフ構造を利用して学習関数を更新する。
この発見は、学習したGNN関数が一般化した時期と理由に関する新たな解釈可能な洞察を提供する。
論文 参考訳(メタデータ) (2023-10-08T10:19:56Z) - Towards Robust Fidelity for Evaluating Explainability of Graph Neural Networks [32.345435955298825]
グラフニューラルネットワーク(GNN)は、グラフノード間のメッセージパッシングを介してグラフィカルデータの依存性構造を利用するニューラルネットワークである。
GNN説明可能性の研究における主な課題は、これらの説明機能の性能を評価するための忠実度尺度を提供することである。
本稿では,この基礎的課題について考察し,その限界を浮き彫りにする。
論文 参考訳(メタデータ) (2023-10-03T06:25:14Z) - How Faithful are Self-Explainable GNNs? [14.618208661185365]
自己説明可能なグラフニューラルネットワーク(GNN)は、グラフデータのコンテキストで同じことを実現することを目的としている。
我々は,複数の自己説明可能なGNNの忠実度を,異なる信頼度尺度を用いて分析する。
論文 参考訳(メタデータ) (2023-08-29T08:04:45Z) - Faithful and Consistent Graph Neural Network Explanations with Rationale
Alignment [38.66324833510402]
インスタンスレベルのGNN説明は、ターゲットのGNNが予測に頼っているノードやエッジなどの重要な入力要素を発見することを目的としている。
様々なアルゴリズムが提案され、その多くは、元の予測を保存できる最小限のサブグラフを探索することで、このタスクを形式化する。
いくつかの部分グラフは元のグラフと同じもしくは類似した出力をもたらす。
弱いパフォーマンスのGNNを説明するためにそれらを適用することは、これらの問題をさらに増幅する。
論文 参考訳(メタデータ) (2023-01-07T06:33:35Z) - On Consistency in Graph Neural Network Interpretation [34.25952902469481]
インスタンスレベルのGNN説明は、ターゲットのGNNが予測に頼っているノードやエッジなどの重要な入力要素を発見することを目的としている。
様々なアルゴリズムが提案されているが、その多くは最小の部分グラフを探索することによってこのタスクを定式化している。
埋め込みの整列による簡易かつ効果的な対策を提案する。
論文 参考訳(メタデータ) (2022-05-27T02:58:07Z) - Reinforced Causal Explainer for Graph Neural Networks [112.57265240212001]
グラフニューラルネットワーク(GNN)の探索には説明可能性が不可欠である
我々は強化学習エージェントReinforced Causal Explainer (RC-Explainer)を提案する。
RC-Explainerは忠実で簡潔な説明を生成し、グラフを見えなくするより優れたパワーを持つ。
論文 参考訳(メタデータ) (2022-04-23T09:13:25Z) - Parameterized Explainer for Graph Neural Network [49.79917262156429]
グラフニューラルネットワーク(GNN)のためのパラメータ化説明器PGExplainerを提案する。
既存の研究と比較すると、PGExplainerはより優れた一般化能力を持ち、インダクティブな設定で容易に利用することができる。
合成データセットと実生活データセットの両方の実験では、グラフ分類の説明に関するAUCの相対的な改善が24.7%まで高い競争性能を示した。
論文 参考訳(メタデータ) (2020-11-09T17:15:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。