論文の概要: Perks and Pitfalls of Faithfulness in Regular, Self-Explainable and Domain Invariant GNNs
- arxiv url: http://arxiv.org/abs/2406.15156v1
- Date: Fri, 21 Jun 2024 14:01:23 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-24 13:22:51.677375
- Title: Perks and Pitfalls of Faithfulness in Regular, Self-Explainable and Domain Invariant GNNs
- Title(参考訳): 正規, 自己説明可能, ドメイン不変GNNにおけるパークと信仰の落とし穴
- Authors: Steve Azzolin, Antonio Longa, Stefano Teso, Andrea Passerini,
- Abstract要約: 重要なデシプラタムは、説明が忠実であること、すなわち、GNNの推論過程の正確な描写を描写していることである。
多くの異なる忠実度指標が存在しており、忠実度が正確に何であるか、その性質は何かという疑問を提起している。
意外なことに、誠実さを最適化することは、常に合理的な設計目標であるとは限らない。
- 参考スコア(独自算出の注目度): 18.33293911039292
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: As Graph Neural Networks (GNNs) become more pervasive, it becomes paramount to build robust tools for computing explanations of their predictions. A key desideratum is that these explanations are faithful, i.e., that they portray an accurate picture of the GNN's reasoning process. A number of different faithfulness metrics exist, begging the question of what faithfulness is exactly, and what its properties are. We begin by showing that existing metrics are not interchangeable -- i.e., explanations attaining high faithfulness according to one metric may be unfaithful according to others -- and can be systematically insensitive to important properties of the explanation, and suggest how to address these issues. We proceed to show that, surprisingly, optimizing for faithfulness is not always a sensible design goal. Specifically, we show that for injective regular GNN architectures, perfectly faithful explanations are completely uninformative. The situation is different for modular GNNs, such as self-explainable and domain-invariant architectures, where optimizing faithfulness does not compromise informativeness, and is also unexpectedly tied to out-of-distribution generalization.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)が普及するにつれて、予測の説明を計算するための堅牢なツールを構築することが最重要となる。
これらの説明は忠実であり、すなわち、GNNの推論過程の正確な描写である。
多くの異なる忠実度指標が存在しており、忠実度とは何か、その性質は何かという疑問を提起している。
まず、既存のメトリクスが交換可能でないこと、すなわち、あるメトリックに従って高い忠実性を達成する説明は、他のメトリクスによっては不誠実である可能性があることを示し、その説明の重要な性質に体系的に無関心であることを示し、これらの問題にどのように対処するかを提案します。
私たちは、驚くべきことに、誠実さを最適化することは、必ずしも合理的な設計目標であるとは限らないことを示そうとしています。
具体的には、インジェクティブな正規GNNアーキテクチャでは、完全に忠実な説明は完全に非形式的であることを示す。
自己説明可能なアーキテクチャやドメイン不変なアーキテクチャなど、モジュール型GNNでは状況が異なり、忠実さの最適化は情報提供性を損なうものではなく、また予期せぬアウト・オブ・ディストリビューションの一般化と結びついている。
関連論文リスト
- Systematic Reasoning About Relational Domains With Graph Neural Networks [17.49288661342947]
グラフニューラルネットワーク(GNN)の使用が自然な選択のように思えるリレーショナルドメインの推論に焦点を当てる。
GNNによる推論に関する以前の研究は、トレーニング中に見られるものよりも長い推論チェーンを必要とするテスト例を提示すると、そのようなモデルは失敗する傾向があることを示している。
これは、GNNには、トレーニング例を体系的な方法で一般化する能力がないことを示唆している。
論文 参考訳(メタデータ) (2024-07-24T16:17:15Z) - Explainable Graph Neural Networks Under Fire [69.15708723429307]
グラフニューラルネットワーク(GNN)は通常、複雑な計算挙動とグラフの抽象的性質のために解釈性に欠ける。
ほとんどのGNN説明法は、ポストホックな方法で動作し、重要なエッジと/またはノードの小さなサブセットの形で説明を提供する。
本稿では,これらの説明が信頼できないことを実証する。GNNの一般的な説明手法は,敵対的摂動に強い影響を受けやすいことが判明した。
論文 参考訳(メタデータ) (2024-06-10T16:09:16Z) - Uncertainty in Graph Neural Networks: A Survey [50.63474656037679]
グラフニューラルネットワーク(GNN)は、様々な現実世界のアプリケーションで広く使われている。
しかし、多様な情報源から生じるGNNの予測的不確実性は、不安定で誤った予測につながる可能性がある。
本調査は,不確実性の観点からGNNの概要を概観することを目的としている。
論文 参考訳(メタデータ) (2024-03-11T21:54:52Z) - ELEGANT: Certified Defense on the Fairness of Graph Neural Networks [94.10433608311604]
グラフニューラルネットワーク(GNN)は,グラフベースのタスクにおいて,目立ったグラフ学習モデルとして登場した。
悪意のある攻撃者は、入力グラフデータに摂動を追加することで、予測の公平度を容易に損なうことができる。
本稿では, ELEGANT というフレームワークを提案し, GNN の公正度レベルにおける認証防御の新たな課題について検討する。
論文 参考訳(メタデータ) (2023-11-05T20:29:40Z) - How Graph Neural Networks Learn: Lessons from Training Dynamics [80.41778059014393]
グラフニューラルネットワーク(GNN)の関数空間におけるトレーニングダイナミクスについて検討する。
GNNの勾配勾配勾配最適化は暗黙的にグラフ構造を利用して学習関数を更新する。
この発見は、学習したGNN関数が一般化した時期と理由に関する新たな解釈可能な洞察を提供する。
論文 参考訳(メタデータ) (2023-10-08T10:19:56Z) - Towards Robust Fidelity for Evaluating Explainability of Graph Neural Networks [32.345435955298825]
グラフニューラルネットワーク(GNN)は、グラフノード間のメッセージパッシングを介してグラフィカルデータの依存性構造を利用するニューラルネットワークである。
GNN説明可能性の研究における主な課題は、これらの説明機能の性能を評価するための忠実度尺度を提供することである。
本稿では,この基礎的課題について考察し,その限界を浮き彫りにする。
論文 参考訳(メタデータ) (2023-10-03T06:25:14Z) - How Faithful are Self-Explainable GNNs? [14.618208661185365]
自己説明可能なグラフニューラルネットワーク(GNN)は、グラフデータのコンテキストで同じことを実現することを目的としている。
我々は,複数の自己説明可能なGNNの忠実度を,異なる信頼度尺度を用いて分析する。
論文 参考訳(メタデータ) (2023-08-29T08:04:45Z) - Faithful and Consistent Graph Neural Network Explanations with Rationale
Alignment [38.66324833510402]
インスタンスレベルのGNN説明は、ターゲットのGNNが予測に頼っているノードやエッジなどの重要な入力要素を発見することを目的としている。
様々なアルゴリズムが提案され、その多くは、元の予測を保存できる最小限のサブグラフを探索することで、このタスクを形式化する。
いくつかの部分グラフは元のグラフと同じもしくは類似した出力をもたらす。
弱いパフォーマンスのGNNを説明するためにそれらを適用することは、これらの問題をさらに増幅する。
論文 参考訳(メタデータ) (2023-01-07T06:33:35Z) - On Consistency in Graph Neural Network Interpretation [34.25952902469481]
インスタンスレベルのGNN説明は、ターゲットのGNNが予測に頼っているノードやエッジなどの重要な入力要素を発見することを目的としている。
様々なアルゴリズムが提案されているが、その多くは最小の部分グラフを探索することによってこのタスクを定式化している。
埋め込みの整列による簡易かつ効果的な対策を提案する。
論文 参考訳(メタデータ) (2022-05-27T02:58:07Z) - Reinforced Causal Explainer for Graph Neural Networks [112.57265240212001]
グラフニューラルネットワーク(GNN)の探索には説明可能性が不可欠である
我々は強化学習エージェントReinforced Causal Explainer (RC-Explainer)を提案する。
RC-Explainerは忠実で簡潔な説明を生成し、グラフを見えなくするより優れたパワーを持つ。
論文 参考訳(メタデータ) (2022-04-23T09:13:25Z) - Parameterized Explainer for Graph Neural Network [49.79917262156429]
グラフニューラルネットワーク(GNN)のためのパラメータ化説明器PGExplainerを提案する。
既存の研究と比較すると、PGExplainerはより優れた一般化能力を持ち、インダクティブな設定で容易に利用することができる。
合成データセットと実生活データセットの両方の実験では、グラフ分類の説明に関するAUCの相対的な改善が24.7%まで高い競争性能を示した。
論文 参考訳(メタデータ) (2020-11-09T17:15:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。