論文の概要: Statistical Test for Saliency Maps of Graph Neural Networks via Selective Inference
- arxiv url: http://arxiv.org/abs/2505.16893v1
- Date: Thu, 22 May 2025 16:50:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-23 17:12:48.467541
- Title: Statistical Test for Saliency Maps of Graph Neural Networks via Selective Inference
- Title(参考訳): 選択推論によるグラフニューラルネットワークの精度マップの統計的検証
- Authors: Shuichi Nishino, Tomohiro Shiraishi, Teruyuki Katsuoka, Ichiro Takeuchi,
- Abstract要約: 本稿では,サリエンシマップの意義を厳密に評価するための統計的テストフレームワークを提案する。
我々の主な貢献は、データのダブルダイッピングによるタイプIエラー率のインフレーションに対応することです。
本手法は,I型エラー率を制御しながら,統計的に有効な$p$-値を提供する。
- 参考スコア(独自算出の注目度): 13.628959580589665
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph Neural Networks (GNNs) have gained prominence for their ability to process graph-structured data across various domains. However, interpreting GNN decisions remains a significant challenge, leading to the adoption of saliency maps for identifying influential nodes and edges. Despite their utility, the reliability of GNN saliency maps has been questioned, particularly in terms of their robustness to noise. In this study, we propose a statistical testing framework to rigorously evaluate the significance of saliency maps. Our main contribution lies in addressing the inflation of the Type I error rate caused by double-dipping of data, leveraging the framework of Selective Inference. Our method provides statistically valid $p$-values while controlling the Type I error rate, ensuring that identified salient subgraphs contain meaningful information rather than random artifacts. To demonstrate the effectiveness of our method, we conduct experiments on both synthetic and real-world datasets, showing its effectiveness in assessing the reliability of GNN interpretations.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)は、グラフ構造化データをさまざまなドメインにわたって処理できることで有名になった。
しかし、GNNの決定を解釈することは依然として大きな課題であり、影響のあるノードとエッジを特定するためのサリエンシマップが採用されることになる。
実用性にもかかわらず、特にノイズに対する堅牢性の観点から、GNNサリエンシマップの信頼性は疑問視されている。
本研究では,サリエンシマップの意義を厳密に評価するための統計的テストフレームワークを提案する。
我々の主な貢献は、選択推論の枠組みを利用して、データの二重ダイッピングに起因するタイプIエラー率のインフレーションに対処することにあります。
提案手法は,I型エラー率を制御しながら,統計的に有効な$p$-値を提供し,ランダムなアーティファクトではなく有意義な情報を含むことを保証する。
提案手法の有効性を実証するため,GNN解釈の信頼性を評価する上で,合成データセットと実世界のデータセットの両方で実験を行った。
関連論文リスト
- On the Relationship Between Robustness and Expressivity of Graph Neural Networks [7.161966906570077]
グラフニューラルネットワーク(GNN)はビットフリップ攻撃(BFA)に対して脆弱である
建築的特徴, グラフ特性, 相互作用の影響を研究するための分析フレームワークを提案する。
我々は、データセット上でGNN表現性を劣化させるために必要なビットフリップ数に関する理論的境界を導出する。
論文 参考訳(メタデータ) (2025-04-18T16:38:33Z) - Conditional Uncertainty Quantification for Tensorized Topological Neural Networks [19.560300212956747]
グラフニューラルネットワーク(GNN)は,グラフ構造化データを解析するためのデファクトスタンダードとなっている。
近年の研究では、GNNによる不確実性推定の統計的信頼性に関する懸念が高まっている。
本稿では,交換不能なグラフ構造化データの不確かさを定量化する新しい手法を提案する。
論文 参考訳(メタデータ) (2024-10-20T01:03:40Z) - Conditional Shift-Robust Conformal Prediction for Graph Neural Network [0.0]
グラフニューラルネットワーク(GNN)は、グラフ構造化データの結果を予測する強力なツールとして登場した。
有効性にもかかわらず、GNNは堅牢な不確実性推定を提供する能力に制限がある。
本稿では,GNNに対する条件シフトロバスト(CondSR)の共形予測を提案する。
論文 参考訳(メタデータ) (2024-05-20T11:47:31Z) - Online GNN Evaluation Under Test-time Graph Distribution Shifts [92.4376834462224]
オンラインGNN評価という新たな研究課題は、よく訓練されたGNNが現実世界の未ラベルグラフに一般化する能力について、貴重な洞察を提供することを目的としている。
我々は、よく訓練されたGNNモデルのテスト時間一般化誤差を推定するために、LeBeDと呼ばれる効果的な学習行動不一致スコアを開発する。
論文 参考訳(メタデータ) (2024-03-15T01:28:08Z) - Uncertainty in Graph Neural Networks: A Survey [47.785948021510535]
グラフニューラルネットワーク(GNN)は、様々な現実世界のアプリケーションで広く使われている。
しかし、多様な情報源から生じるGNNの予測的不確実性は、不安定で誤った予測につながる可能性がある。
本調査は,不確実性の観点からGNNの概要を概観することを目的としている。
論文 参考訳(メタデータ) (2024-03-11T21:54:52Z) - Towards Robust Fidelity for Evaluating Explainability of Graph Neural Networks [32.345435955298825]
グラフニューラルネットワーク(GNN)は、グラフノード間のメッセージパッシングを介してグラフィカルデータの依存性構造を利用するニューラルネットワークである。
GNN説明可能性の研究における主な課題は、これらの説明機能の性能を評価するための忠実度尺度を提供することである。
本稿では,この基礎的課題について考察し,その限界を浮き彫りにする。
論文 参考訳(メタデータ) (2023-10-03T06:25:14Z) - Energy-based Out-of-Distribution Detection for Graph Neural Networks [76.0242218180483]
我々は,GNNSafeと呼ばれるグラフ上での学習のための,シンプルで強力で効率的なOOD検出モデルを提案する。
GNNSafeは、最先端技術に対するAUROCの改善を最大17.0%で達成しており、そのような未開発領域では単純だが強力なベースラインとして機能する可能性がある。
論文 参考訳(メタデータ) (2023-02-06T16:38:43Z) - Generalizing Graph Neural Networks on Out-Of-Distribution Graphs [51.33152272781324]
トレーニンググラフとテストグラフの分散シフトを考慮せずにグラフニューラルネットワーク(GNN)を提案する。
このような環境では、GNNは、たとえ素早い相関であるとしても、予測のためのトレーニングセットに存在する微妙な統計的相関を利用する傾向がある。
本稿では,スプリアス相関の影響を排除するため,StableGNNと呼ばれる一般的な因果表現フレームワークを提案する。
論文 参考訳(メタデータ) (2021-11-20T18:57:18Z) - Training Stable Graph Neural Networks Through Constrained Learning [116.03137405192356]
グラフニューラルネットワーク(GNN)は、ネットワークデータから機能を学ぶためにグラフ畳み込みに依存する。
GNNは、グラフフィルタから受け継いだ特性である、基礎となるグラフの様々な種類の摂動に対して安定である。
本稿では,GNNの安定条件に制約を課すことにより,新たな制約付き学習手法を提案する。
論文 参考訳(メタデータ) (2021-10-07T15:54:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。