論文の概要: BetaExplainer: A Probabilistic Method to Explain Graph Neural Networks
- arxiv url: http://arxiv.org/abs/2412.11964v1
- Date: Mon, 16 Dec 2024 16:45:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-17 14:01:16.079809
- Title: BetaExplainer: A Probabilistic Method to Explain Graph Neural Networks
- Title(参考訳): BetaExplainer: グラフニューラルネットワークを記述するための確率的手法
- Authors: Whitney Sloneker, Shalin Patel, Michael Wang, Lorin Crawford, Ritambhara Singh,
- Abstract要約: グラフニューラルネットワーク(GNN)は、グラフデータに対する推論を行う強力なツールである。
多くの解釈可能なGNN法が存在するが、エッジウェイトの不確かさを定量化することはできない。
マスクが重要でないエッジに先立って,これらの問題に対処するBetaExplainerを提案する。
- 参考スコア(独自算出の注目度): 1.798554018133928
- License:
- Abstract: Graph neural networks (GNNs) are powerful tools for conducting inference on graph data but are often seen as "black boxes" due to difficulty in extracting meaningful subnetworks driving predictive performance. Many interpretable GNN methods exist, but they cannot quantify uncertainty in edge weights and suffer in predictive accuracy when applied to challenging graph structures. In this work, we proposed BetaExplainer which addresses these issues by using a sparsity-inducing prior to mask unimportant edges during model training. To evaluate our approach, we examine various simulated data sets with diverse real-world characteristics. Not only does this implementation provide a notion of edge importance uncertainty, it also improves upon evaluation metrics for challenging datasets compared to state-of-the art explainer methods.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)は、グラフデータに対する推論を行う強力なツールだが、有意義なサブネットの抽出が予測性能を向上することの難しさから、しばしば「ブラックボックス」と呼ばれる。
多くの解釈可能なGNN法が存在するが、エッジウェイトの不確かさを定量化できず、挑戦的なグラフ構造に適用した場合、予測精度に苦しむ。
本研究では,モデルトレーニング中に重要でないエッジをマスキングする前にスパンサリティ誘導を用いて,これらの問題に対処するBetaExplainerを提案する。
提案手法を評価するために,実世界の多様な特徴を持つ様々なシミュレーションデータセットについて検討する。
この実装は、エッジの重要性の不確実性の概念を提供するだけでなく、最先端の説明手法と比較して、挑戦的なデータセットの評価基準も改善する。
関連論文リスト
- Graph Structure Learning with Interpretable Bayesian Neural Networks [10.957528713294874]
独立に解釈可能なパラメータを持つ新しい反復を導入する。
これらのパラメータは、エッジ空間のような推定グラフの特性に影響を与える。
これらの反復を解いた後、そのようなグラフの特徴に関する事前知識は、事前分布を形作る。
高速な実行とパラメータ効率により、高忠実度後部近似が可能となる。
論文 参考訳(メタデータ) (2024-06-20T23:27:41Z) - GInX-Eval: Towards In-Distribution Evaluation of Graph Neural Network
Explanations [21.997015999698732]
グラフニューラルネットワーク(GNN)の様々な説明可能性法は、モデル予測に最も寄与するグラフのエッジとノードを強調するために開発されている。
これらの説明の正しさを人間やモデルの観点から評価する方法はまだ明らかになっていない。
本稿では,信頼の落とし穴を克服するグラフ説明の評価手法であるGInX-Evalを提案する。
論文 参考訳(メタデータ) (2023-09-28T07:56:10Z) - Empowering Counterfactual Reasoning over Graph Neural Networks through
Inductivity [7.094238868711952]
グラフニューラルネットワーク(GNN)には、薬物発見、レコメンデーションエンジン、チップ設計など、さまざまな実用的応用がある。
因果推論は、GNNの入力グラフの変更を最小限に抑えて予測を変更するために用いられる。
論文 参考訳(メタデータ) (2023-06-07T23:40:18Z) - DEGREE: Decomposition Based Explanation For Graph Neural Networks [55.38873296761104]
我々は,GNN予測に対する忠実な説明を提供するためにDGREEを提案する。
GNNの情報生成と集約機構を分解することにより、DECREEは入力グラフの特定のコンポーネントのコントリビューションを最終的な予測に追跡することができる。
また,従来の手法で見過ごされるグラフノード間の複雑な相互作用を明らかにするために,サブグラフレベルの解釈アルゴリズムを設計する。
論文 参考訳(メタデータ) (2023-05-22T10:29:52Z) - Invertible Neural Networks for Graph Prediction [22.140275054568985]
本研究では,ディープ・インバーチブル・ニューラルネットワークを用いた条件生成について述べる。
私たちの目標は,前処理と後処理の予測と生成を同時に行うことにあるので,エンドツーエンドのトレーニングアプローチを採用しています。
論文 参考訳(メタデータ) (2022-06-02T17:28:33Z) - Bayesian Graph Contrastive Learning [55.36652660268726]
本稿では,ランダムな拡張がエンコーダにつながることを示すグラフコントラスト学習手法の新たな視点を提案する。
提案手法は,各ノードを決定論的ベクトルに埋め込む既存の手法とは対照的に,各ノードを潜在空間の分布で表現する。
いくつかのベンチマークデータセットにおける既存の最先端手法と比較して,性能が大幅に向上したことを示す。
論文 参考訳(メタデータ) (2021-12-15T01:45:32Z) - Distributionally Robust Semi-Supervised Learning Over Graphs [68.29280230284712]
グラフ構造化データに対する半教師付き学習(SSL)は、多くのネットワークサイエンスアプリケーションに現れる。
グラフ上の学習を効率的に管理するために,近年,グラフニューラルネットワーク(GNN)の変種が開発されている。
実際に成功したにも拘わらず、既存の手法のほとんどは、不確実な結節属性を持つグラフを扱うことができない。
ノイズ測定によって得られたデータに関連する分布の不確実性によっても問題が発生する。
分散ロバストな学習フレームワークを開発し,摂動に対する定量的ロバスト性を示すモデルを訓練する。
論文 参考訳(メタデータ) (2021-10-20T14:23:54Z) - Interpreting Graph Neural Networks for NLP With Differentiable Edge
Masking [63.49779304362376]
グラフニューラルネットワーク(GNN)は、構造的帰納バイアスをNLPモデルに統合する一般的なアプローチとなっている。
本稿では,不要なエッジを識別するGNNの予測を解釈するポストホック手法を提案する。
モデルの性能を劣化させることなく,多数のエッジを落とせることを示す。
論文 参考訳(メタデータ) (2020-10-01T17:51:19Z) - Efficient Robustness Certificates for Discrete Data: Sparsity-Aware
Randomized Smoothing for Graphs, Images and More [85.52940587312256]
本稿では,初期作業を想定したランダム化平滑化フレームワークに基づくモデル非依存の証明書を提案する。
このアプローチがさまざまなモデル、データセット、タスクに対して有効であることを示します。
論文 参考訳(メタデータ) (2020-08-29T10:09:02Z) - Towards an Efficient and General Framework of Robust Training for Graph
Neural Networks [96.93500886136532]
グラフニューラルネットワーク(GNN)は、いくつかの基本的な推論タスクに大きく進歩している。
GNNの目覚ましい性能にもかかわらず、グラフ構造上の摂動を慎重に作り、誤った予測を下すことが観察されている。
我々は,強靭なGNNを得るために,欲求探索アルゴリズムとゼロ階法を利用する汎用フレームワークを提案する。
論文 参考訳(メタデータ) (2020-02-25T15:17:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。