論文の概要: Interpretable Prototype-based Graph Information Bottleneck
- arxiv url: http://arxiv.org/abs/2310.19906v2
- Date: Tue, 20 Feb 2024 13:57:58 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-21 20:28:54.790956
- Title: Interpretable Prototype-based Graph Information Bottleneck
- Title(参考訳): 解釈可能なプロトタイプベースグラフ情報ボトルネック
- Authors: Sangwoo Seo, Sungwon Kim, Chanyoung Park
- Abstract要約: 本稿では,PGIB(Interpretable Prototype-based Graph Information Bottleneck)と呼ばれる,説明可能なグラフニューラルネットワーク(GNN)の新たなフレームワークを提案する。
PGIBは、情報ボトルネックフレームワークにプロトタイプ学習を組み込んで、モデル予測に重要な入力グラフから重要な部分グラフをプロトタイプに提供する。
定性的分析を含む広範囲な実験により、PGIBは予測性能と説明可能性の両方の観点から最先端の手法より優れていることが示された。
- 参考スコア(独自算出の注目度): 22.25047783463307
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The success of Graph Neural Networks (GNNs) has led to a need for
understanding their decision-making process and providing explanations for
their predictions, which has given rise to explainable AI (XAI) that offers
transparent explanations for black-box models. Recently, the use of prototypes
has successfully improved the explainability of models by learning prototypes
to imply training graphs that affect the prediction. However, these approaches
tend to provide prototypes with excessive information from the entire graph,
leading to the exclusion of key substructures or the inclusion of irrelevant
substructures, which can limit both the interpretability and the performance of
the model in downstream tasks. In this work, we propose a novel framework of
explainable GNNs, called interpretable Prototype-based Graph Information
Bottleneck (PGIB) that incorporates prototype learning within the information
bottleneck framework to provide prototypes with the key subgraph from the input
graph that is important for the model prediction. This is the first work that
incorporates prototype learning into the process of identifying the key
subgraphs that have a critical impact on the prediction performance. Extensive
experiments, including qualitative analysis, demonstrate that PGIB outperforms
state-of-the-art methods in terms of both prediction performance and
explainability.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)の成功により、意思決定プロセスを理解し、予測に関する説明を提供する必要性が生まれ、ブラックボックスモデルに透過的な説明を提供する説明可能なAI(XAI)が生まれました。
近年,プロトタイプの使用により,予測に影響を及ぼすグラフを学習し,モデルの説明可能性の向上に成功している。
しかしながら、これらのアプローチは、グラフ全体からの過剰な情報を持つプロトタイプを提供する傾向にあり、キーサブストラクチャの排除や無関係なサブストラクチャの導入につながり、下流タスクにおけるモデルの解釈可能性とパフォーマンスの両方を制限できる。
本研究では,モデル予測に重要な入力グラフから重要な部分グラフをプロトタイプに提供するために,情報ボトルネックフレームワークにプロトタイプ学習を組み込んだ解釈可能なプロトタイプベースグラフインフォメーション・ボトルネック(PGIB)という,説明可能なGNNの新たなフレームワークを提案する。
これはプロトタイプ学習を、予測性能に重大な影響を与える重要な部分グラフを識別するプロセスに組み込んだ最初の作業である。
定性的分析を含む広範囲な実験により、PGIBは予測性能と説明可能性の両方の観点から最先端の手法より優れていることが示された。
関連論文リスト
- Enhanced Prototypical Part Network (EPPNet) For Explainable Image Classification Via Prototypes [16.528373143163275]
画像分類のためのEPPNet(Enhanced Prototypeal Part Network)を導入する。
EPPNetは、分類結果を説明するために使用可能な関連するプロトタイプを発見しながら、強力なパフォーマンスを実現している。
CUB-200-2011 データセットによる評価の結果,EPPNet は最先端の xAI ベースの手法よりも優れていた。
論文 参考訳(メタデータ) (2024-08-08T17:26:56Z) - Semantic Interpretation and Validation of Graph Attention-based
Explanations for GNN Models [9.260186030255081]
本稿では,グラフニューラルネットワーク(GNN)に基づくモデルの説明可能性を高めるために,意味的注意力を用いた手法を提案する。
本研究は,注意分布のばらつきを意味的にソートした特徴集合と関連づけることで,既存の注意グラフ説明可能性手法を拡張した。
提案手法をライダーポイントクラウド推定モデルに適用し,性能向上に寄与する主要なセマンティッククラスを同定する。
論文 参考訳(メタデータ) (2023-08-08T12:34:32Z) - Generalizing Backpropagation for Gradient-Based Interpretability [103.2998254573497]
モデルの勾配は、半環を用いたより一般的な定式化の特別な場合であることを示す。
この観測により、バックプロパゲーションアルゴリズムを一般化し、他の解釈可能な統計を効率的に計算することができる。
論文 参考訳(メタデータ) (2023-07-06T15:19:53Z) - Towards Prototype-Based Self-Explainable Graph Neural Network [37.90997236795843]
本稿では,プロトタイプベースの自己説明可能なGNNを学習し,正確な予測とプロトタイプベースの予測説明を同時に行うという,新たな課題について考察する。
学習したプロトタイプは、テストインスタンスの予測とインスタンスレベルの説明を同時に行うためにも使用される。
論文 参考訳(メタデータ) (2022-10-05T00:47:42Z) - Robust Causal Graph Representation Learning against Confounding Effects [21.380907101361643]
本稿では,ロバスト因果グラフ表現学習(RCGRL)を提案する。
RCGRLは、無条件のモーメント制約の下でインストゥルメンタル変数を生成するアクティブなアプローチを導入し、グラフ表現学習モデルにより、共同設立者を排除している。
論文 参考訳(メタデータ) (2022-08-18T01:31:25Z) - Interpretable and Generalizable Graph Learning via Stochastic Attention
Mechanism [6.289180873978089]
解釈可能なグラフ学習は、グラフ構造化データから洞察を集めるための学習モデルに依存する多くの科学的応用を必要としている。
以前の作業は主に、事前訓練されたモデルを解釈するためのポストホックアプローチの使用に重点を置いていた。
本稿では,情報ボトルネック原理に基づく注意機構であるグラフ注意(GSAT)を提案する。
論文 参考訳(メタデータ) (2022-01-31T03:59:48Z) - Deconfounding to Explanation Evaluation in Graph Neural Networks [136.73451468551656]
我々は、全グラフと部分グラフの間に分布シフトが存在し、分布外問題を引き起こすと論じる。
本稿では,モデル予測に対する説明文の因果効果を評価するために,Decon founded Subgraph Evaluation (DSE)を提案する。
論文 参考訳(メタデータ) (2022-01-21T18:05:00Z) - Towards the Explanation of Graph Neural Networks in Digital Pathology
with Information Flows [67.23405590815602]
グラフニューラルネットワーク(GNN)は、デジタル病理学において広く採用されている。
既存の説明者は、予測に関連する説明的部分グラフを発見する。
説明文は、予測に必要であるだけでなく、最も予測可能な領域を明らかにするのに十分である。
本稿では, IFEXPLAINERを提案する。
論文 参考訳(メタデータ) (2021-12-18T10:19:01Z) - Bayesian Graph Contrastive Learning [55.36652660268726]
本稿では,ランダムな拡張がエンコーダにつながることを示すグラフコントラスト学習手法の新たな視点を提案する。
提案手法は,各ノードを決定論的ベクトルに埋め込む既存の手法とは対照的に,各ノードを潜在空間の分布で表現する。
いくつかのベンチマークデータセットにおける既存の最先端手法と比較して,性能が大幅に向上したことを示す。
論文 参考訳(メタデータ) (2021-12-15T01:45:32Z) - Towards Open-World Feature Extrapolation: An Inductive Graph Learning
Approach [80.8446673089281]
グラフ表現と学習を伴う新しい学習パラダイムを提案する。
本フレームワークは,1) 下位モデルとしてのバックボーンネットワーク(フィードフォワードニューラルネットなど)が,予測ラベルの入力および出力として機能を取り,2) 上位モデルとしてのグラフニューラルネットワークが,観測データから構築された特徴データグラフをメッセージパッシングすることで,新機能の埋め込みを外挿することを学ぶ。
論文 参考訳(メタデータ) (2021-10-09T09:02:45Z) - Interpreting Graph Neural Networks for NLP With Differentiable Edge
Masking [63.49779304362376]
グラフニューラルネットワーク(GNN)は、構造的帰納バイアスをNLPモデルに統合する一般的なアプローチとなっている。
本稿では,不要なエッジを識別するGNNの予測を解釈するポストホック手法を提案する。
モデルの性能を劣化させることなく,多数のエッジを落とせることを示す。
論文 参考訳(メタデータ) (2020-10-01T17:51:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。