論文の概要: Towards the Explanation of Graph Neural Networks in Digital Pathology
with Information Flows
- arxiv url: http://arxiv.org/abs/2112.09895v1
- Date: Sat, 18 Dec 2021 10:19:01 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-21 15:21:55.215637
- Title: Towards the Explanation of Graph Neural Networks in Digital Pathology
with Information Flows
- Title(参考訳): 情報フローを伴うデジタル病理におけるグラフニューラルネットワークの解説に向けて
- Authors: Junchi Yu, Tingyang Xu, Ran He
- Abstract要約: グラフニューラルネットワーク(GNN)は、デジタル病理学において広く採用されている。
既存の説明者は、予測に関連する説明的部分グラフを発見する。
説明文は、予測に必要であるだけでなく、最も予測可能な領域を明らかにするのに十分である。
本稿では, IFEXPLAINERを提案する。
- 参考スコア(独自算出の注目度): 67.23405590815602
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: As Graph Neural Networks (GNNs) are widely adopted in digital pathology,
there is increasing attention to developing explanation models (explainers) of
GNNs for improved transparency in clinical decisions.
Existing explainers discover an explanatory subgraph relevant to the
prediction.
However, such a subgraph is insufficient to reveal all the critical
biological substructures for the prediction because the prediction will remain
unchanged after removing that subgraph.
Hence, an explanatory subgraph should be not only necessary for prediction,
but also sufficient to uncover the most predictive regions for the explanation.
Such explanation requires a measurement of information transferred from
different input subgraphs to the predictive output, which we define as
information flow.
In this work, we address these key challenges and propose IFEXPLAINER, which
generates a necessary and sufficient explanation for GNNs.
To evaluate the information flow within GNN's prediction, we first propose a
novel notion of predictiveness, named $f$-information, which is directional and
incorporates the realistic capacity of the GNN model.
Based on it, IFEXPLAINER generates the explanatory subgraph with maximal
information flow to the prediction.
Meanwhile, it minimizes the information flow from the input to the predictive
result after removing the explanation.
Thus, the produced explanation is necessarily important to the prediction and
sufficient to reveal the most crucial substructures.
We evaluate IFEXPLAINER to interpret GNN's predictions on breast cancer
subtyping.
Experimental results on the BRACS dataset show the superior performance of
the proposed method.
- Abstract(参考訳): デジタル病理学においてグラフニューラルネットワーク(GNN)が広く採用されているため,臨床診断における透明性向上のために,GNNの説明モデル(説明者)の開発に注目が集まっている。
既存の説明者は、予測に関連する説明的部分グラフを発見する。
しかし、そのような部分グラフは、その部分グラフを除去した後も予測は変わらないため、予測のための全ての重要な生物学的部分構造を明らかにするには不十分である。
したがって、説明文は予測に必要であるだけでなく、説明のために最も予測可能な領域を明らかにするのに十分である。
このような説明は、異なる入力サブグラフから予測出力に転送される情報の計測を必要とし、情報フローと定義する。
本稿では、これらの課題に対処し、GNNに必要な十分な説明を生成するIFEXPLAINERを提案する。
GNNの予測内での情報フローを評価するために,まず,GNNモデルの現実的能力を考慮した指向性を持つ$f$-informationという新しい予測性の概念を提案する。
これに基づいて、IFEXPLAINERは、予測に最大情報を流した説明部分グラフを生成する。
一方、説明を除去した後、入力から予測結果への情報フローを最小化する。
したがって、生成された説明は予測に必要不可欠であり、最も重要な部分構造を明らかにするのに十分である。
我々はIFEXPLAINERを評価し,GNNの乳がん沈着予測を解釈した。
BRACSデータセットにおける実験結果は,提案手法の優れた性能を示す。
関連論文リスト
- Towards Few-shot Self-explaining Graph Neural Networks [16.085176689122036]
数ショット設定で予測をサポートするための説明を生成する新しいフレームワークを提案する。
MSE-GNNは説明器と予測器からなる2段階の自己説明構造を採用している。
MSE-GNNは、高品質な説明を生成しながら予測タスクにおいて優れた性能が得られることを示す。
論文 参考訳(メタデータ) (2024-08-14T07:31:11Z) - Incorporating Retrieval-based Causal Learning with Information
Bottlenecks for Interpretable Graph Neural Networks [12.892400744247565]
我々は,検索に基づく因果学習をグラフ情報ボットネック(GIB)理論に組み込んだ,解釈可能な因果GNNフレームワークを開発した。
多様な説明型を持つ実世界の説明シナリオにおいて,32.71%の精度を達成する。
論文 参考訳(メタデータ) (2024-02-07T09:57:39Z) - Towards Modeling Uncertainties of Self-explaining Neural Networks via
Conformal Prediction [34.87646720253128]
本稿では,自己説明型ニューラルネットワークのための新しい不確実性モデリングフレームワークを提案する。
生成した説明に対して,分布自由な不確実性モデリング性能を示す。
また、最終的な予測のために効率的で効果的な予測セットを生成することにも長けている。
論文 参考訳(メタデータ) (2024-01-03T05:51:49Z) - DEGREE: Decomposition Based Explanation For Graph Neural Networks [55.38873296761104]
我々は,GNN予測に対する忠実な説明を提供するためにDGREEを提案する。
GNNの情報生成と集約機構を分解することにより、DECREEは入力グラフの特定のコンポーネントのコントリビューションを最終的な予測に追跡することができる。
また,従来の手法で見過ごされるグラフノード間の複雑な相互作用を明らかにするために,サブグラフレベルの解釈アルゴリズムを設計する。
論文 参考訳(メタデータ) (2023-05-22T10:29:52Z) - A Survey of Explainable Graph Neural Networks: Taxonomy and Evaluation
Metrics [8.795591344648294]
本稿では,説明可能なグラフニューラルネットワークに着目し,説明可能な手法を用いて分類する。
我々は,GNNの解説に共通する性能指標を提供し,今後の研究の方向性を指摘する。
論文 参考訳(メタデータ) (2022-07-26T01:45:54Z) - Towards Explanation for Unsupervised Graph-Level Representation Learning [108.31036962735911]
既存の説明手法は,教師付き設定,例えばノード分類,グラフ分類に重点を置いているが,教師なしグラフレベルの表現学習に関する説明はまだ探索されていない。
本稿では,非教師付きグラフ表現における説明問題に対処するために,インフォメーション・ボトルネックの原則(IB)を推進し,新しい原理であるtextitUnsupervised Subgraph Information Bottleneck(USIB)を導出する。
また,グラフ表現とラベル空間上の説明部分グラフの関連性も理論的に解析し,表現の堅牢性が説明部分グラフの忠実性に寄与することを明らかにする。
論文 参考訳(メタデータ) (2022-05-20T02:50:15Z) - Discovering Invariant Rationales for Graph Neural Networks [104.61908788639052]
グラフニューラルネットワーク(GNN)の固有の解釈可能性とは、入力グラフの特徴の小さなサブセットを見つけることである。
本稿では,本質的に解釈可能なGNNを構築するために,不変理性(DIR)を発見するための新しい戦略を提案する。
論文 参考訳(メタデータ) (2022-01-30T16:43:40Z) - Deconfounding to Explanation Evaluation in Graph Neural Networks [136.73451468551656]
我々は、全グラフと部分グラフの間に分布シフトが存在し、分布外問題を引き起こすと論じる。
本稿では,モデル予測に対する説明文の因果効果を評価するために,Decon founded Subgraph Evaluation (DSE)を提案する。
論文 参考訳(メタデータ) (2022-01-21T18:05:00Z) - Interpreting Graph Neural Networks for NLP With Differentiable Edge
Masking [63.49779304362376]
グラフニューラルネットワーク(GNN)は、構造的帰納バイアスをNLPモデルに統合する一般的なアプローチとなっている。
本稿では,不要なエッジを識別するGNNの予測を解釈するポストホック手法を提案する。
モデルの性能を劣化させることなく,多数のエッジを落とせることを示す。
論文 参考訳(メタデータ) (2020-10-01T17:51:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。