論文の概要: KS-GNNExplainer: Global Model Interpretation Through Instance
Explanations On Histopathology images
- arxiv url: http://arxiv.org/abs/2304.08240v1
- Date: Fri, 14 Apr 2023 16:48:41 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-18 15:17:25.008700
- Title: KS-GNNExplainer: Global Model Interpretation Through Instance
Explanations On Histopathology images
- Title(参考訳): ks-gnnexplainer:組織病理像のインスタンス説明による大域的モデル解釈
- Authors: Sina Abdous, Reza Abdollahzadeh, Mohammad Hossein Rohban
- Abstract要約: 我々は、最初のインスタンスレベルのグラフニューラルネットワーク説明器であるKS-GNNExplainerを開発した。
提案手法は, 定量的および定性的尺度の両方に基づいて, 提案手法がグローバルなパターン抽出器であることを示すものである。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Instance-level graph neural network explainers have proven beneficial for
explaining such networks on histopathology images. However, there has been few
methods that provide model explanations, which are common patterns among
samples within the same class. We envision that graph-based histopathological
image analysis can benefit significantly from such explanations. On the other
hand, current model-level explainers are based on graph generation methods that
are not applicable in this domain because of no corresponding image for their
generated graphs in real world. Therefore, such explanations are communicable
to the experts. To follow this vision, we developed KS-GNNExplainer, the first
instance-level graph neural network explainer that leverages current
instance-level approaches in an effective manner to provide more informative
and reliable explainable outputs, which are crucial for applied AI in the
health domain. Our experiments on various datasets, and based on both
quantitative and qualitative measures, demonstrate that the proposed explainer
is capable of being a global pattern extractor, which is a fundamental
limitation of current instance-level approaches in this domain.
- Abstract(参考訳): インスタンスレベルのグラフニューラルネットワーク説明器は、そのようなネットワークを病理画像で説明するのに有用であることが証明されている。
しかし、同じクラス内のサンプル間で共通のパターンであるモデル説明を提供する方法はほとんどなかった。
グラフに基づく病理組織学的画像解析は,このような説明から有益であると考えられる。
一方、現在のモデルレベルの説明は、実世界で生成されたグラフに対応する画像がないため、この領域では適用できないグラフ生成法に基づいている。
したがって、そのような説明は専門家に伝えられる。
このビジョンに従うために、私たちはKS-GNNExplainerを開発した。KS-GNNExplainerは、現在のインスタンスレベルのアプローチを効果的に活用し、より情報的で信頼性の高い説明可能な出力を提供する。
様々なデータセットに関する実験および量的・質的尺度に基づいて,提案する説明器がグローバルパターン抽出器であり,この領域における現在のインスタンスレベルのアプローチの基本的な限界であることを示す。
関連論文リスト
- Explaining Explainability: Towards Deeper Actionable Insights into Deep
Learning through Second-order Explainability [70.60433013657693]
2階説明可能なAI(SOXAI)は、最近インスタンスレベルからデータセットレベルまで説明可能なAI(XAI)を拡張するために提案されている。
そこで本研究では,SOXAIの動作可能な洞察に基づくトレーニングセットから無関係な概念を除外することで,モデルの性能を向上させることができることを示す。
論文 参考訳(メタデータ) (2023-06-14T23:24:01Z) - Exploring Explainability Methods for Graph Neural Networks [0.0]
グラフに基づく超画素画像分類タスクにおいて、グラフ注意ネットワーク(GAT)における一般的な説明可能性アプローチの適用性を示す。
その結果、GNN、特にGATにおける説明可能性の概念に新たな光を当てた。
論文 参考訳(メタデータ) (2022-11-03T12:50:46Z) - Towards Explanation for Unsupervised Graph-Level Representation Learning [108.31036962735911]
既存の説明手法は,教師付き設定,例えばノード分類,グラフ分類に重点を置いているが,教師なしグラフレベルの表現学習に関する説明はまだ探索されていない。
本稿では,非教師付きグラフ表現における説明問題に対処するために,インフォメーション・ボトルネックの原則(IB)を推進し,新しい原理であるtextitUnsupervised Subgraph Information Bottleneck(USIB)を導出する。
また,グラフ表現とラベル空間上の説明部分グラフの関連性も理論的に解析し,表現の堅牢性が説明部分グラフの忠実性に寄与することを明らかにする。
論文 参考訳(メタデータ) (2022-05-20T02:50:15Z) - Heterogeneous Graph Neural Networks using Self-supervised Reciprocally
Contrastive Learning [102.9138736545956]
不均一グラフニューラルネットワーク(HGNN)は異種グラフのモデリングと解析において非常に一般的な手法である。
我々は,ノード属性とグラフトポロジの各ガイダンスに関する2つの視点を取り入れた,新規で頑健なヘテロジニアスグラフコントラスト学習手法であるHGCLを初めて開発する。
この新しいアプローチでは,属性とトポロジに関連情報を別々にマイニングする手法として,異なるが最も適した属性とトポロジの融合機構を2つの視点に適用する。
論文 参考訳(メタデータ) (2022-04-30T12:57:02Z) - A Survey on Graph-Based Deep Learning for Computational Histopathology [36.58189530598098]
我々は、デジタル病理と生検画像パッチの分析に機械学習と深層学習の利用が急速に拡大しているのを目撃した。
畳み込みニューラルネットワークを用いたパッチワイド機能に関する従来の学習は、グローバルなコンテキスト情報をキャプチャしようとする際のモデルを制限する。
本稿では,グラフに基づく深層学習の概念的基盤を提供し,腫瘍の局在と分類,腫瘍浸潤とステージング,画像検索,生存予測の現在の成功について論じる。
論文 参考訳(メタデータ) (2021-07-01T07:50:35Z) - Deep Co-Attention Network for Multi-View Subspace Learning [73.3450258002607]
マルチビューサブスペース学習のための深層コアテンションネットワークを提案する。
共通情報と相補情報の両方を敵意で抽出することを目的としている。
特に、新しいクロス再構成損失を使用し、ラベル情報を利用して潜在表現の構築を誘導する。
論文 参考訳(メタデータ) (2021-02-15T18:46:44Z) - Quantifying Explainers of Graph Neural Networks in Computational
Pathology [13.526389642048947]
グラフ説明器を特徴付けるために,クラス分離可能性の統計に基づく新しい定量尺度を提案する。
提案手法は,3種類のグラフ説明器,すなわち,階層的関連性伝播,勾配ベース・サリエンシ,グラフプルーニングの3つの手法を評価するために用いられる。
乳がんRoIsの大きなコホートであるBRACSデータセットの質的,定量的な所見を専門の病理医によって検証した。
論文 参考訳(メタデータ) (2020-11-25T11:13:01Z) - Abstracting Deep Neural Networks into Concept Graphs for Concept Level
Interpretability [0.39635467316436124]
我々は,学習した概念のグラフィカルな表現を構築することで,医療領域における画像処理タスクを実行する訓練されたモデルの振る舞いを理解することを試みる。
本稿では,脳腫瘍の分節化と基底画像の分類という2つの生体医学的問題に対する提案手法の適用について述べる。
論文 参考訳(メタデータ) (2020-08-14T16:34:32Z) - Towards Deeper Graph Neural Networks [63.46470695525957]
グラフ畳み込みは近傍の集約を行い、最も重要なグラフ操作の1つである。
いくつかの最近の研究で、この性能劣化は過度に滑らかな問題に起因している。
本研究では,大きな受容領域からの情報を適応的に組み込むディープ適応グラフニューラルネットワーク(DAGNN)を提案する。
論文 参考訳(メタデータ) (2020-07-18T01:11:14Z) - A Heterogeneous Graph with Factual, Temporal and Logical Knowledge for
Question Answering Over Dynamic Contexts [81.4757750425247]
動的テキスト環境における質問応答について検討する。
構築したグラフ上にグラフニューラルネットワークを構築し,エンドツーエンドでモデルをトレーニングする。
論文 参考訳(メタデータ) (2020-04-25T04:53:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。