論文の概要: Quantifying Explainers of Graph Neural Networks in Computational
Pathology
- arxiv url: http://arxiv.org/abs/2011.12646v2
- Date: Fri, 14 May 2021 16:44:46 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-21 03:04:43.116575
- Title: Quantifying Explainers of Graph Neural Networks in Computational
Pathology
- Title(参考訳): 計算病理学におけるグラフニューラルネットワークの定量化
- Authors: Guillaume Jaume and Pushpak Pati and Behzad Bozorgtabar and Antonio
Foncubierta-Rodr\'iguez and Florinda Feroce and Anna Maria Anniciello and
Tilman Rau and Jean-Philippe Thiran and Maria Gabrani and Orcun Goksel
- Abstract要約: グラフ説明器を特徴付けるために,クラス分離可能性の統計に基づく新しい定量尺度を提案する。
提案手法は,3種類のグラフ説明器,すなわち,階層的関連性伝播,勾配ベース・サリエンシ,グラフプルーニングの3つの手法を評価するために用いられる。
乳がんRoIsの大きなコホートであるBRACSデータセットの質的,定量的な所見を専門の病理医によって検証した。
- 参考スコア(独自算出の注目度): 13.526389642048947
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Explainability of deep learning methods is imperative to facilitate their
clinical adoption in digital pathology. However, popular deep learning methods
and explainability techniques (explainers) based on pixel-wise processing
disregard biological entities' notion, thus complicating comprehension by
pathologists. In this work, we address this by adopting biological entity-based
graph processing and graph explainers enabling explanations accessible to
pathologists. In this context, a major challenge becomes to discern meaningful
explainers, particularly in a standardized and quantifiable fashion. To this
end, we propose herein a set of novel quantitative metrics based on statistics
of class separability using pathologically measurable concepts to characterize
graph explainers. We employ the proposed metrics to evaluate three types of
graph explainers, namely the layer-wise relevance propagation, gradient-based
saliency, and graph pruning approaches, to explain Cell-Graph representations
for Breast Cancer Subtyping. The proposed metrics are also applicable in other
domains by using domain-specific intuitive concepts. We validate the
qualitative and quantitative findings on the BRACS dataset, a large cohort of
breast cancer RoIs, by expert pathologists.
- Abstract(参考訳): 深層学習法の具体性は,デジタル病理学における臨床応用の促進に不可欠である。
しかし、一般的なディープラーニング手法や説明可能性技術(説明者)は、生物学的実体の概念を無視し、病理学者による理解を複雑にしている。
そこで本研究では,生物学的エンティティベースのグラフ処理と,病理学者が容易に説明できるグラフ説明器を採用することで,この問題に対処した。
この文脈では、特に標準化された量化可能な方法で意味のある説明者を見分けることが大きな課題となる。
そこで本研究では,病理学的に測定可能な概念を用いて,クラス分離可能性の統計に基づく新しい定量尺度を提案する。
提案手法は, 乳がんサブタイピングにおける細胞グラフ表現を説明するために, 3種類のグラフ説明器, すなわち, レイヤーワイド関連性伝播, 勾配ベース・サリエンシ, グラフプルーニングアプローチを評価するために用いられる。
提案手法はドメイン固有の直観的概念を用いて他のドメインにも適用可能である。
乳がんRoIsの大きなコホートであるBRACSデータセットの質的,定量的な所見を専門の病理医によって検証した。
関連論文リスト
- Graph Relation Distillation for Efficient Biomedical Instance
Segmentation [80.51124447333493]
本稿では,効率的なバイオメディカル・インスタンス・セグメンテーションのためのグラフ関係蒸留手法を提案する。
画像内レベルと画像間レベルの両方に展開する2つのグラフ蒸留方式を導入する。
多くのバイオメディカルデータセットの実験結果から,本手法の有効性が検証された。
論文 参考訳(メタデータ) (2024-01-12T04:41:23Z) - Tertiary Lymphoid Structures Generation through Graph-based Diffusion [54.37503714313661]
本研究では,最先端のグラフベース拡散モデルを用いて生物学的に意味のある細胞グラフを生成する。
本研究では, グラフ拡散モデルを用いて, 3次リンパ構造(TLS)の分布を正確に学習できることを示す。
論文 参考訳(メタデータ) (2023-10-10T14:37:17Z) - KS-GNNExplainer: Global Model Interpretation Through Instance
Explanations On Histopathology images [0.0]
我々は、最初のインスタンスレベルのグラフニューラルネットワーク説明器であるKS-GNNExplainerを開発した。
提案手法は, 定量的および定性的尺度の両方に基づいて, 提案手法がグローバルなパターン抽出器であることを示すものである。
論文 参考訳(メタデータ) (2023-04-14T16:48:41Z) - State of the Art and Potentialities of Graph-level Learning [54.68482109186052]
グラフレベルの学習は、比較、回帰、分類など、多くのタスクに適用されている。
グラフの集合を学習する伝統的なアプローチは、サブストラクチャのような手作りの特徴に依存している。
ディープラーニングは、機能を自動的に抽出し、グラフを低次元表現に符号化することで、グラフレベルの学習をグラフの規模に適応させるのに役立っている。
論文 参考訳(メタデータ) (2023-01-14T09:15:49Z) - Automated Coronary Arteries Labeling Via Geometric Deep Learning [13.515293812745343]
血管造影検査から得られた3次元座標データによく適合する直感的なグラフ表現法を提案する。
その後、幾何学的深層学習を用いて対象別グラフの分析を試みる。
提案モデルでは,141例の専門的アノテートラベルを用いて,各冠動脈セグメントの表現を学習し,訓練データにおける解剖学的変動の影響を捉えた。
論文 参考訳(メタデータ) (2022-12-01T09:31:08Z) - Graph-in-Graph (GiG): Learning interpretable latent graphs in
non-Euclidean domain for biological and healthcare applications [52.65389473899139]
グラフは、医療領域において、非ユークリッドな非ユークリッドデータをユビキタスに表現し、分析するための強力なツールである。
近年の研究では、入力データサンプル間の関係を考慮すると、下流タスクに正の正の正則化効果があることが示されている。
タンパク質分類と脳イメージングのためのニューラルネットワークアーキテクチャであるGraph-in-Graph(GiG)を提案する。
論文 参考訳(メタデータ) (2022-04-01T10:01:37Z) - Discriminative Attribution from Counterfactuals [64.94009515033984]
本稿では,特徴属性と反実的説明を組み合わせたニューラルネットワークの解釈可能性について述べる。
本手法は,特徴属性法の性能を客観的に評価するために有効であることを示す。
論文 参考訳(メタデータ) (2021-09-28T00:53:34Z) - A Survey on Graph-Based Deep Learning for Computational Histopathology [36.58189530598098]
我々は、デジタル病理と生検画像パッチの分析に機械学習と深層学習の利用が急速に拡大しているのを目撃した。
畳み込みニューラルネットワークを用いたパッチワイド機能に関する従来の学習は、グローバルなコンテキスト情報をキャプチャしようとする際のモデルを制限する。
本稿では,グラフに基づく深層学習の概念的基盤を提供し,腫瘍の局在と分類,腫瘍浸潤とステージング,画像検索,生存予測の現在の成功について論じる。
論文 参考訳(メタデータ) (2021-07-01T07:50:35Z) - Integrating Logical Rules Into Neural Multi-Hop Reasoning for Drug
Repurposing [23.783111050856245]
本稿では,これらのルールと強化学習を用いたニューラルマルチホップ推論手法を組み合わせた新しい手法を提案する。
バイオメディカル知識グラフHetionetに本手法を適用し,本手法がいくつかのベースライン法より優れていることを示す。
論文 参考訳(メタデータ) (2020-07-10T10:32:08Z) - Towards Explainable Graph Representations in Digital Pathology [9.369422379741982]
グラフ内の診断上重要な要素を強調するコンパクトなインスタンスごとの説明を導出するためのポストホック説明器を提案する。
乳がんサブタイプにおける細胞および細胞間相互作用の解析に焦点をあてるが、提案する説明器は、デジタル病理学における他のトポロジ的表現にまで拡張できるほど汎用的である。
論文 参考訳(メタデータ) (2020-07-01T08:05:26Z) - Weakly supervised multiple instance learning histopathological tumor
segmentation [51.085268272912415]
スライド画像全体のセグメント化のための弱教師付きフレームワークを提案する。
トレーニングモデルに複数のインスタンス学習スキームを利用する。
提案するフレームワークは,The Cancer Genome AtlasとPatchCamelyonデータセットのマルチロケーションとマルチ中心公開データに基づいて評価されている。
論文 参考訳(メタデータ) (2020-04-10T13:12:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。