論文の概要: Pixel-Level Explanation of Multiple Instance Learning Models in
Biomedical Single Cell Images
- arxiv url: http://arxiv.org/abs/2303.08632v1
- Date: Wed, 15 Mar 2023 14:00:11 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-16 13:31:18.426438
- Title: Pixel-Level Explanation of Multiple Instance Learning Models in
Biomedical Single Cell Images
- Title(参考訳): 生体医用単細胞画像における複数事例学習モデルの画素レベル説明
- Authors: Ario Sadafi, Oleksandra Adonkina, Ashkan Khakzar, Peter Lienemann,
Rudolf Matthias Hehr, Daniel Rueckert, Nassir Navab, Carsten Marr
- Abstract要約: 複数のインスタンス学習モデルを説明するための4つの属性法について検討する。
急性骨髄性白血病の2つのデータセットと100万以上の単細胞画像について検討した。
我々は、属性マップと医療専門家の注釈を比較し、モデルの意思決定が人間の基準とどのように異なるかを確認する。
- 参考スコア(独自算出の注目度): 52.527733226555206
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Explainability is a key requirement for computer-aided diagnosis systems in
clinical decision-making. Multiple instance learning with attention pooling
provides instance-level explainability, however for many clinical applications
a deeper, pixel-level explanation is desirable, but missing so far. In this
work, we investigate the use of four attribution methods to explain a multiple
instance learning models: GradCAM, Layer-Wise Relevance Propagation (LRP),
Information Bottleneck Attribution (IBA), and InputIBA. With this collection of
methods, we can derive pixel-level explanations on for the task of diagnosing
blood cancer from patients' blood smears. We study two datasets of acute
myeloid leukemia with over 100 000 single cell images and observe how each
attribution method performs on the multiple instance learning architecture
focusing on different properties of the white blood single cells. Additionally,
we compare attribution maps with the annotations of a medical expert to see how
the model's decision-making differs from the human standard. Our study
addresses the challenge of implementing pixel-level explainability in multiple
instance learning models and provides insights for clinicians to better
understand and trust decisions from computer-aided diagnosis systems.
- Abstract(参考訳): 臨床診断におけるコンピュータ支援診断システムにおける説明可能性の重要性
アテンションプールによる複数のインスタンス学習は、インスタンスレベルの説明可能性を提供するが、多くの臨床応用では、より深いピクセルレベルの説明が望ましいが、今のところ欠けている。
本研究では,複数のインスタンス学習モデル(gradcam, layer-wise associated propagation (lrp), information bottleneck attribution (iba), inputiba)の4つの帰属法を用いて,複数のインスタンス学習モデルを説明する。
この方法では、患者の血液スメアから血液がんを診断するタスクのためのピクセルレベルの説明を導出することができる。
急性骨髄性白血病の2つのデータセットを100万以上の単細胞画像を用いて研究し、各属性法が、白血球の異なる性質に着目した複数インスタンス学習アーキテクチャでどのように機能するかを観察した。
さらに、アトリビューションマップと医療専門家の注釈を比較し、モデルの意思決定が人間の標準とどのように異なるかを確認する。
本研究は,複数のインスタンス学習モデルにピクセルレベルの説明可能性を導入するという課題に対処し,臨床医がコンピュータ支援診断システムから意思決定をよりよく理解し,信頼する上での洞察を提供する。
関連論文リスト
- Robust and Interpretable Medical Image Classifiers via Concept
Bottleneck Models [49.95603725998561]
本稿では,自然言語の概念を用いた堅牢で解釈可能な医用画像分類器を構築するための新しいパラダイムを提案する。
具体的には、まず臨床概念をGPT-4から検索し、次に視覚言語モデルを用いて潜在画像の特徴を明示的な概念に変換する。
論文 参考訳(メタデータ) (2023-10-04T21:57:09Z) - A Transformer-based representation-learning model with unified
processing of multimodal input for clinical diagnostics [63.106382317917344]
本稿では,マルチモーダル入力を統一的に処理する臨床診断支援として,トランスフォーマーを用いた表現学習モデルについて報告する。
統一モデルは, 肺疾患の同定において, 画像のみのモデル, 非統一型マルチモーダル診断モデルより優れていた。
論文 参考訳(メタデータ) (2023-06-01T16:23:47Z) - Multi-Scale Attention-based Multiple Instance Learning for
Classification of Multi-Gigapixel Histology Images [0.0]
組織像の分類のための深層学習パイプラインを提案する。
我々は,ヘマトキシリンおよびエオシン染色(H&E)組織像に基づく鼻咽頭癌(NPC)の潜伏膜蛋白1(LMP1)像の予測を試みた。
論文 参考訳(メタデータ) (2022-09-07T10:14:02Z) - Classification of White Blood Cell Leukemia with Low Number of
Interpretable and Explainable Features [0.0]
白血球(WBC)白血病は画像ベース分類によって検出される。
畳み込みニューラルネットワークは、細胞のイメージを悪性または正常に分類するために必要な特徴を学ぶために使用される。
このタイプのモデルは、多数のパラメータを学習し、解釈と説明が困難である。
XAIモデルは、説明可能な機能と解釈可能な機能のみを使用し、4.38%以上の性能で他のアプローチと高い競争力を持つ。
論文 参考訳(メタデータ) (2022-01-28T00:08:56Z) - Towards Interpretable Attention Networks for Cervical Cancer Analysis [24.916577293892182]
複数の頸腺細胞の画像分類における最先端ディープラーニングモデルの評価を行った。
細胞群から重要な特徴を抽出するための残チャンネルアテンションモデルの有効性を示す。
また、子宮頸部細胞の分類に対処するための解釈可能なモデルも提供する。
論文 参考訳(メタデータ) (2021-05-27T13:28:24Z) - Relational Subsets Knowledge Distillation for Long-tailed Retinal
Diseases Recognition [65.77962788209103]
本研究では,長尾データを知識に基づいて複数のクラスサブセットに分割し,クラスサブセット学習を提案する。
モデルがサブセット固有の知識の学習に集中するように強制する。
提案手法は長期網膜疾患認識タスクに有効であることが判明した。
論文 参考訳(メタデータ) (2021-04-22T13:39:33Z) - IAIA-BL: A Case-based Interpretable Deep Learning Model for
Classification of Mass Lesions in Digital Mammography [20.665935997959025]
機械学習モデルの解釈性は、高リスク決定において重要である。
機械学習に基づくマンモグラフィを解釈可能なフレームワークを提案する。
論文 参考訳(メタデータ) (2021-03-23T05:00:21Z) - Medical Image Harmonization Using Deep Learning Based Canonical Mapping:
Toward Robust and Generalizable Learning in Imaging [4.396671464565882]
多様な取得条件のデータを共通参照領域に"調和"する新しいパラダイムを提案する。
我々は,MRIによる脳年齢予測と統合失調症の分類という,2つの問題に対して本手法を検証した。
論文 参考訳(メタデータ) (2020-10-11T22:01:37Z) - Learning Binary Semantic Embedding for Histology Image Classification
and Retrieval [56.34863511025423]
バイナリ・セマンティック・エンベディング(LBSE)の学習方法を提案する。
効率的な埋め込み、分類、検索を行い、組織像の解釈可能なコンピュータ支援診断を提供する。
3つのベンチマークデータセットで実施された実験は、様々なシナリオにおいてLBSEの優位性を検証する。
論文 参考訳(メタデータ) (2020-10-07T08:36:44Z) - Select-ProtoNet: Learning to Select for Few-Shot Disease Subtype
Prediction [55.94378672172967]
本研究は, 類似患者のサブグループを同定し, 数発の疾患のサブタイプ予測問題に焦点を当てた。
新しいモデルを開発するためにメタラーニング技術を導入し、関連する臨床課題から共通の経験や知識を抽出する。
我々の新しいモデルは、単純だが効果的なメタ学習マシンであるPrototypeal Networkと呼ばれる、慎重に設計されたメタラーナーに基づいて構築されている。
論文 参考訳(メタデータ) (2020-09-02T02:50:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。