論文の概要: SHAMSUL: Systematic Holistic Analysis to investigate Medical
Significance Utilizing Local interpretability methods in deep learning for
chest radiography pathology prediction
- arxiv url: http://arxiv.org/abs/2307.08003v2
- Date: Fri, 17 Nov 2023 18:47:42 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-22 18:31:21.976020
- Title: SHAMSUL: Systematic Holistic Analysis to investigate Medical
Significance Utilizing Local interpretability methods in deep learning for
chest radiography pathology prediction
- Title(参考訳): shamsul: system holistic analysis による胸部x線病理予測のための深層学習における局所的解釈可能性を用いた医学的意義の検討
- Authors: Mahbub Ul Alam, Jaakko Hollm\'en, J\'on R\'unar Baldvinsson, Rahim
Rahmani
- Abstract要約: 局所的解釈可能なモデル非依存説明法(LIME)、共有付加的説明法(SHAP)、グラディエント重み付きクラス活性化マッピング(Grad-CAM)、レイヤワイド関連伝搬法(LRP)の4つの方法の適用について検討した。
本分析では, 単一ラベルと多ラベルの予測を両方含み, 定量的, 定性的な調査を通じて包括的かつ不偏な評価を行い, 人的専門家のアノテーションと比較した。
- 参考スコア(独自算出の注目度): 1.0138723409205497
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The interpretability of deep neural networks has become a subject of great
interest within the medical and healthcare domain. This attention stems from
concerns regarding transparency, legal and ethical considerations, and the
medical significance of predictions generated by these deep neural networks in
clinical decision support systems. To address this matter, our study delves
into the application of four well-established interpretability methods: Local
Interpretable Model-agnostic Explanations (LIME), Shapley Additive exPlanations
(SHAP), Gradient-weighted Class Activation Mapping (Grad-CAM), and Layer-wise
Relevance Propagation (LRP). Leveraging the approach of transfer learning with
a multi-label-multi-class chest radiography dataset, we aim to interpret
predictions pertaining to specific pathology classes. Our analysis encompasses
both single-label and multi-label predictions, providing a comprehensive and
unbiased assessment through quantitative and qualitative investigations, which
are compared against human expert annotation. Notably, Grad-CAM demonstrates
the most favorable performance in quantitative evaluation, while the LIME
heatmap score segmentation visualization exhibits the highest level of medical
significance. Our research underscores both the outcomes and the challenges
faced in the holistic approach adopted for assessing these interpretability
methods and suggests that a multimodal-based approach, incorporating diverse
sources of information beyond chest radiography images, could offer additional
insights for enhancing interpretability in the medical domain.
- Abstract(参考訳): ディープニューラルネットワークの解釈可能性は、医療分野や医療分野において大きな関心を集めている。
この注意は、透明性、法的および倫理的考察、およびこれらのディープニューラルネットワークが臨床意思決定支援システムで生み出す予測の医学的意義に関する懸念から来ている。
そこで本研究では, 局所解釈型モデル非依存説明法 (LIME) , シェープ付加拡張法 (SHAP) , グラディエント重み付きクラス活性化マッピング (Grad-CAM) , レイヤーワイド関連伝搬法 (LRP) の4つの方法について検討した。
マルチラベル・マルチクラスの胸部X線撮影データセットを用いたトランスファーラーニングのアプローチを応用し,特定の病理学クラスに関連する予測を解釈することを目的とする。
本分析では, 単一ラベルと多ラベルの予測を両方含み, 定量的および定性的な調査を通じて包括的かつ不偏な評価を行う。
特に、grad-camは定量的評価において最も好ましい性能を示し、lime heatmapスコアのセグメンテーション可視化は医学的重要性の最高レベルを示す。
本研究は,これらの解釈可能性の評価に採用される総合的アプローチの成果と課題を両立させ,胸部X線画像以外の多様な情報ソースを取り入れたマルチモーダルアプローチが,医療領域における解釈可能性の向上にさらなる洞察を与える可能性を示唆している。
関連論文リスト
- MLIP: Enhancing Medical Visual Representation with Divergence Encoder
and Knowledge-guided Contrastive Learning [48.97640824497327]
本稿では、画像テキストのコントラスト学習を通じて、言語情報を視覚領域に統合するための案内信号として、ドメイン固有の医療知識を活用する新しいフレームワークを提案する。
我々のモデルには、設計した分散エンコーダによるグローバルコントラスト学習、局所トークン・知識・パッチアライメントコントラスト学習、知識誘導型カテゴリレベルのコントラスト学習、エキスパートナレッジによるコントラスト学習が含まれる。
特に、MLIPは、限られた注釈付きデータであっても最先端の手法を超越し、医療表現学習の進歩におけるマルチモーダル事前学習の可能性を強調している。
論文 参考訳(メタデータ) (2024-02-03T05:48:50Z) - XAI for In-hospital Mortality Prediction via Multimodal ICU Data [57.73357047856416]
マルチモーダルICUデータを用いて病院内死亡率を予測するための,効率的で説明可能なAIソリューションを提案する。
我々は,臨床データから異種入力を受信し,意思決定を行うマルチモーダル・ラーニングを我々のフレームワークに導入する。
我々の枠組みは、医療研究において重要な要素の発見を容易にする他の臨床課題に容易に移行することができる。
論文 参考訳(メタデータ) (2023-12-29T14:28:04Z) - Uncertainty Quantification in Machine Learning Based Segmentation: A
Post-Hoc Approach for Left Ventricle Volume Estimation in MRI [0.0]
左室容積推定は各種心血管疾患の診断・管理に重要である。
近年の機械学習、特にU-Netのような畳み込みネットワークは、医療画像の自動セグメンテーションを促進している。
本研究では,LV容積予測におけるポストホック不確実性推定のための新しい手法を提案する。
論文 参考訳(メタデータ) (2023-10-30T13:44:55Z) - Multi-task Explainable Skin Lesion Classification [54.76511683427566]
少ないラベル付きデータでよく一般化する皮膚病変に対する数発のショットベースアプローチを提案する。
提案手法は,アテンションモジュールや分類ネットワークとして機能するセグメンテーションネットワークの融合を含む。
論文 参考訳(メタデータ) (2023-10-11T05:49:47Z) - Validating polyp and instrument segmentation methods in colonoscopy through Medico 2020 and MedAI 2021 Challenges [58.32937972322058]
メディコオートマチックポリープセグメンテーション(Medico 2020)と「メディコ:医療画像の透明性(MedAI 2021)」コンペティション。
本報告では, それぞれのコントリビューションを包括的に分析し, ベストパフォーマンスメソッドの強さを強調し, クリニックへの臨床翻訳の可能性について考察する。
論文 参考訳(メタデータ) (2023-07-30T16:08:45Z) - A Reliable and Interpretable Framework of Multi-view Learning for Liver
Fibrosis Staging [13.491056805108183]
肝線維化の進行は肝疾患患者の診断と治療計画に重要である。
腹部磁気共鳴画像(MRI)を用いた最新の深層学習法は、通常、肝臓のサブリージョンを入力として扱う。
我々は,この課題を多視点学習問題として定式化し,肝臓の複数の部分領域を用いる。
論文 参考訳(メタデータ) (2023-06-21T06:53:51Z) - Multimodal Explainability via Latent Shift applied to COVID-19 stratification [0.7831774233149619]
本稿では,モダリティの再構築とサンプル分類を共同で学習するディープアーキテクチャを提案する。
AIforCOVIDデータセットを使用して、COVID-19パンデミックの文脈でのアプローチを検証する。
論文 参考訳(メタデータ) (2022-12-28T20:07:43Z) - Visual Interpretable and Explainable Deep Learning Models for Brain
Tumor MRI and COVID-19 Chest X-ray Images [0.0]
我々は、ディープニューラルネットワークが医療画像をどのように分析するかを照らすための属性手法を評価する。
我々は近年の深層畳み込みニューラルネットワークモデルによる脳腫瘍MRIと新型コロナウイルス胸部X線データセットからの予測を属性とした。
論文 参考訳(メタデータ) (2022-08-01T16:05:14Z) - Quantifying Explainability in NLP and Analyzing Algorithms for
Performance-Explainability Tradeoff [0.0]
臨床テキスト分類におけるケーススタディにおける説明可能性と解釈可能性の現状について考察する。
完全解釈可能な手法とモデルに依存しないポストホック属性に対する様々な可視化手法を実証する。
我々は,モデルの予測性能と利用可能な説明の質との間のフロンティアを,実践者や研究者が評価できる枠組みを導入する。
論文 参考訳(メタデータ) (2021-07-12T19:07:24Z) - Deep Co-Attention Network for Multi-View Subspace Learning [73.3450258002607]
マルチビューサブスペース学習のための深層コアテンションネットワークを提案する。
共通情報と相補情報の両方を敵意で抽出することを目的としている。
特に、新しいクロス再構成損失を使用し、ラベル情報を利用して潜在表現の構築を誘導する。
論文 参考訳(メタデータ) (2021-02-15T18:46:44Z) - Explaining Clinical Decision Support Systems in Medical Imaging using
Cycle-Consistent Activation Maximization [112.2628296775395]
ディープニューラルネットワークを用いた臨床意思決定支援は、着実に関心が高まりつつあるトピックとなっている。
臨床医は、その根底にある意思決定プロセスが不透明で理解しにくいため、この技術の採用をためらうことが多い。
そこで我々は,より小さなデータセットであっても,分類器決定の高品質な可視化を生成するCycleGANアクティベーションに基づく,新たな意思決定手法を提案する。
論文 参考訳(メタデータ) (2020-10-09T14:39:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。