論文の概要: Visual Interpretable and Explainable Deep Learning Models for Brain
Tumor MRI and COVID-19 Chest X-ray Images
- arxiv url: http://arxiv.org/abs/2208.00953v2
- Date: Mon, 7 Aug 2023 11:18:47 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-09 00:58:51.363510
- Title: Visual Interpretable and Explainable Deep Learning Models for Brain
Tumor MRI and COVID-19 Chest X-ray Images
- Title(参考訳): 脳腫瘍mriおよびcovid-19胸部x線画像のための視覚解釈および説明可能な深層学習モデル
- Authors: Yusuf Brima and Marcellin Atemkeng
- Abstract要約: 我々は、ディープニューラルネットワークが医療画像をどのように分析するかを照らすための属性手法を評価する。
我々は近年の深層畳み込みニューラルネットワークモデルによる脳腫瘍MRIと新型コロナウイルス胸部X線データセットからの予測を属性とした。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep learning shows promise for medical image analysis but lacks
interpretability, hindering adoption in healthcare. Attribution techniques that
explain model reasoning may increase trust in deep learning among clinical
stakeholders. This paper aimed to evaluate attribution methods for illuminating
how deep neural networks analyze medical images. Using adaptive path-based
gradient integration, we attributed predictions from brain tumor MRI and
COVID-19 chest X-ray datasets made by recent deep convolutional neural network
models. The technique highlighted possible biomarkers, exposed model biases,
and offered insights into the links between input and prediction. Our analysis
demonstrates the method's ability to elucidate model reasoning on these
datasets. The resulting attributions show promise for improving deep learning
transparency for domain experts by revealing the rationale behind predictions.
This study advances model interpretability to increase trust in deep learning
among healthcare stakeholders.
- Abstract(参考訳): 深層学習は、医療画像解析を約束するが、解釈可能性に欠け、医療の採用を妨げる。
モデル推論を説明する属性技術は、臨床ステークホルダーの間で深層学習への信頼を高める可能性がある。
本稿では,深層ニューラルネットワークによる医用画像の解析方法を評価することを目的とした。
近年の深層畳み込みニューラルネットワークモデルによる脳腫瘍mriおよびcovid-19胸部x線データからの予測を,適応的経路に基づく勾配積分を用いて推定した。
この技術はバイオマーカーの可能性を強調し、モデルバイアスを露呈し、入力と予測の関係に関する洞察を提供した。
本分析は,これらのデータセット上でモデル推論を解明する手法の能力を示す。
結果として得られた帰結は、予測の背後にある根拠を明らかにすることによって、ドメインエキスパートのディープラーニングの透明性を向上させることを約束する。
本研究は、医療関係者の深層学習に対する信頼を高めるためのモデル解釈可能性を向上させる。
関連論文リスト
- Analyzing the Effect of $k$-Space Features in MRI Classification Models [0.0]
医用イメージングに適した説明可能なAI手法を開発した。
我々は、画像領域と周波数領域の両方にわたるMRIスキャンを分析する畳み込みニューラルネットワーク(CNN)を採用している。
このアプローチは、初期のトレーニング効率を高めるだけでなく、追加機能がモデル予測にどのように影響するかの理解を深めます。
論文 参考訳(メタデータ) (2024-09-20T15:43:26Z) - A Textbook Remedy for Domain Shifts: Knowledge Priors for Medical Image Analysis [48.84443450990355]
ディープネットワークは、医学的なスキャンに適用すると、例外のない状況で失敗することが多いため、自然画像の解析において広く成功している。
胸部X線や皮膚病変画像の文脈において、異なる病院から採取したデータや、性別、人種などの人口統計学的変数によって構築されたデータなど、ドメインシフトに対するモデル感度に焦点をあてる。
医学教育からインスピレーションを得て,自然言語で伝達される明示的な医学知識を基盤としたディープネットワークを提案する。
論文 参考訳(メタデータ) (2024-05-23T17:55:02Z) - MLIP: Enhancing Medical Visual Representation with Divergence Encoder
and Knowledge-guided Contrastive Learning [48.97640824497327]
本稿では、画像テキストのコントラスト学習を通じて、言語情報を視覚領域に統合するための案内信号として、ドメイン固有の医療知識を活用する新しいフレームワークを提案する。
我々のモデルには、設計した分散エンコーダによるグローバルコントラスト学習、局所トークン・知識・パッチアライメントコントラスト学習、知識誘導型カテゴリレベルのコントラスト学習、エキスパートナレッジによるコントラスト学習が含まれる。
特に、MLIPは、限られた注釈付きデータであっても最先端の手法を超越し、医療表現学習の進歩におけるマルチモーダル事前学習の可能性を強調している。
論文 参考訳(メタデータ) (2024-02-03T05:48:50Z) - Robust and Interpretable Medical Image Classifiers via Concept
Bottleneck Models [49.95603725998561]
本稿では,自然言語の概念を用いた堅牢で解釈可能な医用画像分類器を構築するための新しいパラダイムを提案する。
具体的には、まず臨床概念をGPT-4から検索し、次に視覚言語モデルを用いて潜在画像の特徴を明示的な概念に変換する。
論文 参考訳(メタデータ) (2023-10-04T21:57:09Z) - SHAMSUL: Systematic Holistic Analysis to investigate Medical
Significance Utilizing Local interpretability methods in deep learning for
chest radiography pathology prediction [1.0138723409205497]
局所的解釈可能なモデル非依存説明法(LIME)、共有付加的説明法(SHAP)、グラディエント重み付きクラス活性化マッピング(Grad-CAM)、レイヤワイド関連伝搬法(LRP)の4つの方法の適用について検討した。
本分析では, 単一ラベルと多ラベルの予測を両方含み, 定量的, 定性的な調査を通じて包括的かつ不偏な評価を行い, 人的専門家のアノテーションと比較した。
論文 参考訳(メタデータ) (2023-07-16T11:10:35Z) - Patched Diffusion Models for Unsupervised Anomaly Detection in Brain MRI [55.78588835407174]
本稿では,正常脳解剖のパッチベース推定法として拡散モデルの生成タスクを再構築する手法を提案する。
腫瘍と多発性硬化症について検討し,既存のベースラインと比較して25.1%の改善がみられた。
論文 参考訳(メタデータ) (2023-03-07T09:40:22Z) - Two-step interpretable modeling of Intensive Care Acquired Infections [0.0]
本稿では,高解像度長手データと生存モデルの動的予測機能を統合するための新しい手法を提案する。
モデルの解釈可能性を維持しながら予測力を向上すること。
論文 参考訳(メタデータ) (2023-01-26T14:54:17Z) - Contrastive Brain Network Learning via Hierarchical Signed Graph Pooling
Model [64.29487107585665]
脳機能ネットワーク上のグラフ表現学習技術は、臨床表現型および神経変性疾患のための新しいバイオマーカーの発見を容易にする。
本稿では,脳機能ネットワークからグラフレベル表現を抽出する階層型グラフ表現学習モデルを提案する。
また、モデルの性能をさらに向上させるために、機能的脳ネットワークデータをコントラスト学習のために拡張する新たな戦略を提案する。
論文 参考訳(メタデータ) (2022-07-14T20:03:52Z) - Convolutional Motif Kernel Networks [1.104960878651584]
我々のモデルは、小さなデータセットでしっかりと学習でき、関連する医療予測タスクで最先端のパフォーマンスを達成できることを示す。
提案手法はDNAおよびタンパク質配列に利用することができる。
論文 参考訳(メタデータ) (2021-11-03T15:06:09Z) - Deep Co-Attention Network for Multi-View Subspace Learning [73.3450258002607]
マルチビューサブスペース学習のための深層コアテンションネットワークを提案する。
共通情報と相補情報の両方を敵意で抽出することを目的としている。
特に、新しいクロス再構成損失を使用し、ラベル情報を利用して潜在表現の構築を誘導する。
論文 参考訳(メタデータ) (2021-02-15T18:46:44Z) - Deep Transparent Prediction through Latent Representation Analysis [0.0]
本稿では,訓練されたディープニューラルネットワーク(DNN)から潜時情報を抽出し,予測目的のために効果的で統一された方法で解析された簡潔な表現を導出する,新しいディープラーニング手法を提案する。
透明性と高い予測精度を組み合わせることが、提案手法の目標である。
論文 参考訳(メタデータ) (2020-09-13T19:21:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。