論文の概要: medXGAN: Visual Explanations for Medical Classifiers through a
Generative Latent Space
- arxiv url: http://arxiv.org/abs/2204.05376v1
- Date: Mon, 11 Apr 2022 19:27:15 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-13 13:16:14.791313
- Title: medXGAN: Visual Explanations for Medical Classifiers through a
Generative Latent Space
- Title(参考訳): medXGAN: 生成潜在空間による医用分類器の視覚的説明
- Authors: Amil Dravid, Florian Schiffers, Boqing Gong, Aggelos K. Katsaggelos
- Abstract要約: 本稿では,医用画像生成フレームワークであるmedXGANを提案する。
医用画像のドメイン知識を符号化することにより、解剖学的構造と病理を切り離すことができ、微細な可視化が可能となる。
本手法は,グラディエント重み付きクラスアクティベーションマッピング(Grad-CAM)や統合グラディエント(Integrated Gradients)などのベースラインを局所化や説明能力において上回る。
- 参考スコア(独自算出の注目度): 38.57696431713717
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Despite the surge of deep learning in the past decade, some users are
skeptical to deploy these models in practice due to their black-box nature.
Specifically, in the medical space where there are severe potential
repercussions, we need to develop methods to gain confidence in the models'
decisions. To this end, we propose a novel medical imaging generative
adversarial framework, medXGAN (medical eXplanation GAN), to visually explain
what a medical classifier focuses on in its binary predictions. By encoding
domain knowledge of medical images, we are able to disentangle anatomical
structure and pathology, leading to fine-grained visualization through latent
interpolation. Furthermore, we optimize the latent space such that
interpolation explains how the features contribute to the classifier's output.
Our method outperforms baselines such as Gradient-Weighted Class Activation
Mapping (Grad-CAM) and Integrated Gradients in localization and explanatory
ability. Additionally, a combination of the medXGAN with Integrated Gradients
can yield explanations more robust to noise. The code is available at:
https://github.com/avdravid/medXGAN_explanations.
- Abstract(参考訳): 過去10年間のディープラーニングの急増にもかかわらず、ブラックボックスの性質から、実際にこれらのモデルをデプロイすることに懐疑的なユーザもいる。
具体的には、重大な潜在的な影響がある医療分野において、モデルの決定に自信を得るための方法を開発する必要があります。
そこで本研究では,医学的分類器が2進予測において何を重視しているかを視覚的に説明するために,新しい医用画像生成対向フレームワークであるmedXGANを提案する。
医用画像のドメイン知識をエンコードすることにより,解剖学的構造と病理を分離し,潜在補間による微細な可視化を実現する。
さらに,その特徴が分類器の出力にどのように寄与するかを補間する潜在空間を最適化する。
本手法は,グラディエント重み付きクラスアクティベーションマッピング(Grad-CAM)や統合グラディエント(Integrated Gradients)などのベースラインを局所化や説明能力において上回る。
さらに、medXGANとIntegrated Gradientsを組み合わせることで、ノイズに対してより堅牢な説明が得られる。
コードは、https://github.com/avdravid/medXGAN_explanations.comで入手できる。
関連論文リスト
- MLIP: Enhancing Medical Visual Representation with Divergence Encoder
and Knowledge-guided Contrastive Learning [48.97640824497327]
本稿では、画像テキストのコントラスト学習を通じて、言語情報を視覚領域に統合するための案内信号として、ドメイン固有の医療知識を活用する新しいフレームワークを提案する。
我々のモデルには、設計した分散エンコーダによるグローバルコントラスト学習、局所トークン・知識・パッチアライメントコントラスト学習、知識誘導型カテゴリレベルのコントラスト学習、エキスパートナレッジによるコントラスト学習が含まれる。
特に、MLIPは、限られた注釈付きデータであっても最先端の手法を超越し、医療表現学習の進歩におけるマルチモーダル事前学習の可能性を強調している。
論文 参考訳(メタデータ) (2024-02-03T05:48:50Z) - Robust and Interpretable Medical Image Classifiers via Concept
Bottleneck Models [49.95603725998561]
本稿では,自然言語の概念を用いた堅牢で解釈可能な医用画像分類器を構築するための新しいパラダイムを提案する。
具体的には、まず臨床概念をGPT-4から検索し、次に視覚言語モデルを用いて潜在画像の特徴を明示的な概念に変換する。
論文 参考訳(メタデータ) (2023-10-04T21:57:09Z) - MAP: Domain Generalization via Meta-Learning on Anatomy-Consistent
Pseudo-Modalities [12.194439938007672]
解剖学的に整合した擬似モダリティ(MAP)のメタラーニングを提案する。
MAPは構造的特徴を学習することでモデル一般化性を向上させる。
各種網膜画像モダリティの公開データセットを7つ評価した。
論文 参考訳(メタデータ) (2023-09-03T22:56:22Z) - Implicit Anatomical Rendering for Medical Image Segmentation with
Stochastic Experts [11.007092387379078]
医用画像セグメンテーションの学習を支援するために,解剖学的レベルで設計された汎用的な暗黙的ニューラルネットワークレンダリングフレームワークであるMORSEを提案する。
医用画像のセグメンテーションをエンドツーエンドのレンダリング問題として定式化する。
実験の結果,MORSEは異なる医療セグメントのバックボーンでうまく機能することが示された。
論文 参考訳(メタデータ) (2023-04-06T16:44:03Z) - PAANet: Progressive Alternating Attention for Automatic Medical Image
Segmentation [11.392283602422442]
病気の位置を知ることは、治療と意思決定において重要な役割を果たす。
CNNベースのエンコーダ・デコーダ技術は、自動化された医用画像分割システムの性能を向上した。
本稿では,PAANet(Progressive alternating attention network)を提案する。
論文 参考訳(メタデータ) (2021-11-20T15:49:42Z) - Pathology-Aware Generative Adversarial Networks for Medical Image
Augmentation [0.22843885788439805]
GAN(Generative Adversarial Networks)は、現実的だが斬新なサンプルを生成し、実際の画像分布を効果的にカバーする。
この論文は、医師とのコラボレーションにおいて、そのような新しい応用の臨床的意義を提示することを目的とした4つのGANプロジェクトを含んでいる。
論文 参考訳(メタデータ) (2021-06-03T15:08:14Z) - Deep Co-Attention Network for Multi-View Subspace Learning [73.3450258002607]
マルチビューサブスペース学習のための深層コアテンションネットワークを提案する。
共通情報と相補情報の両方を敵意で抽出することを目的としている。
特に、新しいクロス再構成損失を使用し、ラベル情報を利用して潜在表現の構築を誘導する。
論文 参考訳(メタデータ) (2021-02-15T18:46:44Z) - Few-shot Medical Image Segmentation using a Global Correlation Network
with Discriminative Embedding [60.89561661441736]
医療画像分割のための新しい手法を提案する。
深層畳み込みネットワークを用いた数ショット画像セグメンタを構築します。
深層埋め込みの識別性を高め,同一クラスの特徴領域のクラスタリングを促進する。
論文 参考訳(メタデータ) (2020-12-10T04:01:07Z) - Interpretable Deep Models for Cardiac Resynchronisation Therapy Response
Prediction [8.152884957975354]
可変オートエンコーダ(VAE)に基づく画像分類のための新しいフレームワークを提案する。
VAEは、既存の臨床知識から引き出された説明に基づいて潜伏空間を解体する。
心臓磁気共鳴画像による心臓再同期療法(CRT)に対する心筋症の反応予測の枠組みを実証した。
論文 参考訳(メタデータ) (2020-06-24T15:35:47Z) - Weakly supervised multiple instance learning histopathological tumor
segmentation [51.085268272912415]
スライド画像全体のセグメント化のための弱教師付きフレームワークを提案する。
トレーニングモデルに複数のインスタンス学習スキームを利用する。
提案するフレームワークは,The Cancer Genome AtlasとPatchCamelyonデータセットのマルチロケーションとマルチ中心公開データに基づいて評価されている。
論文 参考訳(メタデータ) (2020-04-10T13:12:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。