論文の概要: medXGAN: Visual Explanations for Medical Classifiers through a
Generative Latent Space
- arxiv url: http://arxiv.org/abs/2204.05376v1
- Date: Mon, 11 Apr 2022 19:27:15 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-13 13:16:14.791313
- Title: medXGAN: Visual Explanations for Medical Classifiers through a
Generative Latent Space
- Title(参考訳): medXGAN: 生成潜在空間による医用分類器の視覚的説明
- Authors: Amil Dravid, Florian Schiffers, Boqing Gong, Aggelos K. Katsaggelos
- Abstract要約: 本稿では,医用画像生成フレームワークであるmedXGANを提案する。
医用画像のドメイン知識を符号化することにより、解剖学的構造と病理を切り離すことができ、微細な可視化が可能となる。
本手法は,グラディエント重み付きクラスアクティベーションマッピング(Grad-CAM)や統合グラディエント(Integrated Gradients)などのベースラインを局所化や説明能力において上回る。
- 参考スコア(独自算出の注目度): 38.57696431713717
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Despite the surge of deep learning in the past decade, some users are
skeptical to deploy these models in practice due to their black-box nature.
Specifically, in the medical space where there are severe potential
repercussions, we need to develop methods to gain confidence in the models'
decisions. To this end, we propose a novel medical imaging generative
adversarial framework, medXGAN (medical eXplanation GAN), to visually explain
what a medical classifier focuses on in its binary predictions. By encoding
domain knowledge of medical images, we are able to disentangle anatomical
structure and pathology, leading to fine-grained visualization through latent
interpolation. Furthermore, we optimize the latent space such that
interpolation explains how the features contribute to the classifier's output.
Our method outperforms baselines such as Gradient-Weighted Class Activation
Mapping (Grad-CAM) and Integrated Gradients in localization and explanatory
ability. Additionally, a combination of the medXGAN with Integrated Gradients
can yield explanations more robust to noise. The code is available at:
https://github.com/avdravid/medXGAN_explanations.
- Abstract(参考訳): 過去10年間のディープラーニングの急増にもかかわらず、ブラックボックスの性質から、実際にこれらのモデルをデプロイすることに懐疑的なユーザもいる。
具体的には、重大な潜在的な影響がある医療分野において、モデルの決定に自信を得るための方法を開発する必要があります。
そこで本研究では,医学的分類器が2進予測において何を重視しているかを視覚的に説明するために,新しい医用画像生成対向フレームワークであるmedXGANを提案する。
医用画像のドメイン知識をエンコードすることにより,解剖学的構造と病理を分離し,潜在補間による微細な可視化を実現する。
さらに,その特徴が分類器の出力にどのように寄与するかを補間する潜在空間を最適化する。
本手法は,グラディエント重み付きクラスアクティベーションマッピング(Grad-CAM)や統合グラディエント(Integrated Gradients)などのベースラインを局所化や説明能力において上回る。
さらに、medXGANとIntegrated Gradientsを組み合わせることで、ノイズに対してより堅牢な説明が得られる。
コードは、https://github.com/avdravid/medXGAN_explanations.comで入手できる。
関連論文リスト
- Counterfactual Explanations for Medical Image Classification and Regression using Diffusion Autoencoder [38.81441978142279]
生成モデルの潜在空間を直接操作する新しい手法,特に拡散オートエンコーダ(DAE)を提案する。
このアプローチは、対実的説明(CE)の生成を可能にすることによって、固有の解釈可能性を提供する
これらの潜在表現は、脊椎圧迫骨折(VCF)や糖尿病網膜症(DR)などの病態の医学的分類と経時的回帰に有用であることを示す。
論文 参考訳(メタデータ) (2024-08-02T21:01:30Z) - A Textbook Remedy for Domain Shifts: Knowledge Priors for Medical Image Analysis [48.84443450990355]
ディープネットワークは、医学的なスキャンに適用すると、例外のない状況で失敗することが多いため、自然画像の解析において広く成功している。
胸部X線や皮膚病変画像の文脈において、異なる病院から採取したデータや、性別、人種などの人口統計学的変数によって構築されたデータなど、ドメインシフトに対するモデル感度に焦点をあてる。
医学教育からインスピレーションを得て,自然言語で伝達される明示的な医学知識を基盤としたディープネットワークを提案する。
論文 参考訳(メタデータ) (2024-05-23T17:55:02Z) - COIN: Counterfactual inpainting for weakly supervised semantic segmentation for medical images [3.5418498524791766]
本研究は, 新規なカウンターファクト・インパインティング・アプローチ(COIN)の開発である。
COINは、予測された分類ラベルを生成モデルを用いて異常から正常に反転させる。
本手法の有効性は,エストニアのタルツ大学病院から取得したCT画像から,合成標的と実際の腎腫瘍を分離することによって実証される。
論文 参考訳(メタデータ) (2024-04-19T12:09:49Z) - MLIP: Enhancing Medical Visual Representation with Divergence Encoder
and Knowledge-guided Contrastive Learning [48.97640824497327]
本稿では、画像テキストのコントラスト学習を通じて、言語情報を視覚領域に統合するための案内信号として、ドメイン固有の医療知識を活用する新しいフレームワークを提案する。
我々のモデルには、設計した分散エンコーダによるグローバルコントラスト学習、局所トークン・知識・パッチアライメントコントラスト学習、知識誘導型カテゴリレベルのコントラスト学習、エキスパートナレッジによるコントラスト学習が含まれる。
特に、MLIPは、限られた注釈付きデータであっても最先端の手法を超越し、医療表現学習の進歩におけるマルチモーダル事前学習の可能性を強調している。
論文 参考訳(メタデータ) (2024-02-03T05:48:50Z) - Robust and Interpretable Medical Image Classifiers via Concept
Bottleneck Models [49.95603725998561]
本稿では,自然言語の概念を用いた堅牢で解釈可能な医用画像分類器を構築するための新しいパラダイムを提案する。
具体的には、まず臨床概念をGPT-4から検索し、次に視覚言語モデルを用いて潜在画像の特徴を明示的な概念に変換する。
論文 参考訳(メタデータ) (2023-10-04T21:57:09Z) - Implicit Anatomical Rendering for Medical Image Segmentation with
Stochastic Experts [11.007092387379078]
医用画像セグメンテーションの学習を支援するために,解剖学的レベルで設計された汎用的な暗黙的ニューラルネットワークレンダリングフレームワークであるMORSEを提案する。
医用画像のセグメンテーションをエンドツーエンドのレンダリング問題として定式化する。
実験の結果,MORSEは異なる医療セグメントのバックボーンでうまく機能することが示された。
論文 参考訳(メタデータ) (2023-04-06T16:44:03Z) - PAANet: Progressive Alternating Attention for Automatic Medical Image
Segmentation [11.392283602422442]
病気の位置を知ることは、治療と意思決定において重要な役割を果たす。
CNNベースのエンコーダ・デコーダ技術は、自動化された医用画像分割システムの性能を向上した。
本稿では,PAANet(Progressive alternating attention network)を提案する。
論文 参考訳(メタデータ) (2021-11-20T15:49:42Z) - Pathology-Aware Generative Adversarial Networks for Medical Image
Augmentation [0.22843885788439805]
GAN(Generative Adversarial Networks)は、現実的だが斬新なサンプルを生成し、実際の画像分布を効果的にカバーする。
この論文は、医師とのコラボレーションにおいて、そのような新しい応用の臨床的意義を提示することを目的とした4つのGANプロジェクトを含んでいる。
論文 参考訳(メタデータ) (2021-06-03T15:08:14Z) - Deep Co-Attention Network for Multi-View Subspace Learning [73.3450258002607]
マルチビューサブスペース学習のための深層コアテンションネットワークを提案する。
共通情報と相補情報の両方を敵意で抽出することを目的としている。
特に、新しいクロス再構成損失を使用し、ラベル情報を利用して潜在表現の構築を誘導する。
論文 参考訳(メタデータ) (2021-02-15T18:46:44Z) - Weakly supervised multiple instance learning histopathological tumor
segmentation [51.085268272912415]
スライド画像全体のセグメント化のための弱教師付きフレームワークを提案する。
トレーニングモデルに複数のインスタンス学習スキームを利用する。
提案するフレームワークは,The Cancer Genome AtlasとPatchCamelyonデータセットのマルチロケーションとマルチ中心公開データに基づいて評価されている。
論文 参考訳(メタデータ) (2020-04-10T13:12:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。