論文の概要: Learning disentangled representations for explainable chest X-ray
classification using Dirichlet VAEs
- arxiv url: http://arxiv.org/abs/2302.02979v1
- Date: Mon, 6 Feb 2023 18:10:08 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-07 15:34:17.900385
- Title: Learning disentangled representations for explainable chest X-ray
classification using Dirichlet VAEs
- Title(参考訳): Dirichlet VAEを用いた説明可能な胸部X線分類のための不整合表現の学習
- Authors: Rachael Harkness, Alejandro F Frangi, Kieran Zucker, Nishant Ravikumar
- Abstract要約: 本研究では,胸部X線像の非絡み合った潜在表現の学習にDirVAE(Dirichlet Variational Autoencoder)を用いることを検討した。
DirVAEモデルにより学習された多モード潜在表現の予測能力について,補助的多ラベル分類タスクの実装により検討した。
- 参考スコア(独自算出の注目度): 68.73427163074015
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This study explores the use of the Dirichlet Variational Autoencoder (DirVAE)
for learning disentangled latent representations of chest X-ray (CXR) images.
Our working hypothesis is that distributional sparsity, as facilitated by the
Dirichlet prior, will encourage disentangled feature learning for the complex
task of multi-label classification of CXR images. The DirVAE is trained using
CXR images from the CheXpert database, and the predictive capacity of
multi-modal latent representations learned by DirVAE models is investigated
through implementation of an auxiliary multi-label classification task, with a
view to enforce separation of latent factors according to class-specific
features. The predictive performance and explainability of the latent space
learned using the DirVAE were quantitatively and qualitatively assessed,
respectively, and compared with a standard Gaussian prior-VAE (GVAE). We
introduce a new approach for explainable multi-label classification in which we
conduct gradient-guided latent traversals for each class of interest. Study
findings indicate that the DirVAE is able to disentangle latent factors into
class-specific visual features, a property not afforded by the GVAE, and
achieve a marginal increase in predictive performance relative to GVAE. We
generate visual examples to show that our explainability method, when applied
to the trained DirVAE, is able to highlight regions in CXR images that are
clinically relevant to the class(es) of interest and additionally, can identify
cases where classification relies on spurious feature correlations.
- Abstract(参考訳): 本研究では,胸部X線像の非絡み合った潜在表現の学習にDirVAE(Dirichlet Variational Autoencoder)を用いることを検討した。
我々の作業仮説は、ディリクレの先行する分布空間が、CXR画像のマルチラベル分類の複雑なタスクに対して、不整合特徴学習を促進するというものである。
dirvaeは、chexpertデータベースからのcxr画像を用いて訓練され、dirvaeモデルによって学習されたマルチモーダル潜在表現の予測能力は、クラス固有の特徴に応じて潜在因子の分離を強制するために補助的マルチラベル分類タスクを実装して検討される。
DirVAEを用いて学習した潜伏空間の予測性能と説明性は,それぞれ定量的に定性的に評価され,標準ガウス前値(GVAE)と比較された。
興味のあるクラス毎に勾配誘導潜在トラバーサルを行うための,説明可能な多ラベル分類のための新しいアプローチを提案する。
研究結果によると、DirVAEは潜伏因子をクラス固有の視覚的特徴(GVAEが与えない特性)に分解し、GVAEと比較して予測性能を極端に向上させることができる。
本稿では,DirVAEを訓練した場合,興味のあるクラス(es)に臨床的に関連があるCXR画像の領域を強調できるとともに,分類が刺激的な特徴相関に依存する事例を識別できることを示す視覚的例を生成する。
関連論文リスト
- Intuitionistic Fuzzy Cognitive Maps for Interpretable Image Classification [2.130156029408832]
本稿では,ドメインに依存しない,実装が容易で,CNNモデルに適用可能な新しいフレームワークであるInterpretable Intuitionistic FCM(I2FCM)を紹介する。
我々の知る限りでは、iFCMを画像分類に適用するのはこれが初めてである。
論文 参考訳(メタデータ) (2024-08-07T12:58:39Z) - FlowSDF: Flow Matching for Medical Image Segmentation Using Distance Transforms [60.195642571004804]
署名された距離関数(SDF)を表す画像誘導型条件付きフローマッチングフレームワークであるFlowSDFを提案する。
SDFの条件分布の確率パスに直接関係するベクトル場を学習することにより、セグメント化マスクの分布から正確にサンプリングすることができる。
論文 参考訳(メタデータ) (2024-05-28T11:47:12Z) - A Probabilistic Approach to Self-Supervised Learning using Cyclical
Stochastic Gradient MCMC [8.027994148508844]
循環グラディエントハミルトンモンテカルロ(cSGHMC)を用いた実践的自己教師型学習法を提案する。
本枠組みでは,自己教師型学習モデルのパラメータよりも先を置き,cSGHMCを用いて埋め込みの高次元および多モード後部分布を近似する。
4つの挑戦的データセットに対して,複数の分類タスクに関する実験結果を提供する。
論文 参考訳(メタデータ) (2023-08-02T16:52:56Z) - Score-Based Generative Models for Medical Image Segmentation using
Signed Distance Functions [11.137438870686026]
符号付き距離関数(SDF)を表す条件付きスコアベース生成モデリングフレームワークを提案する。
SDFを利用する利点は、二元マスクに比べて、より自然な歪みである。
論文 参考訳(メタデータ) (2023-03-10T14:55:35Z) - Fine-Grained Visual Classification using Self Assessment Classifier [12.596520707449027]
識別的特徴の抽出は、きめ細かい視覚的分類タスクにおいて重要な役割を担っている。
本稿では,画像とトップkの予測クラスを同時に活用する自己評価手法を提案する。
本手法は,CUB200-2011,Stanford Dog,FGVC Aircraft のデータセットに対して,最新の結果が得られることを示す。
論文 参考訳(メタデータ) (2022-05-21T07:41:27Z) - MCDAL: Maximum Classifier Discrepancy for Active Learning [74.73133545019877]
近年の最先端のアクティブラーニング手法は, 主にGAN(Generative Adversarial Networks)をサンプル取得に活用している。
本稿では,MCDAL(Maximum Discrepancy for Active Learning)と呼ぶ新しいアクティブラーニングフレームワークを提案する。
特に,両者の差分を最大化することにより,より厳密な決定境界を学習する2つの補助的分類層を利用する。
論文 参考訳(メタデータ) (2021-07-23T06:57:08Z) - Transforming Feature Space to Interpret Machine Learning Models [91.62936410696409]
この貢献は、特徴空間変換のレンズを通して機械学習モデルを解釈する新しいアプローチを提案する。
非条件的および条件付きポストホック診断ツールの拡張に使用できる。
提案手法の可能性を実証するために,46特徴のリモートセンシング土地被覆分類の事例研究を行った。
論文 参考訳(メタデータ) (2021-04-09T10:48:11Z) - Attention Model Enhanced Network for Classification of Breast Cancer
Image [54.83246945407568]
AMENはマルチブランチ方式で、画素ワイドアテンションモデルとサブモジュールの分類で定式化される。
微妙な詳細情報に焦点を合わせるため、サンプル画像は、前枝から生成された画素対応の注目マップによって強化される。
3つのベンチマークデータセットで行った実験は、様々なシナリオにおいて提案手法の優位性を実証している。
論文 参考訳(メタデータ) (2020-10-07T08:44:21Z) - Region Comparison Network for Interpretable Few-shot Image
Classification [97.97902360117368]
新しいクラスのモデルをトレーニングするために、ラベル付きサンプルの限られた数だけを効果的に活用するための画像分類が提案されている。
本研究では,領域比較ネットワーク (RCN) と呼ばれる距離学習に基づく手法を提案する。
また,タスクのレベルからカテゴリへの解釈可能性の一般化も提案する。
論文 参考訳(メタデータ) (2020-09-08T07:29:05Z) - Projective Latent Interventions for Understanding and Fine-tuning
Classifiers [5.539383380453129]
本稿では, PLI(Projective Latent Interventions)について述べる。この手法は, 低次元の潜伏空間の埋め込みに対して手動による変化をバックプロパゲートすることで分類器を再訓練する手法である。
PLIにより、ドメインの専門家は、自分たちの期待に合うように、直感的に潜在する決定空間を制御できる。
胎児超音波画像における実環境シナリオにおける本手法の評価を行った。
論文 参考訳(メタデータ) (2020-06-23T11:12:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。