論文の概要: Interpreting Latent Spaces of Generative Models for Medical Images using
Unsupervised Methods
- arxiv url: http://arxiv.org/abs/2207.09740v1
- Date: Wed, 20 Jul 2022 08:34:50 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-21 13:08:53.805354
- Title: Interpreting Latent Spaces of Generative Models for Medical Images using
Unsupervised Methods
- Title(参考訳): 教師なし手法による医用画像生成モデルの潜在空間の解釈
- Authors: Julian Sch\"on, Raghavendra Selvan, Jens Petersen
- Abstract要約: 本研究は,GANとVAEを胸部CTスキャンでトレーニングすることにより,医療画像に生成モデルを適用する可能性を探るものである。
回転や乳房の大きさなど,非自明な画像変換に対応する方向がいくつか見出される。
GANの解釈可能な方向を検出する教師なしの方法は、VAEに一般化され、医療画像に適用できる。
- 参考スコア(独自算出の注目度): 1.392250707100996
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Generative models such as Generative Adversarial Networks (GANs) and
Variational Autoencoders (VAEs) play an increasingly important role in medical
image analysis. The latent spaces of these models often show semantically
meaningful directions corresponding to human-interpretable image
transformations. However, until now, their exploration for medical images has
been limited due to the requirement of supervised data. Several methods for
unsupervised discovery of interpretable directions in GAN latent spaces have
shown interesting results on natural images. This work explores the potential
of applying these techniques on medical images by training a GAN and a VAE on
thoracic CT scans and using an unsupervised method to discover interpretable
directions in the resulting latent space. We find several directions
corresponding to non-trivial image transformations, such as rotation or breast
size. Furthermore, the directions show that the generative models capture 3D
structure despite being presented only with 2D data. The results show that
unsupervised methods to discover interpretable directions in GANs generalize to
VAEs and can be applied to medical images. This opens a wide array of future
work using these methods in medical image analysis.
- Abstract(参考訳): generative adversarial networks (gans) や variational autoencoder (vaes) などの生成モデルは、医用画像解析においてますます重要な役割を果たす。
これらのモデルの潜在空間はしばしば、人間の解釈可能な画像変換に対応する意味的に意味のある方向を示す。
しかし, 医用画像の探索は, 監視データを必要とするため, これまで限られていた。
GAN潜在空間における解釈方向の教師なし発見のためのいくつかの手法は、自然画像上で興味深い結果を示している。
本研究は,GANとVAEを胸部CTスキャンで訓練し,非教師的手法を用いて潜在空間の解釈可能な方向を検出することにより,これらの技術を医療画像に適用する可能性を探るものである。
回転や乳房サイズなど,非自明な画像変換に対応する方向が複数存在する。
さらに,2次元データのみを提示しても,生成モデルが3次元構造をキャプチャすることを示す。
その結果,GANの解釈可能な方向を探索するための教師なし手法はVAEに一般化し,医用画像に適用可能であることがわかった。
これにより、医療画像解析におけるこれらの手法を用いた幅広い将来的な研究が開かれる。
関連論文リスト
- Counterfactual Explanations for Medical Image Classification and Regression using Diffusion Autoencoder [38.81441978142279]
生成モデルの潜在空間を直接操作する新しい手法,特に拡散オートエンコーダ(DAE)を提案する。
このアプローチは、対実的説明(CE)の生成を可能にすることによって、固有の解釈可能性を提供する
これらの潜在表現は、脊椎圧迫骨折(VCF)や糖尿病網膜症(DR)などの病態の医学的分類と経時的回帰に有用であることを示す。
論文 参考訳(メタデータ) (2024-08-02T21:01:30Z) - Live image-based neurosurgical guidance and roadmap generation using
unsupervised embedding [53.992124594124896]
本稿では,注釈付き脳外科ビデオの大規模なデータセットを活用するライブ画像のみのガイダンスを提案する。
生成されたロードマップは、トレーニングセットの手術で取られた一般的な解剖学的パスをエンコードする。
166例の腹腔鏡下腺摘出術を施行し,本法の有効性について検討した。
論文 参考訳(メタデータ) (2023-03-31T12:52:24Z) - Patched Diffusion Models for Unsupervised Anomaly Detection in Brain MRI [55.78588835407174]
本稿では,正常脳解剖のパッチベース推定法として拡散モデルの生成タスクを再構築する手法を提案する。
腫瘍と多発性硬化症について検討し,既存のベースラインと比較して25.1%の改善がみられた。
論文 参考訳(メタデータ) (2023-03-07T09:40:22Z) - Generation of Artificial CT Images using Patch-based Conditional
Generative Adversarial Networks [0.0]
本稿では,条件付き判別器を用いた生成対向ネットワークを用いた画像生成手法を提案する。
心電図(CT)画像におけるGAN強調医用画像生成の可能性について検討した。
論文 参考訳(メタデータ) (2022-05-19T20:29:25Z) - Pathology-Aware Generative Adversarial Networks for Medical Image
Augmentation [0.22843885788439805]
GAN(Generative Adversarial Networks)は、現実的だが斬新なサンプルを生成し、実際の画像分布を効果的にカバーする。
この論文は、医師とのコラボレーションにおいて、そのような新しい応用の臨床的意義を提示することを目的とした4つのGANプロジェクトを含んでいる。
論文 参考訳(メタデータ) (2021-06-03T15:08:14Z) - Deep Co-Attention Network for Multi-View Subspace Learning [73.3450258002607]
マルチビューサブスペース学習のための深層コアテンションネットワークを提案する。
共通情報と相補情報の両方を敵意で抽出することを目的としている。
特に、新しいクロス再構成損失を使用し、ラベル情報を利用して潜在表現の構築を誘導する。
論文 参考訳(メタデータ) (2021-02-15T18:46:44Z) - Generative Adversarial U-Net for Domain-free Medical Image Augmentation [49.72048151146307]
注釈付き医用画像の不足は、医用画像コンピューティングの分野における最大の課題の1つだ。
本稿では,生成逆U-Netという新しい生成手法を提案する。
当社の新しいモデルは、ドメインフリーで、さまざまな医療画像に汎用性があります。
論文 参考訳(メタデータ) (2021-01-12T23:02:26Z) - Towards Unsupervised Learning for Instrument Segmentation in Robotic
Surgery with Cycle-Consistent Adversarial Networks [54.00217496410142]
本稿では、入力された内視鏡画像と対応するアノテーションとのマッピングを学習することを目的として、未ペア画像から画像への変換を提案する。
当社のアプローチでは,高価なアノテーションを取得することなく,イメージセグメンテーションモデルをトレーニングすることが可能です。
提案手法をEndovis 2017チャレンジデータセットで検証し,教師付きセグメンテーション手法と競合することを示す。
論文 参考訳(メタデータ) (2020-07-09T01:39:39Z) - Manifolds for Unsupervised Visual Anomaly Detection [79.22051549519989]
トレーニングで必ずしも異常に遭遇しない教師なしの学習方法は、非常に有用です。
ジャイロプレーン層を用いた立体投影による超球形変分オートエンコーダ(VAE)を開発した。
工業用AIシナリオにおける実世界の実用性を実証し、精密製造および検査における視覚異常ベンチマークの最先端結果を示す。
論文 参考訳(メタデータ) (2020-06-19T20:41:58Z) - RADIOGAN: Deep Convolutional Conditional Generative adversarial Network
To Generate PET Images [3.947298454012977]
MIPポジトロン放射トモグラフィー画像(PET)を生成するための深層畳み込み条件生成対向ネットワークを提案する。
提案手法の利点は,1種類の病変に対して,小さな標本サイズで訓練した病変の異なるクラスを生成できるモデルから成り立っている。
また,画像評価ツールとして,潜伏空間を歩行できることを示す。
論文 参考訳(メタデータ) (2020-03-19T10:14:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。