論文の概要: Less is More: Unsupervised Mask-guided Annotated CT Image Synthesis with
Minimum Manual Segmentations
- arxiv url: http://arxiv.org/abs/2303.12747v1
- Date: Sun, 19 Mar 2023 20:30:35 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-23 13:30:19.076902
- Title: Less is More: Unsupervised Mask-guided Annotated CT Image Synthesis with
Minimum Manual Segmentations
- Title(参考訳): less is more: 最小限の手動セグメンテーションによる教師なしマスク付アノテーテッドct画像合成
- Authors: Xiaodan Xing, Giorgos Papanastasiou, Simon Walsh, Guang Yang
- Abstract要約: 医用画像合成のための新しい手法,すなわちunsupervised Mask (UM)-guided synthesisを提案する。
UM誘導合成は、忠実度、多様性、有用性が著しく高い高品質な合成画像を提供する。
- 参考スコア(独自算出の注目度): 2.1785903900600316
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: As a pragmatic data augmentation tool, data synthesis has generally returned
dividends in performance for deep learning based medical image analysis.
However, generating corresponding segmentation masks for synthetic medical
images is laborious and subjective. To obtain paired synthetic medical images
and segmentations, conditional generative models that use segmentation masks as
synthesis conditions were proposed. However, these segmentation
mask-conditioned generative models still relied on large, varied, and labeled
training datasets, and they could only provide limited constraints on human
anatomical structures, leading to unrealistic image features. Moreover, the
invariant pixel-level conditions could reduce the variety of synthetic lesions
and thus reduce the efficacy of data augmentation. To address these issues, in
this work, we propose a novel strategy for medical image synthesis, namely
Unsupervised Mask (UM)-guided synthesis, to obtain both synthetic images and
segmentations using limited manual segmentation labels. We first develop a
superpixel based algorithm to generate unsupervised structural guidance and
then design a conditional generative model to synthesize images and annotations
simultaneously from those unsupervised masks in a semi-supervised multi-task
setting. In addition, we devise a multi-scale multi-task Fr\'echet Inception
Distance (MM-FID) and multi-scale multi-task standard deviation (MM-STD) to
harness both fidelity and variety evaluations of synthetic CT images. With
multiple analyses on different scales, we could produce stable image quality
measurements with high reproducibility. Compared with the segmentation mask
guided synthesis, our UM-guided synthesis provided high-quality synthetic
images with significantly higher fidelity, variety, and utility ($p<0.05$ by
Wilcoxon Signed Ranked test).
- Abstract(参考訳): 実用的データ拡張ツールとして、データ合成は一般的に、深層学習に基づく医用画像分析のパフォーマンスの配当を返している。
しかし,合成医用画像に対応するセグメンテーションマスクの生成は困難で主観的である。
合成医療画像とセグメンテーションの組合せを得るために,セグメンテーションマスクを合成条件として用いる条件生成モデルを提案した。
しかし、これらのセグメンテーションマスク条件による生成モデルは、大きな、様々な、ラベル付きトレーニングデータセットに依存しており、人間の解剖学的構造に限定的な制約を与えるだけで、非現実的な画像の特徴をもたらす。
さらに、不変画素レベル条件は、合成病変の多様性を減少させ、データ拡張の有効性を低下させる可能性がある。
これらの課題に対処するため,本研究では,手動セグメンテーションラベルを用いた医用画像合成,すなわちunsupervised Mask(UM)誘導合成の新たな戦略を提案する。
まず,教師なし構造誘導を生成するスーパーピクセルベースのアルゴリズムを開発し,さらに条件付き生成モデルを設計し,教師なしマスクから教師なしのマルチタスク環境で画像とアノテーションを同時に合成する。
さらに,マルチスケールマルチタスク・インセプション・ディスタンス (MM-FID) とマルチスケールマルチタスク標準偏差 (MM-STD) を考案し,合成CT画像の忠実度と多様な評価を両立させた。
異なるスケールで複数の解析を行うことで、高い再現性を持つ安定した画像品質測定が可能となった。
セグメンテーションマスクによる合成と比較すると, UM誘導合成は高品質な合成画像を提供し, 忠実度, 多様性, 有用性(Wilcoxon Signed Ranked testによるp<0.05$)を示した。
関連論文リスト
- EMIT-Diff: Enhancing Medical Image Segmentation via Text-Guided
Diffusion Model [4.057796755073023]
EMIT-Diffと呼ばれる医用画像合成のための制御可能な拡散モデルを開発した。
近年の拡散確率モデルを利用して、現実的で多様な合成医用画像データを生成する。
提案手法では, 合成試料が医療上の制約に適合することを確実にする。
論文 参考訳(メタデータ) (2023-10-19T16:18:02Z) - An Attentive-based Generative Model for Medical Image Synthesis [18.94900480135376]
注意に基づく二重コントラスト生成モデルであるADC-cycleGANを提案する。
このモデルは、二重コントラスト損失項とCycleGAN損失を統合し、合成された画像がソース領域と区別可能であることを保証する。
実験により,提案したADCサイクルGANモデルが,他の最先端生成モデルに匹敵するサンプルを生成することが示された。
論文 参考訳(メタデータ) (2023-06-02T14:17:37Z) - GM-NeRF: Learning Generalizable Model-based Neural Radiance Fields from
Multi-view Images [79.39247661907397]
本稿では,自由視点画像の合成に有効なフレームワークであるGeneralizable Model-based Neural Radiance Fieldsを提案する。
具体的には、多視点2D画像からの出現コードを幾何学的プロキシに登録するための幾何学誘導型アテンション機構を提案する。
論文 参考訳(メタデータ) (2023-03-24T03:32:02Z) - A Self-attention Guided Multi-scale Gradient GAN for Diversified X-ray
Image Synthesis [0.6308539010172307]
GAN(Generative Adversarial Networks)を用いて,合成画像の生成によるデータ制限問題に対処する。
モード崩壊、非収束、不安定といったトレーニング課題は、多彩で高品質な画像の合成において、GANのパフォーマンスを低下させる。
本研究では,バイオメディカル画像の特徴の長距離依存性の関係をモデル化する,注意誘導型マルチスケール勾配GANアーキテクチャを提案する。
論文 参考訳(メタデータ) (2022-10-09T13:17:17Z) - One-Shot Synthesis of Images and Segmentation Masks [28.119303696418882]
画像合成とGAN(Generative Adversarial Network)とのセグメンテーションマスクの併用により,画像データをピクセル単位のアノテーションで収集する作業の削減が期待されている。
高忠実な画像マスク合成を学習するために、既存のGANアプローチは、大量の画像データを必要とする事前学習フェーズを必要とする。
我々は,1ショット方式で生成した画像に正確に整合したセグメンテーションマスクの合成を可能にするOSMISモデルを提案する。
論文 参考訳(メタデータ) (2022-09-15T18:00:55Z) - SIAN: Style-Guided Instance-Adaptive Normalization for Multi-Organ
Histopathology Image Synthesis [63.845552349914186]
本研究では,異なる臓器に対して,現実的な色分布とテクスチャを合成するためのスタイル誘導型インスタンス適応正規化(SIAN)を提案する。
4つのフェーズは一緒に動作し、生成ネットワークに統合され、イメージセマンティクス、スタイル、インスタンスレベルのバウンダリを埋め込む。
論文 参考訳(メタデータ) (2022-09-02T16:45:46Z) - Semantic Image Synthesis via Diffusion Models [159.4285444680301]
Denoising Diffusion Probabilistic Models (DDPM) は様々な画像生成タスクにおいて顕著な成功を収めた。
セマンティック画像合成に関する最近の研究は、主に「GAN(Generative Adversarial Nets)」に追従している。
論文 参考訳(メタデータ) (2022-06-30T18:31:51Z) - CS$^2$: A Controllable and Simultaneous Synthesizer of Images and
Annotations with Minimal Human Intervention [3.465671939864428]
実写画像と対応するアノテーションを同時に生成する新しい制御可能同時合成器(CS$2$)を提案する。
提案するコントリビューションには,1)参照CT画像からスタイル情報と教師なしセグメンテーションマスクから構造情報の両方を受信する条件付き画像合成ネットワーク,2)これらの合成画像を自動的にセグメンテーションする対応するセグメンテーションマスクネットワークがある。
論文 参考訳(メタデータ) (2022-06-20T15:09:10Z) - Modality Completion via Gaussian Process Prior Variational Autoencoders
for Multi-Modal Glioma Segmentation [75.58395328700821]
本稿では,患者スキャンに欠落するサブモダリティを1つ以上のインプットするために,MGP-VAE(Multi-modal Gaussian Process Prior Variational Autoencoder)を提案する。
MGP-VAEは、変分オートエンコーダ(VAE)に先立ってガウス過程(GP)を利用して、被験者/患者およびサブモダリティ相関を利用することができる。
4つのサブモダリティのうち2つ、または3つが欠落している脳腫瘍に対するMGP-VAEの適用性を示す。
論文 参考訳(メタデータ) (2021-07-07T19:06:34Z) - You Only Need Adversarial Supervision for Semantic Image Synthesis [84.83711654797342]
我々は,高品質な結果を得るためには敵対的監督のみを必要とする,新しい簡易ganモデルを提案する。
本モデルによって合成された画像はより多様であり,実画像の色やテクスチャに密接に従っている。
論文 参考訳(メタデータ) (2020-12-08T23:00:48Z) - Multimodal Image Synthesis with Conditional Implicit Maximum Likelihood
Estimation [54.17177006826262]
我々はImplicit Maximum Likelihood Estimation (IMLE)に基づく新しい一般条件画像合成法を開発した。
我々は,シーンレイアウトからの単一画像超解像と画像合成という,2つのタスクにおけるマルチモーダル画像合成性能の改善を実証した。
論文 参考訳(メタデータ) (2020-04-07T03:06:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。