論文の概要: Semantic Image Synthesis for Abdominal CT
- arxiv url: http://arxiv.org/abs/2312.06453v1
- Date: Mon, 11 Dec 2023 15:39:41 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-12 15:06:33.802246
- Title: Semantic Image Synthesis for Abdominal CT
- Title(参考訳): 腹部CTのセマンティック画像合成
- Authors: Yan Zhuang, Benjamin Hou, Tejas Sudharshan Mathai, Pritam Mukherjee,
Boah Kim, Ronald M. Summers
- Abstract要約: 本研究では,条件付き拡散モデルを用いた腹部CTのセマンティック画像合成について検討する。
実験結果から, 腹部CT画像の高画質化が得られた。
- 参考スコア(独自算出の注目度): 14.808000433125523
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: As a new emerging and promising type of generative models, diffusion models
have proven to outperform Generative Adversarial Networks (GANs) in multiple
tasks, including image synthesis. In this work, we explore semantic image
synthesis for abdominal CT using conditional diffusion models, which can be
used for downstream applications such as data augmentation. We systematically
evaluated the performance of three diffusion models, as well as to other
state-of-the-art GAN-based approaches, and studied the different conditioning
scenarios for the semantic mask. Experimental results demonstrated that
diffusion models were able to synthesize abdominal CT images with better
quality. Additionally, encoding the mask and the input separately is more
effective than na\"ive concatenating.
- Abstract(参考訳): 新しい新興かつ有望な生成モデルとして、拡散モデルは画像合成を含む複数のタスクにおいて生成逆ネットワーク(gan)を上回ることが証明されている。
本研究では,条件付き拡散モデルを用いて腹部ct用セマンティック画像合成法について検討する。
我々は,3つの拡散モデルと,他の最先端ganベース手法の性能を体系的に評価し,セマンティクスマスクの異なる条件付けシナリオについて検討した。
実験の結果,拡散モデルがより高品質な腹部ct像を合成できることが判明した。
さらに、マスクと入力を別々に符号化することは、na\"ive concatenatingよりも効果的である。
関連論文リスト
- Similarity-aware Syncretic Latent Diffusion Model for Medical Image Translation with Representation Learning [15.234393268111845]
非造影CT(non-contrast CT)は画像のコントラストと解剖学的視認性を低下させ、診断の不確実性を増大させる可能性がある。
医用画像翻訳のための潜時拡散モデルに基づく新しいシンプレティック生成モデル(S$2$LDM)を提案する。
S$2$LDMは、シンプレティックエンコーディングと拡散を通じて、異なるモーダル画像の類似性を高め、潜伏空間における重複情報を促進し、対照的に強調された領域でより詳細な医療画像を生成する。
論文 参考訳(メタデータ) (2024-06-20T03:54:41Z) - Training Class-Imbalanced Diffusion Model Via Overlap Optimization [55.96820607533968]
実世界のデータセットで訓練された拡散モデルは、尾クラスの忠実度が劣ることが多い。
拡散モデルを含む深い生成モデルは、豊富な訓練画像を持つクラスに偏りがある。
本研究では,異なるクラスに対する合成画像の分布の重複を最小限に抑えるために,コントラスト学習に基づく手法を提案する。
論文 参考訳(メタデータ) (2024-02-16T16:47:21Z) - Your Diffusion Model is Secretly a Zero-Shot Classifier [90.40799216880342]
大規模テキスト・画像拡散モデルからの密度推定をゼロショット分類に活用できることを示す。
分類に対する我々の生成的アプローチは、様々なベンチマークで強い結果が得られる。
我々の結果は、下流タスクにおける差別的モデルよりも生成的な利用に向けての一歩である。
論文 参考訳(メタデータ) (2023-03-28T17:59:56Z) - SinDiffusion: Learning a Diffusion Model from a Single Natural Image [159.4285444680301]
SinDiffusionは1つの自然な画像からパッチの内部分布を捉えるためにデノナイズ拡散モデルを利用する。
SinDiffusionは、2つのコア設計に基づいている。まず、SinDiffusionは、段階的にスケールが成長する複数のモデルではなく、1つのスケールで1つのモデルで訓練されている。
第2に,拡散ネットワークのパッチレベルの受容領域は,画像のパッチ統計を捉える上で重要かつ効果的であることを示す。
論文 参考訳(メタデータ) (2022-11-22T18:00:03Z) - Unifying Diffusion Models' Latent Space, with Applications to
CycleDiffusion and Guidance [95.12230117950232]
関係領域で独立に訓練された2つの拡散モデルから共通潜時空間が現れることを示す。
テキスト・画像拡散モデルにCycleDiffusionを適用することで、大規模なテキスト・画像拡散モデルがゼロショット画像・画像拡散エディタとして使用できることを示す。
論文 参考訳(メタデータ) (2022-10-11T15:53:52Z) - Conversion Between CT and MRI Images Using Diffusion and Score-Matching
Models [7.745729132928934]
本稿では,拡散モデルとスコアマッチングモデルという,新たなディープラーニングフレームワークを提案する。
以上の結果から, 拡散およびスコアマッチングモデルにより, CNNおよびGANモデルよりも優れた合成CT画像が生成されることがわかった。
本研究は,相補的な画像モダリティを用いて得られた画像に基づいて高品質な画像を生成するために,拡散とスコアマッチングモデルが優れていることを示唆する。
論文 参考訳(メタデータ) (2022-09-24T23:50:54Z) - Unsupervised Medical Image Translation with Adversarial Diffusion Models [0.2770822269241974]
ソース・トゥ・ターゲット・モダリティ変換による画像の欠落の計算は、医用画像プロトコルの多様性を向上させることができる。
本稿では, 医用画像翻訳の性能向上のための逆拡散モデルであるSynDiffを提案する。
論文 参考訳(メタデータ) (2022-07-17T15:53:24Z) - Semantic Image Synthesis via Diffusion Models [159.4285444680301]
Denoising Diffusion Probabilistic Models (DDPM) は様々な画像生成タスクにおいて顕著な成功を収めた。
セマンティック画像合成に関する最近の研究は、主に「GAN(Generative Adversarial Nets)」に追従している。
論文 参考訳(メタデータ) (2022-06-30T18:31:51Z) - DiVAE: Photorealistic Images Synthesis with Denoising Diffusion Decoder [73.1010640692609]
本稿では,拡散デコーダ(DiVAE)を用いたVQ-VAEアーキテクチャモデルを提案する。
我々のモデルは最先端の成果を達成し、さらに多くのフォトリアリスティックな画像を生成する。
論文 参考訳(メタデータ) (2022-06-01T10:39:12Z) - DiffusionCLIP: Text-guided Image Manipulation Using Diffusion Models [33.79188588182528]
本稿では,コントラスト言語-画像事前学習(CLIP)損失を用いた拡散モデルを用いたテキスト駆動画像操作を行うDiffusionCLIPを提案する。
提案手法は、ドメイン内および外部の画像処理タスクのための、最新のGANベースの画像処理手法に匹敵する性能を有する。
本手法は,未知の領域から別の未知の領域への画像変換や,未知の領域におけるストローク条件の画像生成など,様々な新しい用途に容易に利用できる。
論文 参考訳(メタデータ) (2021-10-06T12:59:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。