論文の概要: Memory-efficient High-resolution OCT Volume Synthesis with Cascaded Amortized Latent Diffusion Models
- arxiv url: http://arxiv.org/abs/2405.16516v1
- Date: Sun, 26 May 2024 10:58:22 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-28 20:49:07.156422
- Title: Memory-efficient High-resolution OCT Volume Synthesis with Cascaded Amortized Latent Diffusion Models
- Title(参考訳): Cascaded Amortized Latent Diffusion Modelを用いたメモリ効率の高い高分解能CTボリューム合成
- Authors: Kun Huang, Xiao Ma, Yuhan Zhang, Na Su, Songtao Yuan, Yong Liu, Qiang Chen, Huazhu Fu,
- Abstract要約: 本稿では,高分解能CTボリュームをメモリ効率よく合成できるCA-LDM(Cascaded amortized Latent diffusion model)を提案する。
公開高解像度OCTデータセットを用いた実験により、我々の合成データは、既存の手法の能力を超越した、現実的な高解像度かつグローバルな特徴を持つことが示された。
- 参考スコア(独自算出の注目度): 48.87160158792048
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Optical coherence tomography (OCT) image analysis plays an important role in the field of ophthalmology. Current successful analysis models rely on available large datasets, which can be challenging to be obtained for certain tasks. The use of deep generative models to create realistic data emerges as a promising approach. However, due to limitations in hardware resources, it is still difficulty to synthesize high-resolution OCT volumes. In this paper, we introduce a cascaded amortized latent diffusion model (CA-LDM) that can synthesis high-resolution OCT volumes in a memory-efficient way. First, we propose non-holistic autoencoders to efficiently build a bidirectional mapping between high-resolution volume space and low-resolution latent space. In tandem with autoencoders, we propose cascaded diffusion processes to synthesize high-resolution OCT volumes with a global-to-local refinement process, amortizing the memory and computational demands. Experiments on a public high-resolution OCT dataset show that our synthetic data have realistic high-resolution and global features, surpassing the capabilities of existing methods. Moreover, performance gains on two down-stream fine-grained segmentation tasks demonstrate the benefit of the proposed method in training deep learning models for medical imaging tasks. The code is public available at: https://github.com/nicetomeetu21/CA-LDM.
- Abstract(参考訳): 光コヒーレンス断層撮影(OCT)画像解析は眼科領域において重要な役割を担っている。
現在の成功した分析モデルは利用可能な大規模なデータセットに依存しており、特定のタスクで取得することは困難である。
現実的なデータを作成するための深層生成モデルの使用は、有望なアプローチとして現れます。
しかし、ハードウェアリソースの制限のため、高解像度のOCTボリュームを合成することは依然として困難である。
本稿では,高分解能CTボリュームをメモリ効率よく合成できるCA-LDM(Cascaded Amortized Latent diffusion model)を提案する。
まず,高分解能ボリューム空間と低分解能潜在空間の双方向マッピングを効率的に構築するための非全体論的オートエンコーダを提案する。
オートエンコーダを用いたタンデムでは,高分解能CTボリュームをグローバル・ローカルな精細化プロセスで合成し,メモリと計算要求を補正するカスケード拡散プロセスを提案する。
公開高解像度OCTデータセットを用いた実験により、我々の合成データは、既存の手法の能力を超越した、現実的な高解像度かつグローバルな特徴を持つことが示された。
さらに、下流2つの細粒度セグメンテーションタスクの性能向上は、医用画像タスクのためのディープラーニングモデルのトレーニングにおいて提案手法の利点を示す。
コードは、https://github.com/nicetomeetu21/CA-LDM.comで公開されている。
関連論文リスト
- Evaluating Utility of Memory Efficient Medical Image Generation: A Study on Lung Nodule Segmentation [0.0]
本研究は,合成医用画像を生成するためのメモリ効率のパッチワイド拡散確率モデル(DDPM)を提案する。
本手法は, メモリ制約を効率的に管理しながら, 結節分割による高能率合成画像を生成する。
本手法は,合成データのみに基づくセグメンテーションモデルのトレーニングと,合成画像を用いた実世界のトレーニングデータの拡張の2つのシナリオで評価する。
論文 参考訳(メタデータ) (2024-10-16T13:20:57Z) - Inter-slice Super-resolution of Magnetic Resonance Images by Pre-training and Self-supervised Fine-tuning [49.197385954021456]
臨床実践では、2次元磁気共鳴(MR)シーケンスが広く採用されている。個々の2次元スライスを積み重ねて3次元ボリュームを形成できるが、比較的大きなスライスススペーシングは可視化とその後の解析タスクに課題をもたらす可能性がある。
スライス間隔を低減するため,ディープラーニングに基づく超解像技術が広く研究されている。
現在のほとんどのソリューションは、教師付きトレーニングのために、かなりの数の高解像度と低解像度の画像を必要とするが、通常は現実のシナリオでは利用できない。
論文 参考訳(メタデータ) (2024-06-10T02:20:26Z) - 3D MRI Synthesis with Slice-Based Latent Diffusion Models: Improving Tumor Segmentation Tasks in Data-Scarce Regimes [2.8498944632323755]
本稿では,ボリュームデータ生成の複雑さに対処するスライスに基づく遅延拡散アーキテクチャを提案する。
この手法は,医療用画像と関連するマスクの同時分布モデルを拡張し,データスカース体制下での同時生成を可能にする。
構造は, 大きさ, 形状, 相対位置などの腫瘍特性によって調節できるため, 腫瘍の多様性は様々である。
論文 参考訳(メタデータ) (2024-06-08T09:53:45Z) - Diffusion Models Without Attention [110.5623058129782]
Diffusion State Space Model (DiffuSSM) は、よりスケーラブルな状態空間モデルバックボーンで注目メカニズムを置き換えるアーキテクチャである。
拡散訓練におけるFLOP効率の高いアーキテクチャへの注力は、大きな前進となる。
論文 参考訳(メタデータ) (2023-11-30T05:15:35Z) - Hierarchical Integration Diffusion Model for Realistic Image Deblurring [71.76410266003917]
拡散モデル (DM) は画像劣化に導入され, 有望な性能を示した。
本稿では,階層型統合拡散モデル(HI-Diff)を提案する。
人工的および実世界のぼかしデータセットの実験は、HI-Diffが最先端の手法より優れていることを示した。
論文 参考訳(メタデータ) (2023-05-22T12:18:20Z) - HyperINR: A Fast and Predictive Hypernetwork for Implicit Neural
Representations via Knowledge Distillation [31.44962361819199]
Inlicit Neural Representations (INRs)は近年、科学的可視化の分野で大きな可能性を秘めている。
本稿では,コンパクトINRの重みを直接予測できる新しいハイパーネットワークアーキテクチャであるHyperINRを紹介する。
多分解能ハッシュ符号化ユニットのアンサンブルを一斉に利用することにより、INRは最先端の推論性能を得る。
論文 参考訳(メタデータ) (2023-04-09T08:10:10Z) - Implicit Diffusion Models for Continuous Super-Resolution [65.45848137914592]
本稿では,高忠実度連続画像超解像のためのインプリシティ拡散モデル(IDM)を提案する。
IDMは暗黙のニューラル表現とデノナイジング拡散モデルを統合されたエンドツーエンドフレームワークに統合する。
スケーリング係数は分解能を調節し、最終出力におけるLR情報と生成された特徴の比率を変調する。
論文 参考訳(メタデータ) (2023-03-29T07:02:20Z) - High-Resolution Image Synthesis with Latent Diffusion Models [14.786952412297808]
オートエンコーダ上での拡散モデルの訓練は、複雑性の低減と詳細保存の間のほぼ最適点に初めて到達することができる。
我々の潜伏拡散モデル(LDMs)は,様々なタスクにおける画像インペイントと高い競争性能の新たな技術を実現する。
論文 参考訳(メタデータ) (2021-12-20T18:55:25Z) - Hierarchical Amortized Training for Memory-efficient High Resolution 3D
GAN [52.851990439671475]
本稿では,高解像度な3D画像を生成することができる新しいエンドツーエンドGANアーキテクチャを提案する。
トレーニングと推論の異なる構成を使用することで、この目標を達成する。
3次元胸郭CTと脳MRIの実験により、我々のアプローチは画像生成における最先端技術より優れていることが示された。
論文 参考訳(メタデータ) (2020-08-05T02:33:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。