論文の概要: Reconstruct or Generate: Exploring the Spectrum of Generative Modeling for Cardiac MRI
- arxiv url: http://arxiv.org/abs/2507.19186v1
- Date: Fri, 25 Jul 2025 11:53:50 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-28 16:16:48.939138
- Title: Reconstruct or Generate: Exploring the Spectrum of Generative Modeling for Cardiac MRI
- Title(参考訳): Reconstruct or Generate: Exploring the Spectrum of Generative Modeling for Cardiac MRI
- Authors: Niklas Bubeck, Yundi Zhang, Suprosanna Shit, Daniel Rueckert, Jiazhen Pan,
- Abstract要約: 医用画像では、生成モデルは2つの異なるが等しく重要なタスクにますます依存している。
世代は高い知覚品質と多様性を求め、再構築はデータの忠実さと忠実さに重点を置いている。
本研究では「生成モデル動物園」を導入し、現代の潜伏拡散モデルと自己回帰モデルがどのように再構成世代スペクトルをナビゲートするかを分析する。
- 参考スコア(独自算出の注目度): 11.267487718542442
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In medical imaging, generative models are increasingly relied upon for two distinct but equally critical tasks: reconstruction, where the goal is to restore medical imaging (usually inverse problems like inpainting or superresolution), and generation, where synthetic data is created to augment datasets or carry out counterfactual analysis. Despite shared architecture and learning frameworks, they prioritize different goals: generation seeks high perceptual quality and diversity, while reconstruction focuses on data fidelity and faithfulness. In this work, we introduce a "generative model zoo" and systematically analyze how modern latent diffusion models and autoregressive models navigate the reconstruction-generation spectrum. We benchmark a suite of generative models across representative cardiac medical imaging tasks, focusing on image inpainting with varying masking ratios and sampling strategies, as well as unconditional image generation. Our findings show that diffusion models offer superior perceptual quality for unconditional generation but tend to hallucinate as masking ratios increase, whereas autoregressive models maintain stable perceptual performance across masking levels, albeit with generally lower fidelity.
- Abstract(参考訳): 医用画像において、生成モデルは、再構成、医療画像の復元(通常、塗装や超解像などの逆問題)、合成データが生成され、データセットを拡大したり、偽物分析を行うという、2つの異なる、等しく重要なタスクにますます依存している。
生成は高い知覚的品質と多様性を求める一方で、再構築はデータの忠実さと忠実さに重点を置いている。
本研究では「生成モデル動物園」を導入し、現代の潜伏拡散モデルと自己回帰モデルがどのように再構成世代スペクトルをナビゲートするかを体系的に分析する。
代表的心臓医用画像タスクにまたがる一連の生成モデルをベンチマークし、マスキング比の異なる画像の塗布とサンプリング戦略、および無条件画像生成に焦点を当てた。
その結果, 拡散モデルは非条件生成において優れた知覚品質を提供するが, マスキング比の増加とともに幻覚する傾向を示し, 自己回帰モデルではマスキングレベルの安定な知覚性能は維持されるが, 概して忠実度は低い。
関連論文リスト
- EndoGen: Conditional Autoregressive Endoscopic Video Generation [51.97720772069513]
本研究では,最初の条件付き内視鏡映像生成フレームワークであるEndoGenを提案する。
具体的には、時空間グリッドフレームパターンを調整した自己回帰モデルを構築する。
高品質で条件付き内視鏡コンテンツ作成におけるフレームワークの有効性を実証する。
論文 参考訳(メタデータ) (2025-07-23T10:32:20Z) - Muddit: Liberating Generation Beyond Text-to-Image with a Unified Discrete Diffusion Model [87.23753533733046]
テキストと画像の両モードをまたいで高速かつ並列に生成できる,統一的な離散拡散変換器であるMudditを導入する。
Mudditは、スクラッチからトレーニングされた以前の統一拡散モデルとは異なり、トレーニング済みのテキストからイメージまでのバックボーンから、強力な視覚的事前情報を軽量のテキストデコーダに統合する。
論文 参考訳(メタデータ) (2025-05-29T16:15:48Z) - Causal Disentanglement for Robust Long-tail Medical Image Generation [80.15257897500578]
そこで本研究では,病的特徴と構造的特徴を独立に生成する新しい医用画像生成フレームワークを提案する。
本稿では,病理所見から導かれる拡散モデルを用いて病理像をモデル化し,種々の対物画像の生成を可能にする。
論文 参考訳(メタデータ) (2025-04-20T01:54:18Z) - GAS: Generative Avatar Synthesis from a Single Image [54.95198111659466]
一つの画像からビュー一貫性と時間的コヒーレントなアバターを合成するための、一般化可能で統一されたフレームワークを導入する。
提案手法は, 回帰に基づく3次元再構成と拡散モデルの生成能力を組み合わせることで, このギャップを埋めるものである。
論文 参考訳(メタデータ) (2025-02-10T19:00:39Z) - Latent Drifting in Diffusion Models for Counterfactual Medical Image Synthesis [55.959002385347645]
遅延ドリフトにより、医療画像に対して拡散モデルを条件付けし、反ファクト画像生成の複雑なタスクに適合させることができる。
我々は,脳MRIと胸部X線による3つの時系列的ベンチマークデータセットを用いて,対物画像生成法について検討した。
論文 参考訳(メタデータ) (2024-12-30T01:59:34Z) - Meissonic: Revitalizing Masked Generative Transformers for Efficient High-Resolution Text-to-Image Synthesis [62.57727062920458]
本稿では,非自己回帰型マスク画像モデリング(MIM)をSDXLのような最先端拡散モデルに匹敵するレベルまで高めるMeissonicを提案する。
高品質なトレーニングデータを活用し、人間の嗜好スコアから得られるマイクロ条件を統合し、特徴圧縮層を用いる。
我々のモデルは、高画質の高精細画像を生成する際に、SDXLのような既存のモデルに適合するだけでなく、しばしば性能を上回ります。
論文 参考訳(メタデータ) (2024-10-10T17:59:17Z) - Synthetic Generation of Dermatoscopic Images with GAN and Closed-Form Factorization [12.753792457271953]
本稿では,GAN(Generative Adversarial Network)ベースのモデルを活用する,革新的な教師なし拡張ソリューションを提案する。
セマンティックなバリエーションを取り入れた合成画像を作成し、これらの画像でトレーニングデータを拡張した。
皮膚病変分類において,機械学習モデルの性能を向上し,非アンサンブルモデルに新しいベンチマークを設定できた。
論文 参考訳(メタデータ) (2024-10-07T15:09:50Z) - Multibranch Generative Models for Multichannel Imaging with an Application to PET/CT Synergistic Reconstruction [42.95604565673447]
本稿では,マルチブランチ生成モデルを用いた医用画像の相乗的再構築のための新しい手法を提案する。
我々は,MNIST (Modified National Institute of Standards and Technology) とPET (positron emission tomography) とCT (Computed tomography) の2つのデータセットに対するアプローチの有効性を実証した。
論文 参考訳(メタデータ) (2024-04-12T18:21:08Z) - Boosting Dermatoscopic Lesion Segmentation via Diffusion Models with
Visual and Textual Prompts [27.222844687360823]
我々は、病変特異的な視覚的およびテキスト的プロンプトを用いた制御フローを追加して、生成モデルの最新の進歩に適応する。
SSIM画像の品質測定では9%以上,Dice係数は5%以上向上する。
論文 参考訳(メタデータ) (2023-10-04T15:43:26Z) - Natural scene reconstruction from fMRI signals using generative latent
diffusion [1.90365714903665]
我々はBrain-Diffuserと呼ばれる2段階のシーン再構築フレームワークを提示する。
第1段階では、VDVAE(Very Deep Vari Autoencoder)モデルを用いて、低レベル特性と全体レイアウトをキャプチャする画像を再構成する。
第2段階では、予測されたマルチモーダル(テキストおよび視覚)特徴に基づいて、遅延拡散モデルのイメージ・ツー・イメージ・フレームワークを使用する。
論文 参考訳(メタデータ) (2023-03-09T15:24:26Z) - Auto-regressive Image Synthesis with Integrated Quantization [55.51231796778219]
本稿では,条件付き画像生成のための多目的フレームワークを提案する。
CNNの帰納バイアスと自己回帰の強力なシーケンスモデリングが組み込まれている。
提案手法は,最先端技術と比較して,優れた多彩な画像生成性能を実現する。
論文 参考訳(メタデータ) (2022-07-21T22:19:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。