論文の概要: DiffusionBlend: Learning 3D Image Prior through Position-aware Diffusion Score Blending for 3D Computed Tomography Reconstruction
- arxiv url: http://arxiv.org/abs/2406.10211v1
- Date: Fri, 14 Jun 2024 17:47:50 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-17 12:37:07.679228
- Title: DiffusionBlend: Learning 3D Image Prior through Position-aware Diffusion Score Blending for 3D Computed Tomography Reconstruction
- Title(参考訳): DiffusionBlend:3次元CT画像再構成のための位置認識拡散スコアブレンドによる3次元画像の学習
- Authors: Bowen Song, Jason Hu, Zhaoxu Luo, Jeffrey A. Fessler, Liyue Shen,
- Abstract要約: 位置認識型3D-パッチ拡散スコアブレンディングによる3D画像の学習を可能にする新しいフレームワークを提案する。
我々のアルゴリズムは、従来の最先端手法よりも優れた、あるいは同等の計算効率を持つ。
- 参考スコア(独自算出の注目度): 12.04892150473192
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Diffusion models face significant challenges when employed for large-scale medical image reconstruction in real practice such as 3D Computed Tomography (CT). Due to the demanding memory, time, and data requirements, it is difficult to train a diffusion model directly on the entire volume of high-dimensional data to obtain an efficient 3D diffusion prior. Existing works utilizing diffusion priors on single 2D image slice with hand-crafted cross-slice regularization would sacrifice the z-axis consistency, which results in severe artifacts along the z-axis. In this work, we propose a novel framework that enables learning the 3D image prior through position-aware 3D-patch diffusion score blending for reconstructing large-scale 3D medical images. To the best of our knowledge, we are the first to utilize a 3D-patch diffusion prior for 3D medical image reconstruction. Extensive experiments on sparse view and limited angle CT reconstruction show that our DiffusionBlend method significantly outperforms previous methods and achieves state-of-the-art performance on real-world CT reconstruction problems with high-dimensional 3D image (i.e., $256 \times 256 \times 500$). Our algorithm also comes with better or comparable computational efficiency than previous state-of-the-art methods.
- Abstract(参考訳): 拡散モデルでは,CT(3D Computed Tomography)などの大規模医用画像再構成を実際に行う場合,大きな課題に直面している。
要求されるメモリ,時間,データ要求のため,高次元データの体積全体に直接拡散モデルを訓練して,より効率的な3次元拡散を求めることは困難である。
既存の2次元画像スライスと手作りのクロススライス正規化による拡散先行処理は、z軸の一貫性を犠牲にし、z軸に沿って深刻なアーティファクトをもたらす。
本研究では,3次元医用画像の大規模再構築のための3次元拡散スコアのブレンディングを通じて,3次元画像の事前学習を可能にする新しいフレームワークを提案する。
我々の知る限り、3次元医用画像再構成に先立って3次元パッチ拡散を利用するのは初めてである。
スパースビューとリミテッドアングルCT再構成の広範な実験により,DiffusionBlend法は従来の手法より有意に優れ,高次元画像を用いた実世界のCT再構成問題(256 \times 256 \times 500$)における最先端性能を実現していることがわかった。
我々のアルゴリズムは、従来の最先端手法よりも優れた、あるいは同等の計算効率を持つ。
関連論文リスト
- Deep Diffusion Image Prior for Efficient OOD Adaptation in 3D Inverse Problems [61.85478918618346]
本稿では,従来のディープイメージに形式的な接続を導入することで,最近のSCD適応法を一般化するDDIPを提案する。
本稿では,D3IPと呼ばれる3次元計測のための効率的な適応手法を提案し,DDIPを桁違いに高速化する。
本手法は, 学習対象とは大きく異なるファントム画像のみを用いて, 事前学習した生成的画像から多種多様な3次元再構成タスクを解くことができることを示す。
論文 参考訳(メタデータ) (2024-07-15T12:00:46Z) - Diff3Dformer: Leveraging Slice Sequence Diffusion for Enhanced 3D CT Classification with Transformer Networks [5.806035963947936]
拡散型3次元視覚変換器(Diff3Dformer)を提案する。
本手法は, 肺CTの2種類の小さなデータセットに対して, 改良された性能を示す。
論文 参考訳(メタデータ) (2024-06-24T23:23:18Z) - Blaze3DM: Marry Triplane Representation with Diffusion for 3D Medical Inverse Problem Solving [8.544098279063597]
本稿では,コンパクトな三面体ニューラルフィールドと強力な拡散モデルを統合することにより,高速かつ高忠実な生成を可能にする新しいアプローチBlaze3DMを提案する。
技術的には、Blaze3DMは、データ依存の3次元平面埋め込みと共有デコーダを同時に最適化し、各3次元平面を対応する3次元ボリュームに再構成することから始まる。
スパースビューCT、リミテッドアングルCT、圧縮センシングMRI、MRI等方的超解像を含むゼロショット3次元医療逆問題解決実験は、Blaze3DMが最先端性能を達成するだけでなく、計算効率も著しく向上することを示した。
論文 参考訳(メタデータ) (2024-05-24T06:07:27Z) - RadRotator: 3D Rotation of Radiographs with Diffusion Models [0.0]
本稿では,3次元空間における任意の入射ラジオグラフの解剖学的内容の回転を可能にする拡散モデルに基づく技術を提案する。
従来の研究と同様に、我々はCTボリュームを用いてデジタル再構成ラジオグラフィー(DRR)をモデルのトレーニングデータとして作成しました。
論文 参考訳(メタデータ) (2024-04-19T16:55:12Z) - Generative Enhancement for 3D Medical Images [74.17066529847546]
本稿では,3次元医用画像合成の新しい生成手法であるGEM-3Dを提案する。
本手法は2次元スライスから始まり,3次元スライスマスクを用いて患者に提供するための情報スライスとして機能し,生成過程を伝搬する。
3D医療画像をマスクと患者の事前情報に分解することで、GEM-3Dは多目的な3D画像を生成する柔軟な、かつ効果的なソリューションを提供する。
論文 参考訳(メタデータ) (2024-03-19T15:57:04Z) - Wonder3D: Single Image to 3D using Cross-Domain Diffusion [105.16622018766236]
Wonder3Dは、単一視点画像から高忠実なテクスチャメッシュを効率的に生成する新しい手法である。
画像から3Dまでのタスクの品質,一貫性,効率性を総括的に改善するため,領域間拡散モデルを提案する。
論文 参考訳(メタデータ) (2023-10-23T15:02:23Z) - Improving 3D Imaging with Pre-Trained Perpendicular 2D Diffusion Models [52.529394863331326]
本稿では,2つの垂直2次元拡散モデルを用いて3次元逆問題の解法を提案する。
MRI Z軸超解像, 圧縮センシングMRI, スパースCTなどの3次元医用画像再構成作業に有効である。
論文 参考訳(メタデータ) (2023-03-15T08:28:06Z) - Solving 3D Inverse Problems using Pre-trained 2D Diffusion Models [33.343489006271255]
拡散モデルは、高品質なサンプルを持つ新しい最先端の生成モデルとして登場した。
そこで本研究では, モデルに基づく2次元拡散を, 全次元にわたるコヒーレントな再構成を達成できるように, 実験時の残りの方向で先行する2次元拡散を拡大することを提案する。
提案手法は,1つのコモディティGPU上で動作可能であり,新しい最先端技術を確立する。
論文 参考訳(メタデータ) (2022-11-19T10:32:21Z) - DreamFusion: Text-to-3D using 2D Diffusion [52.52529213936283]
テキストと画像の合成の最近の進歩は、何十億もの画像と画像のペアで訓練された拡散モデルによって引き起こされている。
本研究では,事前訓練された2次元テキスト・ツー・イメージ拡散モデルを用いてテキスト・ツー・3次元合成を行うことにより,これらの制約を回避する。
提案手法では,3次元トレーニングデータや画像拡散モデルの変更は必要とせず,事前訓練した画像拡散モデルの有効性を実証する。
論文 参考訳(メタデータ) (2022-09-29T17:50:40Z) - Revisiting 3D Context Modeling with Supervised Pre-training for
Universal Lesion Detection in CT Slices [48.85784310158493]
CTスライスにおける普遍的病変検出のための3Dコンテキスト強化2D特徴を効率的に抽出するための修飾擬似3次元特徴ピラミッドネットワーク(MP3D FPN)を提案する。
新たな事前学習手法により,提案したMP3D FPNは,DeepLesionデータセット上での最先端検出性能を実現する。
提案された3Dプリトレーニングウェイトは、他の3D医療画像分析タスクのパフォーマンスを高めるために使用できる。
論文 参考訳(メタデータ) (2020-12-16T07:11:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。