論文の概要: MInDI-3D: Iterative Deep Learning in 3D for Sparse-view Cone Beam Computed Tomography
- arxiv url: http://arxiv.org/abs/2508.09616v1
- Date: Wed, 13 Aug 2025 08:49:18 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-14 20:42:00.817429
- Title: MInDI-3D: Iterative Deep Learning in 3D for Sparse-view Cone Beam Computed Tomography
- Title(参考訳): MInDI-3D:Sparse-view Cone Beam Computed Tomographyにおける3次元の反復的深層学習
- Authors: Daniel Barco, Marc Stadelmann, Martin Oswald, Ivo Herzig, Lukas Lichtensteiger, Pascal Paysan, Igor Peterlik, Michal Walczak, Bjoern Menze, Frank-Peter Schilling,
- Abstract要約: MInDI-3Dは実世界のスパースビューコーンビームCT(CBCT)アーティファクト除去のための最初の3次元条件拡散モデルである。
以上よりMInDI-3Dの有効性が示され,12.96 (6.10) dB PSNR が未修正スキャンより向上した。
臨床医は、すべての解剖学的部位にまたがる患者の位置決めに十分なモデルとして、我々のモデルを評価した。
- 参考スコア(独自算出の注目度): 0.14230408567589548
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present MInDI-3D (Medical Inversion by Direct Iteration in 3D), the first 3D conditional diffusion-based model for real-world sparse-view Cone Beam Computed Tomography (CBCT) artefact removal, aiming to reduce imaging radiation exposure. A key contribution is extending the "InDI" concept from 2D to a full 3D volumetric approach for medical images, implementing an iterative denoising process that refines the CBCT volume directly from sparse-view input. A further contribution is the generation of a large pseudo-CBCT dataset (16,182) from chest CT volumes of the CT-RATE public dataset to robustly train MInDI-3D. We performed a comprehensive evaluation, including quantitative metrics, scalability analysis, generalisation tests, and a clinical assessment by 11 clinicians. Our results show MInDI-3D's effectiveness, achieving a 12.96 (6.10) dB PSNR gain over uncorrected scans with only 50 projections on the CT-RATE pseudo-CBCT (independent real-world) test set and enabling an 8x reduction in imaging radiation exposure. We demonstrate its scalability by showing that performance improves with more training data. Importantly, MInDI-3D matches the performance of a 3D U-Net on real-world scans from 16 cancer patients across distortion and task-based metrics. It also generalises to new CBCT scanner geometries. Clinicians rated our model as sufficient for patient positioning across all anatomical sites and found it preserved lung tumour boundaries well.
- Abstract(参考訳): MInDI-3D (Medical Inversion by Direct Iteration in 3D) は実世界のスパースビューコーンビームCT(CBCT)アーチファクト除去のための最初の3次元条件拡散モデルである。
重要な貢献は、"InDI"の概念を2Dから医用画像の完全な3Dボリュームアプローチに拡張し、CBCTボリュームをスパースビュー入力から直接洗練する反復的復調プロセスを実装することである。
もうひとつの貢献は、CT-RATEパブリックデータセットの胸部CTボリュームから大きな擬似CBCTデータセット(16,182)を生成し、MInDI-3Dを堅牢に訓練することである。
定量的指標,拡張性分析,一般化試験,11名の臨床医による臨床評価を含む総合的な評価を行った。
MInDI-3D の有効性を示し,CT-RATE 擬似CBCT (independent real-world) テストセットに50回だけ投影した未修正スキャンに対して 12.96 (6.10) dB PSNR ゲインを達成し,画像照射の 8 倍の低減を実現した。
我々は、より多くのトレーニングデータでパフォーマンスが向上することを示すことで、そのスケーラビリティを実証する。
重要な点として、MInDI-3Dは、歪みやタスクベースのメトリクスを含む16のがん患者の実世界のスキャンにおいて、3D U-Netのパフォーマンスと一致している。
また、CBCTスキャナーの新しいジオメトリにも一般化されている。
臨床医は,すべての解剖学的部位を対象とし,肺腫瘍境界が良好に保たれていると判断した。
関連論文リスト
- 3D-CT-GPT: Generating 3D Radiology Reports through Integration of Large Vision-Language Models [51.855377054763345]
本稿では,VQAに基づく医用視覚言語モデルである3D-CT-GPTについて紹介する。
パブリックデータセットとプライベートデータセットの両方の実験により、3D-CT-GPTはレポートの正確さと品質という点で既存の手法を著しく上回っていることが示された。
論文 参考訳(メタデータ) (2024-09-28T12:31:07Z) - DIFR3CT: Latent Diffusion for Probabilistic 3D CT Reconstruction from Few Planar X-Rays [15.83915012691264]
DIFR3CTは平面X線観測から可塑性CT体積を生成する3次元潜時拡散モデルである。
本研究は,DIFR3CTが従来の画素レベルにおいて,近年のスパースCT再建ベースラインより優れていることを示す実験である。
また,DIFR3CTはモンテカルロサンプリングによる不確実な定量化をサポートし,再現信頼性を計測する機会を提供することを示した。
論文 参考訳(メタデータ) (2024-08-27T14:58:08Z) - Generative Enhancement for 3D Medical Images [74.17066529847546]
本稿では,3次元医用画像合成の新しい生成手法であるGEM-3Dを提案する。
本手法は2次元スライスから始まり,3次元スライスマスクを用いて患者に提供するための情報スライスとして機能し,生成過程を伝搬する。
3D医療画像をマスクと患者の事前情報に分解することで、GEM-3Dは多目的な3D画像を生成する柔軟な、かつ効果的なソリューションを提供する。
論文 参考訳(メタデータ) (2024-03-19T15:57:04Z) - Geometry-Aware Attenuation Learning for Sparse-View CBCT Reconstruction [53.93674177236367]
Cone Beam Computed Tomography (CBCT) は臨床画像撮影において重要な役割を担っている。
従来の方法では、高品質な3D CBCT画像の再構成には数百の2次元X線投影が必要である。
これにより、放射線線量を減らすため、スパースビューCBCT再構成への関心が高まっている。
本稿では,この問題を解決するために,新しい幾何対応エンコーダデコーダフレームワークを提案する。
論文 参考訳(メタデータ) (2023-03-26T14:38:42Z) - MedNeRF: Medical Neural Radiance Fields for Reconstructing 3D-aware
CT-Projections from a Single X-ray [14.10611608681131]
過剰な電離放射線は、体に決定論的かつ有害な影響をもたらす可能性がある。
本稿では,CTプロジェクションの再構成を学習する深層学習モデルを提案する。
論文 参考訳(メタデータ) (2022-02-02T13:25:23Z) - COVID-19 identification from volumetric chest CT scans using a
progressively resized 3D-CNN incorporating segmentation, augmentation, and
class-rebalancing [4.446085353384894]
新型コロナウイルスは世界的なパンデミックの流行だ。
高い感度のコンピュータ支援スクリーニングツールは、疾患の診断と予後に不可欠である。
本稿では,3次元畳み込みニューラルネットワーク(CNN)に基づく分類手法を提案する。
論文 参考訳(メタデータ) (2021-02-11T18:16:18Z) - Automated Model Design and Benchmarking of 3D Deep Learning Models for
COVID-19 Detection with Chest CT Scans [72.04652116817238]
3D胸部CTスキャン分類のための3D DLモデルを自動的に検索するための差別化可能なニューラルネットワーク探索(DNAS)フレームワークを提案する。
また,我々のモデルのクラスアクティベーションマッピング(cam)技術を利用して,結果の解釈可能性を提供する。
論文 参考訳(メタデータ) (2021-01-14T03:45:01Z) - Revisiting 3D Context Modeling with Supervised Pre-training for
Universal Lesion Detection in CT Slices [48.85784310158493]
CTスライスにおける普遍的病変検出のための3Dコンテキスト強化2D特徴を効率的に抽出するための修飾擬似3次元特徴ピラミッドネットワーク(MP3D FPN)を提案する。
新たな事前学習手法により,提案したMP3D FPNは,DeepLesionデータセット上での最先端検出性能を実現する。
提案された3Dプリトレーニングウェイトは、他の3D医療画像分析タスクのパフォーマンスを高めるために使用できる。
論文 参考訳(メタデータ) (2020-12-16T07:11:16Z) - 3D Probabilistic Segmentation and Volumetry from 2D projection images [10.32519161805588]
X線撮影は迅速で安価で、最前線のケアアセスメントや術中リアルタイムイメージングに有用である。
プロジェクティブな情報損失に悩まされており、多くの診断バイオマーカーがベースとなっている重要な情報を欠いている。
本稿では,2次元画像モダリティから3次元容積像を再構成する確率的手法について検討する。
論文 参考訳(メタデータ) (2020-06-23T08:00:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。