論文の概要: Equivariant Multiscale Learned Invertible Reconstruction for Cone Beam CT: From Simulated to Real Data
- arxiv url: http://arxiv.org/abs/2512.21180v1
- Date: Wed, 24 Dec 2025 13:59:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-25 19:43:21.789053
- Title: Equivariant Multiscale Learned Invertible Reconstruction for Cone Beam CT: From Simulated to Real Data
- Title(参考訳): コーンビームCTの多変量学習非可逆再構成法:シミュレーションデータから実データへ
- Authors: Nikita Moriakov, Efstratios Gavves, Jonathan H. Mason, Carmen Seller-Oria, Jonas Teuwen, Jan-Jakob Sonke,
- Abstract要約: LIRE++は、高速かつメモリ効率の良いCBCT再構成のための、エンド・ツー・エンド・エンド・エンドのローテーション・等価な学習用可逆原始双対スキームである。
LIRE++は、高速な準モンテカルロCBCTプロジェクションシミュレータからシミュレーションされたプロジェクションデータに基づいて訓練された。
実際の臨床データでは, LIRE++は再建とそれに対応する計画CTの平均絶対誤差を, 10個のハウンズフィールドユニットで改善した。
- 参考スコア(独自算出の注目度): 28.21267815130768
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Cone Beam CT (CBCT) is an important imaging modality nowadays, however lower image quality of CBCT compared to more conventional Computed Tomography (CT) remains a limiting factor in CBCT applications. Deep learning reconstruction methods are a promising alternative to classical analytical and iterative reconstruction methods, but applying such methods to CBCT is often difficult due to the lack of ground truth data, memory limitations and the need for fast inference at clinically-relevant resolutions. In this work we propose LIRE++, an end-to-end rotationally-equivariant multiscale learned invertible primal-dual scheme for fast and memory-efficient CBCT reconstruction. Memory optimizations and multiscale reconstruction allow for fast training and inference, while rotational equivariance improves parameter efficiency. LIRE++ was trained on simulated projection data from a fast quasi-Monte Carlo CBCT projection simulator that we developed as well. Evaluated on synthetic data, LIRE++ gave an average improvement of 1 dB in Peak Signal-to-Noise Ratio over alternative deep learning baselines. On real clinical data, LIRE++ improved the average Mean Absolute Error between the reconstruction and the corresponding planning CT by 10 Hounsfield Units with respect to current proprietary state-of-the-art hybrid deep-learning/iterative method.
- Abstract(参考訳): 近年,コーンビームCT(CBCT)は重要な画像モダリティであるが,従来のCTと比較してCBCTの画質は低い。
深層学習再建法は古典的分析法や反復的再構成法に代わる有望な方法であるが, 基礎的真理データ不足, メモリ制限, 臨床関連解決における高速推論の必要性などにより, CBCTに適用することは困難であることが多い。
本研究では,高速かつメモリ効率の良いCBCT再構成のための,エンド・ツー・エンド・エンド・ツー・エンドのローテーション・等価な学習非可逆原始双対スキームであるLIRE++を提案する。
メモリ最適化とマルチスケール再構成は高速なトレーニングと推論を可能にし、回転同分散はパラメータ効率を向上させる。
LIRE++は、高速な準モンテカルロCBCTプロジェクションシミュレータから、シミュレーションされたプロジェクションデータに基づいて訓練された。
合成データに基づいて評価すると、LIRE++はPak Signal-to-Noise Ratioにおいて、代替のディープラーニングベースラインよりも平均1dB向上した。
実際の臨床データでは、LIRE++は、現在の最先端のハイブリッドディープラーニング/イテレーティブ手法に関して、再構成と対応する計画CTの間の平均平均絶対誤差を10のHounsfield Unitsで改善した。
関連論文リスト
- Resolution-Independent Neural Operators for Multi-Rate Sparse-View CT [67.14700058302016]
深層学習手法は高忠実度再構成を実現するが、しばしば固定された取得設定に過度に適合する。
本稿では,連続関数空間に拡張したCT再構成フレームワークであるComputed Tomography Neural Operator (CTO)を提案する。
CTOは一貫性のあるマルチサンプリングレートとクロスレゾリューションのパフォーマンスを実現している。
論文 参考訳(メタデータ) (2025-12-13T08:31:46Z) - NeRF-based CBCT Reconstruction needs Normalization and Initialization [53.58395475423445]
NeRFベースの手法は、ハッシュエンコーダとニューラルネットワークという2つの主要なコンポーネント間の局所的な訓練ミスマッチに悩まされる。
特徴整合性を高め、ミスマッチを緩和する正規化ハッシュを導入する。
ニューラルネットワークは早期トレーニング中に安定性が向上し、より高速な収束と再構築性能が向上する。
論文 参考訳(メタデータ) (2025-06-24T16:01:45Z) - Continuous Filtered Backprojection by Learnable Interpolation Network [48.52134830162271]
本研究では,Leanable-Interpolation-based FBP (LInFBP) と呼ばれる新しいディープラーニングモデルを提案する。
提案した LInFBP では,選択した基底関数の線形結合として,離散シングラムデータの潜伏連続関数の局所部分をすべて定式化する。
次に、学習した潜伏連続関数をバックプロジェクションステップに利用し、FBPの深層学習を初めて活用する。
論文 参考訳(メタデータ) (2025-05-03T09:50:27Z) - On the Foundation Model for Cardiac MRI Reconstruction [6.284878525302227]
本稿では,適応アンロール,チャネルシフト,パターンとコントラスト-プロンプト-UNetを用いた基礎モデルを提案する。
PCP-UNetは画像コントラストとサンプリングパターンプロンプトを備える。
論文 参考訳(メタデータ) (2024-11-15T18:15:56Z) - AC-IND: Sparse CT reconstruction based on attenuation coefficient estimation and implicit neural distribution [12.503822675024054]
CTは産業用非破壊検査や診断において重要な役割を担っている。
スパースビューCT再構成は,少数のプロジェクションのみを使用しながら,高品質なCT像を再構成することを目的としている。
本稿では,減衰係数推定と入射ニューラル分布に基づく自己教師型手法であるAC-INDを紹介する。
論文 参考訳(メタデータ) (2024-09-11T10:34:41Z) - Equivariant Multiscale Learned Invertible Reconstruction for Cone Beam
CT [7.497397088625152]
本稿では,高速かつメモリ効率の良いCBCT再構成手法であるLIRE+を提案する。
LIRE+ は CBCT 再構成のための多変量学習非可逆原始双対反復スキームである。
本手法は, ソラックステストセット上でのLIREを含む古典的および深層学習ベースラインを超越した手法である。
論文 参考訳(メタデータ) (2024-01-20T15:29:29Z) - Enhancing Low-dose CT Image Reconstruction by Integrating Supervised and
Unsupervised Learning [13.17680480211064]
X線CT画像再構成のためのハイブリッド教師なし学習フレームワークを提案する。
提案された各訓練ブロックは、決定論的MBIRソルバとニューラルネットワークで構成されている。
限られた訓練データを用いた低用量CT画像再構成における本学習ハイブリッドモデルの有効性を実証する。
論文 参考訳(メタデータ) (2023-11-19T20:23:59Z) - Geometry-Aware Attenuation Learning for Sparse-View CBCT Reconstruction [53.93674177236367]
Cone Beam Computed Tomography (CBCT) は臨床画像撮影において重要な役割を担っている。
従来の方法では、高品質な3D CBCT画像の再構成には数百の2次元X線投影が必要である。
これにより、放射線線量を減らすため、スパースビューCBCT再構成への関心が高まっている。
本稿では,この問題を解決するために,新しい幾何対応エンコーダデコーダフレームワークを提案する。
論文 参考訳(メタデータ) (2023-03-26T14:38:42Z) - REGAS: REspiratory-GAted Synthesis of Views for Multi-Phase CBCT
Reconstruction from a single 3D CBCT Acquisition [75.64791080418162]
REGASは、アンダーサンプドトモグラフィビューを合成し、再構成画像中のアーティファクトのエイリアスを緩和する自己教師手法を提案する。
高解像度4Dデータ上でのディープニューラルネットワークの大規模なメモリコストに対処するため、REGASは分散して微分可能なフォワードプロジェクションを可能にする新しいレイパス変換(RPT)を導入した。
論文 参考訳(メタデータ) (2022-08-17T03:42:19Z) - Reference-based Magnetic Resonance Image Reconstruction Using Texture
Transforme [86.6394254676369]
高速MRI再構成のための新しいテクスチャトランスフォーマーモジュール(TTM)を提案する。
変換器のクエリやキーとしてアンダーサンプルのデータと参照データを定式化する。
提案したTTMは、MRIの再構成手法に積み重ねることで、その性能をさらに向上させることができる。
論文 参考訳(メタデータ) (2021-11-18T03:06:25Z) - Iterative Reconstruction for Low-Dose CT using Deep Gradient Priors of
Generative Model [24.024765099719886]
反復的な再構成は、光子フラックスの低減による雑音の増加を補う最も有望な方法の1つである。
本研究では,低用量CTの反復生成モデルに条件項としてデータ一貫性を統合する。
再構成画像と多様体との間の距離は、再構成中のデータの忠実度とともに最小化される。
論文 参考訳(メタデータ) (2020-09-27T06:36:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。