論文の概要: ResDynUNet++: A nested U-Net with residual dynamic convolution blocks for dual-spectral CT
- arxiv url: http://arxiv.org/abs/2512.16140v1
- Date: Thu, 18 Dec 2025 03:52:18 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-19 18:10:31.902682
- Title: ResDynUNet++: A nested U-Net with residual dynamic convolution blocks for dual-spectral CT
- Title(参考訳): ResDynUNet++:デュアルスペクトルCTのための残留動的畳み込みブロック付きネスト付きU-Net
- Authors: Ze Yuan, Wenbin Li, Shusen Zhao,
- Abstract要約: 本稿では,深層学習モデルに反復的手法を組み込んだDuual-spectral CT(DSCT)のハイブリッド再構成フレームワークを提案する。
知識駆動型フェーズでは、斜め投影修正法(OPMT)を用いて、投影データから基材画像の中間解を再構成する。
データ駆動フェーズでは、この中間解を洗練させるために、新しいニューラルネットワークResDynUNet++を導入する。
- 参考スコア(独自算出の注目度): 5.812239137446292
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We propose a hybrid reconstruction framework for dual-spectral CT (DSCT) that integrates iterative methods with deep learning models. The reconstruction process consists of two complementary components: a knowledge-driven module and a data-driven module. In the knowledge-driven phase, we employ the oblique projection modification technique (OPMT) to reconstruct an intermediate solution of the basis material images from the projection data. We select OPMT for this role because of its fast convergence, which allows it to rapidly generate an intermediate solution that successfully achieves basis material decomposition. Subsequently, in the data-driven phase, we introduce a novel neural network, ResDynUNet++, to refine this intermediate solution. The ResDynUNet++ is built upon a UNet++ backbone by replacing standard convolutions with residual dynamic convolution blocks, which combine the adaptive, input-specific feature extraction of dynamic convolution with the stable training of residual connections. This architecture is designed to address challenges like channel imbalance and near-interface large artifacts in DSCT, producing clean and accurate final solutions. Extensive experiments on both synthetic phantoms and real clinical datasets validate the efficacy and superior performance of the proposed method.
- Abstract(参考訳): 本稿では,深層学習モデルに反復的手法を組み込んだDuual-spectral CT(DSCT)のハイブリッド再構成フレームワークを提案する。
再構築プロセスは、知識駆動モジュールとデータ駆動モジュールの2つの補完的なコンポーネントから構成される。
知識駆動型フェーズでは、斜め投影修正法(OPMT)を用いて、投影データから基材画像の中間解を再構成する。
この役割に対してOPMTを選択するのは、その高速収束により、基礎物質の分解を成功させるような中間解を迅速に生成できるためである。
その後、データ駆動フェーズにおいて、この中間解を洗練させるために、新しいニューラルネットワークResDynUNet++を導入する。
ResDynUNet++はUNet++のバックボーン上に構築されており、標準の畳み込みを動的畳み込みブロックに置き換える。
このアーキテクチャは、DSCTのチャネル不均衡や表面に近い大きなアーティファクトといった課題に対処し、クリーンで正確な最終解を生成するように設計されている。
人工ファントムと実際の臨床データセットの併用による広範囲な実験により,提案手法の有効性と性能が検証された。
関連論文リスト
- Interlaced dynamic XCT reconstruction with spatio-temporal implicit neural representations [0.0]
Inmplicit Neural Representations を用いた動的X線CT(Dynamic X-ray Computed Tomography)再構成の検討を行った。
提案手法は,ADMMに基づく最適化と,事前知識を組み込んだ条件付けフレームワークINCODEを組み合わせることで,効率的な収束を実現する。
全ての設定において、我々のモデルは強力なパフォーマンスのロバスト性を実現し、最先端のモデルベース反復法であるTIMBIR(Time-Inter Model-Based Iter Reconstruction)より優れている。
論文 参考訳(メタデータ) (2025-10-09T01:33:58Z) - Re-Visible Dual-Domain Self-Supervised Deep Unfolding Network for MRI Reconstruction [48.30341580103962]
本稿では、これらの問題に対処するために、新しい再視覚的二重ドメイン自己教師型深層展開ネットワークを提案する。
エンド・ツー・エンドの再構築を実現するために,シャンブルとポック・プロキシ・ポイント・アルゴリズム(DUN-CP-PPA)に基づく深層展開ネットワークを設計する。
高速MRIおよびIXIデータセットを用いて行った実験により,本手法は再建性能において最先端の手法よりも有意に優れていることが示された。
論文 参考訳(メタデータ) (2025-01-07T12:29:32Z) - Deep Unfolding Network with Spatial Alignment for multi-modal MRI reconstruction [16.23059795712369]
多モードMRI(Multi-modal Magnetic Resonance Imaging)は相補的な診断情報を提供するが、長い走査時間によっていくつかのモダリティが制限される。
取得過程全体を高速化するため、高アンサンプされたk空間データから他の完全サンプリングされた参照モダリティへのMRI再構成は効率的な解である。
モーダリティ間のミスアライメントを考慮に入れた既存のディープラーニングベースの手法は、パフォーマンスが向上するが、しかしながら2つの主要な共通制限を共有している。
論文 参考訳(メタデータ) (2023-12-28T13:02:16Z) - End-to-End Meta-Bayesian Optimisation with Transformer Neural Processes [52.818579746354665]
本稿では,ニューラルネットワークを一般化し,トランスフォーマーアーキテクチャを用いて獲得関数を学習する,エンド・ツー・エンドの差別化可能な最初のメタBOフレームワークを提案する。
我々は、この強化学習(RL)によるエンドツーエンドのフレームワークを、ラベル付き取得データの欠如に対処できるようにします。
論文 参考訳(メタデータ) (2023-05-25T10:58:46Z) - Multi-scale Transformer Network with Edge-aware Pre-training for
Cross-Modality MR Image Synthesis [52.41439725865149]
クロスモダリティ磁気共鳴(MR)画像合成は、与えられたモダリティから欠落するモダリティを生成するために用いられる。
既存の(教師付き学習)手法は、効果的な合成モデルを訓練するために、多くのペア化されたマルチモーダルデータを必要とすることが多い。
マルチスケールトランスフォーマーネットワーク(MT-Net)を提案する。
論文 参考訳(メタデータ) (2022-12-02T11:40:40Z) - Deep Learning for Material Decomposition in Photon-Counting CT [0.5801044612920815]
そこで本研究では,PCCTにおける材料分解のための新たな深層学習ソリューションを提案する。
提案手法は,最大推定値,変分法,および完全学習ネットワークよりも優れる。
論文 参考訳(メタデータ) (2022-08-05T19:05:16Z) - A Unifying Multi-sampling-ratio CS-MRI Framework With Two-grid-cycle
Correction and Geometric Prior Distillation [7.643154460109723]
本稿では,モデルベースと深層学習に基づく手法の利点を融合して,深層展開型マルチサンプリング比CS-MRIフレームワークを提案する。
マルチグリッドアルゴリズムにインスパイアされ、まずCS-MRIに基づく最適化アルゴリズムを補正蒸留方式に組み込む。
各段の圧縮サンプリング比から適応的なステップ長と雑音レベルを学習するために条件モジュールを用いる。
論文 参考訳(メタデータ) (2022-05-14T13:36:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。