論文の概要: Zero-shot self-supervised learning of single breath-hold magnetic resonance cholangiopancreatography (MRCP) reconstruction
- arxiv url: http://arxiv.org/abs/2508.09200v1
- Date: Fri, 08 Aug 2025 13:59:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-14 20:42:00.608612
- Title: Zero-shot self-supervised learning of single breath-hold magnetic resonance cholangiopancreatography (MRCP) reconstruction
- Title(参考訳): 単一呼吸ホールド磁気共鳴胆管膵管造影(MRCP)のゼロショット自己教師型学習
- Authors: Jinho Kim, Marcel Dominik Nickel, Florian Knoll,
- Abstract要約: 磁気共鳴胆管膵管造影(MRCP)における呼吸保持時間短縮のためのゼロショット自己教師型学習再建の有用性について検討した。
ゼロショット学習再建は、圧縮されたセンシング再構成と比較して視覚的画質を著しく改善した。
浅部訓練は、従来のゼロショット訓練では271分に比べ、ほぼ同程度の再現時間で訓練時間11分であった。
- 参考スコア(独自算出の注目度): 0.8422467541029346
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Purpose: To investigate the feasibility of applying zero-shot self-supervised learning reconstruction to reduce breath-hold times in magnetic resonance cholangiopancreatography (MRCP). Methods: Breath-hold MRCP was acquired from 11 healthy volunteers on a 3T scanner using an incoherent k-space sampling pattern leading to a breath-hold duration of 14s. We evaluated zero-shot reconstruction of breath-hold MRCP against parallel imaging of respiratory-triggered MRCP acquired in 338s on average and compressed sensing reconstruction of breath-hold MRCP. To address the long computation times of zero-shot trainings, we used a training approach that leverages a pretrained network to reduce backpropagation depth during training. Results: Zero-shot learning reconstruction significantly improved visual image quality compared to compressed sensing reconstruction, particularly in terms of signal-to-noise ratio and ductal delineation, and reached a level of quality comparable to that of successful respiratory-triggered acquisitions with regular breathing patterns. Shallow training provided nearly equivalent reconstruction performance with a training time of 11 minutes in comparison to 271 minutes for a conventional zero-shot training. Conclusion: Zero-shot learning delivers high-fidelity MRCP reconstructions with reduced breath-hold times, and shallow training offers a practical solution for translation to time-constrained clinical workflows.
- Abstract(参考訳): 目的: 磁気共鳴胆管膵管造影(MRCP)における呼吸保持時間を削減するため, ゼロショット自己教師型学習再構成の適用可能性を検討すること。
方法】健常者11名から非整合性k空間サンプリングパターンを用いてMRCPを3Tスキャナーで取得し,呼吸保持期間は14秒であった。
呼吸保持型MRCPを平均338sで取得し, 呼吸保持型MRCPの同時撮影に対するゼロショット再構成と, 呼吸保持型MRCPのセンシング再構成について検討した。
ゼロショットトレーニングの長時間の計算時間に対処するために、トレーニング中のバックプロパゲーション深さを低減するために、事前トレーニングされたネットワークを活用するトレーニングアプローチを用いた。
結果:ゼロショット学習再建は,特に信号対雑音比とダクトデラインの点で,圧縮されたセンシング再構成と比較して視覚的画質を有意に改善し,正常な呼吸パターンによる呼吸訓練を成功させるのに匹敵する品質に到達した。
浅部訓練は、従来のゼロショット訓練では271分に比べ、ほぼ同程度の再現時間で訓練時間11分であった。
結論:ゼロショット学習は呼吸保持時間を減らすことで高忠実度MRCP再建を実現する。
関連論文リスト
- Deep Learning Assisted Outer Volume Removal for Highly-Accelerated Real-Time Dynamic MRI [2.512491726995032]
リアルタイム(RT)ダイナミックMRIは、迅速な生理的過程を捉える上で重要な役割を担っている。
RT cine MRIは高時間分解能心機能評価に重要である。
心外組織からのアーティファクトのエイリアス化により, RT cine MRI の高速化は困難である。
論文 参考訳(メタデータ) (2025-05-01T16:31:52Z) - Paired Conditional Generative Adversarial Network for Highly Accelerated Liver 4D MRI [8.880834588879525]
本研究では,4次元MRI再構成時間を短縮するReconstruct Paired Generative Adrial Network (Re-Con-GAN)を提案する。
ResNet9, UNet, Restructation Swin Transformerの3種類のネットワークがジェネレータとして探索された。
Re-Con-GANはCS/UNetモデルと比較してPSNR、SSIM、RMSEのスコアを一貫して達成した。
論文 参考訳(メタデータ) (2024-05-20T20:14:23Z) - Deep Learning-based Accelerated MR Cholangiopancreatography without Fully-sampled Data [0.8422467541029346]
本研究の目的は,3Tおよび0.55Tのディープラーニング(DL)を用いたMRCP(MRCP)の獲得を加速することであった。
我々は,3Tで得られた6倍アンダーサンプルデータを用いて,教師付き(SV)と自己教師付き(SSV)の2つの異なるトレーニング戦略を用いてDL再建を訓練した。
DL再建では3T/0.55TでMRCPの平均取得時間を599/542から255/180秒に短縮した。
論文 参考訳(メタデータ) (2024-05-06T10:53:13Z) - Spatiotemporal Diffusion Model with Paired Sampling for Accelerated
Cardiac Cine MRI [20.86718191599198]
加速MRIにおける近年の深層学習再建は,空間的および時間的ぼかしに悩まされている。
ペアサンプリング方式は, 生成結果において, 人工雑音を大幅に低減する。
論文 参考訳(メタデータ) (2024-03-13T17:56:12Z) - Using BOLD-fMRI to Compute the Respiration Volume per Time (RTV) and
Respiration Variation (RV) with Convolutional Neural Networks (CNN) in the
Human Connectome Development Cohort [55.41644538483948]
本研究では, RVとRVTの2つの呼吸対策を再現するための1次元CNNモデルを提案する。
その結果、CNNはBOLD信号の静止から情報的特徴を捉え、現実的なRVとRVTのタイムリーを再構築できることがわかった。
論文 参考訳(メタデータ) (2023-07-03T18:06:36Z) - REGAS: REspiratory-GAted Synthesis of Views for Multi-Phase CBCT
Reconstruction from a single 3D CBCT Acquisition [75.64791080418162]
REGASは、アンダーサンプドトモグラフィビューを合成し、再構成画像中のアーティファクトのエイリアスを緩和する自己教師手法を提案する。
高解像度4Dデータ上でのディープニューラルネットワークの大規模なメモリコストに対処するため、REGASは分散して微分可能なフォワードプロジェクションを可能にする新しいレイパス変換(RPT)を導入した。
論文 参考訳(メタデータ) (2022-08-17T03:42:19Z) - A Long Short-term Memory Based Recurrent Neural Network for
Interventional MRI Reconstruction [50.1787181309337]
本稿では,畳み込み長短期記憶(Conv-LSTM)に基づくリカレントニューラルネットワーク(Recurrent Neural Network, RNN)を提案する。
提案アルゴリズムは,DBSのリアルタイムi-MRIを実現する可能性があり,汎用的なMR誘導介入に使用できる。
論文 参考訳(メタデータ) (2022-03-28T14:03:45Z) - FReSCO: Flow Reconstruction and Segmentation for low latency Cardiac
Output monitoring using deep artifact suppression and segmentation [0.0]
心臓出力(CO)のリアルタイムモニタリングには低遅延再構成とリアルタイム位相コントラストMR(PCMR)のセグメンテーションが必要である
我々は「低遅延心出力モニタリングのためのフロー再構成とセグメンテーション」のためのディープラーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2022-03-25T16:02:36Z) - Towards performant and reliable undersampled MR reconstruction via
diffusion model sampling [67.73698021297022]
DiffuseReconは拡散モデルに基づく新しいMR再構成法である。
観測された信号に基づいて生成過程を導出する。
特定の加速因子に関する追加の訓練は必要としない。
論文 参考訳(メタデータ) (2022-03-08T02:25:38Z) - Two-Stage Self-Supervised Cycle-Consistency Network for Reconstruction
of Thin-Slice MR Images [62.4428833931443]
太いスライス磁気共鳴(MR)画像は、しばしば冠状および矢状視で構造的にぼやけている。
深層学習は、これらの低分解能(LR)症例から高分解能(HR)薄膜MR画像を再構築する大きな可能性を示している。
MRスライス再構成のための2段階自己監督型サイクル一貫性ネットワーク(TSCNet)を提案する。
論文 参考訳(メタデータ) (2021-06-29T13:29:18Z) - 2-D Respiration Navigation Framework for 3-D Continuous Cardiac Magnetic
Resonance Imaging [61.701281723900216]
連続スキャン中に2次元呼吸情報を得るためのサンプリング適応を提案する。
我々は、取得した信号から異なる呼吸状態を抽出し、ある呼吸相からデータを再構成するパイプラインを開発した。
論文 参考訳(メタデータ) (2020-12-26T08:29:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。