論文の概要: CLADE: Cycle Loss Augmented Degradation Enhancement for Unpaired
Super-Resolution of Anisotropic Medical Images
- arxiv url: http://arxiv.org/abs/2303.11831v3
- Date: Mon, 5 Feb 2024 12:25:43 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-07 06:52:01.936234
- Title: CLADE: Cycle Loss Augmented Degradation Enhancement for Unpaired
Super-Resolution of Anisotropic Medical Images
- Title(参考訳): CLADE: 異方性医用画像の高分解能化のためのサイクル損失増強
- Authors: Michele Pascale, Vivek Muthurangu, Javier Montalt Tordera, Heather E
Fitzke, Gauraang Bhatnagar, Stuart Taylor, Jennifer Steeden
- Abstract要約: 3次元画像(3D)は医学的応用で人気があるが、厚く低空間分解能のスライスを持つ異方性3Dボリュームはスキャン時間を短縮するために取得されることが多い。
深層学習(DL)は超解像再構成(SRR)により高分解能特徴を復元するソリューションを提供する
腹部MRIおよび腹部CTにおけるCLADEの有用性を示すとともに,低分解能ボリュームよりもCLADE画像の画質が有意に向上した。
- 参考スコア(独自算出の注目度): 0.06597195879147556
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Three-dimensional (3D) imaging is popular in medical applications, however,
anisotropic 3D volumes with thick, low-spatial-resolution slices are often
acquired to reduce scan times. Deep learning (DL) offers a solution to recover
high-resolution features through super-resolution reconstruction (SRR).
Unfortunately, paired training data is unavailable in many 3D medical
applications and therefore we propose a novel unpaired approach; CLADE (Cycle
Loss Augmented Degradation Enhancement). CLADE uses a modified CycleGAN
architecture with a cycle-consistent gradient mapping loss, to learn SRR of the
low-resolution dimension, from disjoint patches of the high-resolution plane
within the anisotropic 3D volume data itself. We show the feasibility of CLADE
in abdominal MRI and abdominal CT and demonstrate significant improvements in
CLADE image quality over low-resolution volumes and state-of-the-art
self-supervised SRR; SMORE (Synthetic Multi-Orientation Resolution
Enhancement). Quantitative PIQUE (qualitative perception-based image quality
evaluator) scores and quantitative edge sharpness (ES - calculated as the
maximum gradient of pixel intensities over a border of interest), showed
superior performance for CLADE in both MRI and CT. Qualitatively CLADE had the
best overall image quality and highest perceptual ES over the low-resolution
volumes and SMORE. This paper demonstrates the potential of using CLADE for
super-resolution reconstruction of anisotropic 3D medical imaging data without
the need for paired 3D training data.
- Abstract(参考訳): 3次元(3d)イメージングは医療用途で一般的であるが、スキャン時間を短縮するために、厚く低解像度のスライスを持つ異方性3dボリュームがしばしば取得される。
ディープラーニング(DL)は、超解像再構成(SRR)によって高分解能特徴を回復するソリューションを提供する。
残念ながら、多くの3D医療アプリケーションではペアトレーニングデータが利用できないため、新しいアンペアドアプローチであるCLADE(Cycle Loss Augmented Degradation Enhancement)を提案する。
CLADEはCycleGANアーキテクチャを改良したサイクル一貫性勾配写像損失を用いて、異方性3Dボリュームデータ自体の高分解能平面の不整合パッチから低次元のSRRを学習する。
腹部MRIおよび腹部CTにおけるCLADEの有用性を示し,低分解能ボリュームおよび最先端の自己監督型SRR, SMORE(Synthetic Multi-Orientation Resolution Enhancement)に対するCLADE画像品質の大幅な改善を示した。
定量的PIQUEスコアと定量的エッジシャープネス(ES)は,MRI,CTともにCLADEに優れていた。
CLADEは低解像度のボリュームとSMOREよりも画質が良く、知覚のESも高い。
本稿では, CLADEを用いた異方性3次元画像データの超高分解能再構成の可能性について述べる。
関連論文リスト
- Rotational Augmented Noise2Inverse for Low-dose Computed Tomography
Reconstruction [83.73429628413773]
改良された深層学習手法は、画像のノイズを除去する能力を示しているが、正確な地上の真実を必要とする。
畳み込みニューラルネットワーク(CNN)のトレーニングに基礎的真理を必要としないLDCTのための新しい自己教師型フレームワークを提案する。
数値および実験結果から,Sparse View を用いた N2I の再構成精度は低下しており,提案手法は異なる範囲のサンプリング角度で画像品質を向上する。
論文 参考訳(メタデータ) (2023-12-19T22:40:51Z) - Resolution- and Stimulus-agnostic Super-Resolution of Ultra-High-Field
Functional MRI: Application to Visual Studies [1.8327547104097965]
高分解能fMRIは脳のメソスケール組織への窓を提供する。
しかし、高い空間分解能はスキャン時間を増加させ、低信号とコントラスト-ノイズ比を補う。
本研究では,fMRIのための深層学習に基づく3次元超解像法を提案する。
論文 参考訳(メタデータ) (2023-11-25T03:33:36Z) - Multi-Channel Convolutional Analysis Operator Learning for Dual-Energy
CT Reconstruction [108.06731611196291]
我々は,多チャンネル畳み込み解析演算子学習法(MCAOL)を開発した。
本研究では,低エネルギー,高エネルギーで減衰画像を共同で再構成する最適化手法を提案する。
論文 参考訳(メタデータ) (2022-03-10T14:22:54Z) - HDNet: High-resolution Dual-domain Learning for Spectral Compressive
Imaging [138.04956118993934]
HSI再構成のための高分解能デュアルドメイン学習ネットワーク(HDNet)を提案する。
一方、高効率な特徴融合によるHR空間スペクトルアテンションモジュールは、連続的かつ微細な画素レベルの特徴を提供する。
一方、HSI再構成のために周波数領域学習(FDL)を導入し、周波数領域の差を狭める。
論文 参考訳(メタデータ) (2022-03-04T06:37:45Z) - SOUP-GAN: Super-Resolution MRI Using Generative Adversarial Networks [9.201328999176402]
本稿では,GAN(Perceptual-tuned Generative Adversarial Network)を用いたSOUP-GANというフレームワークを提案する。
本モデルは,新しい3D SR技術として期待でき,臨床と研究の両方に応用できる可能性を示している。
論文 参考訳(メタデータ) (2021-06-04T16:59:23Z) - 3D Human Pose, Shape and Texture from Low-Resolution Images and Videos [107.36352212367179]
本稿では,解像度認識ネットワーク,自己スーパービジョン損失,コントラスト学習スキームからなるrsc-netを提案する。
提案手法は1つのモデルで異なる解像度で3次元物体のポーズと形状を学習できる。
低解像度映像を扱うRSC-Netを拡張し、低解像度入力からテクスチャ化された3D歩行者の再構築に適用します。
論文 参考訳(メタデータ) (2021-03-11T06:52:12Z) - Revisiting 3D Context Modeling with Supervised Pre-training for
Universal Lesion Detection in CT Slices [48.85784310158493]
CTスライスにおける普遍的病変検出のための3Dコンテキスト強化2D特徴を効率的に抽出するための修飾擬似3次元特徴ピラミッドネットワーク(MP3D FPN)を提案する。
新たな事前学習手法により,提案したMP3D FPNは,DeepLesionデータセット上での最先端検出性能を実現する。
提案された3Dプリトレーニングウェイトは、他の3D医療画像分析タスクのパフォーマンスを高めるために使用できる。
論文 参考訳(メタデータ) (2020-12-16T07:11:16Z) - Unsupervised Super-Resolution: Creating High-Resolution Medical Images
from Low-Resolution Anisotropic Examples [1.281734910003263]
本稿では,非等方的画像のみを用いて学習可能な超解像法を提案する。
この方法は、異方性画像で訓練されたオートエンコーダによって生成される潜伏空間を利用して、低解像度画像における空間分解能を向上させる。
論文 参考訳(メタデータ) (2020-10-25T17:41:54Z) - Hierarchical Amortized Training for Memory-efficient High Resolution 3D
GAN [52.851990439671475]
本稿では,高解像度な3D画像を生成することができる新しいエンドツーエンドGANアーキテクチャを提案する。
トレーニングと推論の異なる構成を使用することで、この目標を達成する。
3次元胸郭CTと脳MRIの実験により、我々のアプローチは画像生成における最先端技術より優れていることが示された。
論文 参考訳(メタデータ) (2020-08-05T02:33:04Z) - HRINet: Alternative Supervision Network for High-resolution CT image
Interpolation [3.7966959476339035]
我々は,高分解能CT画像の生成を目的とした,新しいネットワークであるHigh Resolution Interpolation Network (HRINet)を提案する。
本稿では,ACAI と GAN のアイデアを組み合わせて,教師なしと教師なしのトレーニングを適用して,代替監督手法の新たなアイデアを提案する。
実験の結果,2562,5122画像の定量的,定性的に大きな改善が見られた。
論文 参考訳(メタデータ) (2020-02-11T15:09:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。