論文の概要: Convolutional Neural Networks with Intermediate Loss for 3D
Super-Resolution of CT and MRI Scans
- arxiv url: http://arxiv.org/abs/2001.01330v4
- Date: Thu, 6 Apr 2023 09:01:41 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-07 18:57:12.190235
- Title: Convolutional Neural Networks with Intermediate Loss for 3D
Super-Resolution of CT and MRI Scans
- Title(参考訳): CTとMRIの3次元超解像のための中間損失を有する畳み込みニューラルネットワーク
- Authors: Mariana-Iuliana Georgescu, Radu Tudor Ionescu, Nicolae Verga
- Abstract要約: 3次元CTやMRIの単一画像超解像へのアプローチを提案する。
提案手法は,10層からなる深層畳み込みニューラルネットワーク(CNN)に基づく。
2つのデータベースからのCTとMRIの2次元および3次元超解像の文脈において,本手法の評価を行った。
- 参考スコア(独自算出の注目度): 25.089517950882527
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: CT scanners that are commonly-used in hospitals nowadays produce
low-resolution images, up to 512 pixels in size. One pixel in the image
corresponds to a one millimeter piece of tissue. In order to accurately segment
tumors and make treatment plans, doctors need CT scans of higher resolution.
The same problem appears in MRI. In this paper, we propose an approach for the
single-image super-resolution of 3D CT or MRI scans. Our method is based on
deep convolutional neural networks (CNNs) composed of 10 convolutional layers
and an intermediate upscaling layer that is placed after the first 6
convolutional layers. Our first CNN, which increases the resolution on two axes
(width and height), is followed by a second CNN, which increases the resolution
on the third axis (depth). Different from other methods, we compute the loss
with respect to the ground-truth high-resolution output right after the
upscaling layer, in addition to computing the loss after the last convolutional
layer. The intermediate loss forces our network to produce a better output,
closer to the ground-truth. A widely-used approach to obtain sharp results is
to add Gaussian blur using a fixed standard deviation. In order to avoid
overfitting to a fixed standard deviation, we apply Gaussian smoothing with
various standard deviations, unlike other approaches. We evaluate our method in
the context of 2D and 3D super-resolution of CT and MRI scans from two
databases, comparing it to relevant related works from the literature and
baselines based on various interpolation schemes, using 2x and 4x scaling
factors. The empirical results show that our approach attains superior results
to all other methods. Moreover, our human annotation study reveals that both
doctors and regular annotators chose our method in favor of Lanczos
interpolation in 97.55% cases for 2x upscaling factor and in 96.69% cases for
4x upscaling factor.
- Abstract(参考訳): 病院で一般的に使われているCTスキャナーは、現在512ピクセルまでの解像度の低い画像を生成する。
画像中の1ピクセルは1ミリの組織に相当する。
腫瘍を正確に分類し、治療計画を立案するには、高解像度のCTスキャンが必要である。
同じ問題がMRIにも現れる。
本稿では,3次元CTやMRIの単一画像超解像へのアプローチを提案する。
提案手法は,10層からなる深層畳み込みニューラルネットワーク(CNN)と,第1層の畳み込み層の後に配置される中間層からなる。
第1のcnnは2つの軸(幅と高さ)の解像度を増加させ、第2のcnnは第3軸(深さ)の解像度を増加させる。
他の方法と異なり、アップスケーリング層の直後の基底トラス高解像度出力に対する損失を計算し、最後の畳み込み層の直後の損失を計算する。
中間損失により、我々のネットワークは地上構造に近い、より良い出力を生み出すことができる。
シャープな結果を得るために広く使われているアプローチは、固定標準偏差を用いてガウス的曖昧さを加えることである。
固定標準偏差への過剰な適合を避けるため、他の手法とは異なり、様々な標準偏差を持つガウス平滑化を適用する。
我々は2つのデータベースからのCTとMRIの2次元超解像と3次元超解像の文脈で評価し、2xと4xのスケーリング因子を用いて、様々な補間スキームに基づく文献やベースラインの関連研究と比較した。
実験の結果,我々のアプローチは他の手法よりも優れた結果が得られることがわかった。
また,人間の注記では,lanczos補間を97.55%で2倍,96.69%で4倍に拡大した症例では96.69%であった。
関連論文リスト
- Deep learning network to correct axial and coronal eye motion in 3D OCT
retinal imaging [65.47834983591957]
深層学習に基づくニューラルネットワークを用いて,OCTの軸運動とコロナ運動のアーチファクトを1つのスキャンで補正する。
実験結果から, 提案手法は動作アーチファクトを効果的に補正し, 誤差が他の方法よりも小さいことを示す。
論文 参考訳(メタデータ) (2023-05-27T03:55:19Z) - Moving from 2D to 3D: volumetric medical image classification for rectal
cancer staging [62.346649719614]
術前T2期とT3期を区別することは直腸癌治療における最も困難かつ臨床的に重要な課題である。
直腸MRIでT3期直腸癌からT2を正確に判別するための体積畳み込みニューラルネットワークを提案する。
論文 参考訳(メタデータ) (2022-09-13T07:10:14Z) - CyTran: A Cycle-Consistent Transformer with Multi-Level Consistency for
Non-Contrast to Contrast CT Translation [56.622832383316215]
コントラストCTを非コントラストCTに変換する手法を提案する。
提案手法は、CyTranを略して、サイクル一貫性のある生成逆転変換器に基づいている。
実験の結果、CyTranは競合するすべての手法より優れています。
論文 参考訳(メタデータ) (2021-10-12T23:25:03Z) - Joint Semi-supervised 3D Super-Resolution and Segmentation with Mixed
Adversarial Gaussian Domain Adaptation [13.477290490742224]
医用画像の高解像度化は、画像の解像度を向上させることを目的としているが、従来は低解像度データセットの特徴に基づいて訓練されている。
本稿では,画像とそのラベルの同時超解像を行う半教師付きマルチタスク生成対向ネットワーク(Gemini-GAN)を提案する。
提案手法は, 成人1,331人, 成人205人のトランスナショナル多民族集団に対して広く評価された。
論文 参考訳(メタデータ) (2021-07-16T15:42:39Z) - 3D Convolutional Neural Networks for Stalled Brain Capillary Detection [72.21315180830733]
脳毛細血管の血流停止などの脳血管障害は、アルツハイマー病の認知機能低下と病態形成と関連している。
本稿では,3次元畳み込みニューラルネットワークを用いた脳画像中の毛細血管の自動検出のための深層学習に基づくアプローチについて述べる。
本手法は,他の手法よりも優れ,0.85マシューズ相関係数,85%感度,99.3%特異性を達成した。
論文 参考訳(メタデータ) (2021-04-04T20:30:14Z) - Joint super-resolution and synthesis of 1 mm isotropic MP-RAGE volumes
from clinical MRI exams with scans of different orientation, resolution and
contrast [4.987889348212769]
コントラスト,解像度,方向の異なる1つ以上の厚いスライススキャンを受信するCNNの訓練方法であるSynthSRを提案する。
提案手法では,ストリッピングやバイアスフィールド補正などの前処理は不要である。
論文 参考訳(メタデータ) (2020-12-24T17:29:53Z) - Revisiting 3D Context Modeling with Supervised Pre-training for
Universal Lesion Detection in CT Slices [48.85784310158493]
CTスライスにおける普遍的病変検出のための3Dコンテキスト強化2D特徴を効率的に抽出するための修飾擬似3次元特徴ピラミッドネットワーク(MP3D FPN)を提案する。
新たな事前学習手法により,提案したMP3D FPNは,DeepLesionデータセット上での最先端検出性能を実現する。
提案された3Dプリトレーニングウェイトは、他の3D医療画像分析タスクのパフォーマンスを高めるために使用できる。
論文 参考訳(メタデータ) (2020-12-16T07:11:16Z) - Convolutional 3D to 2D Patch Conversion for Pixel-wise Glioma
Segmentation in MRI Scans [22.60715394470069]
畳み込み3Dから2次元MRパッチ変換モデルにより,新しい画素ワイドセグメンテーションフレームワークを考案する。
本アーキテクチャでは, 局所スライス特性とグローバルスライス特性を併用して, 中央ボクセルのクラスラベルを推定する。
論文 参考訳(メタデータ) (2020-10-20T20:42:52Z) - Uniformizing Techniques to Process CT scans with 3D CNNs for
Tuberculosis Prediction [5.270882613122642]
深部2次元畳み込みニューラルネットワーク(CNN)を用いたボリュームデータにおける医用画像解析への共通アプローチ
個々のスライスを2D CNNで独立に扱うと、意図したタスクのパフォーマンスが低下する深度情報を意図的に破棄する。
上記の問題に対処するためのボリューム均一化手法のセットを評価する。
画像情報のみを活用する全手法に勝るテストセットに対して,曲線下面積 (AUC) と二分分類精度 (ACC) を67.5%と報告した。
論文 参考訳(メタデータ) (2020-07-26T21:53:47Z) - Cephalometric Landmark Regression with Convolutional Neural Networks on
3D Computed Tomography Data [68.8204255655161]
側方X線写真におけるケパロメトリ解析では, 横面への投射による3次元物体の構造を十分に利用していない。
本稿では,3次元畳み込みニューラルネットワーク(CNN)を用いたキーポイント回帰法について述べる。
本研究は,Frankfort Horizontal および cephalometric points の位置推定において,提案手法を広く評価し,その効果を実証した。
論文 参考訳(メタデータ) (2020-07-20T12:45:38Z) - HRINet: Alternative Supervision Network for High-resolution CT image
Interpolation [3.7966959476339035]
我々は,高分解能CT画像の生成を目的とした,新しいネットワークであるHigh Resolution Interpolation Network (HRINet)を提案する。
本稿では,ACAI と GAN のアイデアを組み合わせて,教師なしと教師なしのトレーニングを適用して,代替監督手法の新たなアイデアを提案する。
実験の結果,2562,5122画像の定量的,定性的に大きな改善が見られた。
論文 参考訳(メタデータ) (2020-02-11T15:09:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。