論文の概要: S2MS: Self-Supervised Learning Driven Multi-Spectral CT Image
Enhancement
- arxiv url: http://arxiv.org/abs/2201.10294v2
- Date: Wed, 26 Jan 2022 02:48:19 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-27 13:39:58.301398
- Title: S2MS: Self-Supervised Learning Driven Multi-Spectral CT Image
Enhancement
- Title(参考訳): S2MS: 自己監督型学習駆動多スペクトルCT画像強調
- Authors: Chaoyang Zhang, Shaojie Chang, Ti Bai, and Xi Chen
- Abstract要約: マルチスペクトルチャネル(S2MS)を用いた自己教師付き学習に基づくPCCT画像強調フレームワークを提案する。
S2MSフレームワークでは,入力ラベルと出力ラベルの両方がノイズの多い画像であり,特に1つのチャネルイメージを出力とし,他の単一チャネルとチャネルサムイメージを入力としてネットワークをトレーニングした。
- 参考スコア(独自算出の注目度): 6.9515050508618
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Photon counting spectral CT (PCCT) can produce reconstructed attenuation maps
in different energy channels, reflecting energy properties of the scanned
object. Due to the limited photon numbers and the non-ideal detector response
of each energy channel, the reconstructed images usually contain much noise.
With the development of Deep Learning (DL) technique, different kinds of
DL-based models have been proposed for noise reduction. However, most of the
models require clean data set as the training labels, which are not always
available in medical imaging field. Inspiring by the similarities of each
channel's reconstructed image, we proposed a self-supervised learning based
PCCT image enhancement framework via multi-spectral channels (S2MS). In S2MS
framework, both the input and output labels are noisy images. Specifically, one
single channel image was used as output while images of other single channels
and channel-sum image were used as input to train the network, which can fully
use the spectral data information without extra cost. The simulation results
based on the AAPM Low-dose CT Challenge database showed that the proposed S2MS
model can suppress the noise and preserve details more effectively in
comparison with the traditional DL models, which has potential to improve the
image quality of PCCT in clinical applications.
- Abstract(参考訳): 光子計数分光CT(PCCT)は、走査された物体のエネルギー特性を反映して、異なるエネルギーチャネルで再構成された減衰マップを生成することができる。
限られた光子数と各エネルギーチャネルの非理想検出器応答のため、再構成された画像は通常多くのノイズを含む。
ディープラーニング(DL)技術の発展に伴い,ノイズ低減のための多種多様なDLベースモデルが提案されている。
しかし、ほとんどのモデルはトレーニングラベルとしてクリーンなデータセットを必要としており、医療画像分野では必ずしも利用可能ではない。
各チャンネルの再構成画像の類似性から着想を得て,マルチスペクトルチャネル(S2MS)を用いた自己教師付き学習に基づくPCCT画像強調フレームワークを提案する。
s2msフレームワークでは、入力ラベルと出力ラベルの両方がノイズ画像である。
具体的には、1つの単一チャネルイメージを出力として、他の単一チャネルイメージとチャネルサムイメージを入力としてネットワークを訓練し、余分なコストなしでスペクトルデータ情報を完全に使用できる。
AAPM低線量CTチャレンジデータベースに基づくシミュレーションの結果,提案したS2MSモデルは,臨床応用におけるPCCTの画質向上の可能性を秘めた従来のDLモデルと比較して,ノイズを抑え,詳細を効率的に保存できることがわかった。
関連論文リスト
- End-to-End Model-based Deep Learning for Dual-Energy Computed Tomography Material Decomposition [53.14236375171593]
本稿では,定量化のためのエンド・ツー・エンド材料分解(E2E-DEcomp)と呼ばれる深層学習手法を提案する。
AAPMスペクトルCTデータセットにおける直接E2E-DEcomp法の有効性を示す。
論文 参考訳(メタデータ) (2024-06-01T16:20:59Z) - WIA-LD2ND: Wavelet-based Image Alignment for Self-supervised Low-Dose CT Denoising [74.14134385961775]
我々は, NDCTデータのみを用いて, WIA-LD2NDと呼ばれる新しい自己監督型CT画像復調法を提案する。
WIA-LD2ND は Wavelet-based Image Alignment (WIA) と Frequency-Aware Multi-scale Loss (FAM) の2つのモジュールから構成される。
論文 参考訳(メタデータ) (2024-03-18T11:20:11Z) - Rotational Augmented Noise2Inverse for Low-dose Computed Tomography
Reconstruction [83.73429628413773]
改良された深層学習手法は、画像のノイズを除去する能力を示しているが、正確な地上の真実を必要とする。
畳み込みニューラルネットワーク(CNN)のトレーニングに基礎的真理を必要としないLDCTのための新しい自己教師型フレームワークを提案する。
数値および実験結果から,Sparse View を用いた N2I の再構成精度は低下しており,提案手法は異なる範囲のサンプリング角度で画像品質を向上する。
論文 参考訳(メタデータ) (2023-12-19T22:40:51Z) - Retinal OCT Synthesis with Denoising Diffusion Probabilistic Models for
Layer Segmentation [2.4113205575263708]
本稿では,拡散確率モデル(DDPM)を用いて網膜光コヒーレンス断層撮影(OCT)画像を自動的に生成する画像合成手法を提案する。
階層分割の精度を一貫して改善し,様々なニューラルネットワークを用いて検証する。
これらの結果から,網膜CT画像の手動アノテーションの必要性が軽減される可能性が示唆された。
論文 参考訳(メタデータ) (2023-11-09T16:09:24Z) - On Sensitivity and Robustness of Normalization Schemes to Input
Distribution Shifts in Automatic MR Image Diagnosis [58.634791552376235]
深層学習(DL)モデルは、再構成画像を入力として、複数の疾患の診断において最先端のパフォーマンスを達成した。
DLモデルは、トレーニングとテストフェーズ間の入力データ分布の変化につながるため、さまざまなアーティファクトに敏感である。
本稿では,グループ正規化やレイヤ正規化といった他の正規化手法を用いて,画像のさまざまなアーチファクトに対して,モデル性能にロバスト性を注入することを提案する。
論文 参考訳(メタデータ) (2023-06-23T03:09:03Z) - An Attentive-based Generative Model for Medical Image Synthesis [18.94900480135376]
注意に基づく二重コントラスト生成モデルであるADC-cycleGANを提案する。
このモデルは、二重コントラスト損失項とCycleGAN損失を統合し、合成された画像がソース領域と区別可能であることを保証する。
実験により,提案したADCサイクルGANモデルが,他の最先端生成モデルに匹敵するサンプルを生成することが示された。
論文 参考訳(メタデータ) (2023-06-02T14:17:37Z) - Unsupervised denoising for sparse multi-spectral computed tomography [2.969056717104372]
我々は,64チャンネルPCD-CTのスパース測定から高品質な再構成を実現するための課題に対して,学習に基づく改善が適しているかを検討した。
本稿では, 再構成における異なるフィルタ関数と, スペクトルチャネルと核ノルムとの明示的な結合を利用して, 教師なしのデノベーションとアーティファクトの除去手法を提案する。
論文 参考訳(メタデータ) (2022-11-02T14:36:24Z) - Multi-Channel Convolutional Analysis Operator Learning for Dual-Energy
CT Reconstruction [108.06731611196291]
我々は,多チャンネル畳み込み解析演算子学習法(MCAOL)を開発した。
本研究では,低エネルギー,高エネルギーで減衰画像を共同で再構成する最適化手法を提案する。
論文 参考訳(メタデータ) (2022-03-10T14:22:54Z) - Self-Attention Generative Adversarial Network for Iterative
Reconstruction of CT Images [0.9208007322096533]
本研究の目的は、ノイズや不完全なデータから高品質なCT画像を再構成するために、単一のニューラルネットワークを訓練することである。
ネットワークには、データ内の長距離依存関係をモデル化するセルフアテンションブロックが含まれている。
我々のアプローチはCIRCLE GANに匹敵する全体的なパフォーマンスを示し、他の2つのアプローチよりも優れています。
論文 参考訳(メタデータ) (2021-12-23T19:20:38Z) - Modality Completion via Gaussian Process Prior Variational Autoencoders
for Multi-Modal Glioma Segmentation [75.58395328700821]
本稿では,患者スキャンに欠落するサブモダリティを1つ以上のインプットするために,MGP-VAE(Multi-modal Gaussian Process Prior Variational Autoencoder)を提案する。
MGP-VAEは、変分オートエンコーダ(VAE)に先立ってガウス過程(GP)を利用して、被験者/患者およびサブモダリティ相関を利用することができる。
4つのサブモダリティのうち2つ、または3つが欠落している脳腫瘍に対するMGP-VAEの適用性を示す。
論文 参考訳(メタデータ) (2021-07-07T19:06:34Z) - Prediction of low-keV monochromatic images from polyenergetic CT scans
for improved automatic detection of pulmonary embolism [21.47219330040151]
我々は、従来の単エネルギーCT取得からモノE画像の生成をエミュレートできる畳み込みニューラルネットワークを訓練している。
我々は,これらの手法をマルチタスク最適化手法を用いて拡張し,改良された分類と生成結果を実現する。
論文 参考訳(メタデータ) (2021-02-02T11:42:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。