論文の概要: Spectral2Spectral: Image-spectral Similarity Assisted Spectral CT Deep
Reconstruction without Reference
- arxiv url: http://arxiv.org/abs/2210.01125v3
- Date: Thu, 16 Nov 2023 07:48:30 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-17 23:15:27.329141
- Title: Spectral2Spectral: Image-spectral Similarity Assisted Spectral CT Deep
Reconstruction without Reference
- Title(参考訳): Spectral2 Spectral: Image-spectral similarity Assisted Spectral CT Deep Reconstruction without Reference
- Authors: Xiaodong Guo, Longhui Li, Dingyue Chang, Peng He, Peng Feng, Hengyong
Yu, Weiwen Wu
- Abstract要約: 本稿では、教師なしの手法とデータ事前を、Spectral2Spectralという名前の統一されたフレームワークに相乗化するための反復的深層再構築ネットワークを提案する。
我々のSpectral2Spectralは、教師なしの深層学習戦略を用いて、ノイズの多いデータからエンドツーエンドで高品質な画像を得る。
3つの大規模な前臨床データセット実験は、スペクトル2スペクトルが他の最先端の手法よりも優れた画質を再構成することを示した。
- 参考スコア(独自算出の注目度): 5.109423491004876
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: Spectral computed tomography based on a photon-counting detector (PCD)
attracts more and more attentions since it has the capability to provide more
accurate identification and quantitative analysis for biomedical materials. The
limited number of photons within narrow energy bins leads to imaging results of
low signal-noise ratio. The existing supervised deep reconstruction networks
for CT reconstruction are difficult to address these challenges because it is
usually impossible to acquire noise-free clinical images with clear structures
as references. In this paper, we propose an iterative deep reconstruction
network to synergize unsupervised method and data priors into a unified
framework, named as Spectral2Spectral. Our Spectral2Spectral employs an
unsupervised deep training strategy to obtain high-quality images from noisy
data in an end-to-end fashion. The structural similarity prior within
image-spectral domain is refined as a regularization term to further constrain
the network training. The weights of neural network are automatically updated
to capture image features and structures within the iterative process. Three
large-scale preclinical datasets experiments demonstrate that the
Spectral2spectral reconstructs better image quality than other the
state-of-the-art methods.
- Abstract(参考訳): 光子計数検出器(英語版)(PCD)に基づくスペクトル計算トモグラフィーは、バイオメディカル素材のより正確な同定と定量分析を提供する能力を持つため、ますます注目を集めている。
狭いエネルギービン内での光子数の制限は、低信号ノイズ比の撮像結果をもたらす。
既存のCT再建のための教師付き深層再構築ネットワークは,ノイズのない臨床像を基準として取得することは不可能であるため,これらの課題に対処するのは難しい。
本稿では,教師なし手法とデータ先行処理を,Spectral2Spectralという名前の統一フレームワークに相乗化するための反復的深層再構築ネットワークを提案する。
我々のSpectral2Spectralは、教師なしの深層学習戦略を用いて、ノイズの多いデータからエンドツーエンドで高品質な画像を得る。
画像スペクトル領域内の構造的類似性は、ネットワークトレーニングをさらに制約するために正規化項として洗練される。
ニューラルネットワークの重みは自動的に更新され、反復プロセス内の画像の特徴と構造をキャプチャする。
3つの大規模な前臨床データセット実験は、スペクトル2スペクトルが他の最先端の手法よりも優れた画質を再構成することを示した。
関連論文リスト
- Unsupervised denoising for sparse multi-spectral computed tomography [2.969056717104372]
我々は,64チャンネルPCD-CTのスパース測定から高品質な再構成を実現するための課題に対して,学習に基づく改善が適しているかを検討した。
本稿では, 再構成における異なるフィルタ関数と, スペクトルチャネルと核ノルムとの明示的な結合を利用して, 教師なしのデノベーションとアーティファクトの除去手法を提案する。
論文 参考訳(メタデータ) (2022-11-02T14:36:24Z) - OADAT: Experimental and Synthetic Clinical Optoacoustic Data for
Standardized Image Processing [62.993663757843464]
オプトアコースティック(OA)イメージングは、ナノ秒レーザーパルスによる生体組織の励起と、光吸収による熱弾性膨張によって発生する超音波の検出に基づいている。
OAイメージングは、深部組織における豊富な光学コントラストと高分解能の強力な組み合わせを特徴としている。
臨床環境でのOAの幅広い応用を促進するために、異なるタイプの実験的なセットアップと関連する処理手法で生成される標準化データセットは存在しない。
論文 参考訳(メタデータ) (2022-06-17T08:11:26Z) - Multi-scale reconstruction of undersampled spectral-spatial OCT data for
coronary imaging using deep learning [1.8359410255568984]
血管内光コヒーレンス断層撮影(IV OCT)は冠状動脈疾患(CAD)の診断・治療に最適であると考えられる。
高分解能と高速走査率のトレードオフがある。
本稿では,スペクトル領域と空間領域の両方でサンプリングプロセスをダウンスケールするスペクトル空間取得手法を提案する。
論文 参考訳(メタデータ) (2022-04-25T16:37:25Z) - Sharp-GAN: Sharpness Loss Regularized GAN for Histopathology Image
Synthesis [65.47507533905188]
コンディショナル・ジェネレーショナル・ジェネレーティブ・逆境ネットワークは、合成病理像を生成するために応用されている。
そこで我々は,現実的な病理像を合成するために,シャープネスロス正則化生成対向ネットワークを提案する。
論文 参考訳(メタデータ) (2021-10-27T18:54:25Z) - The Application of Convolutional Neural Networks for Tomographic
Reconstruction of Hyperspectral Images [0.0]
畳み込みニューラルネットワーク(CNN)を用いた新しい手法を提案し,CTIS(Computed Imaging Spectrometer)画像から超スペクトル立方体を再構成する。
CNNは標準的な予測アルゴリズムよりも精度が高く、復元時間が短い。
論文 参考訳(メタデータ) (2021-08-30T18:11:08Z) - SpectralFormer: Rethinking Hyperspectral Image Classification with
Transformers [91.09957836250209]
ハイパースペクトル(HS)画像は、ほぼ連続したスペクトル情報によって特徴づけられる。
CNNは、HS画像分類において強力な特徴抽出器であることが証明されている。
我々は、HS画像分類のためのulSpectralFormerと呼ばれる新しいバックボーンネットワークを提案する。
論文 参考訳(メタデータ) (2021-07-07T02:59:21Z) - Adaptive Gradient Balancing for UndersampledMRI Reconstruction and
Image-to-Image Translation [60.663499381212425]
本研究では,新しい適応勾配バランス手法を併用したwasserstein生成逆ネットワークを用いて,画質の向上を図る。
MRIでは、他の技術よりも鮮明な画像を生成する高品質の再構築を維持しながら、アーティファクトを最小限に抑えます。
論文 参考訳(メタデータ) (2021-04-05T13:05:22Z) - Neural network-based image reconstruction in swept-source optical
coherence tomography using undersampled spectral data [0.0]
このフレームワークは、空間的エイリアシングアーティファクトを使わずに、アンダーサンプされたスペクトルデータを用いて、スクラップソースのOCT画像を生成することができる。
既存の swept-source または spectrum domain OCT システムと容易に統合できる。
このディープラーニング対応画像再構成アプローチは、様々なスペクトル領域octシステムで広く使用することができる。
論文 参考訳(メタデータ) (2021-03-04T22:30:31Z) - Prediction of low-keV monochromatic images from polyenergetic CT scans
for improved automatic detection of pulmonary embolism [21.47219330040151]
我々は、従来の単エネルギーCT取得からモノE画像の生成をエミュレートできる畳み込みニューラルネットワークを訓練している。
我々は,これらの手法をマルチタスク最適化手法を用いて拡張し,改良された分類と生成結果を実現する。
論文 参考訳(メタデータ) (2021-02-02T11:42:31Z) - Spectral Analysis Network for Deep Representation Learning and Image
Clustering [53.415803942270685]
本稿ではスペクトル分析に基づく教師なし深層表現学習のための新しいネットワーク構造を提案する。
パッチレベルで画像間の局所的な類似性を識別できるため、閉塞に対してより堅牢である。
クラスタリングに親しみやすい表現を学習し、データサンプル間の深い相関を明らかにすることができる。
論文 参考訳(メタデータ) (2020-09-11T05:07:15Z) - Learning Spatial-Spectral Prior for Super-Resolution of Hyperspectral
Imagery [79.69449412334188]
本稿では,最先端の残差学習をベースとした単一グレー/RGB画像の超解像化手法について検討する。
本稿では,空間情報とハイパースペクトルデータのスペクトル間の相関をフル活用するための空間スペクトル先行ネットワーク(SSPN)を提案する。
実験結果から,SSPSR法により高分解能高分解能高分解能画像の詳細が得られた。
論文 参考訳(メタデータ) (2020-05-18T14:25:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。