論文の概要: Sparse-View Spectral CT Reconstruction Using Deep Learning
- arxiv url: http://arxiv.org/abs/2011.14842v2
- Date: Fri, 26 Mar 2021 23:49:03 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-06 14:36:23.101667
- Title: Sparse-View Spectral CT Reconstruction Using Deep Learning
- Title(参考訳): 深層学習を用いたSparse-View Spectral CT再構成
- Authors: Wail Mustafa, Christian Kehl, Ulrik Lund Olsen, S{\o}ren Kimmer Schou
Gregersen, David Malmgren-Hansen, Jan Kehres, Anders Bjorholm Dahl
- Abstract要約: マルチチャネル入力と出力を持つU-Net畳み込みニューラルネットワークアーキテクチャを用いて、スパースビュースペクトルCTデータを高速に再構成する手法を提案する。
我々の手法は実行時に高速であり、内部の畳み込みはチャネル間で共有されるため、計算負荷は第一層と最後の層でのみ増加する。
- 参考スコア(独自算出の注目度): 0.283239609744735
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Spectral computed tomography (CT) is an emerging technology capable of
providing high chemical specificity, which is crucial for many applications
such as detecting threats in luggage. This type of application requires both
fast and high-quality image reconstruction and is often based on sparse-view
(few) projections. The conventional filtered back projection (FBP) method is
fast but it produces low-quality images dominated by noise and artifacts in
sparse-view CT. Iterative methods with, e.g., total variation regularizers can
circumvent that but they are computationally expensive, as the computational
load proportionally increases with the number of spectral channels. Instead, we
propose an approach for fast reconstruction of sparse-view spectral CT data
using a U-Net convolutional neural network architecture with multi-channel
input and output. The network is trained to output high-quality CT images from
FBP input image reconstructions. Our method is fast at run-time and because the
internal convolutions are shared between the channels, the computational load
increases only at the first and last layers, making it an efficient approach to
process spectral data with a large number of channels. We have validated our
approach using real CT scans. Our results show qualitatively and quantitatively
that our approach outperforms the state-of-the-art iterative methods.
Furthermore, the results indicate that the network can exploit the coupling of
the channels to enhance the overall quality and robustness.
- Abstract(参考訳): 分光CT (Spectral Computed Tomography) は、高い化学的特異性を提供できる新興技術であり、荷物の脅威を検出するなど多くの用途に欠かせない。
このタイプのアプリケーションは高速で高品質な画像再構成を必要とし、しばしばスパースビュー(few)投影に基づいている。
従来のフィルタバックプロジェクション (FBP) 法は高速であるが, スペクトルチャネルの数で計算負荷が比例的に増加するため, 総変量正規化器による反復的手法では回避できるが, 計算コストは計算コストが高い。
代わりに、マルチチャネル入力と出力を備えたU-Net畳み込みニューラルネットワークアーキテクチャを用いて、スパースビュースペクトルCTデータの高速再構成を行う手法を提案する。
ネットワークは、FBP入力画像再構成から高品質なCT画像を出力するように訓練されている。
提案手法は実行時に高速であり,内部畳み込みはチャネル間で共有されるため,計算負荷は第1層と最終層でのみ増加するため,多数のチャネルでスペクトルデータを処理するための効率的なアプローチとなる。
実際のCTスキャンによるアプローチの検証を行った。
その結果,我々のアプローチが最先端の反復的手法よりも優れていることが定性的かつ定量的に示された。
さらに,ネットワークはチャネルの結合を利用して全体の品質と堅牢性を高めることができることを示す。
関連論文リスト
- UnWave-Net: Unrolled Wavelet Network for Compton Tomography Image Reconstruction [0.0]
Compton scatter tomography (CST) は従来のCTの代替として興味深いものである。
ディープ・アンローリング・ネットワークはCT画像再構成の可能性を実証している。
UnWave-Netは、新しいウェーブレットベースの再構成ネットワークである。
論文 参考訳(メタデータ) (2024-06-05T16:10:29Z) - WiTUnet: A U-Shaped Architecture Integrating CNN and Transformer for Improved Feature Alignment and Local Information Fusion [16.41082757280262]
低線量CT (LDCT) は, 標準CTと比較して放射線線量が少ないことから, 医用画像診断において選択される技術となっている。
本稿では,従来のスキップ接続ではなく,ネストされた高密度スキップ経路を利用するLDCT画像復号法であるWiTUnetを紹介する。
論文 参考訳(メタデータ) (2024-04-15T07:53:07Z) - TCCT-Net: Two-Stream Network Architecture for Fast and Efficient Engagement Estimation via Behavioral Feature Signals [58.865901821451295]
本稿では,新しい2ストリーム機能融合 "Tensor-Convolution and Convolution-Transformer Network" (TCCT-Net) アーキテクチャを提案する。
時間空間領域における意味のあるパターンをよりよく学習するために、ハイブリッド畳み込み変換器を統合する「CT」ストリームを設計する。
並行して、時間周波数領域からリッチなパターンを効率的に抽出するために、連続ウェーブレット変換(CWT)を用いて情報を2次元テンソル形式で表現する「TC」ストリームを導入する。
論文 参考訳(メタデータ) (2024-04-15T06:01:48Z) - Distance Weighted Trans Network for Image Completion [52.318730994423106]
本稿では,DWT(Distance-based Weighted Transformer)を利用した画像コンポーネント間の関係をよりよく理解するためのアーキテクチャを提案する。
CNNは、粗い事前の局所的なテクスチャ情報を強化するために使用される。
DWTブロックは、特定の粗いテクスチャやコヒーレントな視覚構造を復元するために使用される。
論文 参考訳(メタデータ) (2023-10-11T12:46:11Z) - A three-dimensional dual-domain deep network for high-pitch and sparse
helical CT reconstruction [13.470588027095264]
我々はヘリカルCT再構成のためのKatsevichアルゴリズムのGPU実装を提案する。
本実装では, シングラムを分割し, CT画像のピッチをピッチで再構成する。
この実装をネットワークに埋め込むことにより,高ピッチヘリカルCT再構成のためのエンドツーエンドのディープネットワークを提案する。
論文 参考訳(メタデータ) (2022-01-07T03:26:15Z) - The Application of Convolutional Neural Networks for Tomographic
Reconstruction of Hyperspectral Images [0.0]
畳み込みニューラルネットワーク(CNN)を用いた新しい手法を提案し,CTIS(Computed Imaging Spectrometer)画像から超スペクトル立方体を再構成する。
CNNは標準的な予測アルゴリズムよりも精度が高く、復元時間が短い。
論文 参考訳(メタデータ) (2021-08-30T18:11:08Z) - Fast and High-Quality Blind Multi-Spectral Image Pansharpening [48.68143888901669]
ブラインドパンスハーピングへの迅速なアプローチを提案し、最新の画像再構築品質を実現します。
速い盲目のpansharpeningを達成するために、私達はぼかしのカーネルおよびHRMSのイメージの解決を分離します。
アルゴリズムは計算時間と再構成品質の両面で最先端のモデルベースを上回っている。
論文 参考訳(メタデータ) (2021-03-17T23:12:14Z) - Learning Frequency-aware Dynamic Network for Efficient Super-Resolution [56.98668484450857]
本稿では、離散コサイン変換(dct)領域の係数に応じて入力を複数の部分に分割する新しい周波数認識動的ネットワークについて検討する。
実際、高周波部は高価な操作で処理され、低周波部は計算負荷を軽減するために安価な操作が割り当てられる。
ベンチマークSISRモデルおよびデータセット上での実験は、周波数認識動的ネットワークが様々なSISRニューラルネットワークに使用できることを示している。
論文 参考訳(メタデータ) (2021-03-15T12:54:26Z) - Deep Unfolded Recovery of Sub-Nyquist Sampled Ultrasound Image [94.42139459221784]
本稿では,ISTAアルゴリズムの展開に基づく時空間領域におけるサブNyquistサンプルからの再構成手法を提案する。
本手法は,高品質な撮像性能を確保しつつ,配列要素数,サンプリングレート,計算時間を削減できる。
論文 参考訳(メタデータ) (2021-03-01T19:19:38Z) - Learning Spatial-Spectral Prior for Super-Resolution of Hyperspectral
Imagery [79.69449412334188]
本稿では,最先端の残差学習をベースとした単一グレー/RGB画像の超解像化手法について検討する。
本稿では,空間情報とハイパースペクトルデータのスペクトル間の相関をフル活用するための空間スペクトル先行ネットワーク(SSPN)を提案する。
実験結果から,SSPSR法により高分解能高分解能高分解能画像の詳細が得られた。
論文 参考訳(メタデータ) (2020-05-18T14:25:50Z) - Learned Spectral Computed Tomography [0.0]
スペクトル光子結合型CTのためのディープラーニングイメージング法を提案する。
この方法は、ケース固有データを用いて訓練された2段階の学習された原始双対アルゴリズムの形を取る。
提案手法は, 限られたデータの場合であっても, 高速再構成機能と高速撮像性能により特徴付けられる。
論文 参考訳(メタデータ) (2020-03-09T13:39:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。