論文の概要: A Lightweight Dual-Domain Attention Framework for Sparse-View CT
Reconstruction
- arxiv url: http://arxiv.org/abs/2202.09609v1
- Date: Sat, 19 Feb 2022 14:04:59 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-23 10:30:20.958878
- Title: A Lightweight Dual-Domain Attention Framework for Sparse-View CT
Reconstruction
- Title(参考訳): Sparse-View CT再構成のための軽量デュアルドメインアテンションフレームワーク
- Authors: Chang Sun, Ken Deng, Yitong Liu, Hongwen Yang
- Abstract要約: 我々はCAGANと呼ばれる新しい軽量ネットワークを設計し、並列ビームスパースCTのための二重領域再構成パイプラインを提案する。
Shuffle Blocksの適用により、パフォーマンスを犠牲にすることなく、パラメータを4分の1削減できる。
実験の結果、CAGANはモデルの複雑さとパフォーマンスのバランスが良く、私たちのパイプラインはDD-NetとDuDoNetより優れています。
- 参考スコア(独自算出の注目度): 6.553233856627479
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Computed Tomography (CT) plays an essential role in clinical diagnosis. Due
to the adverse effects of radiation on patients, the radiation dose is expected
to be reduced as low as possible. Sparse sampling is an effective way, but it
will lead to severe artifacts on the reconstructed CT image, thus sparse-view
CT image reconstruction has been a prevailing and challenging research area.
With the popularity of mobile devices, the requirements for lightweight and
real-time networks are increasing rapidly. In this paper, we design a novel
lightweight network called CAGAN, and propose a dual-domain reconstruction
pipeline for parallel beam sparse-view CT. CAGAN is an adversarial
auto-encoder, combining the Coordinate Attention unit, which preserves the
spatial information of features. Also, the application of Shuffle Blocks
reduces the parameters by a quarter without sacrificing its performance. In the
Radon domain, the CAGAN learns the mapping between the interpolated data and
fringe-free projection data. After the restored Radon data is reconstructed to
an image, the image is sent into the second CAGAN trained for recovering the
details, so that a high-quality image is obtained. Experiments indicate that
the CAGAN strikes an excellent balance between model complexity and
performance, and our pipeline outperforms the DD-Net and the DuDoNet.
- Abstract(参考訳): CTは臨床診断において重要な役割を担っている。
放射線が患者に悪影響を及ぼすため、放射線線量も可能な限り減少することが期待されている。
スパースサンプリングは有効な方法であるが, 再構成CT画像に深刻なアーティファクトが生じるため, スパース・ビューCT画像再構成が普及し, 課題となっている。
モバイルデバイスの普及に伴い、軽量・リアルタイムネットワークの要件は急速に増加している。
本稿では,caganと呼ばれる新しい軽量ネットワークを設計し,並列ビームスパースビューctのためのデュアルドメイン再構成パイプラインを提案する。
CAGANは、特徴の空間情報を保存するコーディネート・アテンション・ユニットを組み合わせた対向的自動エンコーダである。
また、Shuffle Blocksの適用により、性能を犠牲にすることなくパラメータを4分の1削減できる。
ラドン領域では、CAGANは補間されたデータとフリンジフリー投影データの間のマッピングを学習する。
復元されたラドンデータを画像に再構成した後、その詳細を復元する訓練を受けた第2のCAGANに画像を送り込み、高品質な画像を得る。
実験の結果、CAGANはモデルの複雑さとパフォーマンスのバランスが良く、私たちのパイプラインはDD-NetとDuDoNetより優れています。
関連論文リスト
- CoCPF: Coordinate-based Continuous Projection Field for Ill-Posed Inverse Problem in Imaging [78.734927709231]
スパース・ビュー・コンピュート・トモグラフィー(SVCT)の再構成は,スパース・サンプリングによるCT画像の取得を目的としている。
暗黙的な神経表現(INR)技術は、不備のため、その分野に「かなりの穴」(すなわち、未モデル化空間)を残し、準最適結果をもたらす可能性がある。
SVCT再構成のためのホールフリー表現場を構築することを目的としたコーディネート型連続射影場(CoCPF)を提案する。
論文 参考訳(メタデータ) (2024-06-21T08:38:30Z) - UnWave-Net: Unrolled Wavelet Network for Compton Tomography Image Reconstruction [0.0]
Compton scatter tomography (CST) は従来のCTの代替として興味深いものである。
ディープ・アンローリング・ネットワークはCT画像再構成の可能性を実証している。
UnWave-Netは、新しいウェーブレットベースの再構成ネットワークである。
論文 参考訳(メタデータ) (2024-06-05T16:10:29Z) - Rotational Augmented Noise2Inverse for Low-dose Computed Tomography
Reconstruction [83.73429628413773]
改良された深層学習手法は、画像のノイズを除去する能力を示しているが、正確な地上の真実を必要とする。
畳み込みニューラルネットワーク(CNN)のトレーニングに基礎的真理を必要としないLDCTのための新しい自己教師型フレームワークを提案する。
数値および実験結果から,Sparse View を用いた N2I の再構成精度は低下しており,提案手法は異なる範囲のサンプリング角度で画像品質を向上する。
論文 参考訳(メタデータ) (2023-12-19T22:40:51Z) - Leveraging Neural Radiance Fields for Uncertainty-Aware Visual
Localization [56.95046107046027]
我々は,Neural Radiance Fields (NeRF) を用いてシーン座標回帰のためのトレーニングサンプルを生成することを提案する。
レンダリングにおけるNeRFの効率にもかかわらず、レンダリングされたデータの多くはアーティファクトによって汚染されるか、最小限の情報ゲインしか含まない。
論文 参考訳(メタデータ) (2023-10-10T20:11:13Z) - REGAS: REspiratory-GAted Synthesis of Views for Multi-Phase CBCT
Reconstruction from a single 3D CBCT Acquisition [75.64791080418162]
REGASは、アンダーサンプドトモグラフィビューを合成し、再構成画像中のアーティファクトのエイリアスを緩和する自己教師手法を提案する。
高解像度4Dデータ上でのディープニューラルネットワークの大規模なメモリコストに対処するため、REGASは分散して微分可能なフォワードプロジェクションを可能にする新しいレイパス変換(RPT)を導入した。
論文 参考訳(メタデータ) (2022-08-17T03:42:19Z) - A three-dimensional dual-domain deep network for high-pitch and sparse
helical CT reconstruction [13.470588027095264]
我々はヘリカルCT再構成のためのKatsevichアルゴリズムのGPU実装を提案する。
本実装では, シングラムを分割し, CT画像のピッチをピッチで再構成する。
この実装をネットワークに埋め込むことにより,高ピッチヘリカルCT再構成のためのエンドツーエンドのディープネットワークを提案する。
論文 参考訳(メタデータ) (2022-01-07T03:26:15Z) - Self-Attention Generative Adversarial Network for Iterative
Reconstruction of CT Images [0.9208007322096533]
本研究の目的は、ノイズや不完全なデータから高品質なCT画像を再構成するために、単一のニューラルネットワークを訓練することである。
ネットワークには、データ内の長距離依存関係をモデル化するセルフアテンションブロックが含まれている。
我々のアプローチはCIRCLE GANに匹敵する全体的なパフォーマンスを示し、他の2つのアプローチよりも優れています。
論文 参考訳(メタデータ) (2021-12-23T19:20:38Z) - InDuDoNet+: A Model-Driven Interpretable Dual Domain Network for Metal
Artifact Reduction in CT Images [53.4351366246531]
InDuDoNet+と呼ばれる新しい解釈可能な二重ドメインネットワークを構築し、CT画像の微細な埋め込みを行う。
異なる組織間のCT値を分析し,InDuDoNet+の事前観測ネットワークにマージすることで,その一般化性能を著しく向上させる。
論文 参考訳(メタデータ) (2021-12-23T15:52:37Z) - Is Deep Image Prior in Need of a Good Education? [57.3399060347311]
画像再構成に有効な先行画像として, 奥行き画像が導入された。
その印象的な再建性にもかかわらず、学習技術や伝統的な再建技術と比べてアプローチは遅い。
計算課題に対処する2段階の学習パラダイムを開発する。
論文 参考訳(メタデータ) (2021-11-23T15:08:26Z) - DuDoTrans: Dual-Domain Transformer Provides More Attention for Sinogram
Restoration in Sparse-View CT Reconstruction [13.358197688568463]
撮像過程におけるヨウ素の放射線は 不可逆的な損傷を引き起こす
スパースビューCT画像に現れるアーティファクトを緩和する反復モデルが提案されているが,コストが高すぎる。
textbfDual-textbfDomain textbfDuDoTransを提案する。
論文 参考訳(メタデータ) (2021-11-21T10:41:07Z) - High-quality Low-dose CT Reconstruction Using Convolutional Neural
Networks with Spatial and Channel Squeeze and Excitation [15.05273611411106]
低線量CT(Low-dose Computed Tomography)によるCT画像再構成のための高品質画像ネットワーク(HQINET)を提案する。
HQINETは畳み込みエンコーダ-デコーダアーキテクチャであり、エンコーダを使用して3つの連続スライスから空間的および時間的情報を抽出した。
論文 参考訳(メタデータ) (2021-04-01T08:15:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。