論文の概要: Learning to Distill Global Representation for Sparse-View CT
- arxiv url: http://arxiv.org/abs/2308.08463v1
- Date: Wed, 16 Aug 2023 16:08:22 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-17 12:44:46.654778
- Title: Learning to Distill Global Representation for Sparse-View CT
- Title(参考訳): スパースビューCTのためのグローバル表現の拡散学習
- Authors: Zilong Li, Chenglong Ma, Jie Chen, Junping Zhang and Hongming shan
- Abstract要約: スパースビューCTのためのグローバル表現フレームワークGloReDiを提案する。
GloReの蒸留の成功は、GloReの方向を整列する表現方向蒸留と、臨床的に重要な詳細を得るためのバンドパス特異的コントラスト蒸留の2つの重要な要素に起因している。
- 参考スコア(独自算出の注目度): 40.20417550937661
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Sparse-view computed tomography (CT) -- using a small number of projections
for tomographic reconstruction -- enables much lower radiation dose to patients
and accelerated data acquisition. The reconstructed images, however, suffer
from strong artifacts, greatly limiting their diagnostic value. Current trends
for sparse-view CT turn to the raw data for better information recovery. The
resultant dual-domain methods, nonetheless, suffer from secondary artifacts,
especially in ultra-sparse view scenarios, and their generalization to other
scanners/protocols is greatly limited. A crucial question arises: have the
image post-processing methods reached the limit? Our answer is not yet. In this
paper, we stick to image post-processing methods due to great flexibility and
propose global representation (GloRe) distillation framework for sparse-view
CT, termed GloReDi. First, we propose to learn GloRe with Fourier convolution,
so each element in GloRe has an image-wide receptive field. Second, unlike
methods that only use the full-view images for supervision, we propose to
distill GloRe from intermediate-view reconstructed images that are readily
available but not explored in previous literature. The success of GloRe
distillation is attributed to two key components: representation directional
distillation to align the GloRe directions, and band-pass-specific contrastive
distillation to gain clinically important details. Extensive experiments
demonstrate the superiority of the proposed GloReDi over the state-of-the-art
methods, including dual-domain ones. The source code is available at
https://github.com/longzilicart/GloReDi.
- Abstract(参考訳): CT (Sparse-view Computed Tomography) は、少量のプロジェクションを用いて、患者の放射線線量を大幅に減少させ、データ取得を加速させる。
しかし、復元された画像は強力なアーティファクトに苦しめられ、診断価値が大幅に制限された。
スパースビューCTの最近の傾向は、情報回復のために生データに目を向ける。
結果として得られた二重ドメインメソッドは、特に超スパースなビューシナリオにおいて二次的なアーティファクトに悩まされ、他のスキャナやプロトコールへの一般化は非常に制限されている。
重要な疑問が生まれます: 画像後処理メソッドは限界に達しましたか?
私たちの答えはまだだ。
本稿では,画像ポストプロセッシング手法を柔軟に活用し,sparse-view ctのためのグローバル表現(glore)蒸留フレームワークglorediを提案する。
まず,Fourier畳み込みによるGloReの学習を提案する。
第2に,全視点画像のみを監督に使用する手法と異なり,従来の文献では見当たらない中間視点画像からグロアを蒸留する手法を提案する。
GloReの蒸留の成功は、GloReの方向を整列する表現方向蒸留と、臨床的に重要な詳細を得るためのバンドパス特異的コントラスト蒸留の2つの重要な要素に起因している。
広汎な実験は、二重ドメインを含む最先端の手法よりもGloReDiの方が優れていることを示した。
ソースコードはhttps://github.com/longzilicart/GloReDiで入手できる。
関連論文リスト
- Differentiable Gaussian Representation for Incomplete CT Reconstruction [20.390232991700977]
ニューラルネットやフルドーズCTデータを使わずに,新しいGaussian Representation for Incomplete CT Reconstruction (GRCT)を提案する。
アーキテクチャを変更することなく、複数のビューや角度に適用することができる。
複数のデータセットと設定の実験では、再構築品質のメトリクスと高い効率が大幅に改善された。
論文 参考訳(メタデータ) (2024-11-07T16:32:29Z) - Deep Learning Based Speckle Filtering for Polarimetric SAR Images. Application to Sentinel-1 [51.404644401997736]
本稿では、畳み込みニューラルネットワークを用いて偏光SAR画像のスペックルを除去するための完全なフレームワークを提案する。
実験により,提案手法はスペックル低減と分解能保存の両方において例外的な結果をもたらすことが示された。
論文 参考訳(メタデータ) (2024-08-28T10:07:17Z) - CoCPF: Coordinate-based Continuous Projection Field for Ill-Posed Inverse Problem in Imaging [78.734927709231]
スパース・ビュー・コンピュート・トモグラフィー(SVCT)の再構成は,スパース・サンプリングによるCT画像の取得を目的としている。
暗黙的な神経表現(INR)技術は、不備のため、その分野に「かなりの穴」(すなわち、未モデル化空間)を残し、準最適結果をもたらす可能性がある。
SVCT再構成のためのホールフリー表現場を構築することを目的としたコーディネート型連続射影場(CoCPF)を提案する。
論文 参考訳(メタデータ) (2024-06-21T08:38:30Z) - MVMS-RCN: A Dual-Domain Unfolding CT Reconstruction with Multi-sparse-view and Multi-scale Refinement-correction [9.54126979075279]
スパースビューCTは、低線量へのプロジェクションビューの数を減少させる。
既存の深層学習(DL)と深部展開スパルスCT再構成法では,プロジェクションデータを完全には利用していない。
本稿では,スパルス・ビュー・トモグラフィー再構成のための数学的アイデアと最適DLイメージングアルゴリズムの設計を目的とする。
論文 参考訳(メタデータ) (2024-05-27T13:01:25Z) - Deep Radon Prior: A Fully Unsupervised Framework for Sparse-View CT
Reconstruction [6.509941446269504]
提案するフレームワークはデータセットを必要とせず、優れた解釈可能性と一般化能力を示す。
実験結果から,提案手法は画像アーチファクトを効果的に抑制しつつ,詳細な画像を生成することができることが示された。
論文 参考訳(メタデータ) (2023-12-30T04:11:08Z) - Multi-View Vertebra Localization and Identification from CT Images [57.56509107412658]
我々は,CT画像からの多視点椎体局在と同定を提案する。
本研究では,3次元問題を異なる視点における2次元局所化および識別タスクに変換する。
本手法は,多視点グローバル情報を自然に学習することができる。
論文 参考訳(メタデータ) (2023-07-24T14:43:07Z) - FreeSeed: Frequency-band-aware and Self-guided Network for Sparse-view
CT Reconstruction [34.91517935951518]
スパース・ビュー・コンピュート・トモグラフィー(CT)は, 患者への放射線曝露を迅速化し, 患者への放射線照射を緩和するための, 有望な方法である。
近年,深層学習に基づく画像後処理手法が有望な成果を上げている。
本稿では,FREquency-band-awarEとSelf-guidedを併用したFREquency-band-awarEとSelf-guidedネットワークを提案する。
論文 参考訳(メタデータ) (2023-07-12T03:39:54Z) - REGAS: REspiratory-GAted Synthesis of Views for Multi-Phase CBCT
Reconstruction from a single 3D CBCT Acquisition [75.64791080418162]
REGASは、アンダーサンプドトモグラフィビューを合成し、再構成画像中のアーティファクトのエイリアスを緩和する自己教師手法を提案する。
高解像度4Dデータ上でのディープニューラルネットワークの大規模なメモリコストに対処するため、REGASは分散して微分可能なフォワードプロジェクションを可能にする新しいレイパス変換(RPT)を導入した。
論文 参考訳(メタデータ) (2022-08-17T03:42:19Z) - InfoNeRF: Ray Entropy Minimization for Few-Shot Neural Volume Rendering [55.70938412352287]
ニューラルな暗黙表現に基づく数ショットの新規ビュー合成のための情報理論正規化手法を提案する。
提案手法は,不十分な視点で発生する潜在的な復元の不整合を最小化する。
複数の標準ベンチマークにおいて,既存のニューラルビュー合成手法と比較して一貫した性能向上を実現している。
論文 参考訳(メタデータ) (2021-12-31T11:56:01Z) - DuDoTrans: Dual-Domain Transformer Provides More Attention for Sinogram
Restoration in Sparse-View CT Reconstruction [13.358197688568463]
撮像過程におけるヨウ素の放射線は 不可逆的な損傷を引き起こす
スパースビューCT画像に現れるアーティファクトを緩和する反復モデルが提案されているが,コストが高すぎる。
textbfDual-textbfDomain textbfDuDoTransを提案する。
論文 参考訳(メタデータ) (2021-11-21T10:41:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。