論文の概要: Learning to Distill Global Representation for Sparse-View CT
- arxiv url: http://arxiv.org/abs/2308.08463v1
- Date: Wed, 16 Aug 2023 16:08:22 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-17 12:44:46.654778
- Title: Learning to Distill Global Representation for Sparse-View CT
- Title(参考訳): スパースビューCTのためのグローバル表現の拡散学習
- Authors: Zilong Li, Chenglong Ma, Jie Chen, Junping Zhang and Hongming shan
- Abstract要約: スパースビューCTのためのグローバル表現フレームワークGloReDiを提案する。
GloReの蒸留の成功は、GloReの方向を整列する表現方向蒸留と、臨床的に重要な詳細を得るためのバンドパス特異的コントラスト蒸留の2つの重要な要素に起因している。
- 参考スコア(独自算出の注目度): 40.20417550937661
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Sparse-view computed tomography (CT) -- using a small number of projections
for tomographic reconstruction -- enables much lower radiation dose to patients
and accelerated data acquisition. The reconstructed images, however, suffer
from strong artifacts, greatly limiting their diagnostic value. Current trends
for sparse-view CT turn to the raw data for better information recovery. The
resultant dual-domain methods, nonetheless, suffer from secondary artifacts,
especially in ultra-sparse view scenarios, and their generalization to other
scanners/protocols is greatly limited. A crucial question arises: have the
image post-processing methods reached the limit? Our answer is not yet. In this
paper, we stick to image post-processing methods due to great flexibility and
propose global representation (GloRe) distillation framework for sparse-view
CT, termed GloReDi. First, we propose to learn GloRe with Fourier convolution,
so each element in GloRe has an image-wide receptive field. Second, unlike
methods that only use the full-view images for supervision, we propose to
distill GloRe from intermediate-view reconstructed images that are readily
available but not explored in previous literature. The success of GloRe
distillation is attributed to two key components: representation directional
distillation to align the GloRe directions, and band-pass-specific contrastive
distillation to gain clinically important details. Extensive experiments
demonstrate the superiority of the proposed GloReDi over the state-of-the-art
methods, including dual-domain ones. The source code is available at
https://github.com/longzilicart/GloReDi.
- Abstract(参考訳): CT (Sparse-view Computed Tomography) は、少量のプロジェクションを用いて、患者の放射線線量を大幅に減少させ、データ取得を加速させる。
しかし、復元された画像は強力なアーティファクトに苦しめられ、診断価値が大幅に制限された。
スパースビューCTの最近の傾向は、情報回復のために生データに目を向ける。
結果として得られた二重ドメインメソッドは、特に超スパースなビューシナリオにおいて二次的なアーティファクトに悩まされ、他のスキャナやプロトコールへの一般化は非常に制限されている。
重要な疑問が生まれます: 画像後処理メソッドは限界に達しましたか?
私たちの答えはまだだ。
本稿では,画像ポストプロセッシング手法を柔軟に活用し,sparse-view ctのためのグローバル表現(glore)蒸留フレームワークglorediを提案する。
まず,Fourier畳み込みによるGloReの学習を提案する。
第2に,全視点画像のみを監督に使用する手法と異なり,従来の文献では見当たらない中間視点画像からグロアを蒸留する手法を提案する。
GloReの蒸留の成功は、GloReの方向を整列する表現方向蒸留と、臨床的に重要な詳細を得るためのバンドパス特異的コントラスト蒸留の2つの重要な要素に起因している。
広汎な実験は、二重ドメインを含む最先端の手法よりもGloReDiの方が優れていることを示した。
ソースコードはhttps://github.com/longzilicart/GloReDiで入手できる。
関連論文リスト
- Deep Radon Prior: A Fully Unsupervised Framework for Sparse-View CT
Reconstruction [6.509941446269504]
提案するフレームワークはデータセットを必要とせず、優れた解釈可能性と一般化能力を示す。
実験結果から,提案手法は画像アーチファクトを効果的に抑制しつつ,詳細な画像を生成することができることが示された。
論文 参考訳(メタデータ) (2023-12-30T04:11:08Z) - Unpaired Optical Coherence Tomography Angiography Image Super-Resolution
via Frequency-Aware Inverse-Consistency GAN [6.717440708401628]
本稿では,GANに基づくOCTA画像の非ペア化超解像法を提案する。
また,再構成画像の正確なスペクトル化を容易にするため,識別器の周波数認識による逆方向の損失も提案する。
実験により,本手法は,他の最先端の未経験手法よりも定量的,視覚的に優れていることが示された。
論文 参考訳(メタデータ) (2023-09-29T14:19:51Z) - Multi-View Vertebra Localization and Identification from CT Images [57.56509107412658]
我々は,CT画像からの多視点椎体局在と同定を提案する。
本研究では,3次元問題を異なる視点における2次元局所化および識別タスクに変換する。
本手法は,多視点グローバル情報を自然に学習することができる。
論文 参考訳(メタデータ) (2023-07-24T14:43:07Z) - FreeSeed: Frequency-band-aware and Self-guided Network for Sparse-view
CT Reconstruction [34.91517935951518]
スパース・ビュー・コンピュート・トモグラフィー(CT)は, 患者への放射線曝露を迅速化し, 患者への放射線照射を緩和するための, 有望な方法である。
近年,深層学習に基づく画像後処理手法が有望な成果を上げている。
本稿では,FREquency-band-awarEとSelf-guidedを併用したFREquency-band-awarEとSelf-guidedネットワークを提案する。
論文 参考訳(メタデータ) (2023-07-12T03:39:54Z) - Geometry-Aware Attenuation Field Learning for Sparse-View CBCT
Reconstruction [61.48254686722434]
Cone Beam Computed Tomography (CBCT) は歯科医療において最も広く用いられている画像診断法である。
Sparse-view CBCT 再建は放射線線量削減に重点を置いている。
本稿では,マルチビューX線プロジェクションからボリューム特徴を初めて符号化することで,新しい減衰場エンコーダデコーダフレームワークを提案する。
論文 参考訳(メタデータ) (2023-03-26T14:38:42Z) - Orientation-Shared Convolution Representation for CT Metal Artifact
Learning [63.67718355820655]
X線CT(CT)スキャン中、患者を乗せた金属インプラントは、しばしば有害なアーティファクトに繋がる。
既存のディープラーニングベースの手法は、有望な再構築性能を得た。
本稿では,人工物の物理的事前構造に適応するために,配向型畳み込み表現戦略を提案する。
論文 参考訳(メタデータ) (2022-12-26T13:56:12Z) - REGAS: REspiratory-GAted Synthesis of Views for Multi-Phase CBCT
Reconstruction from a single 3D CBCT Acquisition [75.64791080418162]
REGASは、アンダーサンプドトモグラフィビューを合成し、再構成画像中のアーティファクトのエイリアスを緩和する自己教師手法を提案する。
高解像度4Dデータ上でのディープニューラルネットワークの大規模なメモリコストに対処するため、REGASは分散して微分可能なフォワードプロジェクションを可能にする新しいレイパス変換(RPT)を導入した。
論文 参考訳(メタデータ) (2022-08-17T03:42:19Z) - InfoNeRF: Ray Entropy Minimization for Few-Shot Neural Volume Rendering [55.70938412352287]
ニューラルな暗黙表現に基づく数ショットの新規ビュー合成のための情報理論正規化手法を提案する。
提案手法は,不十分な視点で発生する潜在的な復元の不整合を最小化する。
複数の標準ベンチマークにおいて,既存のニューラルビュー合成手法と比較して一貫した性能向上を実現している。
論文 参考訳(メタデータ) (2021-12-31T11:56:01Z) - DuDoTrans: Dual-Domain Transformer Provides More Attention for Sinogram
Restoration in Sparse-View CT Reconstruction [13.358197688568463]
撮像過程におけるヨウ素の放射線は 不可逆的な損傷を引き起こす
スパースビューCT画像に現れるアーティファクトを緩和する反復モデルが提案されているが,コストが高すぎる。
textbfDual-textbfDomain textbfDuDoTransを提案する。
論文 参考訳(メタデータ) (2021-11-21T10:41:07Z) - 2-Step Sparse-View CT Reconstruction with a Domain-Specific Perceptual
Network [14.577323946585755]
本稿では,再構成を2段階に分割し,スパースビュートモグラフィのための新しい枠組みを提案する。
中間的な結果は、保存された細部とストリークアーティファクトを高度に縮小したクローズドフォームのトモグラフィー再構成を可能にする。
第2に、復元を訓練したリファインメントネットワークであるprnは、残りのアーティファクトを減らす。
論文 参考訳(メタデータ) (2020-12-08T21:16:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。