論文の概要: CoCPF: Coordinate-based Continuous Projection Field for Ill-Posed Inverse Problem in Imaging
- arxiv url: http://arxiv.org/abs/2406.14976v1
- Date: Fri, 21 Jun 2024 08:38:30 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-24 14:13:25.516659
- Title: CoCPF: Coordinate-based Continuous Projection Field for Ill-Posed Inverse Problem in Imaging
- Title(参考訳): CoCPF: Ill-Posed Inverse Problem in Imagingのための座標型連続射影場
- Authors: Zixuan Chen, Lingxiao Yang, Jian-Huang Lai, Xiaohua Xie,
- Abstract要約: スパース・ビュー・コンピュート・トモグラフィー(SVCT)の再構成は,スパース・サンプリングによるCT画像の取得を目的としている。
暗黙的な神経表現(INR)技術は、不備のため、その分野に「かなりの穴」(すなわち、未モデル化空間)を残し、準最適結果をもたらす可能性がある。
SVCT再構成のためのホールフリー表現場を構築することを目的としたコーディネート型連続射影場(CoCPF)を提案する。
- 参考スコア(独自算出の注目度): 78.734927709231
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Sparse-view computed tomography (SVCT) reconstruction aims to acquire CT images based on sparsely-sampled measurements. It allows the subjects exposed to less ionizing radiation, reducing the lifetime risk of developing cancers. Recent researches employ implicit neural representation (INR) techniques to reconstruct CT images from a single SV sinogram. However, due to ill-posedness, these INR-based methods may leave considerable ``holes'' (i.e., unmodeled spaces) in their fields, leading to sub-optimal results. In this paper, we propose the Coordinate-based Continuous Projection Field (CoCPF), which aims to build hole-free representation fields for SVCT reconstruction, achieving better reconstruction quality. Specifically, to fill the holes, CoCPF first employs the stripe-based volume sampling module to broaden the sampling regions of Radon transformation from rays (1D space) to stripes (2D space), which can well cover the internal regions between SV projections. Then, by feeding the sampling regions into the proposed differentiable rendering modules, the holes can be jointly optimized during training, reducing the ill-posed levels. As a result, CoCPF can accurately estimate the internal measurements between SV projections (i.e., DV sinograms), producing high-quality CT images after re-projection. Extensive experiments on simulated and real projection datasets demonstrate that CoCPF outperforms state-of-the-art methods for 2D and 3D SVCT reconstructions under various projection numbers and geometries, yielding fine-grained details and fewer artifacts. Our code will be publicly available.
- Abstract(参考訳): スパース・ビュー・コンピュート・トモグラフィー(SVCT)の再構成は,スパース・サンプリングによるCT画像の取得を目的としている。
これにより、被曝体は電離放射線を減らし、がんの発生リスクを軽減できる。
近年の研究では、暗黙の神経表現(INR)技術を用いて、単一のSVシングラムからCT画像を再構成している。
しかし、不合理性のため、これらのINRベースの手法はフィールドに相当な 'holes' (すなわち、未モデル化空間) を残し、準最適結果をもたらす可能性がある。
本稿では,SVCT再構成のためのホールフリー表現場を構築することを目的としたコーディネート型連続射影場(CoCPF)を提案する。
特に、穴を埋めるために、CoCPFはまずストリップベースの体積サンプリングモジュールを使用し、1D空間からストリップ(2D空間)へのラドン変換のサンプリング領域を広げ、SV射影の間の内部領域をうまくカバーできる。
そして, 提案した可変レンダリングモジュールにサンプリング領域を供給することにより, トレーニング中にホールを共同最適化し, 被照射レベルを低減できる。
その結果、CoCPFはSV投影(DVシングラム)間の内部測定を正確に推定し、再投影後の高画質CT画像を生成することができる。
シミュレーションおよび実射影データセットに関する大規模な実験により、CoCPFは、様々な投影数と測地の下で2次元および3次元SVCT再構成のための最先端の手法より優れており、きめ細かい細部と少ないアーティファクトが得られることが示された。
私たちのコードは公開されます。
関連論文リスト
- CT-SDM: A Sampling Diffusion Model for Sparse-View CT Reconstruction across All Sampling Rates [16.985836345715963]
Sparse view X-ray Computed tomography は放射線線量減少を緩和する現代的手法として登場した。
深層学習を用いた最近の研究は, Sparse-View Computed Tomography (SVCT) のアーティファクトの除去に有望な進展をもたらした。
本研究では,任意のサンプリングレートで高性能SVCT再構成を実現するための適応的再構成手法を提案する。
論文 参考訳(メタデータ) (2024-09-03T03:06:15Z) - Learning 3D Gaussians for Extremely Sparse-View Cone-Beam CT Reconstruction [9.848266253196307]
Cone-Beam Computed Tomography (CBCT) は医用画像の撮影に欠かせない手法であるが、放射線照射が臨床応用に懸念をもたらす。
本稿では,3次元ガウス空間における特徴分布を表現するために3次元ガウス空間を利用する新しい再構成フレームワーク,DIF-Gaussianを提案する。
2つの公開データセット上でDIF-Gaussianを評価し,従来の最先端手法よりもはるかに優れた再構成性能を示した。
論文 参考訳(メタデータ) (2024-07-01T08:48:04Z) - MVMS-RCN: A Dual-Domain Unfolding CT Reconstruction with Multi-sparse-view and Multi-scale Refinement-correction [9.54126979075279]
スパースビューCTは、低線量へのプロジェクションビューの数を減少させる。
既存の深層学習(DL)と深部展開スパルスCT再構成法では,プロジェクションデータを完全には利用していない。
本稿では,スパルス・ビュー・トモグラフィー再構成のための数学的アイデアと最適DLイメージングアルゴリズムの設計を目的とする。
論文 参考訳(メタデータ) (2024-05-27T13:01:25Z) - Rotational Augmented Noise2Inverse for Low-dose Computed Tomography
Reconstruction [83.73429628413773]
改良された深層学習手法は、画像のノイズを除去する能力を示しているが、正確な地上の真実を必要とする。
畳み込みニューラルネットワーク(CNN)のトレーニングに基礎的真理を必要としないLDCTのための新しい自己教師型フレームワークを提案する。
数値および実験結果から,Sparse View を用いた N2I の再構成精度は低下しており,提案手法は異なる範囲のサンプリング角度で画像品質を向上する。
論文 参考訳(メタデータ) (2023-12-19T22:40:51Z) - APRF: Anti-Aliasing Projection Representation Field for Inverse Problem
in Imaging [74.9262846410559]
Sparse-view Computed Tomography (SVCT) は画像の逆問題である。
近年の研究では、インプリシット・ニューラル・リ表現(INR)を用いて、シングラムとCT画像の座標に基づくマッピングを構築している。
自己教師型SVCT再構成法の提案 -抗エイリアス射影表現場(APRF)-
APRFは空間的制約によって隣接する投影ビュー間の連続的な表現を構築することができる。
論文 参考訳(メタデータ) (2023-07-11T14:04:12Z) - Geometry-Aware Attenuation Learning for Sparse-View CBCT Reconstruction [53.93674177236367]
Cone Beam Computed Tomography (CBCT) は臨床画像撮影において重要な役割を担っている。
従来の方法では、高品質な3D CBCT画像の再構成には数百の2次元X線投影が必要である。
これにより、放射線線量を減らすため、スパースビューCBCT再構成への関心が高まっている。
本稿では,この問題を解決するために,新しい幾何対応エンコーダデコーダフレームワークを提案する。
論文 参考訳(メタデータ) (2023-03-26T14:38:42Z) - Generative Modeling in Sinogram Domain for Sparse-view CT Reconstruction [12.932897771104825]
CT検査では投射回数を直感的に減らすことで放射線線量を大幅に減少させることができる。
疎視データを用いた従来のディープラーニング技術では、教師付き方法でネットワークをトレーニングするためにスパースビュー/フルビューCTイメージペアが必要である。
スパース・ビューCT再構成のための非教師なしスコアベース生成モデルについて検討した。
論文 参考訳(メタデータ) (2022-11-25T06:49:18Z) - REGAS: REspiratory-GAted Synthesis of Views for Multi-Phase CBCT
Reconstruction from a single 3D CBCT Acquisition [75.64791080418162]
REGASは、アンダーサンプドトモグラフィビューを合成し、再構成画像中のアーティファクトのエイリアスを緩和する自己教師手法を提案する。
高解像度4Dデータ上でのディープニューラルネットワークの大規模なメモリコストに対処するため、REGASは分散して微分可能なフォワードプロジェクションを可能にする新しいレイパス変換(RPT)を導入した。
論文 参考訳(メタデータ) (2022-08-17T03:42:19Z) - Enhancement of Novel View Synthesis Using Omnidirectional Image
Completion [61.78187618370681]
ニューラルレイディアンス場(NeRF)に基づく1枚の360度RGB-D画像から新しいビューを合成する方法を提案する。
実験により,提案手法は実世界と実世界の両方でシーンの特徴を保ちながら,可塑性な新規なビューを合成できることが実証された。
論文 参考訳(メタデータ) (2022-03-18T13:49:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。