論文の概要: Unsupervised Self-Prior Embedding Neural Representation for Iterative Sparse-View CT Reconstruction
- arxiv url: http://arxiv.org/abs/2502.05445v1
- Date: Sat, 08 Feb 2025 04:36:00 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-11 14:30:07.145847
- Title: Unsupervised Self-Prior Embedding Neural Representation for Iterative Sparse-View CT Reconstruction
- Title(参考訳): イテレーティブ・スパース・ビューCT再構成のための教師なし自己Prior Embeding Neural Representation
- Authors: Xuanyu Tian, Lixuan Chen, Qing Wu, Chenhe Du, Jingjing Shi, Hongjiang Wei, Yuyao Zhang,
- Abstract要約: 本稿では,Sparse-view Computed Tomography (SVCT) 逆問題に対する自己優先型埋め込み型ニューラル表現(Spener)を提案する。
各イテレーションにおいて、Spenerは前のイテレーションからローカルイメージ前の機能を抽出し、ソリューション空間を制約するためにそれらを埋め込む。
複数のCTデータセットを用いた実験結果から,非教師付きSpener法はドメイン内データに対する教師付き最先端(SOTA)法に匹敵する性能を達成できた。
- 参考スコア(独自算出の注目度): 8.291709892315993
- License:
- Abstract: Emerging unsupervised implicit neural representation (INR) methods, such as NeRP, NeAT, and SCOPE, have shown great potential to address sparse-view computed tomography (SVCT) inverse problems. Although these INR-based methods perform well in relatively dense SVCT reconstructions, they struggle to achieve comparable performance to supervised methods in sparser SVCT scenarios. They are prone to being affected by noise, limiting their applicability in real clinical settings. Additionally, current methods have not fully explored the use of image domain priors for solving SVCsT inverse problems. In this work, we demonstrate that imperfect reconstruction results can provide effective image domain priors for INRs to enhance performance. To leverage this, we introduce Self-prior embedding neural representation (Spener), a novel unsupervised method for SVCT reconstruction that integrates iterative reconstruction algorithms. During each iteration, Spener extracts local image prior features from the previous iteration and embeds them to constrain the solution space. Experimental results on multiple CT datasets show that our unsupervised Spener method achieves performance comparable to supervised state-of-the-art (SOTA) methods on in-domain data while outperforming them on out-of-domain datasets. Moreover, Spener significantly improves the performance of INR-based methods in handling SVCT with noisy sinograms. Our code is available at https://github.com/MeijiTian/Spener.
- Abstract(参考訳): NeRP、NeAT、SCOPEなどの非教師なし暗黙的神経表現(INR)法は、スパース・ビュー・コンピュート・トモグラフィー(SVCT)逆問題に対処する大きな可能性を示している。
これらのINRに基づく手法は比較的密度の高いSVCT再構成ではよく機能するが、スペーサーSVCTのシナリオでは教師付き手法と同等の性能を達成できない。
ノイズの影響を受けやすいため、実際の臨床環境では適用性が制限される。
さらに、現在の手法では、SVCsT逆問題の解決に画像領域事前の使用を十分に検討していない。
本研究では、不完全な再構成結果により、INRが性能を高めるために有効な画像領域の事前情報を提供できることを示す。
これを活用するために、反復的再構成アルゴリズムを統合するSVCT再構成の新しい教師なし手法であるSelf-prior Embedding Neural representation (Spener)を導入する。
各イテレーションにおいて、Spenerは前のイテレーションからローカルイメージ前の機能を抽出し、ソリューション空間を制約するためにそれらを埋め込む。
複数のCTデータセットに対する実験結果から,非教師付きSpener法はドメイン内データ上での教師付きステート・オブ・ザ・アート(SOTA)法に匹敵する性能を達成し,ドメイン外のデータセットでは性能が向上することが示された。
さらに,Spener は SVCT のノイズ・シングラム処理におけるINR 法の性能を著しく向上させる。
私たちのコードはhttps://github.com/MeijiTian/Spener.comから入手可能です。
関連論文リスト
- AC-IND: Sparse CT reconstruction based on attenuation coefficient estimation and implicit neural distribution [12.503822675024054]
CTは産業用非破壊検査や診断において重要な役割を担っている。
スパースビューCT再構成は,少数のプロジェクションのみを使用しながら,高品質なCT像を再構成することを目的としている。
本稿では,減衰係数推定と入射ニューラル分布に基づく自己教師型手法であるAC-INDを紹介する。
論文 参考訳(メタデータ) (2024-09-11T10:34:41Z) - Context Enhancement with Reconstruction as Sequence for Unified Unsupervised Anomaly Detection [68.74469657656822]
非教師付き異常検出(AD)は、通常のサンプルのみを用いて堅牢な検出モデルを訓練することを目的としている。
最近の研究は、すべてのクラスに対して1つのモデルのみをトレーニングする、統一された教師なしAD設定に焦点を当てている。
本稿では,特徴再構成時の文脈対応性を高める新しいRAS法を提案する。
論文 参考訳(メタデータ) (2024-09-10T07:37:58Z) - DPER: Diffusion Prior Driven Neural Representation for Limited Angle and Sparse View CT Reconstruction [45.00528216648563]
Diffusion Prior Driven Neural Representation (DPER) は、異常に不適切なCT再構成逆問題に対処するために設計された、教師なしのフレームワークである。
DPERは、半二次分割法(HQS)アルゴリズムを採用し、逆問題からデータ忠実度とサブプロブレム前の分布に分解する。
LACTにおけるDPERの性能評価と2つの公開データセットを用いた超SVCT再構成に関する総合的な実験を行った。
論文 参考訳(メタデータ) (2024-04-27T12:55:13Z) - Deep Radon Prior: A Fully Unsupervised Framework for Sparse-View CT
Reconstruction [6.509941446269504]
提案するフレームワークはデータセットを必要とせず、優れた解釈可能性と一般化能力を示す。
実験結果から,提案手法は画像アーチファクトを効果的に抑制しつつ,詳細な画像を生成することができることが示された。
論文 参考訳(メタデータ) (2023-12-30T04:11:08Z) - DiAD: A Diffusion-based Framework for Multi-class Anomaly Detection [55.48770333927732]
本稿では,拡散型異常検出(Difusion-based Anomaly Detection, DAD)フレームワークを提案する。
画素空間オートエンコーダ、安定拡散の復調ネットワークに接続する潜在空間セマンティックガイド(SG)ネットワーク、特徴空間事前学習機能抽出器から構成される。
MVTec-ADとVisAデータセットの実験は、我々のアプローチの有効性を実証している。
論文 参考訳(メタデータ) (2023-12-11T18:38:28Z) - Conditioning Generative Latent Optimization for Sparse-View CT Image Reconstruction [0.5497663232622965]
生成潜在最適化フレームワーク(cGLO)に対する教師なし条件付きアプローチを提案する。
この手法は、複数のトレーニングデータセットサイズと様々な視角を用いて、フルドーズスパース・ビューCTでテストされる。
論文 参考訳(メタデータ) (2023-07-31T13:47:33Z) - APRF: Anti-Aliasing Projection Representation Field for Inverse Problem
in Imaging [74.9262846410559]
Sparse-view Computed Tomography (SVCT) は画像の逆問題である。
近年の研究では、インプリシット・ニューラル・リ表現(INR)を用いて、シングラムとCT画像の座標に基づくマッピングを構築している。
自己教師型SVCT再構成法の提案 -抗エイリアス射影表現場(APRF)-
APRFは空間的制約によって隣接する投影ビュー間の連続的な表現を構築することができる。
論文 参考訳(メタデータ) (2023-07-11T14:04:12Z) - Self-Supervised Coordinate Projection Network for Sparse-View Computed
Tomography [31.774432128324385]
本研究では,1つのSVシングラムからアーチファクトフリーCT像を再構成する自己監督コーディネートプロジェクションnEtwork(SCOPE)を提案する。
暗黙的ニューラル表現ネットワーク(INR)を用いた類似の問題を解決する最近の研究と比較して、我々の重要な貢献は効果的で単純な再投射戦略である。
論文 参考訳(メタデータ) (2022-09-12T06:14:04Z) - Over-and-Under Complete Convolutional RNN for MRI Reconstruction [57.95363471940937]
MR画像再構成のための最近のディープラーニングに基づく手法は、通常、汎用的なオートエンコーダアーキテクチャを利用する。
OUCR(Over-and-Under Complete Convolu?tional Recurrent Neural Network)を提案する。
提案手法は, トレーニング可能なパラメータの少ない圧縮されたセンシングと, 一般的なディープラーニングに基づく手法に対して, 大幅な改善を実現する。
論文 参考訳(メタデータ) (2021-06-16T15:56:34Z) - The Power of Triply Complementary Priors for Image Compressive Sensing [89.14144796591685]
本稿では,一対の相補的な旅先を含むLRD画像モデルを提案する。
次に、画像CSのためのRDモデルに基づく新しいハイブリッド・プラグイン・アンド・プレイ・フレームワークを提案する。
そこで,提案したH-based image CS問題の解法として,単純で効果的なアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-05-16T08:17:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。