論文の概要: Self-Supervised Coordinate Projection Network for Sparse-View Computed
Tomography
- arxiv url: http://arxiv.org/abs/2209.05483v1
- Date: Mon, 12 Sep 2022 06:14:04 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-14 12:42:08.782048
- Title: Self-Supervised Coordinate Projection Network for Sparse-View Computed
Tomography
- Title(参考訳): Sparse-View Computed Tomography のための自己監督型座標投影ネットワーク
- Authors: Qing Wu, Ruimin Feng, Hongjiang Wei, Jingyi Yu, and Yuyao Zhang
- Abstract要約: 本研究では,1つのSVシングラムからアーチファクトフリーCT像を再構成する自己監督コーディネートプロジェクションnEtwork(SCOPE)を提案する。
暗黙的ニューラル表現ネットワーク(INR)を用いた類似の問題を解決する最近の研究と比較して、我々の重要な貢献は効果的で単純な再投射戦略である。
- 参考スコア(独自算出の注目度): 31.774432128324385
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In the present work, we propose a Self-supervised COordinate Projection
nEtwork (SCOPE) to reconstruct the artifacts-free CT image from a single SV
sinogram by solving the inverse tomography imaging problem. Compared with
recent related works that solve similar problems using implicit neural
representation network (INR), our essential contribution is an effective and
simple re-projection strategy that pushes the tomography image reconstruction
quality over supervised deep learning CT reconstruction works. The proposed
strategy is inspired by the simple relationship between linear algebra and
inverse problems. To solve the under-determined linear equation system, we
first introduce INR to constrain the solution space via image continuity prior
and achieve a rough solution. And secondly, we propose to generate a dense view
sinogram that improves the rank of the linear equation system and produces a
more stable CT image solution space. Our experiment results demonstrate that
the re-projection strategy significantly improves the image reconstruction
quality (+3 dB for PSNR at least). Besides, we integrate the recent hash
encoding into our SCOPE model, which greatly accelerates the model training.
Finally, we evaluate SCOPE in parallel and fan X-ray beam SVCT reconstruction
tasks. Experimental results indicate that the proposed SCOPE model outperforms
two latest INR-based methods and two well-popular supervised DL methods
quantitatively and qualitatively.
- Abstract(参考訳): 本研究では,逆トモグラフィ問題を解くことにより,単一のsvシンノグラムからアーチファクトフリーct画像を再構成する自己教師付き座標投影ネットワーク(scope)を提案する。
暗黙的ニューラル表現ネットワーク(INR)を用いて類似の問題を解決する最近の研究と比較すると,我々の重要な貢献はトモグラフィ画像再構成の質を教師付きディープラーニングCT再構成作業よりも向上させる,効果的でシンプルな再投影戦略である。
提案手法は線形代数と逆問題の間の単純な関係に着想を得ている。
非決定線形方程式系を解くために,まず,画像連続性によって解空間を制約し,粗い解を得るinrを導入する。
次に,線形方程式系の階調を向上し,より安定したCT画像解空間を創出する高密度なビュー・シングラムを提案する。
実験の結果,再投影戦略が画像再構成品質(psnr+3db)を大幅に向上させることが示された。
さらに、最近のハッシュエンコーディングをスコープモデルに統合することで、モデルのトレーニングを大幅に加速します。
最後に,SCOPEを並列に評価し,ファンX線SVCT再構成作業を行った。
実験結果から,提案したSCOPEモデルは,INRに基づく最新の2つの手法と,定性的に定量的に2つのよく知られたDL手法より優れていることが示された。
関連論文リスト
- Learning Efficient and Effective Trajectories for Differential Equation-based Image Restoration [59.744840744491945]
我々は, この手法の軌道最適化を再構築し, 復元品質と効率の両立に焦点をあてる。
本稿では,複雑な経路を適応可能なサイズで複数の管理可能なステップに合理化するためのコスト対応トラジェクトリー蒸留法を提案する。
実験では提案手法の有意な優位性を示し, 最先端手法よりも最大2.1dBのPSNR改善を実現した。
論文 参考訳(メタデータ) (2024-10-07T07:46:08Z) - DPER: Diffusion Prior Driven Neural Representation for Limited Angle and Sparse View CT Reconstruction [45.00528216648563]
Diffusion Prior Driven Neural Representation (DPER) は、異常に不適切なCT再構成逆問題に対処するために設計された、教師なしのフレームワークである。
DPERは、半二次分割法(HQS)アルゴリズムを採用し、逆問題からデータ忠実度とサブプロブレム前の分布に分解する。
LACTにおけるDPERの性能評価と2つの公開データセットを用いた超SVCT再構成に関する総合的な実験を行った。
論文 参考訳(メタデータ) (2024-04-27T12:55:13Z) - Low-resolution Prior Equilibrium Network for CT Reconstruction [3.5639148953570836]
本稿では,低分解能画像を導入し,ネットワークの堅牢性を改善するための効果的な正規化項を得る,新しいディープラーニングベースのCT再構成モデルを提案する。
狭角化と狭角化の両問題を実験的に検討し, ノイズ低減, コントラスト・ツー・ノイズ比, エッジ細部保存の両面において, エンド・ツー・エンドの低分解能事前平衡モデルが他の最先端手法よりも優れていることを示した。
論文 参考訳(メタデータ) (2024-01-28T13:59:58Z) - Deep Equilibrium Diffusion Restoration with Parallel Sampling [120.15039525209106]
拡散モデルに基づく画像復元(IR)は、拡散モデルを用いて劣化した画像から高品質な(本社)画像を復元し、有望な性能を達成することを目的としている。
既存のほとんどの手法では、HQイメージをステップバイステップで復元するために長いシリアルサンプリングチェーンが必要であるため、高価なサンプリング時間と高い計算コストがかかる。
本研究では,拡散モデルに基づくIRモデルを異なる視点,すなわちDeqIRと呼ばれるDeQ(Deep equilibrium)固定点系で再考することを目的とする。
論文 参考訳(メタデータ) (2023-11-20T08:27:56Z) - Enhancing Low-dose CT Image Reconstruction by Integrating Supervised and
Unsupervised Learning [13.17680480211064]
X線CT画像再構成のためのハイブリッド教師なし学習フレームワークを提案する。
提案された各訓練ブロックは、決定論的MBIRソルバとニューラルネットワークで構成されている。
限られた訓練データを用いた低用量CT画像再構成における本学習ハイブリッドモデルの有効性を実証する。
論文 参考訳(メタデータ) (2023-11-19T20:23:59Z) - Deep Learning for Material Decomposition in Photon-Counting CT [0.5801044612920815]
そこで本研究では,PCCTにおける材料分解のための新たな深層学習ソリューションを提案する。
提案手法は,最大推定値,変分法,および完全学習ネットワークよりも優れる。
論文 参考訳(メタデータ) (2022-08-05T19:05:16Z) - Multi-Channel Convolutional Analysis Operator Learning for Dual-Energy
CT Reconstruction [108.06731611196291]
我々は,多チャンネル畳み込み解析演算子学習法(MCAOL)を開発した。
本研究では,低エネルギー,高エネルギーで減衰画像を共同で再構成する最適化手法を提案する。
論文 参考訳(メタデータ) (2022-03-10T14:22:54Z) - DeepRLS: A Recurrent Network Architecture with Least Squares Implicit
Layers for Non-blind Image Deconvolution [15.986942312624]
非盲点画像デコンボリューションの問題について検討する。
本稿では,画像品質の非常に競争力のある復元結果をもたらす新しい再帰的ネットワークアーキテクチャを提案する。
論文 参考訳(メタデータ) (2021-12-10T13:16:51Z) - Deep Variational Network Toward Blind Image Restoration [60.45350399661175]
ブラインド画像復元はコンピュータビジョンでは一般的だが難しい問題である。
両利点を両立させることを目的として,新しいブラインド画像復元手法を提案する。
画像デノイングと超解像という2つの典型的なブラインド赤外線タスクの実験により,提案手法が現状よりも優れた性能を達成できることが実証された。
論文 参考訳(メタデータ) (2020-08-25T03:30:53Z) - Limited-angle tomographic reconstruction of dense layered objects by
dynamical machine learning [68.9515120904028]
強い散乱準透明物体の有限角トモグラフィーは困難で、非常に不適切な問題である。
このような問題の状況を改善することにより、アーティファクトの削減には、事前の定期化が必要である。
我々は,新しい分割畳み込みゲート再帰ユニット(SC-GRU)をビルディングブロックとして,リカレントニューラルネットワーク(RNN)アーキテクチャを考案した。
論文 参考訳(メタデータ) (2020-07-21T11:48:22Z) - Single-Image HDR Reconstruction by Learning to Reverse the Camera
Pipeline [100.5353614588565]
本稿では,LDR画像形成パイプラインの領域知識をモデルに組み込むことを提案する。
我々は,HDRto-LDR画像形成パイプラインを(1)ダイナミックレンジクリッピング,(2)カメラ応答関数からの非線形マッピング,(3)量子化としてモデル化する。
提案手法は,最先端の単一画像HDR再構成アルゴリズムに対して良好に動作することを示す。
論文 参考訳(メタデータ) (2020-04-02T17:59:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。