論文の概要: Multi-layer Clustering-based Residual Sparsifying Transform for Low-dose
CT Image Reconstruction
- arxiv url: http://arxiv.org/abs/2203.11565v1
- Date: Tue, 22 Mar 2022 09:38:41 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-24 00:47:13.683419
- Title: Multi-layer Clustering-based Residual Sparsifying Transform for Low-dose
CT Image Reconstruction
- Title(参考訳): 低線量CT画像再構成のための多層クラスタリングによる残留スペーシング変換
- Authors: Xikai Yang, Zhishen Huang, Yong Long, Saiprasad Ravishankar
- Abstract要約: 本稿では,X線CT(Computerd Tomography)再構成のためのネットワーク構造スペーシング変換学習手法を提案する。
我々は, PWLS (Palalized weighted least squares) 再構成において, MCSTモデルを正規化器に配置することにより低用量CT再構成にMCSTモデルを適用した。
シミュレーションの結果,PWLS-MCSTは従来のFBP法やEP正則化を用いたPWLSよりも画像再構成精度が高いことがわかった。
- 参考スコア(独自算出の注目度): 11.011268090482575
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The recently proposed sparsifying transform models incur low computational
cost and have been applied to medical imaging. Meanwhile, deep models with
nested network structure reveal great potential for learning features in
different layers. In this study, we propose a network-structured sparsifying
transform learning approach for X-ray computed tomography (CT), which we refer
to as multi-layer clustering-based residual sparsifying transform (MCST)
learning. The proposed MCST scheme learns multiple different unitary transforms
in each layer by dividing each layer's input into several classes. We apply the
MCST model to low-dose CT (LDCT) reconstruction by deploying the learned MCST
model into the regularizer in penalized weighted least squares (PWLS)
reconstruction. We conducted LDCT reconstruction experiments on XCAT phantom
data and Mayo Clinic data and trained the MCST model with 2 (or 3) layers and
with 5 clusters in each layer. The learned transforms in the same layer showed
rich features while additional information is extracted from representation
residuals. Our simulation results demonstrate that PWLS-MCST achieves better
image reconstruction quality than the conventional FBP method and PWLS with
edge-preserving (EP) regularizer. It also outperformed recent advanced methods
like PWLS with a learned multi-layer residual sparsifying transform prior
(MARS) and PWLS with a union of learned transforms (ULTRA), especially for
displaying clear edges and preserving subtle details.
- Abstract(参考訳): 近年提案されている分散変換モデルは計算コストが低く, 医用イメージングにも応用されている。
一方、ネストしたネットワーク構造を持つ深層モデルでは、異なるレイヤでの学習機能に対して大きな可能性を秘めている。
本研究では,X線CT(Computerd Tomography)のためのネットワーク構造型スペーシング変換学習手法を提案し,これをマルチ層クラスタリングベース残留スペーシング変換(MCST)学習と呼ぶ。
提案するmcstスキームは,各レイヤの入力を複数のクラスに分割することで,各レイヤの複数の異なるユニタリ変換を学習する。
低用量CT (LDCT) 再構成にMCSTモデルを応用し, PWLS (Palalized weighted least squares) 再構成における正規化器にMCSTモデルを配置した。
我々は,XCATファントムデータとマヨクリニックデータを用いてLDCT再建実験を行い,MCSTモデルを2層(または3層),各層に5つのクラスタで訓練した。
同じ層における学習された変換はリッチな特徴を示し、表現残差から追加情報を抽出した。
シミュレーションの結果,PWLS-MCSTは従来のFBP法やEP正則化を用いたPWLSよりも画像再構成精度が高いことがわかった。
また、学習された多層残留スペーシング変換(MARS)と学習された変換(ULTRA)の結合によるPWLSや、特に鮮明なエッジの表示と微妙な詳細の保存のためのPWLSといった最近の先進的な手法よりも優れていた。
関連論文リスト
- CMFDFormer: Transformer-based Copy-Move Forgery Detection with Continual
Learning [52.72888626663642]
コピーモーブ偽造検出は、疑わしい偽画像中の重複領域を検出することを目的としている。
深層学習に基づく複写偽造検出手法が最上位にある。
CMFDFormer という名称の Transformer-style copy-move forgery ネットワークを提案する。
また、CMFDFormerが新しいタスクを処理できるように、新しいPCSD連続学習フレームワークを提供する。
論文 参考訳(メタデータ) (2023-11-22T09:27:46Z) - Learned Alternating Minimization Algorithm for Dual-domain Sparse-View
CT Reconstruction [6.353014736326698]
デュアルドメインビューCT画像再構成のための新しい学習最小化アルゴリズム(LAMA)を提案する。
LAMAは信頼性の高い再構築のために確実に収束している。
論文 参考訳(メタデータ) (2023-06-05T07:29:18Z) - ConvBLS: An Effective and Efficient Incremental Convolutional Broad
Learning System for Image Classification [63.49762079000726]
球状K-means(SKM)アルゴリズムと2段階マルチスケール(TSMS)機能融合に基づく畳み込み広範学習システム(ConvBLS)を提案する。
提案手法は前代未聞の効率的かつ効果的である。
論文 参考訳(メタデータ) (2023-04-01T04:16:12Z) - Learning with Multigraph Convolutional Filters [153.20329791008095]
MSPモデルに基づいて情報を処理する階層構造として多グラフ畳み込みニューラルネットワーク(MGNN)を導入する。
また,MGNNにおけるフィルタ係数のトラクタブルな計算手法と,レイヤ間で転送される情報の次元性を低減するための低コストな手法を開発した。
論文 参考訳(メタデータ) (2022-10-28T17:00:50Z) - Spatiotemporal Feature Learning Based on Two-Step LSTM and Transformer
for CT Scans [2.3682456328966115]
我々は、新型コロナウイルスの症状分類を徹底的に行うための、新しい、効果的、2段階のアプローチを提案する。
まず,従来のバックボーンネットワークにより,CTスキャンにおける各スライスの意味的特徴埋め込みを抽出する。
そこで我々は,時間的特徴学習を扱うために,LSTMとTransformerベースのサブネットワークを提案する。
論文 参考訳(メタデータ) (2022-07-04T16:59:05Z) - A new perspective on probabilistic image modeling [92.89846887298852]
本稿では,密度推定,サンプリング,トラクタブル推論が可能な画像モデリングのための新しい確率論的手法を提案する。
DCGMMは、CNNのように、ランダムな初期条件からSGDによってエンドツーエンドに訓練することができる。
本研究は,近年のPCおよびSPNモデルと,推論,分類,サンプリングの観点から比較した。
論文 参考訳(メタデータ) (2022-03-21T14:53:57Z) - Two-layer clustering-based sparsifying transform learning for low-dose
CT reconstruction [12.37556184089774]
我々は、リッチな2層クラスタリングに基づくスパース化変換モデル(MCST2)の学習手法を提案する。
実験結果から,PWLS-MCST2法は最近の他の手法と比較して優れた性能を示した。
論文 参考訳(メタデータ) (2020-11-01T05:15:37Z) - Multi-layer Residual Sparsifying Transform (MARS) Model for Low-dose CT
Image Reconstruction [12.37556184089774]
教師なしの方法で学習した新しい多層モデルに基づく画像再構成手法を開発した。
提案フレームワークは、画像の古典的スカラー化変換モデルを、Multi-lAyer Residual Sparsifying transform (MARS)モデルに拡張する。
限られた正規線量画像から教師なしの方法で層間変換を学習する効率的なブロック座標降下アルゴリズムを導出する。
論文 参考訳(メタデータ) (2020-10-10T09:04:43Z) - Understanding Self-supervised Learning with Dual Deep Networks [74.92916579635336]
本稿では,2組の深層ReLUネットワークを用いたコントラスト型自己教師学習(SSL)手法を理解するための新しい枠組みを提案する。
種々の損失関数を持つSimCLRの各SGD更新において、各層の重みは共分散演算子によって更新されることを示す。
共分散演算子の役割と、そのようなプロセスでどのような特徴が学習されるかをさらに研究するために、我々は、階層的潜在木モデル(HLTM)を用いて、データ生成および増大過程をモデル化する。
論文 参考訳(メタデータ) (2020-10-01T17:51:49Z) - Dual-constrained Deep Semi-Supervised Coupled Factorization Network with
Enriched Prior [80.5637175255349]
本稿では、DS2CF-Netと呼ばれる、拡張された事前制約付きDual-Constrained Deep Semi-Supervised Coupled Factorization Networkを提案する。
隠れた深い特徴を抽出するために、DS2CF-Netは、深い構造と幾何学的な構造に制約のあるニューラルネットワークとしてモデル化される。
我々のネットワークは、表現学習とクラスタリングのための最先端の性能を得ることができる。
論文 参考訳(メタデータ) (2020-09-08T13:10:21Z) - Learned Multi-layer Residual Sparsifying Transform Model for Low-dose CT
Reconstruction [11.470070927586017]
スパース変換学習は、高度に効率的なスパースコーディングとオペレータ更新ステップを含む。
本稿では,変換領域残基を層上で共分散したMRST学習モデルを提案する。
論文 参考訳(メタデータ) (2020-05-08T02:36:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。