論文の概要: Learned Multi-layer Residual Sparsifying Transform Model for Low-dose CT
Reconstruction
- arxiv url: http://arxiv.org/abs/2005.03825v1
- Date: Fri, 8 May 2020 02:36:50 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-05 12:07:54.078051
- Title: Learned Multi-layer Residual Sparsifying Transform Model for Low-dose CT
Reconstruction
- Title(参考訳): 低用量CT再構成のための多層残差分変換モデル
- Authors: Xikai Yang, Xuehang Zheng, Yong Long, Saiprasad Ravishankar
- Abstract要約: スパース変換学習は、高度に効率的なスパースコーディングとオペレータ更新ステップを含む。
本稿では,変換領域残基を層上で共分散したMRST学習モデルを提案する。
- 参考スコア(独自算出の注目度): 11.470070927586017
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Signal models based on sparse representation have received considerable
attention in recent years. Compared to synthesis dictionary learning,
sparsifying transform learning involves highly efficient sparse coding and
operator update steps. In this work, we propose a Multi-layer Residual
Sparsifying Transform (MRST) learning model wherein the transform domain
residuals are jointly sparsified over layers. In particular, the transforms for
the deeper layers exploit the more intricate properties of the residual maps.
We investigate the application of the learned MRST model for low-dose CT
reconstruction using Penalized Weighted Least Squares (PWLS) optimization.
Experimental results on Mayo Clinic data show that the MRST model outperforms
conventional methods such as FBP and PWLS methods based on edge-preserving (EP)
regularizer and single-layer transform (ST) model, especially for maintaining
some subtle details.
- Abstract(参考訳): 近年,スパース表現に基づく信号モデルが注目されている。
合成辞書学習と比較して、スパース変換学習は、高度に効率的なスパース符号化と演算子更新ステップを含む。
本研究では,変換領域残差を層上で共分散したMRST学習モデルを提案する。
特に、より深い層に対する変換は、残留写像のより複雑な性質を利用する。
PWLS(Penalized Weighted Least Squares)最適化を用いた低用量CT再構成におけるMRSTモデルの応用について検討した。
mayoクリニックデータを用いた実験結果から,mrstモデルは,エッジ保存(ep)正則化と単層変換(st)モデルに基づくfbp法やpwls法などの従来の手法よりも優れており,特に微妙な細部を保っている。
関連論文リスト
- Language Models as Zero-shot Lossless Gradient Compressors: Towards
General Neural Parameter Prior Models [66.1595537904019]
大型言語モデル(LLM)はゼロショット設定でグラデーション先行として振る舞うことができる。
本稿では,LSMと算術符号を統合する新しい手法であるLM-GCを紹介する。
論文 参考訳(メタデータ) (2024-09-26T13:38:33Z) - Learning on Transformers is Provable Low-Rank and Sparse: A One-layer Analysis [63.66763657191476]
低ランク計算としての効率的な数値学習と推論アルゴリズムはトランスフォーマーに基づく適応学習に優れた性能を持つことを示す。
我々は、等級モデルが適応性を改善しながら一般化にどのように影響するかを分析する。
適切なマグニチュードベースのテストは,テストパフォーマンスに多少依存している,と結論付けています。
論文 参考訳(メタデータ) (2024-06-24T23:00:58Z) - Learning Explicitly Conditioned Sparsifying Transforms [7.335712499936904]
本研究では,データ表現の質と学習した変換の条件数を明確に制御するスペーサー変換モデルを提案する。
我々は,本モデルが最先端技術よりも優れた数値挙動を示すことを示す数値実験を通して確認する。
論文 参考訳(メタデータ) (2024-03-05T18:03:51Z) - Consensus-Adaptive RANSAC [104.87576373187426]
本稿では,パラメータ空間の探索を学習する新しいRANSACフレームワークを提案する。
注意機構は、ポイント・ツー・モデル残差のバッチで動作し、軽量のワンステップ・トランスフォーマーで見いだされたコンセンサスを考慮するために、ポイント・ツー・モデル推定状態を更新する。
論文 参考訳(メタデータ) (2023-07-26T08:25:46Z) - Efficient GPT Model Pre-training using Tensor Train Matrix
Representation [65.96485282393361]
大規模なトランスフォーマーモデルは数十億のパラメータを特徴としており、デプロイが困難になり、スクラッチからトレーニングコストが禁じられている。
GPT-2アーキテクチャのパラメータ数を削減すべく、完全に接続された層の行列を対応するTrain Matrix(TTM)構造に置き換える。
GPTベースのモデルは最大40%のパラメータを格納し、元のモデルに匹敵するパープレキシティを示す。
論文 参考訳(メタデータ) (2023-06-05T08:38:25Z) - Masked Pre-Training of Transformers for Histology Image Analysis [4.710921988115685]
デジタル病理学では、がん診断や予後予測などの応用に全スライド画像(WSI)が広く用いられている。
パッチ間の空間的関係を保ちながら、WSIの広い領域を符号化するための有望な方法として、ビジュアルトランスフォーマーモデルが登場した。
本稿では,この問題を解決するためにラベル付きデータを使わずにトランスフォーマーモデルをトレーニングするためのプレテキストタスクを提案する。
我々のモデルであるMaskHITは、トランスフォーマー出力を用いて、マスクしたパッチを再構築し、それらの位置と視覚的特徴に基づいて代表的組織学的特徴を学習する。
論文 参考訳(メタデータ) (2023-04-14T23:56:49Z) - Multi-layer Clustering-based Residual Sparsifying Transform for Low-dose
CT Image Reconstruction [11.011268090482575]
本稿では,X線CT(Computerd Tomography)再構成のためのネットワーク構造スペーシング変換学習手法を提案する。
我々は, PWLS (Palalized weighted least squares) 再構成において, MCSTモデルを正規化器に配置することにより低用量CT再構成にMCSTモデルを適用した。
シミュレーションの結果,PWLS-MCSTは従来のFBP法やEP正則化を用いたPWLSよりも画像再構成精度が高いことがわかった。
論文 参考訳(メタデータ) (2022-03-22T09:38:41Z) - A new perspective on probabilistic image modeling [92.89846887298852]
本稿では,密度推定,サンプリング,トラクタブル推論が可能な画像モデリングのための新しい確率論的手法を提案する。
DCGMMは、CNNのように、ランダムな初期条件からSGDによってエンドツーエンドに訓練することができる。
本研究は,近年のPCおよびSPNモデルと,推論,分類,サンプリングの観点から比較した。
論文 参考訳(メタデータ) (2022-03-21T14:53:57Z) - Two-layer clustering-based sparsifying transform learning for low-dose
CT reconstruction [12.37556184089774]
我々は、リッチな2層クラスタリングに基づくスパース化変換モデル(MCST2)の学習手法を提案する。
実験結果から,PWLS-MCST2法は最近の他の手法と比較して優れた性能を示した。
論文 参考訳(メタデータ) (2020-11-01T05:15:37Z) - Improving the Reconstruction of Disentangled Representation Learners via Multi-Stage Modeling [54.94763543386523]
現在の自己エンコーダに基づく非絡み合い表現学習法は、(集合体)後部をペナルティ化し、潜伏因子の統計的独立を促進することで、非絡み合いを実現する。
本稿では,不整合因子をペナルティに基づく不整合表現学習法を用いて学習する,新しい多段階モデリング手法を提案する。
次に、低品質な再構成を、欠落した関連潜伏変数をモデル化するために訓練された別の深層生成モデルで改善する。
論文 参考訳(メタデータ) (2020-10-25T18:51:15Z) - Multi-layer Residual Sparsifying Transform (MARS) Model for Low-dose CT
Image Reconstruction [12.37556184089774]
教師なしの方法で学習した新しい多層モデルに基づく画像再構成手法を開発した。
提案フレームワークは、画像の古典的スカラー化変換モデルを、Multi-lAyer Residual Sparsifying transform (MARS)モデルに拡張する。
限られた正規線量画像から教師なしの方法で層間変換を学習する効率的なブロック座標降下アルゴリズムを導出する。
論文 参考訳(メタデータ) (2020-10-10T09:04:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。