論文の概要: JotlasNet: Joint Tensor Low-Rank and Attention-based Sparse Unrolling Network for Accelerating Dynamic MRI
- arxiv url: http://arxiv.org/abs/2502.11749v1
- Date: Mon, 17 Feb 2025 12:43:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-18 14:15:10.673985
- Title: JotlasNet: Joint Tensor Low-Rank and Attention-based Sparse Unrolling Network for Accelerating Dynamic MRI
- Title(参考訳): JotlasNet:動的MRIの高速化のための関節テンソル低ランクと注意に基づくスパースアンロールネットワーク
- Authors: Yinghao Zhang, Haiyan Gui, Ningdi Yang, Yue Hu,
- Abstract要約: 動的MRI再構成のための新しいディープアンローリングネットワークJotlasNetを提案する。
ダイナミックMRIでは,低ランク・スパースアンローリングネットワークが優れた性能を示した。
- 参考スコア(独自算出の注目度): 6.081607038128913
- License:
- Abstract: Joint low-rank and sparse unrolling networks have shown superior performance in dynamic MRI reconstruction. However, existing works mainly utilized matrix low-rank priors, neglecting the tensor characteristics of dynamic MRI images, and only a global threshold is applied for the sparse constraint to the multi-channel data, limiting the flexibility of the network. Additionally, most of them have inherently complex network structure, with intricate interactions among variables. In this paper, we propose a novel deep unrolling network, JotlasNet, for dynamic MRI reconstruction by jointly utilizing tensor low-rank and attention-based sparse priors. Specifically, we utilize tensor low-rank prior to exploit the structural correlations in high-dimensional data. Convolutional neural networks are used to adaptively learn the low-rank and sparse transform domains. A novel attention-based soft thresholding operator is proposed to assign a unique learnable threshold to each channel of the data in the CNN-learned sparse domain. The network is unrolled from the elaborately designed composite splitting algorithm and thus features a simple yet efficient parallel structure. Extensive experiments on two datasets (OCMR, CMRxRecon) demonstrate the superior performance of JotlasNet in dynamic MRI reconstruction.
- Abstract(参考訳): ダイナミックMRIでは,低ランク・スパースアンローリングネットワークが優れた性能を示した。
しかし、既存の研究は主に行列低ランクプリエントを利用しており、動的MRI画像のテンソル特性を無視し、マルチチャネルデータに対するスパース制約に大域しきい値のみを適用し、ネットワークの柔軟性を制限している。
さらに、それらの多くは本質的に複雑なネットワーク構造を持ち、変数間の複雑な相互作用を持つ。
本稿では、テンソル低ランクと注目に基づくスパース前処理を併用して、動的MRI再構成のための新しいディープアンローリングネットワークJotlasNetを提案する。
具体的には,高次元データにおける構造相関を利用するために,テンソルの低ランクを利用する。
畳み込みニューラルネットワークは、低ランクおよびスパース変換領域を適応的に学習するために使用される。
CNN学習したスパース領域のデータの各チャネルに独自の学習可能なしきい値を与えるために,注目に基づく新しいソフトしきい値演算子を提案する。
ネットワークは精巧に設計された合成分割アルゴリズムから外され、単純だが効率的な並列構造を特徴とする。
2つのデータセット(OCMR, CMRxRecon)の大規模な実験は、動的MRI再構成におけるJotlasNetの優れた性能を示す。
関連論文リスト
- Deep-Unrolling Multidimensional Harmonic Retrieval Algorithms on Neuromorphic Hardware [78.17783007774295]
本稿では,高精度かつエネルギー効率の高い単発多次元高調波検索のための変換に基づくニューロモルフィックアルゴリズムの可能性について検討する。
複雑な値の畳み込み層と活性化をスパイクニューラルネットワーク(SNN)に変換する新しい手法を開発した。
変換されたSNNは、元のCNNに比べて性能が低下し、ほぼ5倍の電力効率を実現している。
論文 参考訳(メタデータ) (2024-12-05T09:41:33Z) - Deep unrolling Shrinkage Network for Dynamic MR imaging [8.590614722154063]
本稿では,各チャネルの閾値を学習する,チャネルアテンション付きソフトしきい値処理(AST)を提案する。
我々は,乗算器の交互方向をアンロールすることで,新しいディープ・アンロール・ストレナージ・ネットワーク(DUS-Net)を提案する。
オープンアクセス型動的シネMRデータセットの実験結果から,提案したDUS-Netは最先端の手法よりも優れていることが示された。
論文 参考訳(メタデータ) (2023-07-19T08:06:37Z) - T2LR-Net: An unrolling network learning transformed tensor low-rank prior for dynamic MR image reconstruction [10.402013638387334]
本稿では、畳み込みニューラルネットワーク(CNN)を用いて、テンソルの低ランクプリエントを活用するために変換されたドメインを適応的に学習するディープ・アンローリング・ネットワークを提案する。
教師機構の下では、テンソル低ランク領域の学習は、再構成精度によって直接誘導される。
2つの動的心MRIデータセットの実験により、T2LR-Netは最先端の最適化ベースおよびアンローリングネットワークベースの手法よりも優れていることが示された。
論文 参考訳(メタデータ) (2022-09-08T14:11:02Z) - Dynamic MRI using Learned Transform-based Deep Tensor Low-Rank Network
(DTLR-Net) [9.658908705889777]
心臓のダイナミックMR画像に先行するテンソルローランクを学習することで,モデルに基づくディープラーニングネットワークを導入する。
提案したフレームワークは,最先端のアルゴリズムと比較して,回復率の向上を実現している。
論文 参考訳(メタデータ) (2022-06-02T02:55:41Z) - Over-and-Under Complete Convolutional RNN for MRI Reconstruction [57.95363471940937]
MR画像再構成のための最近のディープラーニングに基づく手法は、通常、汎用的なオートエンコーダアーキテクチャを利用する。
OUCR(Over-and-Under Complete Convolu?tional Recurrent Neural Network)を提案する。
提案手法は, トレーニング可能なパラメータの少ない圧縮されたセンシングと, 一般的なディープラーニングに基づく手法に対して, 大幅な改善を実現する。
論文 参考訳(メタデータ) (2021-06-16T15:56:34Z) - PredRNN: A Recurrent Neural Network for Spatiotemporal Predictive
Learning [109.84770951839289]
歴史的文脈からビジュアルダイナミクスを学習するための新しいリカレントネットワークであるPredRNNを紹介する。
本手法は,3つの標準データセット上で高い競争結果が得られることを示す。
論文 参考訳(メタデータ) (2021-03-17T08:28:30Z) - Learning Frequency-aware Dynamic Network for Efficient Super-Resolution [56.98668484450857]
本稿では、離散コサイン変換(dct)領域の係数に応じて入力を複数の部分に分割する新しい周波数認識動的ネットワークについて検討する。
実際、高周波部は高価な操作で処理され、低周波部は計算負荷を軽減するために安価な操作が割り当てられる。
ベンチマークSISRモデルおよびデータセット上での実験は、周波数認識動的ネットワークが様々なSISRニューラルネットワークに使用できることを示している。
論文 参考訳(メタデータ) (2021-03-15T12:54:26Z) - LocalDrop: A Hybrid Regularization for Deep Neural Networks [98.30782118441158]
本稿では,ローカルラデマチャー複雑性を用いたニューラルネットワークの正規化のための新しい手法であるLocalDropを提案する。
フルコネクテッドネットワーク(FCN)と畳み込みニューラルネットワーク(CNN)の両方のための新しい正規化機能は、ローカルラデマチャー複雑さの上限提案に基づいて開発されました。
論文 参考訳(メタデータ) (2021-03-01T03:10:11Z) - A Deeper Look into Convolutions via Pruning [9.89901717499058]
現代のアーキテクチャは、複数のレイヤの畳み込みの後、しばしば最後に、非常に少数の完全に接続されたレイヤを含んでいる。
この戦略はすでにパラメータの数を削減しているが、ほとんどの畳み込みは認識性能を損なうことなく排除できる。
本研究では,従来の重みに基づく重み付け手法に加えて,固有値に基づく行列特性を用いて,広く使用されているCNNファミリーの内部機構に光を当てる。
論文 参考訳(メタデータ) (2021-02-04T18:55:03Z) - A Fully Tensorized Recurrent Neural Network [48.50376453324581]
重み付けされたRNNアーキテクチャを導入し、各リカレントセル内の個別の重み付け行列を共同で符号化する。
このアプローチはモデルのサイズを数桁削減するが、通常のRNNと同等あるいは優れた性能を維持している。
論文 参考訳(メタデータ) (2020-10-08T18:24:12Z) - Deep Low-rank Prior in Dynamic MR Imaging [30.70648993986445]
本稿では、学習可能な低ランクをディープネットワークアーキテクチャに導入するための2つの新しいスキームを紹介する。
本研究では,SLR-Netと呼ばれるダイナミックMRイメージングのためのモデルベースアンローリングスパースとローランクネットワークを提案する。
プラグ・アンド・プレイ方式では、他の動的MRニューラルネットワークに簡単に組み込むことができるプラグ・アンド・プレイLRネットワークモジュールを提案する。
論文 参考訳(メタデータ) (2020-06-22T09:26:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。