論文の概要: T2LR-Net: An unrolling network learning transformed tensor low-rank prior for dynamic MR image reconstruction
- arxiv url: http://arxiv.org/abs/2209.03832v2
- Date: Sat, 11 Jan 2025 03:27:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-14 14:26:42.883435
- Title: T2LR-Net: An unrolling network learning transformed tensor low-rank prior for dynamic MR image reconstruction
- Title(参考訳): T2LR-Net:動的MR画像再構成のための非ローリングネットワーク学習によるテンソル低ランク化
- Authors: Yinghao Zhang, Peng Li, Yue Hu,
- Abstract要約: 本稿では、畳み込みニューラルネットワーク(CNN)を用いて、テンソルの低ランクプリエントを活用するために変換されたドメインを適応的に学習するディープ・アンローリング・ネットワークを提案する。
教師機構の下では、テンソル低ランク領域の学習は、再構成精度によって直接誘導される。
2つの動的心MRIデータセットの実験により、T2LR-Netは最先端の最適化ベースおよびアンローリングネットワークベースの手法よりも優れていることが示された。
- 参考スコア(独自算出の注目度): 10.402013638387334
- License:
- Abstract: The tensor low-rank prior has attracted considerable attention in dynamic MR reconstruction. Tensor low-rank methods preserve the inherent high-dimensional structure of data, allowing for improved extraction and utilization of intrinsic low-rank characteristics. However, most current methods are still confined to utilizing low-rank structures either in the image domain or predefined transformed domains. Designing an optimal transformation adaptable to dynamic MRI reconstruction through manual efforts is inherently challenging. In this paper, we propose a deep unrolling network that utilizes the convolutional neural network (CNN) to adaptively learn the transformed domain for leveraging tensor low-rank priors. Under the supervised mechanism, the learning of the tensor low-rank domain is directly guided by the reconstruction accuracy. Specifically, we generalize the traditional t-SVD to a transformed version based on arbitrary high-dimensional unitary transformations and introduce a novel unitary transformed tensor nuclear norm (UTNN). Subsequently, we present a dynamic MRI reconstruction model based on UTNN and devise an efficient iterative optimization algorithm using ADMM, which is finally unfolded into the proposed T2LR-Net. Experiments on two dynamic cardiac MRI datasets demonstrate that T2LR-Net outperforms the state-of-the-art optimization-based and unrolling network-based methods.
- Abstract(参考訳): テンソル低ランク前者は動的MR再構成において大きな注目を集めている。
テンソル低ランク法はデータ固有の高次元構造を保存し,本質的な低ランク特性の抽出と利用を向上させる。
しかし、現在のほとんどの手法は、画像領域または事前に定義された変換された領域のどちらかで低ランク構造を利用するのに限られている。
手動による動的MRI再構成に適応可能な最適な変換を設計することは本質的に困難である。
本稿では、畳み込みニューラルネットワーク(CNN)を用いて、テンソルの低ランク前処理を活用するために変換された領域を適応的に学習するディープ・アンローリング・ネットワークを提案する。
教師機構の下では、テンソル低ランク領域の学習は、再構成精度によって直接誘導される。
具体的には、任意の高次元のユニタリ変換に基づいて、従来のt-SVDを変換バージョンに一般化し、新しいユニタリ変換テンソル核ノルム(UTNN)を導入する。
その後、UTNNに基づく動的MRI再構成モデルを提案し、ADMMを用いた効率的な反復最適化アルゴリズムを考案し、最終的に提案したT2LR-Netに展開する。
2つの動的心MRIデータセットの実験により、T2LR-Netは最先端の最適化ベースおよびアンローリングネットワークベースの手法よりも優れていることが示された。
関連論文リスト
- JotlasNet: Joint Tensor Low-Rank and Attention-based Sparse Unrolling Network for Accelerating Dynamic MRI [6.081607038128913]
動的MRI再構成のための新しいディープアンローリングネットワークJotlasNetを提案する。
ダイナミックMRIでは,低ランク・スパースアンローリングネットワークが優れた性能を示した。
論文 参考訳(メタデータ) (2025-02-17T12:43:04Z) - OTLRM: Orthogonal Learning-based Low-Rank Metric for Multi-Dimensional Inverse Problems [14.893020063373022]
学習可能な直交変換に基づく新しいデータ駆動型低ランクt-SVDモデルを提案する。
また、生成ネットワークの効率的な表現を利用して低ランク構造を得るSVTの一般化として低ランク解法を提案する。
論文 参考訳(メタデータ) (2024-12-15T12:28:57Z) - Deep-Unrolling Multidimensional Harmonic Retrieval Algorithms on Neuromorphic Hardware [78.17783007774295]
本稿では,高精度かつエネルギー効率の高い単発多次元高調波検索のための変換に基づくニューロモルフィックアルゴリズムの可能性について検討する。
複雑な値の畳み込み層と活性化をスパイクニューラルネットワーク(SNN)に変換する新しい手法を開発した。
変換されたSNNは、元のCNNに比べて性能が低下し、ほぼ5倍の電力効率を実現している。
論文 参考訳(メタデータ) (2024-12-05T09:41:33Z) - TCCT-Net: Two-Stream Network Architecture for Fast and Efficient Engagement Estimation via Behavioral Feature Signals [58.865901821451295]
本稿では,新しい2ストリーム機能融合 "Tensor-Convolution and Convolution-Transformer Network" (TCCT-Net) アーキテクチャを提案する。
時間空間領域における意味のあるパターンをよりよく学習するために、ハイブリッド畳み込み変換器を統合する「CT」ストリームを設計する。
並行して、時間周波数領域からリッチなパターンを効率的に抽出するために、連続ウェーブレット変換(CWT)を用いて情報を2次元テンソル形式で表現する「TC」ストリームを導入する。
論文 参考訳(メタデータ) (2024-04-15T06:01:48Z) - Iterative Soft Shrinkage Learning for Efficient Image Super-Resolution [91.3781512926942]
画像超解像(SR)は、CNNからトランスフォーマーアーキテクチャへの広範なニューラルネットワーク設計を目撃している。
本研究は,市販のネットワーク設計を生かし,基礎となる計算オーバーヘッドを低減するため,超高解像度イテレーションにおけるネットワークプルーニングの可能性について検討する。
本研究では, ランダムネットワークのスパース構造を最適化し, 重要でない重みを小さめに微調整することにより, 反復型軟収縮率(ISS-P)法を提案する。
論文 参考訳(メタデータ) (2023-03-16T21:06:13Z) - Affine Transformation Edited and Refined Deep Neural Network for
Quantitative Susceptibility Mapping [10.772763441035945]
定量的サセプティビリティマッピング(QSM)のための、エンドツーエンドのAFfine Transformation Edited and Refined (AFTER)ディープニューラルネットワークを提案する。
任意の取得方向と空間分解能が最大0.6mm等方性に対して最も高い。
論文 参考訳(メタデータ) (2022-11-25T07:54:26Z) - Dynamic MRI using Learned Transform-based Deep Tensor Low-Rank Network
(DTLR-Net) [9.658908705889777]
心臓のダイナミックMR画像に先行するテンソルローランクを学習することで,モデルに基づくディープラーニングネットワークを導入する。
提案したフレームワークは,最先端のアルゴリズムと比較して,回復率の向上を実現している。
論文 参考訳(メタデータ) (2022-06-02T02:55:41Z) - Cross-Modality High-Frequency Transformer for MR Image Super-Resolution [100.50972513285598]
我々はTransformerベースのMR画像超解像フレームワークを構築するための初期の取り組みを構築した。
我々は、高周波構造とモード間コンテキストを含む2つの領域先行について考察する。
我々は,Cross-modality High- frequency Transformer (Cohf-T)と呼ばれる新しいTransformerアーキテクチャを構築し,低解像度画像の超解像化を実現する。
論文 参考訳(メタデータ) (2022-03-29T07:56:55Z) - A Fully Tensorized Recurrent Neural Network [48.50376453324581]
重み付けされたRNNアーキテクチャを導入し、各リカレントセル内の個別の重み付け行列を共同で符号化する。
このアプローチはモデルのサイズを数桁削減するが、通常のRNNと同等あるいは優れた性能を維持している。
論文 参考訳(メタデータ) (2020-10-08T18:24:12Z) - Deep Low-rank Prior in Dynamic MR Imaging [30.70648993986445]
本稿では、学習可能な低ランクをディープネットワークアーキテクチャに導入するための2つの新しいスキームを紹介する。
本研究では,SLR-Netと呼ばれるダイナミックMRイメージングのためのモデルベースアンローリングスパースとローランクネットワークを提案する。
プラグ・アンド・プレイ方式では、他の動的MRニューラルネットワークに簡単に組み込むことができるプラグ・アンド・プレイLRネットワークモジュールを提案する。
論文 参考訳(メタデータ) (2020-06-22T09:26:10Z) - Iterative Network for Image Super-Resolution [69.07361550998318]
単一画像超解像(SISR)は、最近の畳み込みニューラルネットワーク(CNN)の発展により、大幅に活性化されている。
本稿では、従来のSISRアルゴリズムに関する新たな知見を提供し、反復最適化に依存するアプローチを提案する。
反復最適化の上に,新しい反復型超解像ネットワーク (ISRN) を提案する。
論文 参考訳(メタデータ) (2020-05-20T11:11:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。