論文の概要: T$^2$LR-Net: An Unrolling Reconstruction Network Learning Transformed
Tensor Low-Rank prior for Dynamic MR Imaging
- arxiv url: http://arxiv.org/abs/2209.03832v1
- Date: Thu, 8 Sep 2022 14:11:02 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-09 12:56:41.528888
- Title: T$^2$LR-Net: An Unrolling Reconstruction Network Learning Transformed
Tensor Low-Rank prior for Dynamic MR Imaging
- Title(参考訳): t$^2$lr-net : 動的mr画像に先立って変換されたテンソル低ランクの学習
- Authors: Yinghao Zhang, Yue Hu
- Abstract要約: 我々は、変換されたドメインの前にテンソルローランクを利用することができるTTNNに基づくフレキシブルモデルを導入する。
また,変換テンソルの低ランク化を前もって学習するためのモデルベースディープ・アンロール・リコンストラクション・ネットワークを導入する。
提案手法は,現状の最適化手法とネットワークベースのアンロール手法と比較して,改善された回復結果を提供することができる。
- 参考スコア(独自算出の注目度): 6.101233798770526
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: While the methods exploiting the tensor low-rank prior are booming in
high-dimensional data processing and have obtained satisfying performance,
their applications in dynamic magnetic resonance (MR) image reconstruction are
limited. In this paper, we concentrate on the tensor singular value
decomposition (t-SVD), which is based on the Fast Fourier Transform (FFT) and
only provides the definite and limited tensor low-rank prior in the FFT domain,
heavily reliant upon how closely the data and the FFT domain match up. By
generalizing the FFT into an arbitrary unitary transformation of the
transformed t-SVD and proposing the transformed tensor nuclear norm (TTNN), we
introduce a flexible model based on TTNN with the ability to exploit the tensor
low-rank prior of a transformed domain in a larger transformation space and
elaborately design an iterative optimization algorithm based on the alternating
direction method of multipliers (ADMM), which is further unrolled into a
model-based deep unrolling reconstruction network to learn the transformed
tensor low-rank prior (T$^2$LR-Net). The convolutional neural network (CNN) is
incorporated within the T$^2$LR-Net to learn the best-matched transform from
the dynamic MR image dataset. The unrolling reconstruction network also
provides a new perspective on the low-rank prior utilization by exploiting the
low-rank prior in the CNN-extracted feature domain. Experimental results on two
cardiac cine MR datasets demonstrate that the proposed framework can provide
improved recovery results compared with the state-of-the-art optimization-based
and unrolling network-based methods.
- Abstract(参考訳): 高次元データ処理において, テンソル低ランク前処理法がブームとなり, 性能が向上する一方, 動的磁気共鳴(MR)画像再構成への応用は限られている。
本稿では、高速フーリエ変換(FFT)に基づくテンソル特異値分解(t-SVD)に集中し、データとFFT領域の密接な一致度に大きく依存して、FFT領域に先行する定格かつ限定的なテンソルローランクのみを提供する。
By generalizing the FFT into an arbitrary unitary transformation of the transformed t-SVD and proposing the transformed tensor nuclear norm (TTNN), we introduce a flexible model based on TTNN with the ability to exploit the tensor low-rank prior of a transformed domain in a larger transformation space and elaborately design an iterative optimization algorithm based on the alternating direction method of multipliers (ADMM), which is further unrolled into a model-based deep unrolling reconstruction network to learn the transformed tensor low-rank prior (T$^2$LR-Net).
畳み込みニューラルネットワーク(CNN)はT$^2$LR-Netに組み込まれ,動的MR画像データセットから最適な整合変換を学習する。
アンローリング再構成ネットワークは、CNN抽出特徴領域における低ランク事前利用の新たな視点を提供する。
2つの心血管MRデータセットによる実験結果から,提案フレームワークは,最新の最適化手法とネットワークベースのアンローリング手法と比較して,回復率を向上できることが示された。
関連論文リスト
- Deep Learning-based MRI Reconstruction with Artificial Fourier Transform (AFT)-Net [14.146848823672677]
複合価値ディープラーニングフレームワーク-Artificial Fourier Transform Network (AFTNet)を導入する。
AFTNetは、ドメイン変換における画像逆問題の解決に容易に利用できる。
AFTNetは既存のアプローチに比べ,MRIの高速化に優れることを示す。
論文 参考訳(メタデータ) (2023-12-18T02:50:45Z) - Image Reconstruction for Accelerated MR Scan with Faster Fourier
Convolutional Neural Networks [87.87578529398019]
部分走査は、磁気共鳴イメージング(MRI)データ取得を2次元および3次元の両方で加速する一般的な手法である。
本稿では,Faster Fourier Convolution (FasterFC) と呼ばれる新しい畳み込み演算子を提案する。
2次元加速MRI法であるFasterFC-End-to-End-VarNetは、FasterFCを用いて感度マップと再構成品質を改善する。
k空間領域再構成を誘導する単一グループアルゴリズムを用いたFasterFC-based Single-to-group Network (FAS-Net) と呼ばれる3次元加速MRI法
論文 参考訳(メタデータ) (2023-06-05T13:53:57Z) - Neural Functional Transformers [99.98750156515437]
本稿では,ニューラルファンクショナルトランスフォーマー (NFT) と呼ばれる新しい変分同変量空間層を定義するために,アテンション機構を用いる。
NFTは重み空間の置換対称性を尊重し、注意の利点を取り入れ、複数の領域で顕著な成功を収めた。
Inr2Arrayは暗黙的ニューラル表現(INR)の重みから置換不変表現を計算する新しい方法である。
論文 参考訳(メタデータ) (2023-05-22T23:38:27Z) - Iterative Soft Shrinkage Learning for Efficient Image Super-Resolution [91.3781512926942]
画像超解像(SR)は、CNNからトランスフォーマーアーキテクチャへの広範なニューラルネットワーク設計を目撃している。
本研究は,市販のネットワーク設計を生かし,基礎となる計算オーバーヘッドを低減するため,超高解像度イテレーションにおけるネットワークプルーニングの可能性について検討する。
本研究では, ランダムネットワークのスパース構造を最適化し, 重要でない重みを小さめに微調整することにより, 反復型軟収縮率(ISS-P)法を提案する。
論文 参考訳(メタデータ) (2023-03-16T21:06:13Z) - Affine Transformation Edited and Refined Deep Neural Network for
Quantitative Susceptibility Mapping [10.772763441035945]
定量的サセプティビリティマッピング(QSM)のための、エンドツーエンドのAFfine Transformation Edited and Refined (AFTER)ディープニューラルネットワークを提案する。
任意の取得方向と空間分解能が最大0.6mm等方性に対して最も高い。
論文 参考訳(メタデータ) (2022-11-25T07:54:26Z) - Dynamic MRI using Learned Transform-based Deep Tensor Low-Rank Network
(DTLR-Net) [9.658908705889777]
心臓のダイナミックMR画像に先行するテンソルローランクを学習することで,モデルに基づくディープラーニングネットワークを導入する。
提案したフレームワークは,最先端のアルゴリズムと比較して,回復率の向上を実現している。
論文 参考訳(メタデータ) (2022-06-02T02:55:41Z) - Cross-Modality High-Frequency Transformer for MR Image Super-Resolution [100.50972513285598]
我々はTransformerベースのMR画像超解像フレームワークを構築するための初期の取り組みを構築した。
我々は、高周波構造とモード間コンテキストを含む2つの領域先行について考察する。
我々は,Cross-modality High- frequency Transformer (Cohf-T)と呼ばれる新しいTransformerアーキテクチャを構築し,低解像度画像の超解像化を実現する。
論文 参考訳(メタデータ) (2022-03-29T07:56:55Z) - Revisiting Transformation Invariant Geometric Deep Learning: Are Initial
Representations All You Need? [80.86819657126041]
変換不変および距離保存初期表現は変換不変性を達成するのに十分であることを示す。
具体的には、多次元スケーリングを変更することで、変換不変かつ距離保存された初期点表現を実現する。
我々は、TinvNNが変換不変性を厳密に保証し、既存のニューラルネットワークと組み合わせられるほど汎用的で柔軟なことを証明した。
論文 参考訳(メタデータ) (2021-12-23T03:52:33Z) - Multi-Tensor Network Representation for High-Order Tensor Completion [25.759851542474447]
この研究は、部分的に観察されたサンプリングから高次元データ(テンソルを参照)の完備化の問題を研究する。
テンソルは複数の低ランク成分の重ね合わせであると考える。
本稿では,基本テンソル分解フレームワークであるMulti-Tensor Network decomposition (MTNR)を提案する。
論文 参考訳(メタデータ) (2021-09-09T03:50:19Z) - Rank-R FNN: A Tensor-Based Learning Model for High-Order Data
Classification [69.26747803963907]
Rank-R Feedforward Neural Network (FNN)は、そのパラメータにCanonical/Polyadic分解を課すテンソルベースの非線形学習モデルである。
まず、入力をマルチリニアアレイとして扱い、ベクトル化の必要性を回避し、すべてのデータ次元に沿って構造情報を十分に活用することができる。
Rank-R FNNの普遍的な近似と学習性の特性を確立し、実世界のハイパースペクトルデータセットのパフォーマンスを検証する。
論文 参考訳(メタデータ) (2021-04-11T16:37:32Z) - Deep Low-rank Prior in Dynamic MR Imaging [30.70648993986445]
本稿では、学習可能な低ランクをディープネットワークアーキテクチャに導入するための2つの新しいスキームを紹介する。
本研究では,SLR-Netと呼ばれるダイナミックMRイメージングのためのモデルベースアンローリングスパースとローランクネットワークを提案する。
プラグ・アンド・プレイ方式では、他の動的MRニューラルネットワークに簡単に組み込むことができるプラグ・アンド・プレイLRネットワークモジュールを提案する。
論文 参考訳(メタデータ) (2020-06-22T09:26:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。