論文の概要: Dual-Domain Reconstruction Networks with V-Net and K-Net for fast MRI
- arxiv url: http://arxiv.org/abs/2203.05725v2
- Date: Mon, 14 Mar 2022 15:52:10 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-15 11:23:00.697044
- Title: Dual-Domain Reconstruction Networks with V-Net and K-Net for fast MRI
- Title(参考訳): 高速MRIのためのV-NetとK-Netを用いたデュアルドメイン再構成ネットワーク
- Authors: Xiaohan Liu, Yanwei Pang, Ruiqi Jin, Yu Liu, Zhenchang Wang
- Abstract要約: アンサンプされたk空間データから,V-NetとK-NetによるMR画像の正確な再構成を行うための二重領域再構成ネットワークを提案する。
KV-Netは最先端の手法よりも軽量だが、再構築性能が向上している。
- 参考スコア(独自算出の注目度): 36.40571201555336
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Purpose: To introduce a dual-domain reconstruction network with V-Net and
K-Net for accurate MR image reconstruction from undersampled k-space data.
Methods: Most state-of-the-art reconstruction methods apply U-Net or cascaded
U-Nets in image domain and/or k-space domain. Nevertheless, these methods have
following problems: (1) Directly applying U-Net in k-space domain is not
optimal for extracting features in k-space domain; (2) Classical image-domain
oriented U-Net is heavy-weight and hence is inefficient to be cascaded many
times for yielding good reconstruction accuracy; (3) Classical image-domain
oriented U-Net does not fully make use information of encoder network for
extracting features in decoder network; and (4) Existing methods are
ineffective in simultaneously extracting and fusing features in image domain
and its dual k-space domain. To tackle these problems, we propose in this paper
(1) an image-domain encoder-decoder sub-network called V-Net which is more
light-weight for cascading and effective in fully utilizing features in the
encoder for decoding, (2) a k-space domain sub-network called K-Net which is
more suitable for extracting hierarchical features in k-space domain, and (3) a
dual-domain reconstruction network where V-Nets and K-Nets are parallelly and
effectively combined and cascaded. Results: Extensive experimental results on
the challenging fastMRI dataset demonstrate that the proposed KV-Net can
reconstruct high-quality images and outperform current state-of-the-art
approaches with fewer parameters. Conclusions: To reconstruct images
effectively and efficiently from incomplete k-space data, we have presented a
parallel dual-domain KV-Net to combine K-Nets and V-Nets. The KV-Net is more
lightweight than state-of-the-art methods but achieves better reconstruction
performance.
- Abstract(参考訳): 目的: アンサンプされたk空間データから正確なMR画像再構成を行うために, V-Net と K-Net を用いた二重領域再構成ネットワークを導入する。
方法: 最先端の再構築手法の多くは、画像領域および/またはk空間領域にu-netまたはカスケードu-netを適用する。
Nevertheless, these methods have following problems: (1) Directly applying U-Net in k-space domain is not optimal for extracting features in k-space domain; (2) Classical image-domain oriented U-Net is heavy-weight and hence is inefficient to be cascaded many times for yielding good reconstruction accuracy; (3) Classical image-domain oriented U-Net does not fully make use information of encoder network for extracting features in decoder network; and (4) Existing methods are ineffective in simultaneously extracting and fusing features in image domain and its dual k-space domain.
これらの問題に対処するために,(1)キャスケーディングの軽量化とデコードのための機能の完全活用に有効なV-Netという画像領域エンコーダ・デコーダサブネットワーク,(2)k空間領域の階層的特徴抽出に適したK-Netというk空間ドメインサブネットワーク,(3)V-NetとK-Netを並列かつ効果的に組み合わせたデュアルドメイン再構築ネットワークを提案する。
結果: 挑戦的な高速MRIデータセットに対する大規模な実験結果から,提案したKV-Netは高品質な画像を再構成し,パラメータが少なくて最先端のアプローチより優れていることが示された。
結論:不完全なk空間データから効率的に画像を再構成するために,K-NetとV-Netを組み合わせた並列二重領域KV-Netを提案する。
KV-Netは最先端の手法よりも軽量だが、再構築性能が向上している。
関連論文リスト
- DDU-Net: A Domain Decomposition-based CNN for High-Resolution Image Segmentation on Multiple GPUs [46.873264197900916]
ドメイン分解に基づくU-Netアーキテクチャを導入し、入力イメージを重複しないパッチに分割する。
空間コンテキストの理解を高めるために、パッチ間情報交換を容易にするための通信ネットワークが追加される。
その結果、この手法は、パッチ間通信のない同一ネットワークと比較して、IoU(Universal over Union)スコアよりも2~3,%高い交点を達成できることが判明した。
論文 参考訳(メタデータ) (2024-07-31T01:07:21Z) - Image Reconstruction for Accelerated MR Scan with Faster Fourier
Convolutional Neural Networks [87.87578529398019]
部分走査は、磁気共鳴イメージング(MRI)データ取得を2次元および3次元の両方で加速する一般的な手法である。
本稿では,Faster Fourier Convolution (FasterFC) と呼ばれる新しい畳み込み演算子を提案する。
2次元加速MRI法であるFasterFC-End-to-End-VarNetは、FasterFCを用いて感度マップと再構成品質を改善する。
k空間領域再構成を誘導する単一グループアルゴリズムを用いたFasterFC-based Single-to-group Network (FAS-Net) と呼ばれる3次元加速MRI法
論文 参考訳(メタデータ) (2023-06-05T13:53:57Z) - D3C2-Net: Dual-Domain Deep Convolutional Coding Network for Compressive
Sensing [9.014593915305069]
深部展開ネットワーク(DUN)は圧縮センシング(CS)において顕著な成功を収めた
提案したフレームワークをディープニューラルネットワークに展開することにより、新たなデュアルドメインディープ畳み込み符号化ネットワーク(D3C2-Net)をさらに設計する。
自然画像とMR画像の実験により、我々のD3C2-Netは、他の最先端技術よりも高い性能と精度・複雑さのトレードオフを達成することが示された。
論文 参考訳(メタデータ) (2022-07-27T14:52:32Z) - Image Compressed Sensing Using Non-local Neural Network [43.51101614942895]
本稿では,非局所ニューラルネットワーク(NL-CSNet)を用いた新しい画像CSフレームワークを提案する。
提案したNL-CSNetでは,非局所的な自己相似性を生かした2つの非局所ワークが構築されている。
マルチスケール特徴領域のサブネットワークでは,高密度特徴表現間の親和性について検討する。
論文 参考訳(メタデータ) (2021-12-07T14:06:12Z) - CondenseNet V2: Sparse Feature Reactivation for Deep Networks [87.38447745642479]
高密度接続によるディープネットワークの機能再利用は、高い計算効率を達成する効果的な方法である。
スパース機能再活性化(SFR)と呼ばれる代替アプローチを提案し、再利用機能の有用性を積極的に高めることを目指しています。
提案手法は画像分類(ImageNet, CIFAR)とオブジェクト検出(MSCOCO)において,理論的効率と実用的速度の両面で有望な性能を達成できることを示す。
論文 参考訳(メタデータ) (2021-04-09T14:12:43Z) - Combined Depth Space based Architecture Search For Person
Re-identification [70.86236888223569]
個人再識別(ReID)のための軽量で適切なネットワークの設計を目指しています。
本研究では,CDNetと呼ばれる効率的なネットワークアーキテクチャの探索に基づく,複合深さ空間(Componed Depth Space, CDS)と呼ばれる新しい検索空間を提案する。
そこで我々はTop-k Sample Search戦略という低コストの検索戦略を提案し、検索空間をフル活用し、局所的な最適結果のトラップを避ける。
論文 参考訳(メタデータ) (2021-04-09T02:40:01Z) - MP-ResNet: Multi-path Residual Network for the Semantic segmentation of
High-Resolution PolSAR Images [21.602484992154157]
本稿では,高解像度PolSAR画像のセマンティックセグメンテーションのためのマルチパスResNet(MP-ResNet)アーキテクチャを提案する。
従来のU字型エンコーダ・デコーダ畳み込みニューラルネットワーク(CNN)アーキテクチャと比較して、MP-ResNetは並列なマルチスケールブランチでセマンティックコンテキストを学習する。
論文 参考訳(メタデータ) (2020-11-10T13:28:36Z) - KiU-Net: Overcomplete Convolutional Architectures for Biomedical Image
and Volumetric Segmentation [71.79090083883403]
トラディショナル・エンコーダ・デコーダに基づく手法は, より小さな構造を検出でき, 境界領域を正確に分割できない。
本稿では,(1)入力の細部と正確なエッジを捉えることを学ぶ完全畳み込みネットワークKite-Netと,(2)高レベルの特徴を学習するU-Netの2つの枝を持つKiU-Netを提案する。
提案手法は,より少ないパラメータとより高速な収束の利点により,最近のすべての手法と比較して性能が向上する。
論文 参考訳(メタデータ) (2020-10-04T19:23:33Z) - Structured Convolutions for Efficient Neural Network Design [65.36569572213027]
畳み込みニューラルネットワーク構築ブロックのテクスト単純構造における冗長性を利用してモデル効率に取り組む。
この分解が2Dカーネルや3Dカーネルだけでなく、完全に接続されたレイヤにも適用可能であることを示す。
論文 参考訳(メタデータ) (2020-08-06T04:38:38Z) - MACU-Net for Semantic Segmentation of Fine-Resolution Remotely Sensed
Images [11.047174552053626]
MACU-Netは、マルチスケールのスキップ接続と非対称畳み込みベースのU-Netで、微細解像度のリモートセンシング画像を提供する。
本設計では,(1)低レベル・高レベルの特徴写像に含まれる意味的特徴と,(2)非対称な畳み込みブロックは,標準畳み込み層の特徴表現と特徴抽出能力を強化する。
2つのリモートセンシングデータセットで行った実験では、提案したMACU-NetがU-Net、U-NetPPL、U-Net 3+、その他のベンチマークアプローチを超越していることが示されている。
論文 参考訳(メタデータ) (2020-07-26T08:56:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。