論文の概要: GLEAM: Greedy Learning for Large-Scale Accelerated MRI Reconstruction
- arxiv url: http://arxiv.org/abs/2207.08393v1
- Date: Mon, 18 Jul 2022 06:01:29 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-19 18:11:27.462503
- Title: GLEAM: Greedy Learning for Large-Scale Accelerated MRI Reconstruction
- Title(参考訳): GLEAM: 大規模加速MRI再構成のためのグレディラーニング
- Authors: Batu Ozturkler, Arda Sahiner, Tolga Ergen, Arjun D Desai, Christopher
M Sandino, Shreyas Vasanawala, John M Pauly, Morteza Mardani, Mert Pilanci
- Abstract要約: アンロールされたニューラルネットワークは、最近最先端の加速MRI再構成を達成した。
これらのネットワークは、物理ベースの一貫性とニューラルネットワークベースの正規化を交互に組み合わせることで、反復最適化アルゴリズムをアンロールする。
我々は,高次元画像設定のための効率的なトレーニング戦略である加速度MRI再構成のためのグレディ・ラーニングを提案する。
- 参考スコア(独自算出の注目度): 50.248694764703714
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Unrolled neural networks have recently achieved state-of-the-art accelerated
MRI reconstruction. These networks unroll iterative optimization algorithms by
alternating between physics-based consistency and neural-network based
regularization. However, they require several iterations of a large neural
network to handle high-dimensional imaging tasks such as 3D MRI. This limits
traditional training algorithms based on backpropagation due to prohibitively
large memory and compute requirements for calculating gradients and storing
intermediate activations. To address this challenge, we propose Greedy LEarning
for Accelerated MRI (GLEAM) reconstruction, an efficient training strategy for
high-dimensional imaging settings. GLEAM splits the end-to-end network into
decoupled network modules. Each module is optimized in a greedy manner with
decoupled gradient updates, reducing the memory footprint during training. We
show that the decoupled gradient updates can be performed in parallel on
multiple graphical processing units (GPUs) to further reduce training time. We
present experiments with 2D and 3D datasets including multi-coil knee, brain,
and dynamic cardiac cine MRI. We observe that: i) GLEAM generalizes as well as
state-of-the-art memory-efficient baselines such as gradient checkpointing and
invertible networks with the same memory footprint, but with 1.3x faster
training; ii) for the same memory footprint, GLEAM yields 1.1dB PSNR gain in 2D
and 1.8 dB in 3D over end-to-end baselines.
- Abstract(参考訳): アンロールされたニューラルネットワークは、最近最先端の加速MRI再構成を達成した。
これらのネットワークは、物理ベースの一貫性とニューラルネットワークに基づく正規化を交互に組み合わせることで反復的最適化アルゴリズムを展開する。
しかし、3D MRIのような高次元イメージングタスクを処理するには、大規模なニューラルネットワークの繰り返しが必要になる。
これにより、バックプロパゲーションに基づく従来のトレーニングアルゴリズムが制限される。
この課題に対処するために,高次元画像設定のための効率的なトレーニング戦略であるGreedy LEarning for Accelerated MRI (GLEAM) 再構成を提案する。
GLEAMはエンドツーエンドのネットワークを分離したネットワークモジュールに分割する。
各モジュールは、切り離された勾配更新によって、ゆるやかな方法で最適化され、トレーニング中のメモリフットプリントが削減される。
本稿では,複数のグラフィカル処理ユニット(GPU)上で,分離した勾配更新を並列に行うことで,トレーニング時間を短縮できることを示す。
マルチコイル膝,脳,ダイナミック心血管MRIを含む2Dおよび3Dデータセットを用いて実験を行った。
私たちはそれを観察します
i) GLEAMは、勾配チェックポイントや、同じメモリフットプリントを持つ非可逆ネットワークのような最先端のメモリ効率のベースラインを1.3倍高速なトレーニングで一般化する。
ii) 同じメモリフットプリントの場合、GLEAMは2Dでは1.1dBPSNR、エンドツーエンドのベースラインでは1.8dBとなる。
関連論文リスト
- StoDIP: Efficient 3D MRF image reconstruction with deep image priors and stochastic iterations [3.4453266252081645]
StoDIPは, 3次元MRFイメージングに基いて, 地上構造のないDeep Image Prior (DIP) 再構成を拡張した新しいアルゴリズムである。
健康なボランティアの脳全体をスキャンしたデータセットで、StoDIPは、質的にも質的にも、地道な再建ベースラインよりも優れたパフォーマンスを示した。
論文 参考訳(メタデータ) (2024-08-05T10:32:06Z) - SeMLaPS: Real-time Semantic Mapping with Latent Prior Networks and
Quasi-Planar Segmentation [53.83313235792596]
本稿では,RGB-Dシーケンスからのリアルタイム意味マッピングのための新しい手法を提案する。
2DニューラルネットワークとSLAMシステムに基づく3Dネットワークと3D占有マッピングを組み合わせる。
本システムは,2D-3Dネットワークベースシステムにおいて,最先端のセマンティックマッピング品質を実現する。
論文 参考訳(メタデータ) (2023-06-28T22:36:44Z) - MF-NeRF: Memory Efficient NeRF with Mixed-Feature Hash Table [62.164549651134465]
MF-NeRFは,Mixed-Featureハッシュテーブルを用いてメモリ効率を向上し,再構成品質を維持しながらトレーニング時間を短縮するメモリ効率の高いNeRFフレームワークである。
最新技術であるInstant-NGP、TensoRF、DVGOによる実験は、MF-NeRFが同じGPUハードウェア上で、同様のあるいはそれ以上のリコンストラクション品質で最速のトレーニング時間を達成できることを示唆している。
論文 参考訳(メタデータ) (2023-04-25T05:44:50Z) - Memory-efficient Segmentation of High-resolution Volumetric MicroCT
Images [11.723370840090453]
本稿では,3次元高解像度画像分割のためのメモリ効率の高いネットワークアーキテクチャを提案する。
このネットワークは、2段階のU-netベースのカスケードフレームワークを通じて、グローバル機能とローカル機能の両方を組み込んでいる。
実験により, セグメント化精度とメモリ効率の両方の観点から, 最先端の3Dセグメンテーション法より優れていることが示された。
論文 参考訳(メタデータ) (2022-05-31T16:42:48Z) - Learned Cone-Beam CT Reconstruction Using Neural Ordinary Differential
Equations [8.621792868567018]
逆問題に対する反復的再構成アルゴリズムは、問題に関する解析的知識とデータから学んだモジュールを組み合わせる柔軟性を提供する。
計算トモグラフィでは,2次元ファンビームから3次元コーンビームデータへのアプローチの延長が困難である。
本稿では, 数値積分による残差定式化における再構成問題の解法として, ニューラル常微分方程式を用いることを提案する。
論文 参考訳(メタデータ) (2022-01-19T12:32:38Z) - A New Backbone for Hyperspectral Image Reconstruction [90.48427561874402]
3次元ハイパースペクトル画像(HSI)再構成は、スナップショット圧縮画像の逆過程を指す。
空間/スペクトル不変Residual U-Net、すなわちSSI-ResU-Netを提案する。
SSI-ResU-Net は浮動小数点演算の 77.3% 以上で競合する性能を実現する。
論文 参考訳(メタデータ) (2021-08-17T16:20:51Z) - Invertible Residual Network with Regularization for Effective Medical
Image Segmentation [2.76240219662896]
バックプロパゲーションを用いたニューラルネットワークのトレーニングにおいて、アクティベーションメモリフットプリントを大幅に削減するために、可逆ニューラルネットワークが適用されている。
可逆残存ネットワーク(部分可逆残存ネットワーク, Partially-InvRes)と完全可逆残存ネットワーク(Fully-InvRes)の2つのバージョンを提案する。
この結果から,部分可逆ネットワークをボリュームセグメンテーションの中心として用いることにより,メモリオーバヘッドを削減できるだけでなく,非可逆的3d unetと同等なセグメンテーション性能を実現することができた。
論文 参考訳(メタデータ) (2021-03-16T13:19:59Z) - Memory-efficient Learning for High-Dimensional MRI Reconstruction [20.81538631727325]
メモリ効率の高い学習フレームワーク (MEL) を用いたin-vivo 3D MRI および 2D+time 心シネMRI の画像再構成性能の改善を示す。
MELはGPUメモリをはるかに少なくし、トレーニング時間を大幅に短縮し、高次元MRIへのDLの新しいアプリケーションを可能にします。
論文 参考訳(メタデータ) (2021-03-06T01:36:25Z) - Binary Graph Neural Networks [69.51765073772226]
グラフニューラルネットワーク(gnns)は、不規則データに対する表現学習のための強力で柔軟なフレームワークとして登場した。
本稿では,グラフニューラルネットワークのバイナライゼーションのための異なる戦略を提示し,評価する。
モデルの慎重な設計とトレーニングプロセスの制御によって、バイナリグラフニューラルネットワークは、挑戦的なベンチマークの精度において、適度なコストでトレーニングできることを示しています。
論文 参考訳(メタデータ) (2020-12-31T18:48:58Z) - Optimizing Memory Placement using Evolutionary Graph Reinforcement
Learning [56.83172249278467]
大規模検索空間を対象とした進化グラフ強化学習(EGRL)を提案する。
我々は、推論のために、Intel NNP-Iチップ上で、我々のアプローチを直接訓練し、検証する。
また,NNP-Iコンパイラと比較して28~78%の高速化を実現している。
論文 参考訳(メタデータ) (2020-07-14T18:50:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。