論文の概要: Equilibrated Zeroth-Order Unrolled Deep Networks for Accelerated MRI
- arxiv url: http://arxiv.org/abs/2112.09891v1
- Date: Sat, 18 Dec 2021 09:47:19 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-22 10:25:39.268342
- Title: Equilibrated Zeroth-Order Unrolled Deep Networks for Accelerated MRI
- Title(参考訳): 加速度MRIのためのゼロ階アンローリングディープネットワーク
- Authors: Zhuo-Xu Cui, Jing Cheng, Qinyong Zhu, Yuanyuan Liu, Sen Jia, Kankan
Zhao, Ziwen Ke, Wenqi Huang, Haifeng Wang, Yanjie Zhu, Dong Liang
- Abstract要約: 近年,モデル駆動型ディープラーニングは正規化モデルの反復アルゴリズムをカスケードネットワークに展開している。
理論上、一階情報が置換されたネットワークモジュールと一致するような機能正規化器は必ずしも存在しない。
本稿では,ネットワークアンローリングにおけるセーフガード手法を提案する。
- 参考スコア(独自算出の注目度): 14.586911990418624
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: Recently, model-driven deep learning unrolls a certain iterative algorithm of
a regularization model into a cascade network by replacing the first-order
information (i.e., (sub)gradient or proximal operator) of the regularizer with
a network module, which appears more explainable and predictable compared to
common data-driven networks. Conversely, in theory, there is not necessarily
such a functional regularizer whose first-order information matches the
replaced network module, which means the network output may not be covered by
the original regularization model. Moreover, up to now, there is also no theory
to guarantee the global convergence and robustness (regularity) of unrolled
networks under realistic assumptions. To bridge this gap, this paper propose to
present a safeguarded methodology on network unrolling. Specifically, focusing
on accelerated MRI, we unroll a zeroth-order algorithm, of which the network
module represents the regularizer itself, so that the network output can be
still covered by the regularization model. Furthermore, inspired by the ideal
of deep equilibrium models, before backpropagating, we carry out the unrolled
iterative network to converge to a fixed point to ensure the convergence. In
case the measurement data contains noise, we prove that the proposed network is
robust against noisy interference. Finally, numerical experiments show that the
proposed network consistently outperforms the state-of-the-art MRI
reconstruction methods including traditional regularization methods and other
deep learning methods.
- Abstract(参考訳): 近年、モデル駆動型ディープラーニングは、正規化モデルの特定の反復的アルゴリズムをカスケードネットワークに展開し、正規化器の1次情報(すなわち、次数次または近位演算子)をネットワークモジュールに置き換える。
逆に、理論上、一階情報が交換されたネットワークモジュールと一致するような機能正規化器は必ずしも存在しないので、ネットワーク出力は元の正規化モデルでカバーされない。
さらに、現在に至るまで、現実的な仮定の下で未登録ネットワークのグローバル収束とロバスト性(正規性)を保証する理論は存在しない。
このギャップを埋めるため,本論文ではネットワークアンロールに関する安全対策手法を提案する。
具体的には、加速度MRIに着目して、ネットワークモジュールが正規化子自体を表すゼロ階アルゴリズムをアンロールし、ネットワーク出力を正規化モデルでカバーできるようにする。
さらに,高次平衡モデルの理想に触発されて,再伝播する前に,不動点に収束して収束を確実にする未進行反復ネットワークを実行する。
測定データがノイズを含む場合,提案するネットワークは雑音の干渉に対して頑健であることを示す。
最後に,提案手法は従来の正規化手法や他のディープラーニング手法を含む最先端のMRI再構成手法より一貫して優れていることを示す。
関連論文リスト
- Matrix Completion-Informed Deep Unfolded Equilibrium Models for
Self-Supervised k-Space Interpolation in MRI [8.33626757808923]
正規化モデル駆動型ディープラーニング(DL)は,DLの強力な表現能力を活用する能力から注目されている。
理論的に保証され,完全サンプリングラベルに依存しない加速MRIのための自己教師型DLアプローチを提案する。
論文 参考訳(メタデータ) (2023-09-24T07:25:06Z) - Robust Training and Verification of Implicit Neural Networks: A
Non-Euclidean Contractive Approach [64.23331120621118]
本稿では,暗黙的ニューラルネットワークのトレーニングとロバスト性検証のための理論的および計算的枠組みを提案する。
組込みネットワークを導入し、組込みネットワークを用いて、元のネットワークの到達可能な集合の超近似として$ell_infty$-normボックスを提供することを示す。
MNISTデータセット上で暗黙的なニューラルネットワークをトレーニングするためにアルゴリズムを適用し、我々のモデルの堅牢性と、文献における既存のアプローチを通じてトレーニングされたモデルを比較する。
論文 参考訳(メタデータ) (2022-08-08T03:13:24Z) - Toward Certified Robustness Against Real-World Distribution Shifts [65.66374339500025]
我々は、データから摂動を学ぶために生成モデルを訓練し、学習したモデルの出力に関して仕様を定義する。
この設定から生じるユニークな挑戦は、既存の検証者がシグモイドの活性化を厳密に近似できないことである。
本稿では,古典的な反例誘導的抽象的洗練の概念を活用するシグモイドアクティベーションを扱うための一般的なメタアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-06-08T04:09:13Z) - Deep Convolutional Learning-Aided Detector for Generalized Frequency
Division Multiplexing with Index Modulation [0.0]
提案手法は、まずゼロフォース検出器(ZF)を用いて受信信号を前処理し、その後、畳み込みニューラルネットワーク(CNN)と完全連結ニューラルネットワーク(FCNN)からなるニューラルネットワークを用いる。
FCNN部は2つの完全に接続された層しか使用せず、複雑さとBER(bit error rate)パフォーマンスのトレードオフをもたらすことができる。
提案したディープ畳み込みニューラルネットワークに基づく検出・復調方式は,ZF検出器よりも高いBER性能を示し,複雑性が増大することが実証されている。
論文 参考訳(メタデータ) (2022-02-06T22:18:42Z) - Robustness Certificates for Implicit Neural Networks: A Mixed Monotone
Contractive Approach [60.67748036747221]
暗黙のニューラルネットワークは、競合性能とメモリ消費の削減を提供する。
入力逆流の摂動に関して、それらは不安定なままである。
本稿では,暗黙的ニューラルネットワークのロバスト性検証のための理論的および計算的枠組みを提案する。
論文 参考訳(メタデータ) (2021-12-10T03:08:55Z) - Robust lEarned Shrinkage-Thresholding (REST): Robust unrolling for
sparse recover [87.28082715343896]
我々は、モデルミス特定を前進させるのに堅牢な逆問題を解決するためのディープニューラルネットワークについて検討する。
我々は,アルゴリズムの展開手法を根底にある回復問題のロバストバージョンに適用することにより,新しい堅牢なディープニューラルネットワークアーキテクチャを設計する。
提案したRESTネットワークは,圧縮センシングとレーダイメージングの両問題において,最先端のモデルベースおよびデータ駆動アルゴリズムを上回る性能を示す。
論文 参考訳(メタデータ) (2021-10-20T06:15:45Z) - Algorithm Unrolling for Massive Access via Deep Neural Network with
Theoretical Guarantee [30.86806523281873]
大規模アクセスはIoT(Internet of Things)ネットワークにおける重要な設計課題である。
我々は、マルチアンテナベースステーション(BS)と多数の単一アンテナIoTデバイスを備えたIoTネットワークの無許可アップリンク伝送を検討する。
本稿では,低計算複雑性と高ロバスト性を実現するために,ディープニューラルネットワークに基づく新しいアルゴリズムアンローリングフレームワークを提案する。
論文 参考訳(メタデータ) (2021-06-19T05:23:05Z) - Improve Generalization and Robustness of Neural Networks via Weight
Scale Shifting Invariant Regularizations [52.493315075385325]
重み劣化を含む正則化器の族は、均質な活性化関数を持つネットワークに対する本質的な重みのノルムをペナルティ化するのに有効でないことを示す。
そこで我々は,ニューラルネットワークの本質的な規範を効果的に制約する改良型正規化器を提案する。
論文 参考訳(メタデータ) (2020-08-07T02:55:28Z) - Unsupervised Adaptive Neural Network Regularization for Accelerated
Radial Cine MRI [3.6280929178575994]
本研究では,浅部畳み込みニューラルネットワークの非教師なし学習に基づく2次元放射状シネMRIの反復的再構成手法を提案する。
ネットワークは、再構築中の解の現在の推定値のパッチを近似するように訓練される。
論文 参考訳(メタデータ) (2020-02-10T14:47:20Z) - MSE-Optimal Neural Network Initialization via Layer Fusion [68.72356718879428]
ディープニューラルネットワークは、さまざまな分類と推論タスクに対して最先端のパフォーマンスを達成する。
グラデーションと非進化性の組み合わせは、学習を新しい問題の影響を受けやすいものにする。
確率変数を用いて学習した深層ネットワークの近傍層を融合する手法を提案する。
論文 参考訳(メタデータ) (2020-01-28T18:25:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。