論文の概要: Unsupervised Adaptive Neural Network Regularization for Accelerated
Radial Cine MRI
- arxiv url: http://arxiv.org/abs/2002.03820v1
- Date: Mon, 10 Feb 2020 14:47:20 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-02 08:29:31.024662
- Title: Unsupervised Adaptive Neural Network Regularization for Accelerated
Radial Cine MRI
- Title(参考訳): 加速度的根管MRIにおける教師なし適応型ニューラルネットワークの正規化
- Authors: Andreas Kofler, Marc Dewey, Tobias Schaeffter, Christoph Kolbitsch and
Markus Haltmeier
- Abstract要約: 本研究では,浅部畳み込みニューラルネットワークの非教師なし学習に基づく2次元放射状シネMRIの反復的再構成手法を提案する。
ネットワークは、再構築中の解の現在の推定値のパッチを近似するように訓練される。
- 参考スコア(独自算出の注目度): 3.6280929178575994
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this work, we propose an iterative reconstruction scheme (ALONE - Adaptive
Learning Of NEtworks) for 2D radial cine MRI based on ground truth-free
unsupervised learning of shallow convolutional neural networks. The network is
trained to approximate patches of the current estimate of the solution during
the reconstruction. By imposing a shallow network topology and constraining the
$L_2$-norm of the learned filters, the network's representation power is
limited in order not to be able to recover noise. Therefore, the network can be
interpreted to perform a low dimensional approximation of the patches for
stabilizing the inversion process. We compare the proposed reconstruction
scheme to two ground truth-free reconstruction methods, namely a well known
Total Variation (TV) minimization and an unsupervised adaptive Dictionary
Learning (DIC) method. The proposed method outperforms both methods with
respect to all reported quantitative measures. Further, in contrast to DIC,
where the sparse approximation of the patches involves the solution of a
complex optimization problem, ALONE only requires a forward pass of all patches
through the shallow network and therefore significantly accelerates the
reconstruction.
- Abstract(参考訳): 本研究では,浅部畳み込みニューラルネットワークの非教師なし学習に基づく2次元ラジアルシンMRIのための反復的再構成手法(ALONE - Adaptive Learning of NEtworks)を提案する。
ネットワークは、再構築中の溶液の現在の推定値のパッチを近似するように訓練される。
浅いネットワークトポロジーを付与し、学習したフィルタの$L_2$-normを制約することにより、ネットワークの表現力はノイズを回復できないように制限される。
したがって、ネットワークは、反転過程を安定化するためのパッチの低次元近似を行うように解釈することができる。
提案手法は,提案手法を,よく知られた全変量(TV)最小化法と教師なし適応辞書学習(DIC)法という2つの基礎的真偽のない再構成手法と比較する。
提案手法は, 報告されたすべての定量的測定値に対して, どちらの手法よりも優れる。
さらに、パッチのスパース近似が複雑な最適化問題の解を含むDICとは対照的に、ALONEはすべてのパッチを浅層ネットワークに転送することしか必要とせず、したがって再構築を著しく加速する。
関連論文リスト
- Improving Generalization of Deep Neural Networks by Optimum Shifting [33.092571599896814]
本稿では,ニューラルネットワークのパラメータを最小値からフラット値に変化させる,近位シフトと呼ばれる新しい手法を提案する。
本手法は,ニューラルネットワークの入力と出力が固定された場合,ネットワーク内の行列乗算を,未決定線形方程式系として扱うことができることを示す。
論文 参考訳(メタデータ) (2024-05-23T02:31:55Z) - Fixing the NTK: From Neural Network Linearizations to Exact Convex
Programs [63.768739279562105]
学習目標に依存しない特定のマスクウェイトを選択する場合、このカーネルはトレーニングデータ上のゲートReLUネットワークのNTKと等価であることを示す。
この目標への依存の欠如の結果として、NTKはトレーニングセット上の最適MKLカーネルよりもパフォーマンスが良くない。
論文 参考訳(メタデータ) (2023-09-26T17:42:52Z) - Convergence Guarantees of Overparametrized Wide Deep Inverse Prior [1.5362025549031046]
逆優先法(Inverse Priors)は、ランダムな入力をフォワードモデルの下で画像が観察に一致するオブジェクトに変換する、教師なしのアプローチである。
本研究では, 連続時間勾配勾配勾配からトレーニングしたネットワークが, 高確率で指数関数的に高速に収束するオーバーパラメトリゼーション境界を提供する。
この研究は、過度にパラメータ化されたDIPネットワークの理論的理解への第一歩であり、より広い範囲で、逆問題設定におけるニューラルネットワークの理論的理解に関与している。
論文 参考訳(メタデータ) (2023-03-20T16:49:40Z) - Iterative Soft Shrinkage Learning for Efficient Image Super-Resolution [91.3781512926942]
画像超解像(SR)は、CNNからトランスフォーマーアーキテクチャへの広範なニューラルネットワーク設計を目撃している。
本研究は,市販のネットワーク設計を生かし,基礎となる計算オーバーヘッドを低減するため,超高解像度イテレーションにおけるネットワークプルーニングの可能性について検討する。
本研究では, ランダムネットワークのスパース構造を最適化し, 重要でない重みを小さめに微調整することにより, 反復型軟収縮率(ISS-P)法を提案する。
論文 参考訳(メタデータ) (2023-03-16T21:06:13Z) - Deep Convolutional Learning-Aided Detector for Generalized Frequency
Division Multiplexing with Index Modulation [0.0]
提案手法は、まずゼロフォース検出器(ZF)を用いて受信信号を前処理し、その後、畳み込みニューラルネットワーク(CNN)と完全連結ニューラルネットワーク(FCNN)からなるニューラルネットワークを用いる。
FCNN部は2つの完全に接続された層しか使用せず、複雑さとBER(bit error rate)パフォーマンスのトレードオフをもたらすことができる。
提案したディープ畳み込みニューラルネットワークに基づく検出・復調方式は,ZF検出器よりも高いBER性能を示し,複雑性が増大することが実証されている。
論文 参考訳(メタデータ) (2022-02-06T22:18:42Z) - Robust lEarned Shrinkage-Thresholding (REST): Robust unrolling for
sparse recover [87.28082715343896]
我々は、モデルミス特定を前進させるのに堅牢な逆問題を解決するためのディープニューラルネットワークについて検討する。
我々は,アルゴリズムの展開手法を根底にある回復問題のロバストバージョンに適用することにより,新しい堅牢なディープニューラルネットワークアーキテクチャを設計する。
提案したRESTネットワークは,圧縮センシングとレーダイメージングの両問題において,最先端のモデルベースおよびデータ駆動アルゴリズムを上回る性能を示す。
論文 参考訳(メタデータ) (2021-10-20T06:15:45Z) - LocalDrop: A Hybrid Regularization for Deep Neural Networks [98.30782118441158]
本稿では,ローカルラデマチャー複雑性を用いたニューラルネットワークの正規化のための新しい手法であるLocalDropを提案する。
フルコネクテッドネットワーク(FCN)と畳み込みニューラルネットワーク(CNN)の両方のための新しい正規化機能は、ローカルラデマチャー複雑さの上限提案に基づいて開発されました。
論文 参考訳(メタデータ) (2021-03-01T03:10:11Z) - Solving Sparse Linear Inverse Problems in Communication Systems: A Deep
Learning Approach With Adaptive Depth [51.40441097625201]
疎信号回復問題に対するエンドツーエンドの訓練可能なディープラーニングアーキテクチャを提案する。
提案手法は,出力するレイヤ数を学習し,各タスクのネットワーク深さを推論フェーズで動的に調整する。
論文 参考訳(メタデータ) (2020-10-29T06:32:53Z) - Tunable Subnetwork Splitting for Model-parallelism of Neural Network
Training [12.755664985045582]
本稿では,深層ニューラルネットワークの分解を調整可能なサブネットワーク分割法(TSSM)を提案する。
提案するTSSMは,トレーニング精度を損なうことなく,大幅な高速化を実現することができる。
論文 参考訳(メタデータ) (2020-09-09T01:05:12Z) - Iterative Network for Image Super-Resolution [69.07361550998318]
単一画像超解像(SISR)は、最近の畳み込みニューラルネットワーク(CNN)の発展により、大幅に活性化されている。
本稿では、従来のSISRアルゴリズムに関する新たな知見を提供し、反復最適化に依存するアプローチを提案する。
反復最適化の上に,新しい反復型超解像ネットワーク (ISRN) を提案する。
論文 参考訳(メタデータ) (2020-05-20T11:11:47Z) - Interpretable Deep Recurrent Neural Networks via Unfolding Reweighted
$\ell_1$-$\ell_1$ Minimization: Architecture Design and Generalization
Analysis [19.706363403596196]
本稿では、再重み付き最小化アルゴリズムの展開により、新しいディープリカレントニューラルネットワーク(coined reweighted-RNN)を開発する。
我々の知る限りでは、これは再重み付け最小化を探求する最初の深層展開法である。
移動MNISTデータセットの実験結果から,提案した深度再重み付きRNNは既存のRNNモデルよりも大幅に優れていた。
論文 参考訳(メタデータ) (2020-03-18T17:02:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。