論文の概要: Deep Unrolling Networks with Recurrent Momentum Acceleration for
Nonlinear Inverse Problems
- arxiv url: http://arxiv.org/abs/2307.16120v1
- Date: Sun, 30 Jul 2023 03:59:47 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-01 17:36:01.318549
- Title: Deep Unrolling Networks with Recurrent Momentum Acceleration for
Nonlinear Inverse Problems
- Title(参考訳): 非線形逆問題に対する再電流運動量加速度を持つディープアンロールネットワーク
- Authors: Qingping Zhou, Jiayu Qian, Junqi Tang, Jinglai Li
- Abstract要約: 本稿では,長期記憶リカレントニューラルネットワーク(LSTM-RNN)を用いて運動量加速過程をシミュレートするリカレント運動量加速(RMA)フレームワークを提案する。
RMAを学習勾配降下法(LPGD)と学習原始双対法(LPD)の2つの一般的なDuNetに適用し,それぞれLPGD-RMAとLPD-RMAとなる。
非線形デコンボリューション問題と境界値が制限された電気インピーダンストモグラフィ問題という2つの非線形逆問題に関する実験結果を提供する。
- 参考スコア(独自算出の注目度): 4.473327661758546
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Combining the strengths of model-based iterative algorithms and data-driven
deep learning solutions, deep unrolling networks (DuNets) have become a popular
tool to solve inverse imaging problems. While DuNets have been successfully
applied to many linear inverse problems, nonlinear problems tend to impair the
performance of the method. Inspired by momentum acceleration techniques that
are often used in optimization algorithms, we propose a recurrent momentum
acceleration (RMA) framework that uses a long short-term memory recurrent
neural network (LSTM-RNN) to simulate the momentum acceleration process. The
RMA module leverages the ability of the LSTM-RNN to learn and retain knowledge
from the previous gradients. We apply RMA to two popular DuNets -- the learned
proximal gradient descent (LPGD) and the learned primal-dual (LPD) methods,
resulting in LPGD-RMA and LPD-RMA respectively. We provide experimental results
on two nonlinear inverse problems: a nonlinear deconvolution problem, and an
electrical impedance tomography problem with limited boundary measurements. In
the first experiment we have observed that the improvement due to RMA largely
increases with respect to the nonlinearity of the problem. The results of the
second example further demonstrate that the RMA schemes can significantly
improve the performance of DuNets in strongly ill-posed problems.
- Abstract(参考訳): モデルベースの反復アルゴリズムとデータ駆動型ディープラーニングソリューションの強みを組み合わせることで、deep unrolling network(dunets)は逆イメージング問題を解決するための一般的なツールとなっている。
DuNetは、多くの線形逆問題に適用されているが、非線形問題は、その手法の性能を損なう傾向がある。
最適化アルゴリズムでよく用いられる運動量加速技術に着想を得て,長期記憶再帰ニューラルネットワーク(LSTM-RNN)を用いて運動量加速過程をシミュレートするリカレント運動量加速(RMA)フレームワークを提案する。
RMAモジュールは、LSTM-RNNが以前の勾配から知識を学び、保持する能力を活用する。
RMAを学習近位勾配降下法(LPGD)と学習原始双対法(LPD)の2つの一般的なDuNetに適用し,それぞれLPGD-RMAとLPD-RMAとなる。
非線形デコンボリューション問題と境界値が制限された電気インピーダンストモグラフィ問題という2つの非線形逆問題に関する実験結果を提供する。
最初の実験で、RMAによる改善は問題の非線形性に関して大きく増加することがわかった。
第2の例の結果はさらに、RMAスキームがDuNetの性能を著しく改善することを示した。
関連論文リスト
- Convergence of Implicit Gradient Descent for Training Two-Layer Physics-Informed Neural Networks [3.680127959836384]
暗黙の勾配降下(IGD)は、ある種のマルチスケール問題を扱う場合、共通勾配降下(GD)よりも優れる。
IGDは線形収束速度で大域的に最適解を収束することを示す。
論文 参考訳(メタデータ) (2024-07-03T06:10:41Z) - Two-Stage ML-Guided Decision Rules for Sequential Decision Making under Uncertainty [55.06411438416805]
SDMU (Sequential Decision Making Under Uncertainty) は、エネルギー、金融、サプライチェーンといった多くの領域において、ユビキタスである。
いくつかのSDMUは、自然にマルチステージ問題(MSP)としてモデル化されているが、結果として得られる最適化は、計算の観点からは明らかに困難である。
本稿では,2段階の一般決定規則(TS-GDR)を導入し,線形関数を超えて政策空間を一般化する手法を提案する。
TS-GDRの有効性は、TS-LDR(Two-Stage Deep Decision Rules)と呼ばれるディープリカレントニューラルネットワークを用いたインスタンス化によって実証される。
論文 参考訳(メタデータ) (2024-05-23T18:19:47Z) - Exact Enforcement of Temporal Continuity in Sequential Physics-Informed
Neural Networks [0.0]
解アンザッツを用いて連続時間セグメント間の連続性を強制する手法を提案する。
この手法は、線形PDEと非線形PDEの両方を含む多くのベンチマーク問題に対して試験される。
提案手法を用いて行った数値実験により,従来のPINNとソフトコントラストの双方に対して,コンバージェンスと精度が優れていた。
論文 参考訳(メタデータ) (2024-02-15T17:41:02Z) - Implicit Stochastic Gradient Descent for Training Physics-informed
Neural Networks [51.92362217307946]
物理インフォームドニューラルネットワーク(PINN)は、前方および逆微分方程式問題の解法として効果的に実証されている。
PINNは、近似すべきターゲット関数が高周波またはマルチスケールの特徴を示す場合、トレーニング障害に閉じ込められる。
本稿では,暗黙的勾配降下法(ISGD)を用いてPINNを訓練し,トレーニングプロセスの安定性を向上させることを提案する。
論文 参考訳(メタデータ) (2023-03-03T08:17:47Z) - Deep unfolding as iterative regularization for imaging inverse problems [6.485466095579992]
ディープ展開法は、反復アルゴリズムを通じてディープニューラルネットワーク(DNN)の設計を導く。
展開されたDNNが安定して収束することを証明する。
提案手法が従来の展開法より優れていることを示す。
論文 参考訳(メタデータ) (2022-11-24T07:38:47Z) - GLEAM: Greedy Learning for Large-Scale Accelerated MRI Reconstruction [50.248694764703714]
アンロールされたニューラルネットワークは、最近最先端の加速MRI再構成を達成した。
これらのネットワークは、物理ベースの一貫性とニューラルネットワークベースの正規化を交互に組み合わせることで、反復最適化アルゴリズムをアンロールする。
我々は,高次元画像設定のための効率的なトレーニング戦略である加速度MRI再構成のためのグレディ・ラーニングを提案する。
論文 参考訳(メタデータ) (2022-07-18T06:01:29Z) - Cogradient Descent for Dependable Learning [64.02052988844301]
双線形最適化問題に対処するために,CoGDアルゴリズムに基づく信頼度の高い学習法を提案する。
CoGDは、ある変数がスパーシティ制約を持つ場合の双線形問題を解くために導入された。
また、特徴と重みの関連を分解するためにも使用できるため、畳み込みニューラルネットワーク(CNN)をより良く訓練するための我々の手法をさらに一般化することができる。
論文 参考訳(メタデータ) (2021-06-20T04:28:20Z) - Solving Sparse Linear Inverse Problems in Communication Systems: A Deep
Learning Approach With Adaptive Depth [51.40441097625201]
疎信号回復問題に対するエンドツーエンドの訓練可能なディープラーニングアーキテクチャを提案する。
提案手法は,出力するレイヤ数を学習し,各タスクのネットワーク深さを推論フェーズで動的に調整する。
論文 参考訳(メタデータ) (2020-10-29T06:32:53Z) - Communication-Efficient Distributed Stochastic AUC Maximization with
Deep Neural Networks [50.42141893913188]
本稿では,ニューラルネットワークを用いた大規模AUCのための分散変数について検討する。
我々のモデルは通信ラウンドをはるかに少なくし、理論上はまだ多くの通信ラウンドを必要としています。
いくつかのデータセットに対する実験は、我々の理論の有効性を示し、我々の理論を裏付けるものである。
論文 参考訳(メタデータ) (2020-05-05T18:08:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。