論文の概要: Learning truly monotone operators with applications to nonlinear inverse problems
- arxiv url: http://arxiv.org/abs/2404.00390v1
- Date: Sat, 30 Mar 2024 15:03:52 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-04 03:59:36.733709
- Title: Learning truly monotone operators with applications to nonlinear inverse problems
- Title(参考訳): 真単調作用素の学習と非線形逆問題への応用
- Authors: Younes Belkouchi, Jean-Christophe Pesquet, Audrey Repetti, Hugues Talbot,
- Abstract要約: 本稿では,新たに定義されたペナル化損失を通じてモノトーンニューラルネットワークを学習するための新しいアプローチを紹介する。
The Forward-Backward-Forward (FBF) algorithm is used to address monotone inclusion problem。
次に,非線形逆問題の解法が成功したシミュレーション例を示す。
- 参考スコア(独自算出の注目度): 15.736235440441478
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This article introduces a novel approach to learning monotone neural networks through a newly defined penalization loss. The proposed method is particularly effective in solving classes of variational problems, specifically monotone inclusion problems, commonly encountered in image processing tasks. The Forward-Backward-Forward (FBF) algorithm is employed to address these problems, offering a solution even when the Lipschitz constant of the neural network is unknown. Notably, the FBF algorithm provides convergence guarantees under the condition that the learned operator is monotone. Building on plug-and-play methodologies, our objective is to apply these newly learned operators to solving non-linear inverse problems. To achieve this, we initially formulate the problem as a variational inclusion problem. Subsequently, we train a monotone neural network to approximate an operator that may not inherently be monotone. Leveraging the FBF algorithm, we then show simulation examples where the non-linear inverse problem is successfully solved.
- Abstract(参考訳): 本稿では,新たに定義されたペナル化損失を通じてモノトーンニューラルネットワークを学習するための新しいアプローチを紹介する。
提案手法は, 画像処理タスクでよく見られる単調な包摂問題, 特に単調な包摂問題のクラスを解くのに有効である。
Forward-Backward-Forward (FBF)アルゴリズムは、ニューラルネットワークのリプシッツ定数が未知であっても解を提供する。
特に、FBFアルゴリズムは、学習した演算子が単調であるという条件の下で収束保証を提供する。
本研究の目的は,プラグアンドプレイ方式を基礎として,新たに学習した演算子を非線形逆問題に応用することである。
これを実現するために、まず、変分包摂問題として問題を定式化する。
その後、単調ニューラルネットワークをトレーニングして、本質的に単調ではない演算子を近似する。
FBFアルゴリズムを応用し、非線形逆問題の解法が成功したシミュレーション例を示す。
関連論文リスト
- Local monotone operator learning using non-monotone operators: MnM-MOL [13.037647287689442]
磁気共鳴(MR)画像のアンダーサンプル計測からの復元は、近年広く研究されている重要な問題である。
アンロールされたアプローチは、畳み込みニューラルネットワーク(CNN)ブロックのエンドツーエンドトレーニングを制限する。
MOLアプローチを導入し、アンローリングの必要性を排除し、トレーニング中のメモリ需要を減らす。
論文 参考訳(メタデータ) (2023-12-01T07:15:51Z) - Globally Optimal Training of Neural Networks with Threshold Activation
Functions [63.03759813952481]
しきい値アクティベートを伴うディープニューラルネットワークの重み劣化正規化学習問題について検討した。
ネットワークの特定の層でデータセットを破砕できる場合に、簡易な凸最適化の定式化を導出する。
論文 参考訳(メタデータ) (2023-03-06T18:59:13Z) - Deep neural networks can stably solve high-dimensional, noisy,
non-linear inverse problems [2.6651200086513107]
本研究では,雑音測定のみが可能な場合の逆問題に対する解の再構成問題について検討する。
逆演算子に対しては,演算子のロバスト・ツー・ノイズ近似であるニューラルネットワークが存在することを示す。
論文 参考訳(メタデータ) (2022-06-02T08:51:46Z) - NeuralEF: Deconstructing Kernels by Deep Neural Networks [47.54733625351363]
従来のNystr"om式に基づく非パラメトリックなソリューションはスケーラビリティの問題に悩まされる。
最近の研究はパラメトリックなアプローチ、すなわち固有関数を近似するためにニューラルネットワークを訓練している。
教師なしおよび教師なしの学習問題の空間に一般化する新たな目的関数を用いて,これらの問題を解くことができることを示す。
論文 参考訳(メタデータ) (2022-04-30T05:31:07Z) - Physics informed neural networks for continuum micromechanics [68.8204255655161]
近年,応用数学や工学における多種多様な問題に対して,物理情報ニューラルネットワークの適用が成功している。
グローバルな近似のため、物理情報ニューラルネットワークは、最適化によって局所的な効果と強い非線形解を表示するのに困難である。
実世界の$mu$CT-Scansから得られた不均一構造における非線形応力, 変位, エネルギー場を, 正確に解くことができる。
論文 参考訳(メタデータ) (2021-10-14T14:05:19Z) - Inverse Problem of Nonlinear Schr\"odinger Equation as Learning of
Convolutional Neural Network [5.676923179244324]
提案手法を用いて,パラメータの相対的精度を推定できることを示す。
深い学習を伴う偏微分方程式の逆問題における自然な枠組みを提供する。
論文 参考訳(メタデータ) (2021-07-19T02:54:37Z) - DeepSplit: Scalable Verification of Deep Neural Networks via Operator
Splitting [70.62923754433461]
入力摂動に対するディープニューラルネットワークの最悪の性能を分析することは、大規模な非最適化問題の解決につながる。
解析解を持つ小さなサブプロブレムに分割することで,問題の凸緩和を直接高精度に解ける新しい手法を提案する。
論文 参考訳(メタデータ) (2021-06-16T20:43:49Z) - Differentiable Causal Discovery from Interventional Data [141.41931444927184]
本稿では、介入データを活用可能なニューラルネットワークに基づく理論的基盤化手法を提案する。
提案手法は,様々な環境下での美術品の状態と良好に比較できることを示す。
論文 参考訳(メタデータ) (2020-07-03T15:19:17Z) - Total Deep Variation: A Stable Regularizer for Inverse Problems [71.90933869570914]
本稿では,データ駆動型汎用全深度変動正規化器について紹介する。
コアでは、畳み込みニューラルネットワークが複数のスケールや連続したブロックで局所的な特徴を抽出する。
我々は多数の画像処理タスクに対して最先端の結果を得る。
論文 参考訳(メタデータ) (2020-06-15T21:54:15Z) - Regularization of Inverse Problems by Neural Networks [0.0]
逆問題は、計算トモグラフィー、非破壊検査、リモートセンシングを含む様々な画像アプリケーションで発生する。
逆問題の特徴は、解の非特異性と不安定性である。
ディープラーニング技術とニューラルネットワークは、逆問題に対する古典的解法を大幅に上回ることを示した。
論文 参考訳(メタデータ) (2020-06-06T20:49:12Z) - A Novel Learnable Gradient Descent Type Algorithm for Non-convex
Non-smooth Inverse Problems [3.888272676868008]
本稿では,汎用アーキテクチャとニューラルネットワークを用いた逆問題の解法を提案する。
提案したネットワークは, 画像問題に対して, 効率と結果の点で, 状態再構成法よりも優れていた。
論文 参考訳(メタデータ) (2020-03-15T03:44:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。