論文の概要: Deep neural networks can stably solve high-dimensional, noisy,
non-linear inverse problems
- arxiv url: http://arxiv.org/abs/2206.00934v5
- Date: Fri, 20 Oct 2023 14:06:30 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-24 15:26:18.322803
- Title: Deep neural networks can stably solve high-dimensional, noisy,
non-linear inverse problems
- Title(参考訳): ディープニューラルネットワークは高次元、雑音、非線形逆問題を安定して解くことができる
- Authors: Andr\'es Felipe Lerma Pineda and Philipp Christian Petersen
- Abstract要約: 本研究では,雑音測定のみが可能な場合の逆問題に対する解の再構成問題について検討する。
逆演算子に対しては,演算子のロバスト・ツー・ノイズ近似であるニューラルネットワークが存在することを示す。
- 参考スコア(独自算出の注目度): 2.6651200086513107
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We study the problem of reconstructing solutions of inverse problems when
only noisy measurements are available. We assume that the problem can be
modeled with an infinite-dimensional forward operator that is not continuously
invertible. Then, we restrict this forward operator to finite-dimensional
spaces so that the inverse is Lipschitz continuous. For the inverse operator,
we demonstrate that there exists a neural network which is a robust-to-noise
approximation of the operator. In addition, we show that these neural networks
can be learned from appropriately perturbed training data. We demonstrate the
admissibility of this approach to a wide range of inverse problems of practical
interest. Numerical examples are given that support the theoretical findings.
- Abstract(参考訳): 本研究では,ノイズ測定のみが可能な逆問題の再構成問題について検討する。
この問題は連続的に可逆でない無限次元のフォワード作用素でモデル化できると仮定する。
そして、このフォワード作用素を有限次元空間に制限し、逆はリプシッツ連続である。
逆演算子に対しては,演算子のロバスト-ノイズ近似であるニューラルネットワークが存在することを示す。
また,これらのニューラルネットワークは,適切な摂動訓練データから学習できることを示す。
我々は,このアプローチが実用的関心の幅広い逆問題に対して許容できることを示す。
理論的発見を支持する数値的な例が与えられる。
関連論文リスト
- Learning truly monotone operators with applications to nonlinear inverse problems [15.736235440441478]
本稿では,新たに定義されたペナル化損失を通じてモノトーンニューラルネットワークを学習するための新しいアプローチを紹介する。
The Forward-Backward-Forward (FBF) algorithm is used to address monotone inclusion problem。
次に,非線形逆問題の解法が成功したシミュレーション例を示す。
論文 参考訳(メタデータ) (2024-03-30T15:03:52Z) - Convergence Guarantees of Overparametrized Wide Deep Inverse Prior [1.5362025549031046]
逆優先法(Inverse Priors)は、ランダムな入力をフォワードモデルの下で画像が観察に一致するオブジェクトに変換する、教師なしのアプローチである。
本研究では, 連続時間勾配勾配勾配からトレーニングしたネットワークが, 高確率で指数関数的に高速に収束するオーバーパラメトリゼーション境界を提供する。
この研究は、過度にパラメータ化されたDIPネットワークの理論的理解への第一歩であり、より広い範囲で、逆問題設定におけるニューラルネットワークの理論的理解に関与している。
論文 参考訳(メタデータ) (2023-03-20T16:49:40Z) - Energy Regularized RNNs for Solving Non-Stationary Bandit Problems [97.72614340294547]
我々は、ニューラルネットワークが特定の行動を支持するのに自信過剰になるのを防ぐエネルギー用語を提案する。
提案手法は,ロッティングバンドのサブプロブレムを解く方法と同じくらい有効であることを示す。
論文 参考訳(メタデータ) (2023-03-12T03:32:43Z) - Benign Overfitting for Two-layer ReLU Convolutional Neural Networks [60.19739010031304]
ラベルフリップ雑音を持つ2層ReLU畳み込みニューラルネットワークを学習するためのアルゴリズム依存型リスクバウンダリを確立する。
緩やかな条件下では、勾配降下によってトレーニングされたニューラルネットワークは、ほぼゼロに近いトレーニング損失とベイズ最適試験リスクを達成できることを示す。
論文 参考訳(メタデータ) (2023-03-07T18:59:38Z) - GibbsDDRM: A Partially Collapsed Gibbs Sampler for Solving Blind Inverse
Problems with Denoising Diffusion Restoration [64.8770356696056]
本稿では,DDRM(Denoising Diffusion Restoration Models)の拡張であるGibbsDDRMを提案する。
提案手法は問題に依存しないため,様々な逆問題に対して事前学習した拡散モデルを適用することができる。
論文 参考訳(メタデータ) (2023-01-30T06:27:48Z) - Semi-supervised Invertible DeepONets for Bayesian Inverse Problems [8.594140167290098]
DeepONetsは、学習オペレーターによってパラメトリックPDEを解決する強力なデータ駆動ツールを提供する。
本研究では,高次元ベイズ逆問題(Bayesian inverse problem)の文脈で物理インフォームド・ディープノネット(DeepONets)を用いる。
論文 参考訳(メタデータ) (2022-09-06T18:55:06Z) - Limitations of Deep Learning for Inverse Problems on Digital Hardware [65.26723285209853]
我々は、チューリングマシンとしてモデル化された現在のハードウェアプラットフォームで実際に計算できるものを分析する。
有限次元逆問題は小さな緩和パラメータに対してバナッハ・マズール計算可能でないことを証明した。
論文 参考訳(メタデータ) (2022-02-28T00:20:12Z) - Verifying Inverse Model Neural Networks [39.4062479625023]
逆問題は、航空宇宙工学から医用画像まで、様々な物理的領域に存在している。
本稿では,逆モデルニューラルネットワークの正当性を検証する手法を提案する。
論文 参考訳(メタデータ) (2022-02-04T23:13:22Z) - DeepSplit: Scalable Verification of Deep Neural Networks via Operator
Splitting [70.62923754433461]
入力摂動に対するディープニューラルネットワークの最悪の性能を分析することは、大規模な非最適化問題の解決につながる。
解析解を持つ小さなサブプロブレムに分割することで,問題の凸緩和を直接高精度に解ける新しい手法を提案する。
論文 参考訳(メタデータ) (2021-06-16T20:43:49Z) - Online Limited Memory Neural-Linear Bandits with Likelihood Matching [53.18698496031658]
本研究では,探索学習と表現学習の両方が重要な役割を果たす課題を解決するために,ニューラルネットワークの帯域について検討する。
破滅的な忘れ込みに対して耐性があり、完全にオンラインである可能性の高いマッチングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-02-07T14:19:07Z) - Revisiting the Continuity of Rotation Representations in Neural Networks [14.63787408331962]
ニューラルネットワークの回転表現に関連する過去の研究で遭遇したオイラー角と単位四元数の特定の病理学的挙動を解析する。
この挙動は問題自体のトポロジ的特性に固有のものであり、不適切なネットワークアーキテクチャやトレーニング手順によって引き起こされるものではないことを示す。
論文 参考訳(メタデータ) (2020-06-11T07:28:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。