論文の概要: Deep learning for inverse problems with unknown operator
- arxiv url: http://arxiv.org/abs/2108.02744v1
- Date: Thu, 5 Aug 2021 17:21:12 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-06 14:45:30.249556
- Title: Deep learning for inverse problems with unknown operator
- Title(参考訳): 未知演算子を用いた逆問題に対するディープラーニング
- Authors: Miguel del Alamo
- Abstract要約: フォワード演算子$T$が未知の逆問題では、関数$f_i$とノイズの多いイメージ$Tf_i$からなるトレーニングデータにアクセスできます。
本稿では,データに最小限の仮定を必要とする新しい手法を提案し,学習点数と雑音レベルに依存する再現率を示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: We consider ill-posed inverse problems where the forward operator $T$ is
unknown, and instead we have access to training data consisting of functions
$f_i$ and their noisy images $Tf_i$. This is a practically relevant and
challenging problem which current methods are able to solve only under strong
assumptions on the training set. Here we propose a new method that requires
minimal assumptions on the data, and prove reconstruction rates that depend on
the number of training points and the noise level. We show that, in the regime
of "many" training data, the method is minimax optimal. The proposed method
employs a type of convolutional neural networks (U-nets) and empirical risk
minimization in order to "fit" the unknown operator. In a nutshell, our
approach is based on two ideas: the first is to relate U-nets to multiscale
decompositions such as wavelets, thereby linking them to the existing theory,
and the second is to use the hierarchical structure of U-nets and the low
number of parameters of convolutional neural nets to prove entropy bounds that
are practically useful. A significant difference with the existing works on
neural networks in nonparametric statistics is that we use them to approximate
operators and not functions, which we argue is mathematically more natural and
technically more convenient.
- Abstract(参考訳): フォワード演算子$T$が不明な不適切な逆問題を考え、代わりに関数$f_i$とノイズの多いイメージ$Tf_i$からなるトレーニングデータにアクセスすることができる。
これは、現在の方法がトレーニングセットの強い仮定の下でのみ解決できる、実際に適切で挑戦的な問題である。
本稿では,データに対する仮定を最小にし,訓練点数と騒音レベルに依存する復元率を証明する新しい手法を提案する。
我々は,「多くの」トレーニングデータの体系において,この手法が極小最適であることを示す。
提案手法は畳み込みニューラルネットワーク(u-nets)の一種と経験的リスク最小化を用いて未知の演算子を"適合"する。
一つ目は、u-netをウェーブレットのようなマルチスケール分解に関連付けることであり、それによって既存の理論と結びつけることであり、二つ目は、u-netの階層構造と畳み込みニューラルネットワークのパラメータを、実際に有用であるエントロピー境界を証明するために使うことである。
非パラメトリック統計学におけるニューラルネットワークの既存の研究との大きな違いは、演算子を関数ではなく近似演算子に利用していることである。
関連論文リスト
- Just How Flexible are Neural Networks in Practice? [89.80474583606242]
ニューラルネットワークは、パラメータを持つ少なくとも多くのサンプルを含むトレーニングセットに適合できると広く信じられている。
しかし実際には、勾配や正規化子など、柔軟性を制限したトレーニング手順によるソリューションしか見つからない。
論文 参考訳(メタデータ) (2024-06-17T12:24:45Z) - Robust Capped lp-Norm Support Vector Ordinal Regression [85.84718111830752]
正規回帰は、ラベルが固有の順序を示す特殊な教師付き問題である。
卓越した順序回帰モデルとしてのベクトル順序回帰は、多くの順序回帰タスクで広く使われている。
我々は,新たなモデルであるCapped $ell_p$-Norm Support Vector Ordinal Regression (CSVOR)を導入する。
論文 参考訳(メタデータ) (2024-04-25T13:56:05Z) - Efficient Verification-Based Face Identification [50.616875565173274]
効率の良いニューラルモデルで顔認証を行う際の問題点を$f$で検討する。
我々のモデルは、23kパラメータと5M浮動小数点演算(FLOPS)しか必要としない、かなり小さな$f$に導かれる。
我々は、6つの顔認証データセットを用いて、我々の手法が最先端のモデルよりも同等か優れていることを示す。
論文 参考訳(メタデータ) (2023-12-20T18:08:02Z) - Inverse Problems with Learned Forward Operators [2.162017337541015]
本章は、2つの異なるパラダイムに従う学習前方演算子による逆問題における再構成手法についてレビューする。
射影による正規化の枠組みは、再構成を見つけるために使われる。
両方のメソッドは、フォワード演算子だけでなく、アジョイントのためにもトレーニングデータを必要とする。
論文 参考訳(メタデータ) (2023-11-21T11:15:14Z) - In-Context Operator Learning with Data Prompts for Differential Equation
Problems [12.61842281581773]
本稿では、新しいニューラルネットワークベースのアプローチ、すなわちIn-Context Operator Networks (ICON)を紹介する。
ICONは、トリガーされたデータから演算子を同時に学習し、推論段階で新しい質問に適用する。
数値計算の結果,多変量微分方程式問題に対する数発の演算子学習器としてのニューラルネットワークの機能を示す。
論文 参考訳(メタデータ) (2023-04-17T05:22:26Z) - Improving Representational Continuity via Continued Pretraining [76.29171039601948]
トランスファーラーニングコミュニティ(LP-FT)は、ナイーブトレーニングやその他の継続的な学習方法よりも優れている。
LP-FTは、リアルタイム衛星リモートセンシングデータセット(FMoW)における忘れを減らす。
LP-FTの変種は、NLP連続学習ベンチマークで最先端の精度を得る。
論文 参考訳(メタデータ) (2023-02-26T10:39:38Z) - Unsupervised Training for Neural TSP Solver [2.9398911304923447]
本稿では,トラベリングセールスマン問題を解決するための教師なし学習手法を提案する。
我々は、TSPの整数線型プログラムを緩和して、正しいインスタンスラベルを必要としない損失関数を構築する。
私たちのアプローチは、強化学習よりも安定しており、トレーニングも簡単です。
論文 参考訳(メタデータ) (2022-07-27T17:33:29Z) - From Kernel Methods to Neural Networks: A Unifying Variational
Formulation [25.6264886382888]
演算子と一般ラドン領域ノルムに依存する統一正規化関数を提案する。
我々のフレームワークは、多種多様な正規化演算子、または同等に、幅広い浅層ニューラルネットワークに対して、普遍的な近似を保証する。
論文 参考訳(メタデータ) (2022-06-29T13:13:53Z) - Transfer Learning via Test-Time Neural Networks Aggregation [11.42582922543676]
ディープニューラルネットワークが従来の機械学習より優れていることが示されている。
ディープ・ネットワークは一般性に欠けており、異なる分布から引き出された新しい(テスト)セットでは性能が良くない。
論文 参考訳(メタデータ) (2022-06-27T15:46:05Z) - Towards an Understanding of Benign Overfitting in Neural Networks [104.2956323934544]
現代の機械学習モデルは、しばしば膨大な数のパラメータを使用し、通常、トレーニング損失がゼロになるように最適化されている。
ニューラルネットワークの2層構成において、これらの良質な過適合現象がどのように起こるかを検討する。
本稿では,2層型ReLUネットワーク補間器を極小最適学習率で実現可能であることを示す。
論文 参考訳(メタデータ) (2021-06-06T19:08:53Z) - RNN Training along Locally Optimal Trajectories via Frank-Wolfe
Algorithm [50.76576946099215]
小領域の損失面に局所的なミニマを反復的に求めることにより,RNNの新規かつ効率的なトレーニング手法を提案する。
新たなRNNトレーニング手法を開発し,追加コストを伴っても,全体のトレーニングコストがバックプロパゲーションよりも低いことを実証的に観察した。
論文 参考訳(メタデータ) (2020-10-12T01:59:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。