論文の概要: Operator learning meets inverse problems: A probabilistic perspective
- arxiv url: http://arxiv.org/abs/2508.20207v1
- Date: Wed, 27 Aug 2025 18:34:40 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-29 18:12:01.693853
- Title: Operator learning meets inverse problems: A probabilistic perspective
- Title(参考訳): 操作者学習は逆問題に遭遇する:確率論的視点
- Authors: Nicholas H. Nelsen, Yunan Yang,
- Abstract要約: 演算子学習は無限次元関数空間間の写像を近似するための堅牢なフレームワークを提供する。
本章では、演算子学習と逆問題との交点における発展について調査する。
- 参考スコア(独自算出の注目度): 5.311997112925023
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Operator learning offers a robust framework for approximating mappings between infinite-dimensional function spaces. It has also become a powerful tool for solving inverse problems in the computational sciences. This chapter surveys methodological and theoretical developments at the intersection of operator learning and inverse problems. It begins by summarizing the probabilistic and deterministic approaches to inverse problems, and pays special attention to emerging measure-centric formulations that treat observed data or unknown parameters as probability distributions. The discussion then turns to operator learning by covering essential components such as data generation, loss functions, and widely used architectures for representing function-to-function maps. The core of the chapter centers on the end-to-end inverse operator learning paradigm, which aims to directly map observed data to the solution of the inverse problem without requiring explicit knowledge of the forward map. It highlights the unique challenge that noise plays in this data-driven inversion setting, presents structure-aware architectures for both point predictions and posterior estimates, and surveys relevant theory for linear and nonlinear inverse problems. The chapter also discusses the estimation of priors and regularizers, where operator learning is used more selectively within classical inversion algorithms.
- Abstract(参考訳): 演算子学習は無限次元関数空間間の写像を近似するための堅牢なフレームワークを提供する。
また、計算科学における逆問題を解決する強力なツールとなった。
本章では,演算子学習と逆問題との交点における方法論的・理論的発展について考察する。
これは、逆問題に対する確率的および決定論的アプローチの要約から始まり、観測データや未知のパラメータを確率分布として扱う新しい測度中心の定式化に特に注意を払う。
この議論は、データ生成、損失関数、関数から関数へのマップを表現するために広く使われているアーキテクチャといった重要なコンポーネントを網羅することで、オペレーターの学習に転換する。
この章の中核は、前方マップの明示的な知識を必要とせず、観測されたデータを逆問題の解に直接マップすることを目的として、エンドツーエンドの逆演算子学習パラダイムに焦点を当てている。
これは、このデータ駆動インバージョン設定でノイズが果たすユニークな課題を強調し、点予測と後続推定の両方に構造対応アーキテクチャを提示し、線形および非線形逆問題に関する関連する理論を調査する。
この章では、古典的反転アルゴリズムにおいて、演算子学習をより選択的に使用するプリエントと正規化器の推定についても論じている。
関連論文リスト
- Structured Prediction in Online Learning [66.36004256710824]
オンライン学習環境における構造化予測のための理論的・アルゴリズム的枠組みについて検討する。
このアルゴリズムは教師付き学習環境からの最適アルゴリズムの一般化であることを示す。
本稿では,非定常データ分布,特に逆データを含む2番目のアルゴリズムについて考察する。
論文 参考訳(メタデータ) (2024-06-18T07:45:02Z) - Efficient Prior Calibration From Indirect Data [5.588334720483076]
本稿では,データから先行モデルを学習すること,特にノイズ観測プロセスを通じて得られた間接データの多元的実現から先行モデルを学習することに関心がある。
フォワードモデルの効率的な残差ベースニューラル演算子近似を提案し,これをプッシュフォワードマップと同時学習できることを示した。
論文 参考訳(メタデータ) (2024-05-28T08:34:41Z) - What's in a Prior? Learned Proximal Networks for Inverse Problems [9.934876060237345]
近似作用素は、逆問題においてユビキタスであり、通常は、そうでなければ不適切な問題を正則化するための戦略の一部として現れる。
現代のディープラーニングモデルは、プラグアンドプレイやディープアンロールのフレームワークのように、これらのタスクにも耐えられてきました。
論文 参考訳(メタデータ) (2023-10-22T16:31:01Z) - Towards a mathematical understanding of learning from few examples with
nonlinear feature maps [68.8204255655161]
トレーニングセットがわずか数個のデータポイントから構成されるデータ分類の問題を考える。
我々は、AIモデルの特徴空間の幾何学、基礎となるデータ分布の構造、モデルの一般化能力との間の重要な関係を明らかにする。
論文 参考訳(メタデータ) (2022-11-07T14:52:58Z) - Transformer Meets Boundary Value Inverse Problems [4.165221477234755]
変圧器を用いた深部直接サンプリング法は境界値逆問題のクラスを解くために提案される。
慎重に設計されたデータと再構成された画像の間に学習した逆演算子を評価することにより、リアルタイムな再構成を実現する。
論文 参考訳(メタデータ) (2022-09-29T17:45:25Z) - Amortized Inference for Causal Structure Learning [72.84105256353801]
因果構造を学習することは、通常、スコアまたは独立テストを使用して構造を評価することを伴う探索問題を引き起こす。
本研究では,観測・干渉データから因果構造を予測するため,変分推論モデルを訓練する。
我々のモデルは、実質的な分布シフトの下で頑健な一般化能力を示す。
論文 参考訳(メタデータ) (2022-05-25T17:37:08Z) - Fractal Structure and Generalization Properties of Stochastic
Optimization Algorithms [71.62575565990502]
最適化アルゴリズムの一般化誤差は、その一般化尺度の根底にあるフラクタル構造の複雑性'にバウンドできることを示す。
さらに、特定の問題(リニア/ロジスティックレグレッション、隠れ/層ニューラルネットワークなど)とアルゴリズムに対して、結果をさらに専門化します。
論文 参考訳(メタデータ) (2021-06-09T08:05:36Z) - A neural anisotropic view of underspecification in deep learning [60.119023683371736]
ニューラルネットが問題の未特定化を扱う方法が,データ表現に大きく依存していることを示す。
深層学習におけるアーキテクチャ的インダクティブバイアスの理解は,これらのシステムの公平性,堅牢性,一般化に対処する上で基本的であることを強調した。
論文 参考訳(メタデータ) (2021-04-29T14:31:09Z) - Learning Output Embeddings in Structured Prediction [73.99064151691597]
構造化予測に対する強力で柔軟なアプローチは、予測される構造化対象を潜在的に無限次元の特徴空間に埋め込むことである。
原空間における予測は、前像問題の解法により計算される。
本研究では,新しい特徴空間に出力埋め込みと回帰関数の有限近似を共同で学習することを提案する。
論文 参考訳(メタデータ) (2020-07-29T09:32:53Z) - Model-Aware Regularization For Learning Approaches To Inverse Problems [11.314492463814817]
本稿では,逆問題に適用可能なディープラーニング手法の一般化誤差の解析を行う。
本稿では、フォワードマップの知識を活用してネットワークの一般化を改善する「プラグ・アンド・プレイ」レギュラーを提案する。
我々は,他の最先端手法に対するモデル認識型ディープラーニングアルゴリズムの有効性を実証する。
論文 参考訳(メタデータ) (2020-06-18T21:59:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。