論文の概要: Learning Generalizable Neural Operators for Inverse Problems
- arxiv url: http://arxiv.org/abs/2512.18120v1
- Date: Fri, 19 Dec 2025 22:57:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-23 18:54:32.194513
- Title: Learning Generalizable Neural Operators for Inverse Problems
- Title(参考訳): 逆問題に対する一般化可能なニューラルネットワークの学習
- Authors: Adam J. Thorpe, Stepan Tretiakov, Dibakar Roy Sarkar, Krishna Kumar, Ufuk Topcu,
- Abstract要約: 逆問題(英語版)は、不測の逆写像が連続性、一意性、安定性の仮定に違反しているため、既存のニューラル作用素アーキテクチャに挑戦する。
この制限に対処する逆ベース・ツー・ベーシ・ニューラル・オペレーター・フレームワークであるB2B$-1$を導入する。
入力空間と出力空間の神経基底関数を学習し、結果の係数空間で動作する逆モデルを訓練する。
- 参考スコア(独自算出の注目度): 18.4196387086848
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Inverse problems challenge existing neural operator architectures because ill-posed inverse maps violate continuity, uniqueness, and stability assumptions. We introduce B2B${}^{-1}$, an inverse basis-to-basis neural operator framework that addresses this limitation. Our key innovation is to decouple function representation from the inverse map. We learn neural basis functions for the input and output spaces, then train inverse models that operate on the resulting coefficient space. This structure allows us to learn deterministic, invertible, and probabilistic models within a single framework, and to choose models based on the degree of ill-posedness. We evaluate our approach on six inverse PDE benchmarks, including two novel datasets, and compare against existing invertible neural operator baselines. We learn probabilistic models that capture uncertainty and input variability, and remain robust to measurement noise due to implicit denoising in the coefficient calculation. Our results show consistent re-simulation performance across varying levels of ill-posedness. By separating representation from inversion, our framework enables scalable surrogate models for inverse problems that generalize across instances, domains, and degrees of ill-posedness.
- Abstract(参考訳): 逆問題(英語版)は、不測の逆写像が連続性、一意性、安定性の仮定に違反しているため、既存のニューラル作用素アーキテクチャに挑戦する。
この制限に対処する逆基底-基底ニューラル作用素フレームワークであるB2B${}^{-1}$を導入する。
私たちの重要な革新は、関数表現を逆写像から切り離すことです。
入力空間と出力空間の神経基底関数を学習し、結果の係数空間で動作する逆モデルを訓練する。
この構造により、1つのフレームワーク内で決定論的、可逆的、確率的モデルを学習し、不備の度合いに基づいてモデルを選択することができる。
2つの新しいデータセットを含む6つの逆PDEベンチマークに対するアプローチを評価し、既存の可逆的ニューラル演算子ベースラインと比較した。
我々は不確実性や入力変動を捉える確率モデルを学習し、係数計算における暗黙の偏極による測定ノイズに対して頑健なままである。
本研究の結果は, 種々の不測のレベルにまたがる一貫した再シミュレーション性能を示した。
我々のフレームワークは、インバージョンから表現を分離することにより、インスタンス、ドメイン、不正度をまたいで一般化する逆問題に対するスケーラブルなサロゲートモデルを可能にする。
関連論文リスト
- A Sparse Bayesian Learning Algorithm for Estimation of Interaction Kernels in Motsch-Tadmor Model [0.9821874476902972]
モッチュ・タドモールモデルにおける非対称相互作用カーネルの同定について検討する。
制御方程式の暗黙的な形式を用いてカーネル識別を再構成する変分フレームワークを提案する。
本研究では,正規化の事前情報を取り込んだ疎ベイズ学習アルゴリズムを開発し,不確実性を定量化し,基本モデル選択を可能にする。
論文 参考訳(メタデータ) (2025-05-11T17:43:32Z) - Robustly Invertible Nonlinear Dynamics and the BiLipREN: Contracting Neural Models with Contracting Inverses [2.0277446818410994]
本研究では, 非線形力学系の可逆性について, 収縮解析と漸進安定性解析の観点から検討する。
本稿では,新しい可逆的リカレントニューラルモデルBiLipRENを提案する。
論文 参考訳(メタデータ) (2025-05-05T23:27:52Z) - Accelerated zero-order SGD under high-order smoothness and overparameterized regime [79.85163929026146]
凸最適化問題を解くための新しい勾配のないアルゴリズムを提案する。
このような問題は医学、物理学、機械学習で発生する。
両種類の雑音下で提案アルゴリズムの収束保証を行う。
論文 参考訳(メタデータ) (2024-11-21T10:26:17Z) - Scaling and renormalization in high-dimensional regression [72.59731158970894]
リッジ回帰に関する最近の結果について統一的な視点を提示する。
我々は、物理とディープラーニングの背景を持つ読者を対象に、ランダム行列理論と自由確率の基本的なツールを使用する。
我々の結果は拡張され、初期のスケーリング法則のモデルについて統一的な視点を提供する。
論文 参考訳(メタデータ) (2024-05-01T15:59:00Z) - Structured Radial Basis Function Network: Modelling Diversity for
Multiple Hypotheses Prediction [51.82628081279621]
多重モード回帰は非定常過程の予測や分布の複雑な混合において重要である。
構造的放射基底関数ネットワークは回帰問題に対する複数の仮説予測器のアンサンブルとして提示される。
この構造モデルにより, このテッセルレーションを効率よく補間し, 複数の仮説対象分布を近似することが可能であることが証明された。
論文 参考訳(メタデータ) (2023-09-02T01:27:53Z) - Reflected Diffusion Models [93.26107023470979]
本稿では,データのサポートに基づいて進化する反射微分方程式を逆転する反射拡散モデルを提案する。
提案手法は,一般化されたスコアマッチング損失を用いてスコア関数を学習し,標準拡散モデルの主要成分を拡張する。
論文 参考訳(メタデータ) (2023-04-10T17:54:38Z) - Variational Laplace Autoencoders [53.08170674326728]
変分オートエンコーダは、遅延変数の後部を近似するために、償却推論モデルを用いる。
完全分解ガウス仮定の限定的後部表現性に対処する新しい手法を提案する。
また、深部生成モデルのトレーニングのための変分ラプラスオートエンコーダ(VLAE)という一般的なフレームワークも提示する。
論文 参考訳(メタデータ) (2022-11-30T18:59:27Z) - Transformer Meets Boundary Value Inverse Problems [4.165221477234755]
変圧器を用いた深部直接サンプリング法は境界値逆問題のクラスを解くために提案される。
慎重に設計されたデータと再構成された画像の間に学習した逆演算子を評価することにより、リアルタイムな再構成を実現する。
論文 参考訳(メタデータ) (2022-09-29T17:45:25Z) - Generalization of Neural Combinatorial Solvers Through the Lens of
Adversarial Robustness [68.97830259849086]
ほとんどのデータセットは単純なサブプロブレムのみをキャプチャし、おそらくは突発的な特徴に悩まされる。
本研究では, 局所的な一般化特性である対向ロバスト性について検討し, 厳密でモデル固有な例と突発的な特徴を明らかにする。
他のアプリケーションとは異なり、摂動モデルは知覚できないという主観的な概念に基づいて設計されているため、摂動モデルは効率的かつ健全である。
驚くべきことに、そのような摂動によって、十分に表現力のあるニューラルソルバは、教師あり学習で共通する正確さと悪質さのトレードオフの限界に悩まされない。
論文 参考訳(メタデータ) (2021-10-21T07:28:11Z) - Solving inverse problems using conditional invertible neural networks [0.0]
我々は、与えられた観測結果を未知の入力フィールドに代理モデルとしてマッピングするモデルを開発する。
この逆代理モデルにより、任意のスパースおよびノイズ出力観測に対して未知の入力場を推定することができる。
論文 参考訳(メタデータ) (2020-07-31T05:08:04Z) - Joint learning of variational representations and solvers for inverse
problems with partially-observed data [13.984814587222811]
本稿では,教師付き環境において,逆問題に対する実際の変分フレームワークを学習するためのエンドツーエンドフレームワークを設計する。
変動コストと勾配に基づく解法はどちらも、後者の自動微分を用いたニューラルネットワークとして記述される。
これにより、データ駆動による変分モデルの発見につながる。
論文 参考訳(メタデータ) (2020-06-05T19:53:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。