論文の概要: Generative Neural Operators of Log-Complexity Can Simultaneously Solve Infinitely Many Convex Programs
- arxiv url: http://arxiv.org/abs/2508.14995v1
- Date: Wed, 20 Aug 2025 18:32:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-22 16:26:46.064739
- Title: Generative Neural Operators of Log-Complexity Can Simultaneously Solve Infinitely Many Convex Programs
- Title(参考訳): 対数複雑性の生成型ニューラル演算子は、無限に多くの凸プログラムを同時に解くことができる
- Authors: Anastasis Kratsios, Ariel Neufeld, Philipp Schmocker,
- Abstract要約: 普遍近似定理からの最悪のパラメータ境界は、ニューラル作用素(NOs)がほとんどの演算子学習問題を解決するために非現実的に多数のパラメータを必要とすることを示唆している。
本稿では,NOs,生成平衡作用素(GEOs)の特定のクラスに対するギャップを埋める。
本手法は,近似誤差の逆数にのみ対数的に増大するランク,深さ,幅で,任意の精度で対応する解を均一に近似できることを示す。
- 参考スコア(独自算出の注目度): 10.343546104340962
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Neural operators (NOs) are a class of deep learning models designed to simultaneously solve infinitely many related problems by casting them into an infinite-dimensional space, whereon these NOs operate. A significant gap remains between theory and practice: worst-case parameter bounds from universal approximation theorems suggest that NOs may require an unrealistically large number of parameters to solve most operator learning problems, which stands in direct opposition to a slew of experimental evidence. This paper closes that gap for a specific class of {NOs}, generative {equilibrium operators} (GEOs), using (realistic) finite-dimensional deep equilibrium layers, when solving families of convex optimization problems over a separable Hilbert space $X$. Here, the inputs are smooth, convex loss functions on $X$, and outputs are the associated (approximate) solutions to the optimization problem defined by each input loss. We show that when the input losses lie in suitable infinite-dimensional compact sets, our GEO can uniformly approximate the corresponding solutions to arbitrary precision, with rank, depth, and width growing only logarithmically in the reciprocal of the approximation error. We then validate both our theoretical results and the trainability of GEOs on three applications: (1) nonlinear PDEs, (2) stochastic optimal control problems, and (3) hedging problems in mathematical finance under liquidity constraints.
- Abstract(参考訳): ニューラル演算子(英: Neural operator, NOs)は、無限次元空間に配置することで、無限に多くの関連する問題を同時に解くために設計された深層学習モデルである。
普遍近似定理からの最悪の場合のパラメータ境界は、NOが多くの演算子学習問題を解くために非現実的に多数のパラメータを必要とすることを示唆している。
本稿では、分離可能なヒルベルト空間$X$上の凸最適化問題の族族を解く際に、(現実的な)有限次元の深い平衡層を用いた生成的平衡作用素 {NOs} (GEOs) の特定のクラスに対するギャップを閉じる。
ここでは、入力は滑らかで、$X$上の凸損失関数であり、出力は各入力損失によって定義される最適化問題の関連する(近似)解である。
入力損失が適切な無限次元コンパクト集合にある場合、GEOは、近似誤差の逆数においてのみ対数的に増大するランク、深さ、幅で、対応する解を任意の精度で均一に近似できることを示す。
次に,1)非線形PDE,(2)確率論的最適制御問題,(3)流動性制約下での数学的ファイナンスにおけるヘッジ問題という3つの応用法を用いて,GEOの理論的結果とトレーニング性の両方を検証した。
関連論文リスト
- Near-Optimal Solutions of Constrained Learning Problems [85.48853063302764]
機械学習システムでは、振る舞いを縮小する必要性がますます顕在化している。
これは、双対ロバスト性変数を満たすモデルの開発に向けた最近の進歩によって証明されている。
この結果から, 豊富なパラメトリゼーションは非次元的, 有限な学習問題を効果的に緩和することが示された。
論文 参考訳(メタデータ) (2024-03-18T14:55:45Z) - Enhancing Low-Order Discontinuous Galerkin Methods with Neural Ordinary Differential Equations for Compressible Navier--Stokes Equations [0.1578515540930834]
圧縮可能なNavier-Stokes方程式を解くためのエンドツーエンドの微分可能なフレームワークを提案する。
この統合アプローチは、微分可能不連続なガレルキン解法とニューラルネットワークのソース項を組み合わせる。
提案するフレームワークの性能を2つの例で示す。
論文 参考訳(メタデータ) (2023-10-29T04:26:23Z) - Multi-Grid Tensorized Fourier Neural Operator for High-Resolution PDEs [93.82811501035569]
本稿では,メモリ要求を低減し,より一般化したデータ効率・並列化可能な演算子学習手法を提案する。
MG-TFNOは、実世界の実世界の現象の局所的構造と大域的構造を活用することで、大規模な分解能にスケールする。
乱流ナビエ・ストークス方程式において150倍以上の圧縮で誤差の半分以下を達成できる優れた性能を示す。
論文 参考訳(メタデータ) (2023-09-29T20:18:52Z) - Efficient PDE-Constrained optimization under high-dimensional
uncertainty using derivative-informed neural operators [6.296120102486062]
大規模偏微分方程式(PDE)を高次元ランダムパラメータで解くための新しい枠組みを提案する。
我々は、そのようなニューラル演算子をマルチインプット還元ベースインフォメーションニューラル演算子(MR-DINO)と呼ぶ。
MR-DINOは103ドル~107ドルで実行時間を短縮し,標準PDEソリューションと同等の精度のOUUソリューションを生成可能であることを示す。
論文 参考訳(メタデータ) (2023-05-31T17:26:20Z) - Solving High-Dimensional PDEs with Latent Spectral Models [74.1011309005488]
我々は,高次元PDEの効率的かつ高精度な解法に向けて,Latent Spectral Models (LSM) を提案する。
数値解析において古典スペクトル法に着想を得て,潜時空間におけるPDEを解くために,ニューラルスペクトルブロックを設計する。
LSMは、一貫した最先端を実現し、7つのベンチマークで平均11.5%の相対的な利益を得る。
論文 参考訳(メタデータ) (2023-01-30T04:58:40Z) - Symmetric Tensor Networks for Generative Modeling and Constrained
Combinatorial Optimization [72.41480594026815]
ポートフォリオ最適化からロジスティクスに至るまで、制約付き最適化問題は業界に多い。
これらの問題の解決における主要な障害の1つは、有効な検索空間を制限する非自明なハード制約の存在である。
本研究では、Ax=bという形の任意の整数値等式制約をU(1)対称ネットワーク(TN)に直接エンコードし、それらの適用性を量子に着想を得た生成モデルとして活用する。
論文 参考訳(メタデータ) (2022-11-16T18:59:54Z) - Solving PDEs on Unknown Manifolds with Machine Learning [8.220217498103315]
本稿では,未知多様体上の楕円型PDEを解くためのメッシュフリー計算フレームワークと機械学習理論を提案する。
提案したNNソルバは,新しいデータポイント上の一般化とほぼ同一の誤差を持つ新しいデータポイント上でPDEを強固に一般化できることを示す。
論文 参考訳(メタデータ) (2021-06-12T03:55:15Z) - Consistent Second-Order Conic Integer Programming for Learning Bayesian
Networks [2.7473982588529653]
連続観測データからBNのスパースDAG構造を学習する問題について検討する。
この数学的プログラムの最適解は、ある条件下では望ましい統計的性質を持つことが知られている。
ほぼ最適解を得るために, 分岐・結合プロセスの終了に向け, 早期停止条件を提案する。
論文 参考訳(メタデータ) (2020-05-29T00:13:15Z) - Inexact and Stochastic Generalized Conditional Gradient with Augmented
Lagrangian and Proximal Step [2.0196229393131726]
我々は著者の以前の論文で開発されたCGALPアルゴリズムの不正確さとバージョンを分析した。
これにより、いくつかの勾配、項、および/または線形最小化オラクルを不正確な方法で計算することができる。
ラグランジアンのアフィン制約の最適性と実現可能性への収束を示す。
論文 参考訳(メタデータ) (2020-05-11T14:52:16Z) - Hardness of Random Optimization Problems for Boolean Circuits,
Low-Degree Polynomials, and Langevin Dynamics [78.46689176407936]
アルゴリズムの族は高い確率でほぼ最適な解を生成できないことを示す。
ブール回路の場合、回路複雑性理論で知られている最先端境界を改善する。
論文 参考訳(メタデータ) (2020-04-25T05:45:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。