論文の概要: Simultaneously Solving Infinitely Many LQ Mean Field Games In Hilbert Spaces: The Power of Neural Operators
- arxiv url: http://arxiv.org/abs/2510.20017v1
- Date: Wed, 22 Oct 2025 20:40:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-25 03:08:16.827987
- Title: Simultaneously Solving Infinitely Many LQ Mean Field Games In Hilbert Spaces: The Power of Neural Operators
- Title(参考訳): ヒルベルト空間における無限に多くのLQ平均フィールドゲーム:ニューラル演算子の力
- Authors: Dena Firoozi, Anastasis Kratsios, Xuwei Yang,
- Abstract要約: ニューラル作用素 (NOs) を訓練し、分離可能なヒルベルト空間上で定義されたLQ MFGの問題データ(ルール':ダイナミックスとコスト汎関数)から、対応する平衡戦略を学ぶ。
少数のランダムサンプリングルールに基づいて訓練されたNOは、無限次元の設定であっても、目に見えないLQ MFG変異を確実に解決する。
我々の保証は、3つの結果から従う: (i) 局所リプシッツの高度非線形規則-平衡写像の推定、 (ii) 予め特定されたリプシッツ正則性を持つNOsを用いた普遍近似定理。
- 参考スコア(独自算出の注目度): 11.756276506921976
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Traditional mean-field game (MFG) solvers operate on an instance-by-instance basis, which becomes infeasible when many related problems must be solved (e.g., for seeking a robust description of the solution under perturbations of the dynamics or utilities, or in settings involving continuum-parameterized agents.). We overcome this by training neural operators (NOs) to learn the rules-to-equilibrium map from the problem data (``rules'': dynamics and cost functionals) of LQ MFGs defined on separable Hilbert spaces to the corresponding equilibrium strategy. Our main result is a statistical guarantee: an NO trained on a small number of randomly sampled rules reliably solves unseen LQ MFG variants, even in infinite-dimensional settings. The number of NO parameters needed remains controlled under appropriate rule sampling during training. Our guarantee follows from three results: (i) local-Lipschitz estimates for the highly nonlinear rules-to-equilibrium map; (ii) a universal approximation theorem using NOs with a prespecified Lipschitz regularity (unlike traditional NO results where the NO's Lipschitz constant can diverge as the approximation error vanishes); and (iii) new sample-complexity bounds for $L$-Lipschitz learners in infinite dimensions, directly applicable as the Lipschitz constants of our approximating NOs are controlled in (ii).
- Abstract(参考訳): 従来の平均場ゲーム(MFG)ソルバはインスタンス単位で動作し、多くの関連する問題が解決しなければならない場合(例えば、動的またはユーティリティの摂動の下で解の堅牢な説明を求める場合、または連続体パラメータ化エージェントを含む設定において)、実現不可能となる。
我々は、分離可能なヒルベルト空間上で定義されたLQ MFGの問題データ(`rules': dynamics and cost functionals)から対応する平衡戦略を学ぶために、ニューラル演算子(NOs)を訓練することでこれを克服する。
少数のランダムサンプリングされたルールに基づいて訓練されたNOは、無限次元の設定であっても、目に見えないLQ MFG変異を確実に解決する。
必要なNOパラメータの数は、トレーニング中に適切なルールサンプリングの下で制御されている。
私たちの保証は以下の3つの結果から成り立つ。
(i)高非線形規則-平衡写像に対する局所リプシッツ推定
(ii)あらかじめ特定されたリプシッツ正則性を持つNOを用いた普遍近似定理(NOのリプシッツ定数が近似誤差が消えるにつれて発散する従来のNO結果とは異なり)
3) 無限次元における$L$-Lipschitz学習者に対する新しいサンプル複素性境界は、近似NOsのリプシッツ定数として直接適用することができる。
(II)。
関連論文リスト
- Neural Policy Iteration for Stochastic Optimal Control: A Physics-Informed Approach [2.8988658640181826]
物理インフォームドニューラルネットワークポリシー反復フレームワーク(PINN-PI)を提案する。
各イテレーションにおいて、ニューラルネットワークは、固定ポリシーによって誘導される線形PDEの残余を最小限にして、値関数を近似するように訓練される。
提案手法は,最大10次元の勾配カートポール,振り子高次元線形二次規則(LQR)問題など,いくつかのベンチマーク問題に対する有効性を示す。
論文 参考訳(メタデータ) (2025-08-03T11:02:25Z) - Error Feedback under $(L_0,L_1)$-Smoothness: Normalization and Momentum [56.37522020675243]
機械学習の幅広い問題にまたがる正規化誤差フィードバックアルゴリズムに対する収束の最初の証明を提供する。
提案手法では,許容可能なステップサイズが大きくなったため,新しい正規化エラーフィードバックアルゴリズムは,各種タスクにおける非正規化エラーよりも優れていた。
論文 参考訳(メタデータ) (2024-10-22T10:19:27Z) - Benign overfitting in Fixed Dimension via Physics-Informed Learning with Smooth Inductive Bias [8.668428992331808]
我々は,線形逆問題に対処する際,カーネルリッジ(レス)回帰のためのソボレフノルム学習曲線を開発した。
この結果から, 逆問題におけるPDE演算子は分散を安定化し, 固定次元問題に対して良性オーバーフィッティングを行うことが可能であることがわかった。
論文 参考訳(メタデータ) (2024-06-13T14:54:30Z) - Promoting Fairness in GNNs: A Characterization of Stability [14.205512681033492]
グラフニューラルネットワーク(GNN)は、非ユークリッドデータで動作する。
以前の研究では、GNNリプシッツ境界が安定化モデル出力に光を放つことが研究されていない。
論文 参考訳(メタデータ) (2023-09-07T11:29:16Z) - Benign Overfitting in Deep Neural Networks under Lazy Training [72.28294823115502]
データ分布が適切に分離された場合、DNNは分類のためのベイズ最適テスト誤差を達成できることを示す。
よりスムーズな関数との補間により、より一般化できることを示す。
論文 参考訳(メタデータ) (2023-05-30T19:37:44Z) - Fully Stochastic Trust-Region Sequential Quadratic Programming for
Equality-Constrained Optimization Problems [62.83783246648714]
目的と決定論的等式制約による非線形最適化問題を解くために,逐次2次プログラミングアルゴリズム(TR-StoSQP)を提案する。
アルゴリズムは信頼領域半径を適応的に選択し、既存の直線探索StoSQP方式と比較して不確定なヘッセン行列を利用することができる。
論文 参考訳(メタデータ) (2022-11-29T05:52:17Z) - Sparsest Univariate Learning Models Under Lipschitz Constraint [31.28451181040038]
一次元回帰問題に対する連続領域定式化を提案する。
リプシッツ定数をユーザ定義上界を用いて明示的に制御する。
いずれの問題も、連続的かつ断片的線形なグローバル最小化を許容していることが示される。
論文 参考訳(メタデータ) (2021-12-27T07:03:43Z) - Global convergence of ResNets: From finite to infinite width using
linear parameterization [0.0]
残差ブロックが非線形でありながら線形パラメトリゼーションを有する残差ネットワーク(Residual Networks, ResNets)について検討する。
この極限において、局所的なポリアック・ロジャシエヴィチの不等式を証明し、遅延状態を取得する。
私たちの分析は実用的で定量化されたレシピにつながります。
論文 参考訳(メタデータ) (2021-12-10T13:38:08Z) - Robust Implicit Networks via Non-Euclidean Contractions [63.91638306025768]
暗黙のニューラルネットワークは、精度の向上とメモリ消費の大幅な削減を示す。
彼らは不利な姿勢と収束の不安定さに悩まされる。
本論文は,ニューラルネットワークを高機能かつ頑健に設計するための新しい枠組みを提供する。
論文 参考訳(メタデータ) (2021-06-06T18:05:02Z) - Dimension Free Generalization Bounds for Non Linear Metric Learning [61.193693608166114]
我々はスパース体制と非スパース体制という2つの体制に対して一様一般化境界を提供する。
解の異なる新しい性質を頼りにすることで、次元自由一般化保証を提供することができることを示す。
論文 参考訳(メタデータ) (2021-02-07T14:47:00Z) - Lipschitz Bounded Equilibrium Networks [3.2872586139884623]
本稿では、平衡ニューラルネットワーク、すなわち暗黙の方程式で定義されるネットワークの新しいパラメータ化を提案する。
新しいパラメータ化は、制約のない最適化を通じてトレーニング中にリプシッツ境界を許容する。
画像分類実験では、リプシッツ境界は非常に正確であり、敵攻撃に対する堅牢性を向上させることが示されている。
論文 参考訳(メタデータ) (2020-10-05T01:00:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。