論文の概要: Consistency of Learned Sparse Grid Quadrature Rules using NeuralODEs
- arxiv url: http://arxiv.org/abs/2507.01533v1
- Date: Wed, 02 Jul 2025 09:37:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-03 14:23:00.133236
- Title: Consistency of Learned Sparse Grid Quadrature Rules using NeuralODEs
- Title(参考訳): ニューラルネットワークを用いた学習されたスパースグリッド四分法則の整合性
- Authors: Hanno Gottschalk, Emil Partow, Tobias J. Riedlinger,
- Abstract要約: 本稿では,高次元分布の数値積分のためのスパースグリッドの整合性の証明を行う。
二次誤差と統計誤差の合計数値誤差の分解を行う。
- 参考スコア(独自算出の注目度): 1.3654846342364308
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper provides a proof of the consistency of sparse grid quadrature for numerical integration of high dimensional distributions. In a first step, a transport map is learned that normalizes the distribution to a noise distribution on the unit cube. This step is built on the statistical learning theory of neural ordinary differential equations, which has been established recently. Secondly, the composition of the generative map with the quantity of interest is integrated numerically using the Clenshaw-Curtis sparse grid quadrature. A decomposition of the total numerical error in quadrature error and statistical error is provided. As main result it is proven in the framework of empirical risk minimization that all error terms can be controlled in the sense of PAC (probably approximately correct) learning and with high probability the numerical integral approximates the theoretical value up to an arbitrary small error in the limit where the data set size is growing and the network capacity is increased adaptively.
- Abstract(参考訳): 本稿では,高次元分布の数値積分のためのスパースグリッドの整合性の証明を行う。
最初のステップでは、単位立方体上の雑音分布への分布を正規化する輸送マップが学習される。
このステップは、最近確立されたニューラル常微分方程式の統計的学習理論に基づいている。
次に,Clenshaw-Curtis sparse grid quadratureを用いて,興味のある生成写像の構成を数値的に積分する。
二次誤差と統計誤差の合計数値誤差の分解を行う。
実験的リスク最小化の枠組みでは、全てのエラー項がPAC学習の意味で制御可能であることが証明され、高い確率で、数値積分は、データセットのサイズが増大し、ネットワーク容量が適応的に増加する極限において、任意の小さな誤差まで理論値を近似する。
関連論文リスト
- Modes of Sequence Models and Learning Coefficients [0.6906005491572401]
変換器ネットワークにおける損失ランドスケープの計測可能な特性とデータ中のパターンをリンクするシーケンスモデリングの幾何学的記述を開発する。
局所学習係数の推定値がデータ依存しきい値以下のモードに無関心であることを理論的に示す。
この洞察は、ネットワークパラメータが人口減少の厳格な最小限ではない場合でも、なぜ信頼できるLLC推定値が得られるのかを明らかにする。
論文 参考訳(メタデータ) (2025-04-25T03:38:10Z) - Numerical and statistical analysis of NeuralODE with Runge-Kutta time integration [1.3654846342364308]
対象尺度の汎用クラスに対する最大様相に基づく経験的リスク最小化の整合性に関する詳細な説明を行う。
また,第2次Runge-Kutta (RK) 時間積分に基づくNeuralODEアルゴリズムの数値解析を行った。
論文 参考訳(メタデータ) (2025-03-13T11:58:18Z) - Learning and generalization of one-hidden-layer neural networks, going
beyond standard Gaussian data [14.379261299138147]
本稿では,入力特徴がガウス混合モデルに従えば,一層ニューラルネットワークの収束と反復を解析する。
本論文は,入力分布がサンプルに与える影響と学習率に与える影響を初めて特徴付ける。
論文 参考訳(メタデータ) (2022-07-07T23:27:44Z) - Learning Distributions by Generative Adversarial Networks: Approximation
and Generalization [0.6768558752130311]
本研究では,これらのモデルの収束速度を解析することにより,有限サンプルから生成逆数ネットワークがいかによく学習するかを考察する。
我々の分析は、GANの推定誤差を判別器とジェネレータの近似誤差に分解する新しい不等式オラクルに基づいている。
生成元近似誤差に対して、ニューラルネットワークは、およそ低次元のソース分布を高次元のターゲット分布に変換することができることを示す。
論文 参考訳(メタデータ) (2022-05-25T09:26:17Z) - Robust Estimation for Nonparametric Families via Generative Adversarial
Networks [92.64483100338724]
我々は,高次元ロバストな統計問題を解くためにGAN(Generative Adversarial Networks)を設計するためのフレームワークを提供する。
我々の研究は、これらをロバスト平均推定、第二モーメント推定、ロバスト線形回帰に拡張する。
技術面では、提案したGAN損失は、スムーズで一般化されたコルモゴロフ-スミルノフ距離と見なすことができる。
論文 参考訳(メタデータ) (2022-02-02T20:11:33Z) - Partial Counterfactual Identification from Observational and
Experimental Data [83.798237968683]
観測データと実験データの任意の組み合わせから最適境界を近似する有効なモンテカルロアルゴリズムを開発した。
我々のアルゴリズムは、合成および実世界のデータセットに基づいて広範囲に検証されている。
論文 参考訳(メタデータ) (2021-10-12T02:21:30Z) - The Separation Capacity of Random Neural Networks [78.25060223808936]
標準ガウス重みと一様分布バイアスを持つ十分に大きな2層ReLUネットワークは、この問題を高い確率で解くことができることを示す。
我々は、相互複雑性という新しい概念の観点から、データの関連構造を定量化する。
論文 参考訳(メタデータ) (2021-07-31T10:25:26Z) - Predicting Unreliable Predictions by Shattering a Neural Network [145.3823991041987]
線形ニューラルネットワークは、サブファンクションに分割することができる。
サブファンクションは、独自のアクティベーションパターン、ドメイン、経験的エラーを持っている。
完全なネットワークに対する経験的エラーは、サブファンクションに対する期待として記述できる。
論文 参考訳(メタデータ) (2021-06-15T18:34:41Z) - An error analysis of generative adversarial networks for learning
distributions [11.842861158282265]
GAN(Generative Adversarial Network)は、有限サンプルから確率分布を学習する。
GANは、低次元構造を持つデータ分布を適応的に学習したり、H"古い密度を持つことができる。
本分析は,推定誤差をジェネレータと判別器の近似誤差と統計的誤差に分解する新しいオラクル不等式に基づく。
論文 参考訳(メタデータ) (2021-05-27T08:55:19Z) - Good Classifiers are Abundant in the Interpolating Regime [64.72044662855612]
補間分類器間のテストエラーの完全な分布を正確に計算する手法を開発した。
テストエラーは、最悪の補間モデルのテストエラーから大きく逸脱する、小さな典型的な$varepsilon*$に集中する傾向にある。
以上の結果から,統計的学習理論における通常の解析手法は,実際に観測された優れた一般化性能を捉えるのに十分な粒度にはならない可能性が示唆された。
論文 参考訳(メタデータ) (2020-06-22T21:12:31Z) - Log-Likelihood Ratio Minimizing Flows: Towards Robust and Quantifiable
Neural Distribution Alignment [52.02794488304448]
そこで本研究では,対数様比統計量と正規化フローに基づく新しい分布アライメント手法を提案する。
入力領域の局所構造を保存する領域アライメントにおいて,結果の最小化を実験的に検証する。
論文 参考訳(メタデータ) (2020-03-26T22:10:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。