論文の概要: Constructive Approximation of Random Process via Stochastic Interpolation Neural Network Operators
- arxiv url: http://arxiv.org/abs/2512.24106v1
- Date: Tue, 30 Dec 2025 09:30:18 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-01 23:27:28.34641
- Title: Constructive Approximation of Random Process via Stochastic Interpolation Neural Network Operators
- Title(参考訳): 確率補間ニューラルネットワーク演算子によるランダム過程の構成近似
- Authors: Sachin Saini, Uaday Singh,
- Abstract要約: 我々は、シグモダル関数によって活性化されるランダム係数を持つニューラルネットワーク演算子(SINNO)のクラスを構築する。
我々はそれらの有界性、精度、近似能力を平均的な意味で、確率で、また二階プロセス(ランダム)の空間内で経路的に確立する。
結果は、SINNOsが新型コロナウイルスのケース予測に潜在的に適用可能なプロセスの近似に有効であることを強調している。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we construct a class of stochastic interpolation neural network operators (SINNOs) with random coefficients activated by sigmoidal functions. We establish their boundedness, interpolation accuracy, and approximation capabilities in the mean square sense, in probability, as well as path-wise within the space of second-order stochastic (random) processes \( L^2(Ω, \mathcal{F},\mathbb{P}) \). Additionally, we provide quantitative error estimates using the modulus of continuity of the processes. These results highlight the effectiveness of SINNOs for approximating stochastic processes with potential applications in COVID-19 case prediction.
- Abstract(参考訳): 本稿では,確率補間ニューラルネットワーク演算子 (SINNO) のクラスを構築する。
それらの有界性、補間精度、近似能力を平均二乗感覚で確率で、また二階確率(ランダム)過程 \(L^2(Ω, \mathcal{F},\mathbb{P}) \) の空間内でも経路的に確立する。
さらに,プロセスの連続性係数を用いた定量的誤差推定を行う。
これらの結果は、SINNOsが確率過程の近似に有効であることと、COVID-19のケース予測に応用できることを強調した。
関連論文リスト
- Stochastic Process Learning via Operator Flow Matching [10.549183548149196]
我々は関数空間上でのプロセスの事前学習のための演算子フローマッチング(OFM)を開発した。
OFM は任意の点集合の値の確率密度を与える。
本手法は, プロセス学習, 機能回帰, 事前学習における最先端モデルより優れている。
論文 参考訳(メタデータ) (2025-01-07T20:12:56Z) - Finite Neural Networks as Mixtures of Gaussian Processes: From Provable Error Bounds to Prior Selection [12.605866515202948]
有限幅と深さのニューラルネットワークを近似するアルゴリズム的枠組みを提案する。
ニューラルネットワークの各層の出力分布をガウス過程の混合として反復的に近似する。
我々の結果は、ニューラルネットワークの予測を理解するための重要なステップである。
論文 参考訳(メタデータ) (2024-07-26T12:45:53Z) - Entropic Matching for Expectation Propagation of Markov Jump Processes [31.376561087029454]
我々はマルコフジャンププロセスのための新しい、引き込み可能な潜在推論スキームを提案する。
我々のアプローチは、よく知られた予測伝搬アルゴリズムに組み込むことができるエントロピーマッチングフレームワークに基づいている。
論文 参考訳(メタデータ) (2023-09-27T12:07:21Z) - Noise-Free Sampling Algorithms via Regularized Wasserstein Proximals [3.4240632942024685]
ポテンシャル関数が支配する分布からサンプリングする問題を考察する。
本研究は, 決定論的な楽譜に基づくMCMC法を提案し, 粒子に対する決定論的進化をもたらす。
論文 参考訳(メタデータ) (2023-08-28T23:51:33Z) - Promises and Pitfalls of the Linearized Laplace in Bayesian Optimization [73.80101701431103]
線形化ラプラス近似(LLA)はベイズニューラルネットワークの構築に有効で効率的であることが示されている。
ベイズ最適化におけるLLAの有用性について検討し,その性能と柔軟性を強調した。
論文 参考訳(メタデータ) (2023-04-17T14:23:43Z) - Monte Carlo Neural PDE Solver for Learning PDEs via Probabilistic Representation [59.45669299295436]
教師なしニューラルソルバのトレーニングのためのモンテカルロPDEソルバを提案する。
我々は、マクロ現象をランダム粒子のアンサンブルとみなすPDEの確率的表現を用いる。
対流拡散, アレン・カーン, ナヴィエ・ストークス方程式に関する実験により, 精度と効率が著しく向上した。
論文 参考訳(メタデータ) (2023-02-10T08:05:19Z) - A Stochastic Newton Algorithm for Distributed Convex Optimization [62.20732134991661]
均質な分散凸最適化のためのNewtonアルゴリズムを解析し、各マシンが同じ人口目標の勾配を計算する。
提案手法は,既存の手法と比較して,性能を損なうことなく,必要な通信ラウンドの数,頻度を低減できることを示す。
論文 参考訳(メタデータ) (2021-10-07T17:51:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。