論文の概要: Kantorovich-Type Stochastic Neural Network Operators for the Mean-Square Approximation of Certain Second-Order Stochastic Processes
- arxiv url: http://arxiv.org/abs/2601.03634v1
- Date: Wed, 07 Jan 2026 06:25:40 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-09 02:15:23.298483
- Title: Kantorovich-Type Stochastic Neural Network Operators for the Mean-Square Approximation of Certain Second-Order Stochastic Processes
- Title(参考訳): 二次確率過程の平均二乗近似のためのカントロビッチ型確率ニューラルネットワーク演算子
- Authors: Sachin Saini, Uaday Singh,
- Abstract要約: 我々は, ランダム性を係数レベルではなく, ニューロンによって駆動されるtextbf-tochastic ニューロンを介して組み込む新しいクラスである textbf Kantorovich-type Neural Network Operators (K-SNNOs) を構築した。
このフレームワークは、オペレーターが基礎となるプロセスの確率的構造を継承することができ、信号のモデリングと近似に適している。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Artificial neural network operators (ANNOs) have been widely used for approximating deterministic input-output functions; however, their extension to random dynamics remains comparatively unexplored. In this paper, we construct a new class of \textbf{Kantorovich-type Stochastic Neural Network Operators (K-SNNOs)} in which randomness is incorporated not at the coefficient level, but through \textbf{stochastic neurons} driven by stochastic integrators. This framework enables the operator to inherit the probabilistic structure of the underlying process, making it suitable for modeling and approximating stochastic signals. We establish mean-square convergence of K-SNNOs to the target stochastic process and derive quantitative error estimates expressing the rate of approximation in terms of the modulus of continuity. Numerical simulations further validate the theoretical results by demonstrating accurate reconstruction of sample paths and rapid decay of the mean square error (MSE). Graphical results, including sample-wise approximations and empirical MSE behaviour, illustrate the robustness and effectiveness of the proposed stochastic-neuron-based operator.
- Abstract(参考訳): ニューラルネットワーク演算子(ANNO)は、決定論的入力出力関数の近似に広く用いられているが、そのランダムなダイナミックスへの拡張は、比較的未解明のままである。
本稿では,確率的積分器によって駆動される確率性を係数レベルではなく,テキストbf{stochastic Neural Network Operators (K-SNNOs) の新たなクラスを構築する。
このフレームワークにより、演算子は基礎となるプロセスの確率的構造を継承することができ、確率的信号のモデリングと近似に適している。
我々は、K-SNNOsの平均2乗収束を目標確率過程に確立し、連続率の係数で近似の速度を表す定量的誤差推定を導出する。
数値シミュレーションにより, サンプル経路の正確な再構成と平均二乗誤差(MSE)の急激な崩壊を実証し, 理論的結果をさらに検証した。
サンプルワイド近似や経験的MSE動作を含むグラフィカルな結果は、提案した確率ニューロンに基づく演算子の頑健さと有効性を示している。
関連論文リスト
- Constructive Approximation of Random Process via Stochastic Interpolation Neural Network Operators [0.0]
我々は、シグモダル関数によって活性化されるランダム係数を持つニューラルネットワーク演算子(SINNO)のクラスを構築する。
我々はそれらの有界性、精度、近似能力を平均的な意味で、確率で、また二階プロセス(ランダム)の空間内で経路的に確立する。
結果は、SINNOsが新型コロナウイルスのケース予測に潜在的に適用可能なプロセスの近似に有効であることを強調している。
論文 参考訳(メタデータ) (2025-12-30T09:30:18Z) - Interpretable Neural Approximation of Stochastic Reaction Dynamics with Guaranteed Reliability [4.736119820998459]
我々は,解釈可能性,信頼性保証,実質的な計算ゲインを実現するニューラルネットワークフレームワークであるDeepSKAを紹介する。
DeepSKAは、状態、時間、出力関数にまたがって一般化する数学的に透明な表現を生成し、この構造を少数のシミュレーションと統合し、古典的モンテカルロよりも非バイアスで、確率的に収束し、劇的に低いマグニチュード推定を生成する。
論文 参考訳(メタデータ) (2025-12-06T04:45:31Z) - Probabilistic neural operators for functional uncertainty quantification [14.08907045605149]
本稿では,ニューラル演算子の出力関数空間上の確率分布を学習するフレームワークである確率論的ニューラル演算子(PNO)を紹介する。
PNOは、厳密な適切なスコアリングルールに基づく生成モデリングにより、ニューラル演算子を拡張し、不確実性情報をトレーニングプロセスに直接統合する。
論文 参考訳(メタデータ) (2025-02-18T14:42:11Z) - Variational Sampling of Temporal Trajectories [39.22854981703244]
遷移関数 $f$ を関数空間の要素として明示的にパラメータ化することにより、軌道の分布を学習する機構を導入する。
我々のフレームワークは、新しい軌道の効率的な合成を可能にすると同時に、推論に便利なツールを直接提供します。
論文 参考訳(メタデータ) (2024-03-18T02:12:12Z) - Learning Unnormalized Statistical Models via Compositional Optimization [73.30514599338407]
実データと人工雑音のロジスティックな損失として目的を定式化することにより, ノイズコントラスト推定(NCE)を提案する。
本稿では,非正規化モデルの負の対数類似度を最適化するための直接的アプローチについて検討する。
論文 参考訳(メタデータ) (2023-06-13T01:18:16Z) - Adversarially Contrastive Estimation of Conditional Neural Processes [39.77675002999259]
条件付きニューラルプロセス(CNP)は関数上の分布を定式化し、正確な条件付き確率で関数観測を生成する。
我々は,正規最大推定値以外の逆トレーニング方式でCNPを校正する手法を提案する。
生成関数再構成から下流回帰および分類タスクに至るまで,本手法が主流のCNPメンバーに適合することが実証された。
論文 参考訳(メタデータ) (2023-03-23T02:58:14Z) - PAC-Bayesian Learning of Aggregated Binary Activated Neural Networks
with Probabilities over Representations [2.047424180164312]
本研究では,確率論的ニューラルネットワークの予測器としての期待値について検討し,実数値重みによる正規分布を持つ二元活性化ニューラルネットワークの集約に着目した。
我々は、動的プログラミングアプローチのおかげで、深いが狭いニューラルネットワークに対して、正確な計算が引き続き実行可能であることを示す。
論文 参考訳(メタデータ) (2021-10-28T14:11:07Z) - Multi-Sample Online Learning for Spiking Neural Networks based on
Generalized Expectation Maximization [42.125394498649015]
スパイキングニューラルネットワーク(SNN)は、バイナリニューラルダイナミックアクティベーションを通じて処理することで、生物学的脳の効率の一部をキャプチャする。
本稿では, シナプス重みを共有しながら, 独立したスパイキング信号をサンプリングする複数のコンパートメントを活用することを提案する。
鍵となる考え方は、これらの信号を使ってログライクなトレーニング基準のより正確な統計的推定と勾配を求めることである。
論文 参考訳(メタデータ) (2021-02-05T16:39:42Z) - Provably Efficient Neural Estimation of Structural Equation Model: An
Adversarial Approach [144.21892195917758]
一般化構造方程式モデル(SEM)のクラスにおける推定について検討する。
線形作用素方程式をmin-maxゲームとして定式化し、ニューラルネットワーク(NN)でパラメータ化し、勾配勾配を用いてニューラルネットワークのパラメータを学習する。
提案手法は,サンプル分割を必要とせず,確固とした収束性を持つNNをベースとしたSEMの抽出可能な推定手順を初めて提供する。
論文 参考訳(メタデータ) (2020-07-02T17:55:47Z) - Multiplicative noise and heavy tails in stochastic optimization [62.993432503309485]
経験的最適化は現代の機械学習の中心であるが、その成功における役割はまだ不明である。
分散による離散乗法雑音のパラメータによく現れることを示す。
最新のステップサイズやデータを含む重要な要素について、詳細な分析を行い、いずれも最先端のニューラルネットワークモデルで同様の結果を示す。
論文 参考訳(メタデータ) (2020-06-11T09:58:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。