論文の概要: Neural Brownian Motion
- arxiv url: http://arxiv.org/abs/2507.14499v1
- Date: Sat, 19 Jul 2025 06:09:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-22 20:51:31.916416
- Title: Neural Brownian Motion
- Title(参考訳): 神経ブラウン運動
- Authors: Qian Qi,
- Abstract要約: 本稿では,ニューラル・ブラウン運動(NBM)について紹介する。
ボラティリティ関数 $nu_theta$ は事前に仮定されるのではなく、制約 $g_theta(t, M_t, nu_theta(t, M_t)) = 0 で暗黙的に定義される。
悲観的か楽観的であるかは、学習した$thetaによって不均一に決定され、不確実性に対する態度が発見可能な特徴であるモデルに対して厳密な基礎を提供する。
- 参考スコア(独自算出の注目度): 2.1756081703276
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper introduces the Neural-Brownian Motion (NBM), a new class of stochastic processes for modeling dynamics under learned uncertainty. The NBM is defined axiomatically by replacing the classical martingale property with respect to linear expectation with one relative to a non-linear Neural Expectation Operator, $\varepsilon^\theta$, generated by a Backward Stochastic Differential Equation (BSDE) whose driver $f_\theta$ is parameterized by a neural network. Our main result is a representation theorem for a canonical NBM, which we define as a continuous $\varepsilon^\theta$-martingale with zero drift under the physical measure. We prove that, under a key structural assumption on the driver, such a canonical NBM exists and is the unique strong solution to a stochastic differential equation of the form ${\rm d} M_t = \nu_\theta(t, M_t) {\rm d} W_t$. Crucially, the volatility function $\nu_\theta$ is not postulated a priori but is implicitly defined by the algebraic constraint $g_\theta(t, M_t, \nu_\theta(t, M_t)) = 0$, where $g_\theta$ is a specialization of the BSDE driver. We develop the stochastic calculus for this process and prove a Girsanov-type theorem for the quadratic case, showing that an NBM acquires a drift under a new, learned measure. The character of this measure, whether pessimistic or optimistic, is endogenously determined by the learned parameters $\theta$, providing a rigorous foundation for models where the attitude towards uncertainty is a discoverable feature.
- Abstract(参考訳): 本稿では,ニューラル・ブラウン運動(NBM)について紹介する。
NBMは、線形期待に関する古典的なマーチンゲール特性を、ニューラルネットワークによってパラメータ化される後向き確率微分方程式(BSDE)によって生成される非線形ニューラル期待演算子である$\varepsilon^\theta$に置き換えることで、公理的に定義される。
我々の主な結果は標準的 NBM の表現定理であり、物理測度の下でゼロドリフトを持つ連続 $\varepsilon^\theta$-martingale と定義する。
我々は、ドライバ上の重要な構造的仮定の下で、そのような標準的 NBM が存在し、${\rm d} M_t = \nu_\theta(t, M_t) {\rm d} W_t$ という形の確率微分方程式に対する一意の強い解であることを示す。
決定的に、ボラティリティ関数 $\nu_\theta$ は先験を仮定するのではなく、代数的制約 $g_\theta(t, M_t, \nu_\theta(t, M_t)) = 0$ で暗黙的に定義される。
この過程の確率計算を開発し、二次の場合のジルサノフ型定理を証明し、NBMが新しい学習尺度の下でドリフトを得ることを示す。
この測度の特徴は悲観的であれ楽観的であれ、学習されたパラメータ$\theta$によって不均一に決定され、不確実性に対する態度が発見可能な特徴であるモデルに対して厳密な基礎を提供する。
関連論文リスト
- Neural Expectation Operators [2.1756081703276]
本稿では,非線形予測によるあいまいさをモデル化するためのパラダイムであるtextbfMeasure Learningを紹介する。
我々はニューラル期待演算子を、ドライバがニューラルネットワークによってパラメータ化される後方微分方程式(BSDEs)の解として定義する。
本稿では,建築設計による凸性などの重要な公理特性の強化のための建設的手法を提案する。
論文 参考訳(メタデータ) (2025-07-13T06:19:28Z) - Neural Networks for Tamed Milstein Approximation of SDEs with Additive Symmetric Jump Noise Driven by a Poisson Random Measure [2.845817138242963]
本稿では,非パラメトリック関数近似器として使用されるニューラルネットワークに,Tamed-Milsteinスキームを統合したフレームワークを提案する。
提案手法は、L'evyプロセスによって駆動される状態依存ノイズと不連続性を持つシステムにおける推論の柔軟な代替手段を構成する。
論文 参考訳(メタデータ) (2025-07-06T15:13:31Z) - $p$-Adic Polynomial Regression as Alternative to Neural Network for Approximating $p$-Adic Functions of Many Variables [55.2480439325792]
任意の精度で連続関数を近似できる回帰モデルを構築している。
提案モデルは、ニューラルネットワークアーキテクチャに基づく$p$-adicモデルの簡単な代替と見なすことができる。
論文 参考訳(メタデータ) (2025-03-30T15:42:08Z) - Learning with Norm Constrained, Over-parameterized, Two-layer Neural Networks [54.177130905659155]
近年の研究では、再生カーネルヒルベルト空間(RKHS)がニューラルネットワークによる関数のモデル化に適した空間ではないことが示されている。
本稿では,有界ノルムを持つオーバーパラメータ化された2層ニューラルネットワークに適した関数空間について検討する。
論文 参考訳(メタデータ) (2024-04-29T15:04:07Z) - Effective Minkowski Dimension of Deep Nonparametric Regression: Function
Approximation and Statistical Theories [70.90012822736988]
ディープ非パラメトリック回帰に関する既存の理論は、入力データが低次元多様体上にある場合、ディープニューラルネットワークは本質的なデータ構造に適応できることを示した。
本稿では,$mathcalS$で表される$mathbbRd$のサブセットに入力データが集中するという緩和された仮定を導入する。
論文 参考訳(メタデータ) (2023-06-26T17:13:31Z) - Neural Implicit Manifold Learning for Topology-Aware Density Estimation [15.878635603835063]
現在の生成モデルは、ニューラルネットワークを介して$m$次元の潜在変数をマッピングすることで、$mathcalM$を学ぶ。
我々のモデルは、プッシュフォワードモデルよりも複雑なトポロジーを持つ多様体支持分布を正確に学習できることが示される。
論文 参考訳(メタデータ) (2022-06-22T18:00:00Z) - $O(N^2)$ Universal Antisymmetry in Fermionic Neural Networks [107.86545461433616]
我々は、置換同変アーキテクチャを提案し、その上で行列式 Slater を適用して反対称性を誘導する。
FermiNetは、単一の行列式を持つ普遍近似能力があることが証明されている。
これは実装が容易であり、計算コストを$O(N2)$に下げることができる。
論文 参考訳(メタデータ) (2022-05-26T07:44:54Z) - Single Trajectory Nonparametric Learning of Nonlinear Dynamics [8.438421942654292]
力学系の1つの軌道が与えられた場合、非パラメトリック最小二乗推定器(LSE)の性能を解析する。
我々は最近開発された情報理論手法を活用し、非仮説クラスに対するLSEの最適性を確立する。
我々は、リプシッツ力学、一般化線形モデル、再生ケルネルヒルベルト空間(RKHS)のある種のクラスで記述される関数によって記述される力学など、実用上の関心のあるいくつかのシナリオを専門とする。
論文 参考訳(メタデータ) (2022-02-16T19:38:54Z) - Implicit Bias of MSE Gradient Optimization in Underparameterized Neural
Networks [0.0]
勾配流による平均二乗誤差の最適化において,関数空間におけるニューラルネットワークのダイナミクスについて検討する。
ニューラルタンジェントカーネル(NTK)により決定された積分作用素$T_Kinfty$の固有関数をネットワークが学習することを示す。
減衰偏差は2乗誤差を最適化する際の力学の単純かつ統一的な視点を与えると結論付けている。
論文 参考訳(メタデータ) (2022-01-12T23:28:41Z) - Inverting brain grey matter models with likelihood-free inference: a
tool for trustable cytoarchitecture measurements [62.997667081978825]
脳の灰白質細胞構造の特徴は、体密度と体積に定量的に敏感であり、dMRIでは未解決の課題である。
我々は新しいフォワードモデル、特に新しい方程式系を提案し、比較的スパースなb殻を必要とする。
次に,提案手法を逆転させるため,確率自由推論 (LFI) として知られるベイズ解析から最新のツールを適用した。
論文 参考訳(メタデータ) (2021-11-15T09:08:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。