論文の概要: Error Analysis of Generalized Langevin Equations with Approximated Memory Kernels
- arxiv url: http://arxiv.org/abs/2512.10256v1
- Date: Thu, 11 Dec 2025 03:27:58 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-12 16:15:42.181123
- Title: Error Analysis of Generalized Langevin Equations with Approximated Memory Kernels
- Title(参考訳): 近似メモリカーネルを用いた一般化ランゲヴィン方程式の誤差解析
- Authors: Quanjun Lang, Jianfeng Lu,
- Abstract要約: 我々は、一般化ランゲヴィン方程式(GLE)に着目し、メモリを持つ力学系における予測誤差を解析する。
我々は、強い凸ポテンシャルの下で、メモリカーネルの崩壊によって決定される速度で不一致が崩壊し、重み付きノルムにおけるカーネルの推定誤差によって定量的に境界づけられていることを確立する。
このフレームワークは、非翻訳不変カーネルとホワイトノイズ強制に対応し、改善されたカーネル推定と改良されたトラジェクトリ予測を明示的にリンクする。
- 参考スコア(独自算出の注目度): 5.726854405157353
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We analyze prediction error in stochastic dynamical systems with memory, focusing on generalized Langevin equations (GLEs) formulated as stochastic Volterra equations. We establish that, under a strongly convex potential, trajectory discrepancies decay at a rate determined by the decay of the memory kernel and are quantitatively bounded by the estimation error of the kernel in a weighted norm. Our analysis integrates synchronized noise coupling with a Volterra comparison theorem, encompassing both subexponential and exponential kernel classes. For first-order models, we derive moment and perturbation bounds using resolvent estimates in weighted spaces. For second-order models with confining potentials, we prove contraction and stability under kernel perturbations using a hypocoercive Lyapunov-type distance. This framework accommodates non-translation-invariant kernels and white-noise forcing, explicitly linking improved kernel estimation to enhanced trajectory prediction. Numerical examples validate these theoretical findings.
- Abstract(参考訳): 我々は,確率的ボルテラ方程式として定式化された一般化ランゲヴィン方程式(GLE)に着目し,記憶を伴う確率力学系の予測誤差を解析した。
強凸ポテンシャルの下では、トラジェクトリの誤差はメモリカーネルの崩壊によって決定される速度で減衰し、重み付きノルムにおけるカーネルの推定誤差によって定量的に境界づけられていることを確立する。
我々の分析は、Volterra比較定理と同期ノイズカップリングを統合し、指数型カーネルクラスと指数型カーネルクラスの両方を包含する。
一階モデルに対しては、重み付き空間におけるリゾルベント推定を用いてモーメントと摂動境界を導出する。
縮退ポテンシャルを持つ2次モデルに対しては、低圧リアプノフ型距離を用いて、核摂動下での収縮と安定性を証明した。
このフレームワークは、非翻訳不変カーネルとホワイトノイズ強制に対応し、改善されたカーネル推定と改良されたトラジェクトリ予測を明示的にリンクする。
数値的な例はこれらの理論的な発見を検証している。
関連論文リスト
- Learning Memory Kernels in Generalized Langevin Equations [5.266892492931388]
一般化ランゲヴィン方程式におけるメモリカーネル学習のための新しい手法を提案する。
このアプローチは最初、軌道データから相関関数を推定するために正規化Prony法を使用し、続いてRKHS正則化を伴うソボレフノルムに基づく損失関数の回帰を行う。
論文 参考訳(メタデータ) (2024-02-18T21:01:49Z) - Sampling and estimation on manifolds using the Langevin diffusion [45.57801520690309]
離散化マルコフ過程に基づく$mu_phi $の線形汎函数の2つの推定器を検討する。
誤差境界は、本質的に定義されたランゲヴィン拡散の離散化を用いてサンプリングと推定のために導出される。
論文 参考訳(メタデータ) (2023-12-22T18:01:11Z) - Non-Parametric Learning of Stochastic Differential Equations with Non-asymptotic Fast Rates of Convergence [65.63201894457404]
非線形微分方程式のドリフトと拡散係数の同定のための新しい非パラメトリック学習パラダイムを提案する。
鍵となる考え方は、基本的には、対応するフォッカー・プランク方程式のRKHSに基づく近似をそのような観測に適合させることである。
論文 参考訳(メタデータ) (2023-05-24T20:43:47Z) - Convex Analysis of the Mean Field Langevin Dynamics [49.66486092259375]
平均場ランゲヴィン力学の収束速度解析について述べる。
ダイナミックスに付随する$p_q$により、凸最適化において古典的な結果と平行な収束理論を開発できる。
論文 参考訳(メタデータ) (2022-01-25T17:13:56Z) - Nonconvex Stochastic Scaled-Gradient Descent and Generalized Eigenvector
Problems [98.34292831923335]
オンライン相関解析の問題から,emphStochastic Scaled-Gradient Descent (SSD)アルゴリズムを提案する。
我々はこれらのアイデアをオンライン相関解析に適用し、局所収束率を正規性に比例した最適な1時間スケールのアルゴリズムを初めて導いた。
論文 参考訳(メタデータ) (2021-12-29T18:46:52Z) - Learning interaction kernels in stochastic systems of interacting
particles from multiple trajectories [13.3638879601361]
相互作用する粒子やエージェントのシステムと、相互作用カーネルによって決定されるダイナミクスを考察する。
正規化極大推定器に基づく逆問題に対する非パラメトリック推論手法を提案する。
相関条件により,この問題の条件数を制御し,推定器の整合性を証明することができることを示す。
論文 参考訳(メタデータ) (2020-07-30T01:28:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。