論文の概要: Stochastic Deep Learning: A Probabilistic Framework for Modeling Uncertainty in Structured Temporal Data
- arxiv url: http://arxiv.org/abs/2601.05227v1
- Date: Thu, 08 Jan 2026 18:53:59 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-09 17:01:53.343209
- Title: Stochastic Deep Learning: A Probabilistic Framework for Modeling Uncertainty in Structured Temporal Data
- Title(参考訳): 確率的深層学習:構造化時間データの不確かさをモデル化するための確率的フレームワーク
- Authors: James Rice,
- Abstract要約: 構造化データと時間的データを含む機械学習アプリケーションにおける不確実性を改善するために、微分方程式(SDE)を深層生成モデルと統合する新しいフレームワークを提案する。
このアプローチはLatent Differential Inference (SLDI)と呼ばれ、変分オートエンコーダの潜時空間にIt SDEを埋め込む。
SDEのドリフトと拡散の項はニューラルネットワークによってパラメータ化され、データ駆動推論と古典的時系列モデルにより不規則なサンプリングと複雑な動的構造を扱うことができる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: I propose a novel framework that integrates stochastic differential equations (SDEs) with deep generative models to improve uncertainty quantification in machine learning applications involving structured and temporal data. This approach, termed Stochastic Latent Differential Inference (SLDI), embeds an Itô SDE in the latent space of a variational autoencoder, allowing for flexible, continuous-time modeling of uncertainty while preserving a principled mathematical foundation. The drift and diffusion terms of the SDE are parameterized by neural networks, enabling data-driven inference and generalizing classical time series models to handle irregular sampling and complex dynamic structure. A central theoretical contribution is the co-parameterization of the adjoint state with a dedicated neural network, forming a coupled forward-backward system that captures not only latent evolution but also gradient dynamics. I introduce a pathwise-regularized adjoint loss and analyze variance-reduced gradient flows through the lens of stochastic calculus, offering new tools for improving training stability in deep latent SDEs. My paper unifies and extends variational inference, continuous-time generative modeling, and control-theoretic optimization, providing a rigorous foundation for future developments in stochastic probabilistic machine learning.
- Abstract(参考訳): 本稿では,確率微分方程式(SDE)を深部生成モデルと統合し,構造化および時間的データを含む機械学習アプリケーションにおける不確実性定量化を改善するフレームワークを提案する。
このアプローチはStochastic Latent Differential Inference (SLDI)と呼ばれ、変分オートエンコーダの潜時空間にイトーSDEを埋め込み、原理化された数学的基礎を保ちながら不確実性の柔軟な連続時間モデリングを可能にする。
SDEのドリフトと拡散の項はニューラルネットワークによってパラメータ化され、データ駆動推論と古典的時系列モデルにより不規則なサンプリングと複雑な動的構造を扱うことができる。
中心的な理論的貢献は、随伴状態と専用ニューラルネットワークの共パラメータ化であり、潜在進化だけでなく勾配ダイナミクスも捉える、結合した前方システムを形成する。
本報告では, 奥深い潜伏SDEにおけるトレーニング安定性向上のための新たなツールとして, パスワイズ・アグリゲート・アジョイント・ロスを導入し, 確率積分のレンズを通した分散誘導勾配流の解析を行った。
本稿では,確率論的確率論的機械学習の今後の発展のための厳密な基盤として,変分推論,連続時間生成モデリング,制御理論最適化を統合し,拡張する。
関連論文リスト
- Expanding the Chaos: Neural Operator for Stochastic (Partial) Differential Equations [65.80144621950981]
我々はWienerカオス拡張(WCE)に基づいて、SPDEとSDEのためのニューラル演算子(NO)アーキテクチャを設計する。
WCEベースのニューラル演算子は、SDE/SPDEソリューション演算子を学習するための実用的でスケーラブルな方法を提供する。
論文 参考訳(メタデータ) (2026-01-03T00:59:25Z) - HGAN-SDEs: Learning Neural Stochastic Differential Equations with Hermite-Guided Adversarial Training [3.4515388499147654]
HGAN-SDEは,ニューラルエルマイト関数を利用して,構造化された効率的な識別器を構築する新しいGANベースのフレームワークである。
HGAN-SDEは,既存のSDE生成モデルと比較して,サンプル品質と学習効率が優れている。
論文 参考訳(メタデータ) (2025-12-23T11:25:22Z) - Unlocking Out-of-Distribution Generalization in Dynamics through Physics-Guided Augmentation [46.40087254928057]
物理誘導量拡張プラグインのSPARKについて述べる。
多様なベンチマーク実験により、SPARKは最先端のベースラインを大幅に上回っていることが示された。
論文 参考訳(メタデータ) (2025-10-28T09:30:35Z) - Latent Diffusion Model Based Denoising Receiver for 6G Semantic Communication: From Stochastic Differential Theory to Application [11.385703484113552]
生成人工知能(GAI)を利用した新しい意味コミュニケーションフレームワークを提案する。
意味的特徴抽出のための変分オートエンコーダを組み合わせた潜在拡散モデル(LDM)に基づくセマンティックコミュニケーションフレームワークを提案する。
提案システムはゼロショットの一般化をサポートし,低SNRおよびアウト・オブ・ディストリビューション条件下での優れた性能を実現する訓練自由フレームワークである。
論文 参考訳(メタデータ) (2025-06-06T03:20:32Z) - Implicit Neural Differential Model for Spatiotemporal Dynamics [5.1854032131971195]
In-PiNDiffは、安定時間力学のための新しい暗黙の物理積分型ニューラル微分可能解法である。
深い平衡モデルにインスパイアされたIm-PiNDiffは、暗黙の固定点層を用いて状態を前進させ、堅牢な長期シミュレーションを可能にする。
Im-PiNDiffは優れた予測性能、数値安定性の向上、メモリとコストの大幅な削減を実現している。
論文 参考訳(メタデータ) (2025-04-03T04:07:18Z) - Generative Latent Neural PDE Solver using Flow Matching [8.397730500554047]
低次元の潜伏空間にPDE状態を埋め込んだPDEシミュレーションのための潜伏拡散モデルを提案する。
我々のフレームワークは、オートエンコーダを使用して、異なるタイプのメッシュを統一された構造化潜在グリッドにマッピングし、複雑なジオメトリをキャプチャします。
数値実験により,提案モデルは,精度と長期安定性の両方において,決定論的ベースラインよりも優れていた。
論文 参考訳(メタデータ) (2025-03-28T16:44:28Z) - In-Context Learning of Stochastic Differential Equations with Foundation Inference Models [6.785438664749581]
微分方程式(SDE)は、ドリフト関数によって支配される決定論的流れが拡散関数によって予測されるランダムなゆらぎで重畳される力学系を記述する。
低次元SDEのドリフトと拡散関数の正確なテキスト内推定を行う事前学習型認識モデルであるFIM-SDE(Foundation Inference Model for SDEs)を導入する。
我々は、FIM-SDEが、多種多様な合成および実世界のプロセスにわたって頑健なコンテキスト内関数推定を実現することを実証した。
論文 参考訳(メタデータ) (2025-02-26T11:04:02Z) - Latent Space Energy-based Neural ODEs [73.01344439786524]
本稿では,連続時間列を表現するために設計された新しい深部力学モデルを提案する。
マルコフ連鎖モンテカルロの最大推定値を用いてモデルを訓練する。
振動系, ビデオ, 実世界の状態系列(MuJoCo)の実験結果から, 学習可能なエネルギーベース先行モデルの方が既存のモデルより優れていることが示された。
論文 参考訳(メタデータ) (2024-09-05T18:14:22Z) - Learning Space-Time Continuous Neural PDEs from Partially Observed
States [13.01244901400942]
格子独立モデル学習偏微分方程式(PDE)を雑音および不規則格子上の部分的な観測から導入する。
本稿では、効率的な確率的フレームワークとデータ効率とグリッド独立性を改善するための新しい設計エンコーダを備えた時空間連続型ニューラルネットワークPDEモデルを提案する。
論文 参考訳(メタデータ) (2023-07-09T06:53:59Z) - Capturing dynamical correlations using implicit neural representations [85.66456606776552]
実験データから未知のパラメータを復元するために、モデルハミルトンのシミュレーションデータを模倣するために訓練されたニューラルネットワークと自動微分を組み合わせた人工知能フレームワークを開発する。
そこで本研究では, 実時間から多次元散乱データに適用可能な微分可能なモデルを1回だけ構築し, 訓練する能力について述べる。
論文 参考訳(メタデータ) (2023-04-08T07:55:36Z) - Accurate and Reliable Forecasting using Stochastic Differential
Equations [48.21369419647511]
ディープラーニングモデルにとって、現実世界の環境に浸透する不確実性を適切に特徴付けることは、非常に困難である。
本論文では,HNNの予測平均と分散の相互作用を特徴づけるSDE-HNNを開発した。
本手法は,予測性能と不確実性定量化の両方の観点から,最先端のベースラインを著しく上回ることを示す。
論文 参考訳(メタデータ) (2021-03-28T04:18:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。