論文の概要: Bayesian Learning via Neural Schr\"odinger-F\"ollmer Flows
- arxiv url: http://arxiv.org/abs/2111.10510v2
- Date: Tue, 23 Nov 2021 18:14:56 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-24 12:11:53.688369
- Title: Bayesian Learning via Neural Schr\"odinger-F\"ollmer Flows
- Title(参考訳): ニューラルSchr\"odinger-F\"ollmer Flowsによるベイズ学習
- Authors: Francisco Vargas, Andrius Ovsianas, David Fernandes, Mark Girolami,
Neil Lawrence, Nikolas N\"usken
- Abstract要約: 我々は、勾配ランゲヴィン力学(SGLD)のような一般的な定常法に代わる有限時間制御を提唱する。
我々は、このフレームワークの既存の理論的保証について議論し、SDEモデルにおける既存のVIルーチンとの接続を確立する。
- 参考スコア(独自算出の注目度): 3.07869141026886
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this work we explore a new framework for approximate Bayesian inference in
large datasets based on stochastic control. We advocate stochastic control as a
finite time alternative to popular steady-state methods such as stochastic
gradient Langevin dynamics (SGLD). Furthermore, we discuss and adapt the
existing theoretical guarantees of this framework and establish connections to
already existing VI routines in SDE-based models.
- Abstract(参考訳): 本研究では,確率制御に基づく大規模データセットにおけるベイズ推定の新しい枠組みについて検討する。
我々は、確率勾配ランゲヴィンダイナミクス(SGLD)のような一般的な定常法に代わる有限時間制御を提唱する。
さらに,本フレームワークの既存の理論的保証について議論し,SDEモデルにおける既存のVIルーチンとの接続を確立する。
関連論文リスト
- Variational Inference for SDEs Driven by Fractional Noise [16.434973057669676]
マルコフ近似分数的ブラウン運動(fBM)によって駆動される(神経)微分方程式(SDE)の推論を行うための新しい変分フレームワークを提案する。
本稿では, ニューラルネットワークを用いて, 変動後部におけるドリフト, 拡散, 制御条件を学習し, ニューラルSDEの変分学習を実現することを提案する。
論文 参考訳(メタデータ) (2023-10-19T17:59:21Z) - Non-adversarial training of Neural SDEs with signature kernel scores [4.721845865189578]
不規則な時系列生成のための最先端性能は、これらのモデルをGANとして逆向きに訓練することで既に得られている。
本稿では,シグネチャカーネルに基づくパス空間のスコアリングルールを新たに導入する。
論文 参考訳(メタデータ) (2023-05-25T17:31:18Z) - Free-Form Variational Inference for Gaussian Process State-Space Models [21.644570034208506]
ベイズGPSSMにおける新しい推論法を提案する。
本手法はハミルトニアンモンテカルロの誘導による自由形式変分推論に基づく。
提案手法は, 競合する手法よりも, 遷移力学や潜伏状態をより正確に学習できることを示す。
論文 参考訳(メタデータ) (2023-02-20T11:34:16Z) - A Dynamical System View of Langevin-Based Non-Convex Sampling [84.61544861851907]
非サンプリングは機械学習における重要な課題であり、ディープラーニングにおける非レート最適化の中心であり、その重要性を近似する。
既存の保証は通常、より望ましい最終段階の反復よりも平均距離のみを保持する。
我々は、理論システムからいくつかのツールを活用することにより、上記の問題を解消する新しいフレームワークを開発する。
論文 参考訳(メタデータ) (2022-10-25T09:43:36Z) - Guaranteed Conservation of Momentum for Learning Particle-based Fluid
Dynamics [96.9177297872723]
本稿では,学習物理シミュレーションにおける線形運動量を保証する新しい手法を提案する。
我々は、強い制約で運動量の保存を強制し、反対称的な連続的な畳み込み層を通して実現する。
提案手法により,学習シミュレータの物理的精度を大幅に向上させることができる。
論文 参考訳(メタデータ) (2022-10-12T09:12:59Z) - Infinitely Deep Bayesian Neural Networks with Stochastic Differential
Equations [37.02511585732081]
我々は,最近提案された連続深度ニューラルネットワークのファミリーにおいて,スケーラブルな近似推論を行う。
我々は勾配に基づく変分推論を示し、任意フレキシブルな近似後部を生成する。
このアプローチは、さらにメモリ効率の高いトレーニングとニューラルODEのチューナブルな精度を継承する。
論文 参考訳(メタデータ) (2021-02-12T14:48:58Z) - Training Generative Adversarial Networks by Solving Ordinary
Differential Equations [54.23691425062034]
GANトレーニングによって引き起こされる連続時間ダイナミクスについて検討する。
この観点から、GANのトレーニングにおける不安定性は積分誤差から生じると仮定する。
本研究では,有名なODEソルバ(Runge-Kutta など)がトレーニングを安定化できるかどうかを実験的に検証する。
論文 参考訳(メタデータ) (2020-10-28T15:23:49Z) - Momentum via Primal Averaging: Theoretical Insights and Learning Rate
Schedules for Non-Convex Optimization [10.660480034605241]
ディープニューラルネットワークのような非トレーニングモデルのために、機械学習コミュニティ内で広く使用されている。
本研究では、SGDSPA(SGDSPA)形式のSGD等価な書き直しを利用して、運動量を持つSGDのリアプノフ解析を開発する。
論文 参考訳(メタデータ) (2020-10-01T13:46:32Z) - A Kernel-Based Approach to Non-Stationary Reinforcement Learning in
Metric Spaces [53.47210316424326]
KeRNSは、非定常マルコフ決定過程におけるエピソード強化学習のためのアルゴリズムである。
我々は、状態-作用空間の被覆次元と時間とともにMDPの総変動にスケールする後悔境界を証明した。
論文 参考訳(メタデータ) (2020-07-09T21:37:13Z) - Systematic large flavor fTWA approach to interaction quenches in the
Hubbard model [55.2480439325792]
最近導入されたフェルミオン・トランケート・ウィグナー近似(fTWA)を用いた2次元ハバードモデルにおける相互作用クエンチ後の非平衡ダイナミクスについて検討する。
以上の結果から,fTWAは少なくとも予熱力学を含まないことが示唆された。
論文 参考訳(メタデータ) (2020-07-09T20:59:49Z) - Stochastic-Sign SGD for Federated Learning with Theoretical Guarantees [49.91477656517431]
量子化に基づく解法は、フェデレートラーニング(FL)において広く採用されている。
上記のプロパティをすべて享受する既存のメソッドはありません。
本稿では,SIGNSGDに基づく直感的かつ理論的に簡易な手法を提案し,そのギャップを埋める。
論文 参考訳(メタデータ) (2020-02-25T15:12:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。