論文の概要: Infinite-dimensional optimization and Bayesian nonparametric learning of
stochastic differential equations
- arxiv url: http://arxiv.org/abs/2205.15368v1
- Date: Mon, 30 May 2022 18:22:47 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-01 13:23:38.834345
- Title: Infinite-dimensional optimization and Bayesian nonparametric learning of
stochastic differential equations
- Title(参考訳): 確率微分方程式の無限次元最適化とベイズ非パラメトリック学習
- Authors: Arnab Ganguly, Riten Mitra, Jinpu Zhou
- Abstract要約: 論文の第1部は、無限次元最適化空間に対するある種の一般結果を確立する。
本論文の第2部では,微分方程式のドリフト関数を学習するための体系的アプローチを開発した。
- 参考スコア(独自算出の注目度): 0.04297070083645048
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The paper has two major themes. The first part of the paper establishes
certain general results for infinite-dimensional optimization problems on
Hilbert spaces. These results cover the classical representer theorem and many
of its variants as special cases and offer a wider scope of applications. The
second part of the paper then develops a systematic approach for learning the
drift function of a stochastic differential equation by integrating the results
of the first part with Bayesian hierarchical framework. Importantly, our
Baysian approach incorporates low-cost sparse learning through proper use of
shrinkage priors while allowing proper quantification of uncertainty through
posterior distributions. Several examples at the end illustrate the accuracy of
our learning scheme.
- Abstract(参考訳): 論文には2つの主要なテーマがある。
論文の最初の部分はヒルベルト空間上の無限次元最適化問題に対するある種の一般結果を確立する。
これらの結果は古典的表現者定理とその変種の多くを特別な場合としてカバーし、より広い応用範囲を提供する。
論文の第2部では,第1部の結果をベイズ階層の枠組みに統合することにより,確率微分方程式のドリフト関数を学習するための体系的アプローチを開発した。
重要なことに、ベイズ的アプローチは、縮小前の適切な使用による低コストなスパース学習を取り入れ、後方分布による不確かさの適切な定量化を可能にしている。
最後に、学習方式の正確性を示すいくつかの例を挙げる。
関連論文リスト
- AdaGrad under Anisotropic Smoothness [10.995979046710893]
本稿では,新しい異方性一般化された滑らか性仮定を提案し,これに対応するアダグラードの解析を行う。
異方的滑らかさと雑音条件下では、AdaGradはより良い次元依存度でより高速な収束を保証することができる。
論文 参考訳(メタデータ) (2024-06-21T15:29:31Z) - Feature learning in finite-width Bayesian deep linear networks with multiple outputs and convolutional layers [39.71511919246829]
深い線形ネットワークは広く研究されているが、複数の出力と畳み込み層を持つ有限幅アーキテクチャの場合はほとんど知られていない。
我々の研究は、この物理学の直観と用語を厳密なベイズ統計に翻訳する辞書を提供する。
論文 参考訳(メタデータ) (2024-06-05T13:37:42Z) - Differentially Private Optimization with Sparse Gradients [60.853074897282625]
微分プライベート(DP)最適化問題を個人勾配の空間性の下で検討する。
これに基づいて、スパース勾配の凸最適化にほぼ最適な速度で純粋および近似DPアルゴリズムを得る。
論文 参考訳(メタデータ) (2024-04-16T20:01:10Z) - Comparison of Single- and Multi- Objective Optimization Quality for
Evolutionary Equation Discovery [77.34726150561087]
進化的微分方程式の発見は、より優先順位の低い方程式を得るための道具であることが証明された。
提案した比較手法は、バーガーズ方程式、波動方程式、コルテヴェーグ・ド・ブリーズ方程式といった古典的なモデル例で示される。
論文 参考訳(メタデータ) (2023-06-29T15:37:19Z) - Quasi Black-Box Variational Inference with Natural Gradients for
Bayesian Learning [84.90242084523565]
複素モデルにおけるベイズ学習に適した最適化アルゴリズムを開発した。
我々のアプローチは、モデル固有導出に制限のある効率的なトレーニングのための一般的なブラックボックスフレームワーク内の自然な勾配更新に依存している。
論文 参考訳(メタデータ) (2022-05-23T18:54:27Z) - Learning curves for the multi-class teacher-student perceptron [5.480546613836199]
高次元学習理論における最も古典的な結果の1つは、二項分類の一般化誤差に対する閉形式表現である。
ベイズ最適推定と経験的リスク最小化(ERM)の両方が、この設定のために広範囲に分析された。
しかし、対応するマルチスチューデントパーセプトロンの類似解析が欠如していた。
論文 参考訳(メタデータ) (2022-03-22T23:16:36Z) - On the Benefits of Large Learning Rates for Kernel Methods [110.03020563291788]
本稿では,カーネル手法のコンテキストにおいて,現象を正確に特徴付けることができることを示す。
分離可能なヒルベルト空間における2次対象の最小化を考慮し、早期停止の場合、学習速度の選択が得られた解のスペクトル分解に影響を及ぼすことを示す。
論文 参考訳(メタデータ) (2022-02-28T13:01:04Z) - Lifting the Convex Conjugate in Lagrangian Relaxations: A Tractable
Approach for Continuous Markov Random Fields [53.31927549039624]
断片的な離散化は既存の離散化問題と矛盾しないことを示す。
この理論を2つの画像のマッチング問題に適用する。
論文 参考訳(メタデータ) (2021-07-13T12:31:06Z) - Stochastic Learning Approach to Binary Optimization for Optimal Design
of Experiments [0.0]
本稿では,偏微分方程式などの数学モデルによるベイズ逆問題に対する最適実験設計 (OED) のための二項最適化への新しいアプローチを提案する。
OEDユーティリティ関数、すなわち正規化された最適性勾配はベルヌーイ分布に対する期待の形で目的関数にキャストされる。
この目的を確率的最適化ルーチンを用いて最適な観測方針を求めることで解決する。
論文 参考訳(メタデータ) (2021-01-15T03:54:12Z) - Distributed Averaging Methods for Randomized Second Order Optimization [54.51566432934556]
我々はヘッセン語の形成が計算的に困難であり、通信がボトルネックとなる分散最適化問題を考察する。
我々は、ヘッセンのサンプリングとスケッチを用いたランダム化二階最適化のための非バイアスパラメータ平均化手法を開発した。
また、不均一なコンピューティングシステムのための非バイアス分散最適化フレームワークを導入するために、二階平均化手法のフレームワークを拡張した。
論文 参考訳(メタデータ) (2020-02-16T09:01:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。