論文の概要: Infinite-dimensional optimization and Bayesian nonparametric learning of
stochastic differential equations
- arxiv url: http://arxiv.org/abs/2205.15368v1
- Date: Mon, 30 May 2022 18:22:47 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-01 13:23:38.834345
- Title: Infinite-dimensional optimization and Bayesian nonparametric learning of
stochastic differential equations
- Title(参考訳): 確率微分方程式の無限次元最適化とベイズ非パラメトリック学習
- Authors: Arnab Ganguly, Riten Mitra, Jinpu Zhou
- Abstract要約: 論文の第1部は、無限次元最適化空間に対するある種の一般結果を確立する。
本論文の第2部では,微分方程式のドリフト関数を学習するための体系的アプローチを開発した。
- 参考スコア(独自算出の注目度): 0.04297070083645048
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The paper has two major themes. The first part of the paper establishes
certain general results for infinite-dimensional optimization problems on
Hilbert spaces. These results cover the classical representer theorem and many
of its variants as special cases and offer a wider scope of applications. The
second part of the paper then develops a systematic approach for learning the
drift function of a stochastic differential equation by integrating the results
of the first part with Bayesian hierarchical framework. Importantly, our
Baysian approach incorporates low-cost sparse learning through proper use of
shrinkage priors while allowing proper quantification of uncertainty through
posterior distributions. Several examples at the end illustrate the accuracy of
our learning scheme.
- Abstract(参考訳): 論文には2つの主要なテーマがある。
論文の最初の部分はヒルベルト空間上の無限次元最適化問題に対するある種の一般結果を確立する。
これらの結果は古典的表現者定理とその変種の多くを特別な場合としてカバーし、より広い応用範囲を提供する。
論文の第2部では,第1部の結果をベイズ階層の枠組みに統合することにより,確率微分方程式のドリフト関数を学習するための体系的アプローチを開発した。
重要なことに、ベイズ的アプローチは、縮小前の適切な使用による低コストなスパース学習を取り入れ、後方分布による不確かさの適切な定量化を可能にしている。
最後に、学習方式の正確性を示すいくつかの例を挙げる。
関連論文リスト
- Comparison of Single- and Multi- Objective Optimization Quality for
Evolutionary Equation Discovery [77.34726150561087]
進化的微分方程式の発見は、より優先順位の低い方程式を得るための道具であることが証明された。
提案した比較手法は、バーガーズ方程式、波動方程式、コルテヴェーグ・ド・ブリーズ方程式といった古典的なモデル例で示される。
論文 参考訳(メタデータ) (2023-06-29T15:37:19Z) - Quasi Black-Box Variational Inference with Natural Gradients for
Bayesian Learning [84.90242084523565]
複素モデルにおけるベイズ学習に適した最適化アルゴリズムを開発した。
我々のアプローチは、モデル固有導出に制限のある効率的なトレーニングのための一般的なブラックボックスフレームワーク内の自然な勾配更新に依存している。
論文 参考訳(メタデータ) (2022-05-23T18:54:27Z) - Learning curves for the multi-class teacher-student perceptron [5.480546613836199]
高次元学習理論における最も古典的な結果の1つは、二項分類の一般化誤差に対する閉形式表現である。
ベイズ最適推定と経験的リスク最小化(ERM)の両方が、この設定のために広範囲に分析された。
しかし、対応するマルチスチューデントパーセプトロンの類似解析が欠如していた。
論文 参考訳(メタデータ) (2022-03-22T23:16:36Z) - On the Benefits of Large Learning Rates for Kernel Methods [110.03020563291788]
本稿では,カーネル手法のコンテキストにおいて,現象を正確に特徴付けることができることを示す。
分離可能なヒルベルト空間における2次対象の最小化を考慮し、早期停止の場合、学習速度の選択が得られた解のスペクトル分解に影響を及ぼすことを示す。
論文 参考訳(メタデータ) (2022-02-28T13:01:04Z) - Lifting the Convex Conjugate in Lagrangian Relaxations: A Tractable
Approach for Continuous Markov Random Fields [53.31927549039624]
断片的な離散化は既存の離散化問題と矛盾しないことを示す。
この理論を2つの画像のマッチング問題に適用する。
論文 参考訳(メタデータ) (2021-07-13T12:31:06Z) - Nonsmooth Implicit Differentiation for Machine Learning and Optimization [0.0]
ますます複雑化する学習アーキテクチャの訓練の観点から、演算計算を用いた非滑らかな暗黙関数定理を確立する。
この結果は、古典的可逆条件の非滑らかな形式が満たされることを前提として、最も実践的な問題(すなわち、定義可能な問題)に適用できる。
例えば、クラーク・ヤコビアンによる微分式を通常の微分公式で置き換えることは完全に正当化される。
論文 参考訳(メタデータ) (2021-06-08T13:59:47Z) - Stochastic Learning Approach to Binary Optimization for Optimal Design
of Experiments [0.0]
本稿では,偏微分方程式などの数学モデルによるベイズ逆問題に対する最適実験設計 (OED) のための二項最適化への新しいアプローチを提案する。
OEDユーティリティ関数、すなわち正規化された最適性勾配はベルヌーイ分布に対する期待の形で目的関数にキャストされる。
この目的を確率的最適化ルーチンを用いて最適な観測方針を求めることで解決する。
論文 参考訳(メタデータ) (2021-01-15T03:54:12Z) - Optimal oracle inequalities for solving projected fixed-point equations [53.31620399640334]
ヒルベルト空間の既知の低次元部分空間を探索することにより、確率観測の集合を用いて近似解を計算する手法を検討する。
本稿では,線形関数近似を用いた政策評価問題に対する時間差分学習手法の誤差を正確に評価する方法について述べる。
論文 参考訳(メタデータ) (2020-12-09T20:19:32Z) - Distributed Averaging Methods for Randomized Second Order Optimization [54.51566432934556]
我々はヘッセン語の形成が計算的に困難であり、通信がボトルネックとなる分散最適化問題を考察する。
我々は、ヘッセンのサンプリングとスケッチを用いたランダム化二階最適化のための非バイアスパラメータ平均化手法を開発した。
また、不均一なコンピューティングシステムのための非バイアス分散最適化フレームワークを導入するために、二階平均化手法のフレームワークを拡張した。
論文 参考訳(メタデータ) (2020-02-16T09:01:18Z) - The Case for Bayesian Deep Learning [41.54360061376725]
ベイズ的アプローチの鍵となる特徴は、前者やベイズ規則ではなく最適化ではなく、余分化である。
ベイズ深層学習の最近の進歩は、標準訓練と比較して精度と校正性の向上をもたらす。
論文 参考訳(メタデータ) (2020-01-29T18:08:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。