論文の概要: Deep FPF: Gain function approximation in high-dimensional setting
- arxiv url: http://arxiv.org/abs/2010.01183v1
- Date: Fri, 2 Oct 2020 20:17:21 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-12 01:25:53.603176
- Title: Deep FPF: Gain function approximation in high-dimensional setting
- Title(参考訳): 深FPF:高次元設定におけるゲイン関数近似
- Authors: S. Yagiz Olmez, Amirhossein Taghvaei and Prashant G. Mehta
- Abstract要約: フィードバック粒子フィルタ(FPF)の利得関数を近似する新しい手法を提案する。
数値的な問題は、確率分布からサンプリングされた有限個の粒子のみを用いて、正確な利得関数を近似することである。
近年のディープラーニング手法の成功に触発されて、我々はゲイン関数をニューラルネットワークの出力の勾配として表現した。
- 参考スコア(独自算出の注目度): 8.164433158925592
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we present a novel approach to approximate the gain function
of the feedback particle filter (FPF). The exact gain function is the solution
of a Poisson equation involving a probability-weighted Laplacian. The numerical
problem is to approximate the exact gain function using only finitely many
particles sampled from the probability distribution.
Inspired by the recent success of the deep learning methods, we represent the
gain function as a gradient of the output of a neural network. Thereupon
considering a certain variational formulation of the Poisson equation, an
optimization problem is posed for learning the weights of the neural network. A
stochastic gradient algorithm is described for this purpose.
The proposed approach has two significant properties/advantages: (i) The
stochastic optimization algorithm allows one to process, in parallel, only a
batch of samples (particles) ensuring good scaling properties with the number
of particles; (ii) The remarkable representation power of neural networks means
that the algorithm is potentially applicable and useful to solve
high-dimensional problems. We numerically establish these two properties and
provide extensive comparison to the existing approaches.
- Abstract(参考訳): 本稿では,フィードバック粒子フィルタ(FPF)の利得関数を近似する新しい手法を提案する。
正確なゲイン関数は確率重み付きラプラシアンを含むポアソン方程式の解である。
数値問題は、確率分布からサンプリングされた有限個の粒子のみを用いて、完全利得関数を近似することである。
近年のディープラーニング手法の成功に触発されて、我々はゲイン関数をニューラルネットワークの出力の勾配として表現した。
ポアソン方程式のある種の変分定式化を考えると、ニューラルネットワークの重みを学習するために最適化問題が発生する。
この目的のために確率勾配アルゴリズムについて述べる。
提案手法には2つの重要な特性/利点がある。
(i)確率最適化アルゴリズムは、粒子数で優れたスケーリング特性を確保するためのサンプル(粒子)のバッチのみを並列に処理することができる。
(II)ニューラルネットワークの顕著な表現力は、アルゴリズムが高次元の問題を解決するのに有効であり有用であることを意味する。
これら2つの特性を数値的に確立し,既存手法との比較を行った。
関連論文リスト
- Semi-Implicit Functional Gradient Flow [30.32233517392456]
近似系として摂動粒子を用いる関数勾配ParVI法を提案する。
対応する関数勾配流は、スコアマッチングによって推定できるが、強い理論的収束を保証する。
論文 参考訳(メタデータ) (2024-10-23T15:00:30Z) - A Mean-Field Analysis of Neural Stochastic Gradient Descent-Ascent for Functional Minimax Optimization [90.87444114491116]
本稿では,超パラメトリック化された2層ニューラルネットワークの無限次元関数クラス上で定義される最小最適化問題について検討する。
i) 勾配降下指数アルゴリズムの収束と, (ii) ニューラルネットワークの表現学習に対処する。
その結果、ニューラルネットワークによって誘導される特徴表現は、ワッサーシュタイン距離で測定された$O(alpha-1)$で初期表現から逸脱することが許された。
論文 参考訳(メタデータ) (2024-04-18T16:46:08Z) - Learning Unnormalized Statistical Models via Compositional Optimization [73.30514599338407]
実データと人工雑音のロジスティックな損失として目的を定式化することにより, ノイズコントラスト推定(NCE)を提案する。
本稿では,非正規化モデルの負の対数類似度を最適化するための直接的アプローチについて検討する。
論文 参考訳(メタデータ) (2023-06-13T01:18:16Z) - Plug-and-Play split Gibbs sampler: embedding deep generative priors in
Bayesian inference [12.91637880428221]
本稿では, 後方分布から効率的にサンプリングするために, 可変分割を利用したプラグアンドプレイサンプリングアルゴリズムを提案する。
後方サンプリングの課題を2つの単純なサンプリング問題に分割する。
その性能は最近の最先端の最適化とサンプリング手法と比較される。
論文 参考訳(メタデータ) (2023-04-21T17:17:51Z) - Promises and Pitfalls of the Linearized Laplace in Bayesian Optimization [73.80101701431103]
線形化ラプラス近似(LLA)はベイズニューラルネットワークの構築に有効で効率的であることが示されている。
ベイズ最適化におけるLLAの有用性について検討し,その性能と柔軟性を強調した。
論文 参考訳(メタデータ) (2023-04-17T14:23:43Z) - Efficient displacement convex optimization with particle gradient
descent [57.88860627977882]
粒子勾配降下は確率測度の関数の最適化に広く用いられている。
本稿では, 有限個の粒子による粒子勾配降下について考察し, その理論的保証を定式化して, 測度に置換凸となる関数を最適化する。
論文 参考訳(メタデータ) (2023-02-09T16:35:59Z) - Fast Computation of Optimal Transport via Entropy-Regularized Extragradient Methods [75.34939761152587]
2つの分布間の最適な輸送距離の効率的な計算は、様々な応用を促進するアルゴリズムとして機能する。
本稿では,$varepsilon$加法精度で最適な輸送を計算できるスケーラブルな一階最適化法を提案する。
論文 参考訳(メタデータ) (2023-01-30T15:46:39Z) - Deep learning numerical methods for high-dimensional fully nonlinear
PIDEs and coupled FBSDEs with jumps [26.28912742740653]
高次元放物型積分微分方程式(PIDE)を解くためのディープラーニングアルゴリズムを提案する。
ジャンプ拡散過程はブラウン運動と独立補償ポアソンランダム測度によって導出される。
この深層学習アルゴリズムの誤差推定を導出するために,マルコビアンの収束,オイラー時間離散化の誤差境界,および深層学習アルゴリズムのシミュレーション誤差について検討した。
論文 参考訳(メタデータ) (2023-01-30T13:55:42Z) - Variational Transport: A Convergent Particle-BasedAlgorithm for Distributional Optimization [106.70006655990176]
分散最適化問題は機械学習や統計学で広く発生する。
本稿では,変分輸送と呼ばれる粒子に基づく新しいアルゴリズムを提案する。
目的関数がpolyak-Lojasiewicz (PL) (Polyak, 1963) の機能バージョンと滑らかな条件を満たすとき、変分輸送は線形に収束することを示す。
論文 参考訳(メタデータ) (2020-12-21T18:33:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。