論文の概要: Unrolling Particles: Unsupervised Learning of Sampling Distributions
- arxiv url: http://arxiv.org/abs/2110.02915v1
- Date: Wed, 6 Oct 2021 16:58:34 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-07 14:06:15.689667
- Title: Unrolling Particles: Unsupervised Learning of Sampling Distributions
- Title(参考訳): unrolling particles: サンプリング分布の教師なし学習
- Authors: Fernando Gama, Nicolas Zilberstein, Richard G. Baraniuk, Santiago
Segarra
- Abstract要約: 粒子フィルタリングは複素系の優れた非線形推定を計算するために用いられる。
粒子フィルタは様々なシナリオにおいて良好な推定値が得られることを示す。
- 参考スコア(独自算出の注目度): 102.72972137287728
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Particle filtering is used to compute good nonlinear estimates of complex
systems. It samples trajectories from a chosen distribution and computes the
estimate as a weighted average. Easy-to-sample distributions often lead to
degenerate samples where only one trajectory carries all the weight, negatively
affecting the resulting performance of the estimate. While much research has
been done on the design of appropriate sampling distributions that would lead
to controlled degeneracy, in this paper our objective is to \emph{learn}
sampling distributions. Leveraging the framework of algorithm unrolling, we
model the sampling distribution as a multivariate normal, and we use neural
networks to learn both the mean and the covariance. We carry out unsupervised
training of the model to minimize weight degeneracy, relying only on the
observed measurements of the system. We show in simulations that the resulting
particle filter yields good estimates in a wide range of scenarios.
- Abstract(参考訳): 粒子フィルタリングは複素系の優れた非線形推定を計算するために用いられる。
選択された分布から軌道をサンプリングし、重み付け平均として推定を計算する。
簡単なサンプル分布は、1つの軌道だけが全ての重みを持ち、その結果の見積もりのパフォーマンスに悪影響を及ぼすような縮退する。
適切なサンプリング分布の設計について多くの研究がなされているが,本論文では,サンプル分布の同定が目的である。
アルゴリズム展開の枠組みを利用して,サンプリング分布を多変量正規化としてモデル化し,ニューラルネットワークを用いて平均と共分散の両方を学習する。
重みの縮退を最小限に抑えるために, 観測された測定値のみを頼りに, 教師なしのモデルの訓練を行った。
シミュレーションでは, 粒子フィルタは幅広いシナリオにおいて, 良好な推定結果が得られることを示す。
関連論文リスト
- Unsupervised Learning of Sampling Distributions for Particle Filters [80.6716888175925]
観測結果からサンプリング分布を学習する4つの方法を提案する。
実験により、学習されたサンプリング分布は、設計された最小縮退サンプリング分布よりも優れた性能を示すことが示された。
論文 参考訳(メタデータ) (2023-02-02T15:50:21Z) - Learning to Re-weight Examples with Optimal Transport for Imbalanced
Classification [74.62203971625173]
不均衡データは、ディープラーニングに基づく分類モデルに課題をもたらす。
不均衡なデータを扱うための最も広く使われているアプローチの1つは、再重み付けである。
本稿では,分布の観点からの最適輸送(OT)に基づく新しい再重み付け手法を提案する。
論文 参考訳(メタデータ) (2022-08-05T01:23:54Z) - Learning Optimal Flows for Non-Equilibrium Importance Sampling [13.469239537683299]
簡単なベース分布からサンプルを生成し,速度場によって生成された流れに沿って移動し,これらの流れに沿って平均を実行する手法を開発した。
理論面では、ターゲットに対する速度場を調整し、提案した推定器が完全推定器となる一般的な条件を確立する方法について論じる。
計算面では、ニューラルネットワークによる速度場を表現するためにディープラーニングを使用して、ゼロ分散最適化に向けて学習する方法を示す。
論文 参考訳(メタデータ) (2022-06-20T17:25:26Z) - Path Integral Sampler: a stochastic control approach for sampling [4.94950858749529]
非正規化確率密度関数からサンプルを抽出する新しいアルゴリズムであるPath Integral Sampler(PIS)を提案する。
PISは初期分布からサンプルを抽出し、シュリンガー橋を通じてサンプルを伝播して終端分布に達する。
我々は、準最適制御を用いる場合、ワッサーシュタイン距離の観点から、PSSのサンプリング品質を理論的に正当化する。
論文 参考訳(メタデータ) (2021-11-30T05:50:12Z) - Sampling from Arbitrary Functions via PSD Models [55.41644538483948]
まず確率分布をモデル化し,そのモデルからサンプリングする。
これらのモデルでは, 少数の評価値を用いて, 高精度に多数の密度を近似することが可能であることが示され, それらのモデルから効果的にサンプルする簡単なアルゴリズムが提示される。
論文 参考訳(メタデータ) (2021-10-20T12:25:22Z) - Sampling-free Variational Inference for Neural Networks with
Multiplicative Activation Noise [51.080620762639434]
サンプリングフリー変動推論のための後方近似のより効率的なパラメータ化を提案する。
提案手法は,標準回帰問題に対する競合的な結果をもたらし,大規模画像分類タスクに適している。
論文 参考訳(メタデータ) (2021-03-15T16:16:18Z) - Free Lunch for Few-shot Learning: Distribution Calibration [10.474018806591397]
キャリブレーション分布から抽出した特徴を用いて学習した単純なロジスティック回帰分類器は、2つのデータセットにおける最先端の精度より優れていることを示す。
論文 参考訳(メタデータ) (2021-01-16T07:58:40Z) - Bandit Samplers for Training Graph Neural Networks [63.17765191700203]
グラフ畳み込みネットワーク(GCN)の訓練を高速化するために, ばらつきを低減したサンプリングアルゴリズムが提案されている。
これらのサンプリングアルゴリズムは、グラフ注意ネットワーク(GAT)のような固定重みよりも学習重量を含む、より一般的なグラフニューラルネットワーク(GNN)には適用できない。
論文 参考訳(メタデータ) (2020-06-10T12:48:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。