論文の概要: Unrolling Particles: Unsupervised Learning of Sampling Distributions
- arxiv url: http://arxiv.org/abs/2110.02915v1
- Date: Wed, 6 Oct 2021 16:58:34 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-07 14:06:15.689667
- Title: Unrolling Particles: Unsupervised Learning of Sampling Distributions
- Title(参考訳): unrolling particles: サンプリング分布の教師なし学習
- Authors: Fernando Gama, Nicolas Zilberstein, Richard G. Baraniuk, Santiago
Segarra
- Abstract要約: 粒子フィルタリングは複素系の優れた非線形推定を計算するために用いられる。
粒子フィルタは様々なシナリオにおいて良好な推定値が得られることを示す。
- 参考スコア(独自算出の注目度): 102.72972137287728
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Particle filtering is used to compute good nonlinear estimates of complex
systems. It samples trajectories from a chosen distribution and computes the
estimate as a weighted average. Easy-to-sample distributions often lead to
degenerate samples where only one trajectory carries all the weight, negatively
affecting the resulting performance of the estimate. While much research has
been done on the design of appropriate sampling distributions that would lead
to controlled degeneracy, in this paper our objective is to \emph{learn}
sampling distributions. Leveraging the framework of algorithm unrolling, we
model the sampling distribution as a multivariate normal, and we use neural
networks to learn both the mean and the covariance. We carry out unsupervised
training of the model to minimize weight degeneracy, relying only on the
observed measurements of the system. We show in simulations that the resulting
particle filter yields good estimates in a wide range of scenarios.
- Abstract(参考訳): 粒子フィルタリングは複素系の優れた非線形推定を計算するために用いられる。
選択された分布から軌道をサンプリングし、重み付け平均として推定を計算する。
簡単なサンプル分布は、1つの軌道だけが全ての重みを持ち、その結果の見積もりのパフォーマンスに悪影響を及ぼすような縮退する。
適切なサンプリング分布の設計について多くの研究がなされているが,本論文では,サンプル分布の同定が目的である。
アルゴリズム展開の枠組みを利用して,サンプリング分布を多変量正規化としてモデル化し,ニューラルネットワークを用いて平均と共分散の両方を学習する。
重みの縮退を最小限に抑えるために, 観測された測定値のみを頼りに, 教師なしのモデルの訓練を行った。
シミュレーションでは, 粒子フィルタは幅広いシナリオにおいて, 良好な推定結果が得られることを示す。
関連論文リスト
- Probabilistic Contrastive Learning for Long-Tailed Visual Recognition [78.70453964041718]
細長い分布は、少数の少数派が限られた数のサンプルを含む実世界のデータにしばしば現れる。
近年の研究では、教師付きコントラスト学習がデータ不均衡を緩和する有望な可能性を示していることが明らかになっている。
本稿では,特徴空間の各クラスからのサンプルデータ分布を推定する確率論的コントラスト学習アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-03-11T13:44:49Z) - Sampling weights of deep neural networks [1.2370077627846041]
完全に接続されたニューラルネットワークの重みとバイアスに対して,効率的なサンプリングアルゴリズムと組み合わせた確率分布を導入する。
教師付き学習環境では、内部ネットワークパラメータの反復最適化や勾配計算は不要である。
サンプルネットワークが普遍近似器であることを証明する。
論文 参考訳(メタデータ) (2023-06-29T10:13:36Z) - Unsupervised Learning of Sampling Distributions for Particle Filters [80.6716888175925]
観測結果からサンプリング分布を学習する4つの方法を提案する。
実験により、学習されたサンプリング分布は、設計された最小縮退サンプリング分布よりも優れた性能を示すことが示された。
論文 参考訳(メタデータ) (2023-02-02T15:50:21Z) - Learning to Re-weight Examples with Optimal Transport for Imbalanced
Classification [74.62203971625173]
不均衡データは、ディープラーニングに基づく分類モデルに課題をもたらす。
不均衡なデータを扱うための最も広く使われているアプローチの1つは、再重み付けである。
本稿では,分布の観点からの最適輸送(OT)に基づく新しい再重み付け手法を提案する。
論文 参考訳(メタデータ) (2022-08-05T01:23:54Z) - Learning Optimal Flows for Non-Equilibrium Importance Sampling [13.469239537683299]
簡単なベース分布からサンプルを生成し,速度場によって生成された流れに沿って移動し,これらの流れに沿って平均を実行する手法を開発した。
理論面では、ターゲットに対する速度場を調整し、提案した推定器が完全推定器となる一般的な条件を確立する方法について論じる。
計算面では、ニューラルネットワークによる速度場を表現するためにディープラーニングを使用して、ゼロ分散最適化に向けて学習する方法を示す。
論文 参考訳(メタデータ) (2022-06-20T17:25:26Z) - Sampling from Arbitrary Functions via PSD Models [55.41644538483948]
まず確率分布をモデル化し,そのモデルからサンプリングする。
これらのモデルでは, 少数の評価値を用いて, 高精度に多数の密度を近似することが可能であることが示され, それらのモデルから効果的にサンプルする簡単なアルゴリズムが提示される。
論文 参考訳(メタデータ) (2021-10-20T12:25:22Z) - Free Lunch for Few-shot Learning: Distribution Calibration [10.474018806591397]
キャリブレーション分布から抽出した特徴を用いて学習した単純なロジスティック回帰分類器は、2つのデータセットにおける最先端の精度より優れていることを示す。
論文 参考訳(メタデータ) (2021-01-16T07:58:40Z) - Bandit Samplers for Training Graph Neural Networks [63.17765191700203]
グラフ畳み込みネットワーク(GCN)の訓練を高速化するために, ばらつきを低減したサンプリングアルゴリズムが提案されている。
これらのサンプリングアルゴリズムは、グラフ注意ネットワーク(GAT)のような固定重みよりも学習重量を含む、より一般的なグラフニューラルネットワーク(GNN)には適用できない。
論文 参考訳(メタデータ) (2020-06-10T12:48:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。