論文の概要: Learning Flock: Enhancing Sets of Particles for Multi~Sub-State Particle Filtering with Neural Augmentation
- arxiv url: http://arxiv.org/abs/2408.11348v1
- Date: Wed, 21 Aug 2024 05:28:12 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-22 18:19:12.453650
- Title: Learning Flock: Enhancing Sets of Particles for Multi~Sub-State Particle Filtering with Neural Augmentation
- Title(参考訳): 学習ロック:ニューラルネットワークによる多状態粒子フィルタリングのための粒子集合の強化
- Authors: Itai Nuri, Nir Shlezinger,
- Abstract要約: 我々は、Learning flock(LF)と呼ばれる粒子フィルタ(PF)のためのディープニューラルネットワーク拡張を導入する。
LFは、集合自体のすべての部分粒子間の関係に基づいて、フロックを造った粒子重み集合を補正することを学ぶ。
レーダマルチターゲットトラッキングにおけるLF拡張の性能,堅牢性,遅延性の改善を実験的に示す。
- 参考スコア(独自算出の注目度): 27.09017677987757
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A leading family of algorithms for state estimation in dynamic systems with multiple sub-states is based on particle filters (PFs). PFs often struggle when operating under complex or approximated modelling (necessitating many particles) with low latency requirements (limiting the number of particles), as is typically the case in multi target tracking (MTT). In this work, we introduce a deep neural network (DNN) augmentation for PFs termed learning flock (LF). LF learns to correct a particles-weights set, which we coin flock, based on the relationships between all sub-particles in the set itself, while disregarding the set acquisition procedure. Our proposed LF, which can be readily incorporated into different PFs flow, is designed to facilitate rapid operation by maintaining accuracy with a reduced number of particles. We introduce a dedicated training algorithm, allowing both supervised and unsupervised training, and yielding a module that supports a varying number of sub-states and particles without necessitating re-training. We experimentally show the improvements in performance, robustness, and latency of LF augmentation for radar multi-target tracking, as well its ability to mitigate the effect of a mismatched observation modelling. We also compare and illustrate the advantages of LF over a state-of-the-art DNN-aided PF, and demonstrate that LF enhances both classic PFs as well as DNN-based filters.
- Abstract(参考訳): 複数のサブ状態を持つ動的システムにおける状態推定のためのアルゴリズムの先導系は、粒子フィルタ(PF)に基づいている。
PFは、多目的追跡(MTT)の場合のように、低レイテンシ要求(粒子数を制限する)で複雑なまたは近似されたモデリング(多くの粒子を必要とする)の下で動作する際にしばしば苦労する。
本研究では,LF(Learning flock)と呼ばれるPFに対するディープニューラルネットワーク(DNN)の拡張について述べる。
LFは、集合のすべての部分粒子間の関係に基づいて、集合の取得手順を無視しながら、フロック(英語版)と呼ばれる粒子重み集合を補正することを学ぶ。
提案するLFは, 異なるPF流に容易に組み込むことができ, 粒子数を削減した精度を維持し, 迅速な運転を容易にするように設計されている。
我々は,教師付きトレーニングと教師なしトレーニングの両方が可能であり,再学習を必要とせず,多数のサブ状態や粒子をサポートするモジュールを提供する専用トレーニングアルゴリズムを導入する。
レーダマルチターゲット追跡におけるLF増強の性能,頑健性,遅延性の向上,およびミスマッチした観測モデルの効果を緩和する能力について実験的に検討した。
我々はまた、最先端のDNN支援PFよりもLFの利点を比較し、実演し、LFが古典的なPFとDNNベースのフィルタの両方を強化することを示す。
関連論文リスト
- Understanding Reinforcement Learning-Based Fine-Tuning of Diffusion Models: A Tutorial and Review [63.31328039424469]
このチュートリアルは、下流の報酬関数を最適化するための微調整拡散モデルのための方法を網羅的に調査する。
PPO,微分可能最適化,報酬重み付きMLE,値重み付きサンプリング,経路整合性学習など,様々なRLアルゴリズムの適用について説明する。
論文 参考訳(メタデータ) (2024-07-18T17:35:32Z) - Regime Learning for Differentiable Particle Filters [19.35021771863565]
微分可能な粒子フィルタは、シーケンシャルモンテカルロ法とニューラルネットワークの柔軟性を組み合わせて状態空間推論を行う新しいモデルのクラスである。
個々の体制と切り替えプロセスの両方を同時に学習する事前のアプローチは存在しない。
本稿では,ニューラルネットワークを用いた微分可能粒子フィルタ(RLPF)を提案する。
論文 参考訳(メタデータ) (2024-05-08T07:43:43Z) - Stragglers-Aware Low-Latency Synchronous Federated Learning via Layer-Wise Model Updates [71.81037644563217]
同期フェデレーションラーニング(FL)は、協調エッジラーニングの一般的なパラダイムである。
一部のデバイスは計算資源が限られており、様々な可用性があるため、FLレイテンシはストラグラーに非常に敏感である。
本稿では,NNの最適化手法をバックプロパゲーションにより活用し,グローバルモデルを階層的に更新するストラグラー対応層対応学習(SALF)を提案する。
論文 参考訳(メタデータ) (2024-03-27T09:14:36Z) - An Ensemble Score Filter for Tracking High-Dimensional Nonlinear Dynamical Systems [10.997994515823798]
本研究では,高次元非線形フィルタ問題に対するアンサンブルスコアフィルタ(EnSF)を提案する。
ニューラルネットワークをトレーニングしてスコア関数を近似する既存の拡散モデルとは異なり、トレーニング不要スコア推定を開発する。
EnSFは、最先端のLocal Ensemble Transform Kalman Filter法と比較して、驚くべきパフォーマンスを提供する。
論文 参考訳(メタデータ) (2023-09-02T16:48:02Z) - As large as it gets: Learning infinitely large Filters via Neural Implicit Functions in the Fourier Domain [22.512062422338914]
画像分類のためのニューラルネットワークの最近の研究は、空間的文脈を増大させる傾向が強い。
本稿では,畳み込みニューラルネットワークの有効フィルタサイズを研究するためのモジュールを提案する。
提案するネットワークは非常に大きな畳み込みカーネルを学習できるが、学習されたフィルタは十分に局所化されており、実際は比較的小さい。
論文 参考訳(メタデータ) (2023-07-19T14:21:11Z) - FAMLP: A Frequency-Aware MLP-Like Architecture For Domain Generalization [73.41395947275473]
本稿では、変換周波数領域において、ドメイン固有の特徴をフィルタリングする新しい周波数認識アーキテクチャを提案する。
3つのベンチマークの実験では、最先端の手法をそれぞれ3%、4%、9%のマージンで上回った。
論文 参考訳(メタデータ) (2022-03-24T07:26:29Z) - Deep Frequency Filtering for Domain Generalization [55.66498461438285]
Deep Neural Networks(DNN)は、学習プロセスにおいて、いくつかの周波数成分を優先する。
本稿では、ドメイン一般化可能な特徴を学習するためのDeep Frequency Filtering (DFF)を提案する。
提案したDFFをベースラインに適用すると,ドメインの一般化タスクにおける最先端の手法よりも優れることを示す。
論文 参考訳(メタデータ) (2022-03-23T05:19:06Z) - Deep Convolutional Correlation Iterative Particle Filter for Visual
Tracking [1.1531505895603305]
本研究では,反復的粒子フィルタ,深部畳み込みニューラルネットワーク,相関フィルタを統合した視覚追跡のための新しいフレームワークを提案する。
我々は, K-平均クラスタリングを適用して, 繰り返し後の粒子の可能性を評価する新しい手法を採用した。
2つの異なるベンチマークデータセットの実験結果は、トラッカーが最先端の手法に対して好適に動作することを示している。
論文 参考訳(メタデータ) (2021-07-07T02:44:43Z) - Learning Sparse Filters in Deep Convolutional Neural Networks with a
l1/l2 Pseudo-Norm [5.3791844634527495]
ディープニューラルネットワーク(DNN)は、多くのタスクで効率的であることが証明されているが、高いメモリと計算コストが伴う。
近年の研究では、それらの構造は性能を損なうことなくよりコンパクトにすることができることが示されている。
フィルタ係数に定義された比 l1/l2 の擬ノルムに基づいて, 疎度誘導正規化項を提案する。
論文 参考訳(メタデータ) (2020-07-20T11:56:12Z) - iffDetector: Inference-aware Feature Filtering for Object Detection [70.8678270164057]
Inference-aware Feature Filtering (IFF)モジュールを導入し、現代の検出器と簡単に組み合わせることができる。
IFFは、畳み込み機能を強化するためにハイレベルなセマンティクスを活用することでクローズドループ最適化を行う。
IFFはCNNベースの物体検出器とプラグアンドプレイ方式で融合でき、計算コストのオーバーヘッドは無視できる。
論文 参考訳(メタデータ) (2020-06-23T02:57:29Z) - When is Particle Filtering Efficient for Planning in Partially Observed
Linear Dynamical Systems? [60.703816720093016]
本稿では, 逐次計画における粒子フィルタリングの効率性について検討する。
我々は、粒子フィルタリングに基づくポリシーの長期報酬が正確な推測に基づいてそれに近いように、必要な粒子の数に縛り付けることができる。
このテクニックは、他のシーケンシャルな意思決定問題に有効であると考えています。
論文 参考訳(メタデータ) (2020-06-10T17:43:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。