論文の概要: Data-Driven Object Tracking: Integrating Modular Neural Networks into a Kalman Framework
- arxiv url: http://arxiv.org/abs/2504.02519v1
- Date: Thu, 03 Apr 2025 12:13:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-04 12:57:37.351537
- Title: Data-Driven Object Tracking: Integrating Modular Neural Networks into a Kalman Framework
- Title(参考訳): データ駆動オブジェクト追跡: モジュラニューラルネットワークをKalmanフレームワークに統合する
- Authors: Christian Alexander Holz, Christian Bader, Markus Enzweiler, Matthias Drüppel,
- Abstract要約: マルチオブジェクト追跡(MOT)における重要な課題に対処する3つのニューラルネットワーク(NN)モデルを導入する。
3つのネットワークはすべて、リアルタイムで組み込み環境で動作するように設計されている。
公的なKITTI追跡データセットを用いて評価を行った結果,追跡性能が大幅に向上したことが示された。
- 参考スコア(独自算出の注目度): 2.1369549137353805
- License:
- Abstract: This paper presents novel Machine Learning (ML) methodologies for Multi-Object Tracking (MOT), specifically designed to meet the increasing complexity and precision demands of Advanced Driver Assistance Systems (ADAS). We introduce three Neural Network (NN) models that address key challenges in MOT: (i) the Single-Prediction Network (SPENT) for trajectory prediction, (ii) the Single-Association Network (SANT) for mapping individual Sensor Object (SO) to existing tracks, and (iii) the Multi-Association Network (MANTa) for associating multiple SOs to multiple tracks. These models are seamlessly integrated into a traditional Kalman Filter (KF) framework, maintaining the system's modularity by replacing relevant components without disrupting the overall architecture. Importantly, all three networks are designed to be run in a realtime, embedded environment. Each network contains less than 50k trainable parameters. Our evaluation, conducted on the public KITTI tracking dataset, demonstrates significant improvements in tracking performance. SPENT reduces the Root Mean Square Error (RMSE) by 50% compared to a standard KF, while SANT and MANTa achieve up to 95% accuracy in sensor object-to-track assignments. These results underscore the effectiveness of incorporating task-specific NNs into traditional tracking systems, boosting performance and robustness while preserving modularity, maintainability, and interpretability.
- Abstract(参考訳): 本稿では,高度運転支援システム(ADAS)の複雑さと精度の増大に対応するため,MOT(Multi-Object Tracking)のための機械学習手法を提案する。
MOTの重要な課題に対処する3つのニューラルネットワーク(NN)モデルを紹介します。
(i)軌道予測のための単述語ネットワーク(SPENT)
(二)個々のセンサオブジェクト(SO)を既存のトラックにマッピングするためのSANT(Single-Association Network)
(3)複数のSOを複数のトラックに関連付けるためのMulti-Association Network(MANTa)。
これらのモデルは従来のKalman Filter(KF)フレームワークにシームレスに統合され、アーキテクチャ全体を混乱させることなく、関連するコンポーネントを置き換えることでシステムのモジュール性を維持する。
重要なのは,3つのネットワークはすべて,リアルタイムな組み込み環境で動作するように設計されていることだ。
各ネットワークは、トレーニング可能なパラメータが50k未満である。
公的なKITTI追跡データセットを用いて評価を行った結果,追跡性能が大幅に向上したことが示された。
SPENT は標準的な KF と比較して Root Mean Square Error (RMSE) を50%削減し、SANT と MANTa は 95% の精度でセンサオブジェクトとトラックの割り当てを実現している。
これらの結果は,タスク固有のNNを従来のトラッキングシステムに組み込むことにより,モジュール性,保守性,解釈可能性を維持しつつ,性能と堅牢性を向上する効果を裏付けるものである。
関連論文リスト
- SynCL: A Synergistic Training Strategy with Instance-Aware Contrastive Learning for End-to-End Multi-Camera 3D Tracking [34.90147791481045]
SynCLは、検出と追跡のためのマルチタスク学習を共用するために設計された、新しいプラグアンドプレイのシナジスティックトレーニング戦略である。
各種クエリベースの3D MOTトラッカーのトレーニング段階と統合した場合,SynCLは一貫して改善されていることを示す。
追加の推論コストなしで、SynCLは最先端のPF-Trackメソッドを$+3.9%のAMOTAと$+2.0%のNDSで改善した。
論文 参考訳(メタデータ) (2024-11-11T08:18:49Z) - MetaSSC: Enhancing 3D Semantic Scene Completion for Autonomous Driving through Meta-Learning and Long-sequence Modeling [3.139165705827712]
セマンティックシーン補完(SSC)のためのメタラーニングに基づく新しいフレームワークであるMetaSSCを紹介する。
我々のアプローチは、不完全領域のセマンティックスと幾何学を探求することを目的とした、ボクセルに基づくセマンティックセマンティックセマンティクス(SS)事前訓練タスクから始まる。
シミュレーションされた協調認識データセットを用いて、集約されたセンサデータを用いて1台の車両の知覚訓練を監督する。
このメタ知識は、二重フェーズのトレーニング戦略を通じてターゲットドメインに適応し、効率的なデプロイメントを可能にする。
論文 参考訳(メタデータ) (2024-11-06T05:11:25Z) - A Point-Based Approach to Efficient LiDAR Multi-Task Perception [49.91741677556553]
PAttFormerは、ポイントクラウドにおける共同セマンティックセグメンテーションとオブジェクト検出のための効率的なマルチタスクアーキテクチャである。
他のLiDARベースのマルチタスクアーキテクチャとは異なり、提案したPAttFormerはタスク固有のポイントクラウド表現のために別の機能エンコーダを必要としない。
マルチタスク学習では,mIouでは+1.7%,mAPでは3Dオブジェクト検出では+1.7%,LiDARセマンティックセマンティックセグメンテーションは+1.7%向上した。
論文 参考訳(メタデータ) (2024-04-19T11:24:34Z) - Auto-Train-Once: Controller Network Guided Automatic Network Pruning from Scratch [72.26822499434446]
オートトレインオース (Auto-Train-Once, ATO) は、DNNの計算コストと記憶コストを自動的に削減するために設計された、革新的なネットワークプルーニングアルゴリズムである。
総合的な収束解析と広範な実験を行い,本手法が様々なモデルアーキテクチャにおける最先端性能を実現することを示す。
論文 参考訳(メタデータ) (2024-03-21T02:33:37Z) - Neural Attentive Circuits [93.95502541529115]
我々は、NAC(Neural Attentive Circuits)と呼ばれる汎用的でモジュラーなニューラルアーキテクチャを導入する。
NACは、ドメイン知識を使わずに、ニューラルネットワークモジュールのパラメータ化と疎結合を学習する。
NACは推論時に8倍のスピードアップを達成するが、性能は3%以下である。
論文 参考訳(メタデータ) (2022-10-14T18:00:07Z) - Joint Spatial-Temporal and Appearance Modeling with Transformer for
Multiple Object Tracking [59.79252390626194]
本稿ではTransSTAMという新しい手法を提案する。Transformerを利用して各オブジェクトの外観特徴とオブジェクト間の空間的時間的関係の両方をモデル化する。
提案手法はMOT16, MOT17, MOT20を含む複数の公開ベンチマークで評価され, IDF1とHOTAの両方で明確な性能向上を実現している。
論文 参考訳(メタデータ) (2022-05-31T01:19:18Z) - MOTS R-CNN: Cosine-margin-triplet loss for multi-object tracking [2.8935588665357077]
マルチオブジェクトトラッキングの中心的なタスクの1つは、オブジェクトの意味的類似性と一致した距離メートル法を学習することである。
本稿では,コサイン・マージン・トラストティブ (CMC) とコサイン・マージン・トリップレット (CMT) の損失について,コントラスト型とトリプルト型の両方の損失関数を再構成することによって提案する。
次に,マルチオブジェクト追跡とセグメンテーションのためのMOTS R-CNNフレームワークを提案する。
論文 参考訳(メタデータ) (2021-02-06T05:03:29Z) - End-to-End Object Detection with Fully Convolutional Network [71.56728221604158]
エンドツーエンド検出を実現するために,分類のための予測対応ワン・ツー・ワン (POTO) ラベルの割り当てを導入する。
局所領域における畳み込みの判別性を向上させるために, 簡易な3次元maxフィルタ(3dmf)を提案する。
エンドツーエンドのフレームワークは,COCOおよびCrowdHumanデータセット上のNMSを用いて,最先端の多くの検出器と競合する性能を実現する。
論文 参考訳(メタデータ) (2020-12-07T09:14:55Z) - Modular Multi Target Tracking Using LSTM Networks [0.0]
本稿では,センサ計測を用いた航空機目標追尾システムに対する自由端対端手法を提案する。
提案したモジュールブロックは、多数のトラッキングアプリケーションで独立して訓練および使用することができる。
論文 参考訳(メタデータ) (2020-11-16T15:58:49Z) - A Unified Object Motion and Affinity Model for Online Multi-Object
Tracking [127.5229859255719]
オブジェクトの動きと親和性モデルを単一のネットワークに統一する新しいMOTフレームワークUMAを提案する。
UMAは、単一物体追跡とメートル法学習をマルチタスク学習により統合された三重項ネットワークに統合する。
我々は,タスク認識機能学習を促進するために,タスク固有のアテンションモジュールを装備する。
論文 参考訳(メタデータ) (2020-03-25T09:36:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。