論文の概要: Spatio-Temporal Point Process for Multiple Object Tracking
- arxiv url: http://arxiv.org/abs/2302.02444v1
- Date: Sun, 5 Feb 2023 18:14:08 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-07 18:16:51.559294
- Title: Spatio-Temporal Point Process for Multiple Object Tracking
- Title(参考訳): 複数物体追跡のための時空間的点過程
- Authors: Tao Wang, Kean Chen, Weiyao Lin, John See, Zenghui Zhang, Qian Xu, and
Xia Jia
- Abstract要約: 多重オブジェクト追跡(MOT)は、連続するフレーム間の検出対象の関係をモデル化し、それらを異なる軌道にマージすることに焦点を当てている。
本稿では,物体を軌道に関連付ける前に,ノイズを効果的に予測し,マスクアウトし,検出結果を混乱させる新しいフレームワークを提案する。
- 参考スコア(独自算出の注目度): 30.041104276095624
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Multiple Object Tracking (MOT) focuses on modeling the relationship of
detected objects among consecutive frames and merge them into different
trajectories. MOT remains a challenging task as noisy and confusing detection
results often hinder the final performance. Furthermore, most existing research
are focusing on improving detection algorithms and association strategies. As
such, we propose a novel framework that can effectively predict and mask-out
the noisy and confusing detection results before associating the objects into
trajectories. In particular, we formulate such "bad" detection results as a
sequence of events and adopt the spatio-temporal point process}to model such
events. Traditionally, the occurrence rate in a point process is characterized
by an explicitly defined intensity function, which depends on the prior
knowledge of some specific tasks. Thus, designing a proper model is expensive
and time-consuming, with also limited ability to generalize well. To tackle
this problem, we adopt the convolutional recurrent neural network (conv-RNN) to
instantiate the point process, where its intensity function is automatically
modeled by the training data. Furthermore, we show that our method captures
both temporal and spatial evolution, which is essential in modeling events for
MOT. Experimental results demonstrate notable improvements in addressing noisy
and confusing detection results in MOT datasets. An improved state-of-the-art
performance is achieved by incorporating our baseline MOT algorithm with the
spatio-temporal point process model.
- Abstract(参考訳): 多重オブジェクト追跡(MOT)は、連続するフレーム間の検出対象の関係をモデル化し、それらを異なる軌道にマージすることに焦点を当てている。
MOTはノイズと紛らわしい検出結果が最終的なパフォーマンスを妨げているため、依然として困難なタスクである。
さらに、既存の研究のほとんどは、検出アルゴリズムとアソシエーション戦略の改善に焦点を当てている。
そこで我々は,物体を軌道に関連付ける前に,ノイズを効果的に予測・マスクアウトし,検出結果を混乱させる新しい枠組みを提案する。
特に、このような「悪い」検出結果を一連の事象として定式化し、そのような事象をモデル化するために時空間過程を採用する。
伝統的に、点過程における発生率は、特定のタスクの事前知識に依存する明示的に定義された強度関数によって特徴づけられる。
したがって、適切なモデルを設計するのは高価で時間がかかり、うまく一般化する能力も限られている。
この問題に対処するために、我々は畳み込みリカレントニューラルネットワーク(conv-RNN)を採用し、その強度関数がトレーニングデータによって自動的にモデル化される点過程をインスタンス化する。
さらに,本手法は時間的・空間的進化の両面を捉え,MOTのイベントのモデル化に欠かせないものであることを示す。
実験結果から,MOTデータセットのノイズや混乱検出結果に顕著な改善が認められた。
ベースラインmotアルゴリズムを時空間的点過程モデルに組み込むことにより,最先端の性能向上を実現する。
関連論文リスト
- DeTra: A Unified Model for Object Detection and Trajectory Forecasting [68.85128937305697]
提案手法は,2つのタスクの結合を軌道修正問題として定式化する。
この統合タスクに対処するために、オブジェクトの存在, ポーズ, マルチモーダルな将来の振る舞いを推測する精細化変換器を設計する。
実験では、我々のモデルはArgoverse 2 Sensor and Openデータセットの最先端性よりも優れています。
論文 参考訳(メタデータ) (2024-06-06T18:12:04Z) - EAS-SNN: End-to-End Adaptive Sampling and Representation for Event-based Detection with Recurrent Spiking Neural Networks [14.046487518350792]
スパイキングニューラルネットワーク(SNN)は、スパーススパイク通信を通じてイベント駆動の操作を行う。
本稿では,Residual potential Dropout (RPD) と Spike-Aware Training (SAT) を導入する。
我々の方法では、Gen1データセットで4.4%のmAP改善が得られ、パラメータは38%減少し、3つのタイムステップしか必要としない。
論文 参考訳(メタデータ) (2024-03-19T09:34:11Z) - Graph Spatiotemporal Process for Multivariate Time Series Anomaly
Detection with Missing Values [67.76168547245237]
本稿では,グラフ時間過程と異常スコアラを用いて異常を検出するGST-Proという新しいフレームワークを提案する。
実験結果から,GST-Pro法は時系列データ中の異常を効果的に検出し,最先端の手法より優れていることがわかった。
論文 参考訳(メタデータ) (2024-01-11T10:10:16Z) - A Target Detection Algorithm in Traffic Scenes Based on Deep
Reinforcement Learning [2.8554857235549753]
本研究では,実世界のシナリオにおける交通物体を正確に検出するために,深層強化学習を用いた新しいアクティブ検出モデルを提案する。
このモデルでは、LSTM-CNNに基づく深いQ-ネットワークを使用して、ターゲットゾーンをトラフィックオブジェクトの特定のカテゴリに識別し、アライメントする。
実験では、このモデルの精度を実証し、信号機の位置と速度制限標識の精度と性能を示した。
論文 参考訳(メタデータ) (2023-12-25T04:23:30Z) - Custom DNN using Reward Modulated Inverted STDP Learning for Temporal
Pattern Recognition [0.0]
時間的スパイク認識は、異常検出、キーワードスポッティング、神経科学など、様々な領域において重要な役割を果たす。
本稿では,スパース事象系列データに基づく時間的スパイクパターン認識のための新しいアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-07-15T18:57:27Z) - Uncovering the Missing Pattern: Unified Framework Towards Trajectory
Imputation and Prediction [60.60223171143206]
軌道予測は、観測されたシーケンスから実体運動や人間の行動を理解する上で重要な作業である。
現在の方法では、観測されたシーケンスが完了したと仮定し、欠落した値の可能性を無視する。
本稿では,グラフに基づく条件変動リカレントニューラルネットワーク (GC-VRNN) の統一フレームワークを提案する。
論文 参考訳(メタデータ) (2023-03-28T14:27:27Z) - Object-centric and memory-guided normality reconstruction for video
anomaly detection [56.64792194894702]
本稿では,ビデオ監視における異常検出問題に対処する。
異常事象の固有な規則性と不均一性のため、問題は正規性モデリング戦略と見なされる。
我々のモデルは、トレーニング中に異常なサンプルを見ることなく、オブジェクト中心の正規パターンを学習する。
論文 参考訳(メタデータ) (2022-03-07T19:28:39Z) - STURE: Spatial-Temporal Mutual Representation Learning for Robust Data
Association in Online Multi-Object Tracking [7.562844934117318]
提案手法は、より区別された検出とシーケンス表現を抽出することができる。
パブリックMOTチャレンジベンチマークに適用され、様々な最先端のオンラインMOTトラッカーとよく比較される。
論文 参考訳(メタデータ) (2022-01-18T08:52:40Z) - Learning to associate detections for real-time multiple object tracking [0.0]
本研究では, ニューラルネットワークを用いて, 検出に使用可能な類似性関数を学習する。
提案したトラッカーは最先端の手法で得られた結果と一致し、ベースラインとして使用される最近の類似手法よりも58%高速に動作している。
論文 参考訳(メタデータ) (2020-07-12T17:08:41Z) - One-Shot Object Detection without Fine-Tuning [62.39210447209698]
本稿では,第1ステージのMatching-FCOSネットワークと第2ステージのStructure-Aware Relation Moduleからなる2段階モデルを提案する。
また,検出性能を効果的に向上する新たなトレーニング戦略を提案する。
提案手法は,複数のデータセット上で一貫した最先端のワンショット性能を上回る。
論文 参考訳(メタデータ) (2020-05-08T01:59:23Z) - ArTIST: Autoregressive Trajectory Inpainting and Scoring for Tracking [80.02322563402758]
オンラインマルチオブジェクトトラッキング(MOT)フレームワークの中核的なコンポーネントの1つは、既存のトラックレットと新しい検出を関連付けることである。
そこで我々は,トラックレットが自然運動を表す可能性を直接測定することにより,トラックレットの提案を評価する確率論的自己回帰生成モデルを提案する。
論文 参考訳(メタデータ) (2020-04-16T06:43:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。