論文の概要: Object Tracking by Detection with Visual and Motion Cues
- arxiv url: http://arxiv.org/abs/2101.07549v1
- Date: Tue, 19 Jan 2021 10:29:16 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-22 11:20:17.787601
- Title: Object Tracking by Detection with Visual and Motion Cues
- Title(参考訳): 視覚と運動の手がかりによる物体追跡
- Authors: Niels Ole Salscheider
- Abstract要約: 自動運転車は、カメラ画像中の物体を検出し、追跡する必要がある。
本稿では,カルマンフィルタを用いた定速度運動モデルに基づく簡易オンライン追跡アルゴリズムを提案する。
課題のあるBDD100データセットに対するアプローチを評価します。
- 参考スコア(独自算出の注目度): 1.7818230914983044
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Self-driving cars and other autonomous vehicles need to detect and track
objects in camera images. We present a simple online tracking algorithm that is
based on a constant velocity motion model with a Kalman filter, and an
assignment heuristic. The assignment heuristic relies on four metrics: An
embedding vector that describes the appearance of objects and can be used to
re-identify them, a displacement vector that describes the object movement
between two consecutive video frames, the Mahalanobis distance between the
Kalman filter states and the new detections, and a class distance. These
metrics are combined with a linear SVM, and then the assignment problem is
solved by the Hungarian algorithm. We also propose an efficient CNN
architecture that estimates these metrics. Our multi-frame model accepts two
consecutive video frames which are processed individually in the backbone, and
then optical flow is estimated on the resulting feature maps. This allows the
network heads to estimate the displacement vectors. We evaluate our approach on
the challenging BDD100K tracking dataset. Our multi-frame model achieves a good
MOTA value of 39.1% with low localization error of 0.206 in MOTP. Our fast
single-frame model achieves an even lower localization error of 0.202 in MOTP,
and a MOTA value of 36.8%.
- Abstract(参考訳): 自動運転車や他の自動運転車は、カメラ画像内の物体を検出し追跡する必要がある。
本稿では,カルマンフィルタを用いた定速度運動モデルと割り当てヒューリスティックに基づく単純なオンライントラッキングアルゴリズムを提案する。
割り当てヒューリスティックは、オブジェクトの出現を記述し、それらを再同定するために使用できる埋め込みベクター、2つの連続したビデオフレーム間のオブジェクト移動を記述する変位ベクター、カルマンフィルタ状態と新しい検出との間のマハラノビス距離、クラス距離の4つのメトリクスに依存している。
これらのメトリクスは線形SVMと組み合わせられ、代入問題はハンガリーのアルゴリズムによって解決される。
また,これらの指標を推定する効率的なCNNアーキテクチャを提案する。
マルチフレームモデルは、バックボーン内で個別に処理された2つの連続したビデオフレームを受け入れ、得られた特徴マップに基づいて光フローを推定する。
これにより、ネットワークヘッドは変位ベクトルを推定できる。
BDD100K追跡データセットの課題に対するアプローチを評価する。
マルチフレームモデルでは,MOTP において 0.206 の低いローカライゼーション誤差で 39.1% のMOTA値が得られる。
我々の高速単一フレームモデルはMOTPの0.202のローカライゼーション誤差と36.8%のMOTA値を達成する。
関連論文リスト
- Joint Feature Learning and Relation Modeling for Tracking: A One-Stream
Framework [76.70603443624012]
特徴学習と関係モデリングを統合した新しい一ストリーム追跡(OSTrack)フレームワークを提案する。
このようにして、相互誘導により識別的目標指向特徴を動的に抽出することができる。
OSTrackは、複数のベンチマークで最先端のパフォーマンスを実現しており、特に、ワンショットトラッキングベンチマークのGOT-10kでは印象的な結果を示している。
論文 参考訳(メタデータ) (2022-03-22T18:37:11Z) - EAutoDet: Efficient Architecture Search for Object Detection [110.99532343155073]
EAutoDetフレームワークは、1.4GPU日でオブジェクト検出のための実用的なバックボーンとFPNアーキテクチャを検出できる。
本稿では,一方のエッジ上での候補演算の重みを共有し,それらを一つの畳み込みに集約することでカーネル再利用手法を提案する。
特に、発見されたアーキテクチャは最先端のオブジェクト検出NAS法を超越し、120 FPSで40.1 mAP、49.2 mAP、41.3 FPSをCOCOテストデブセットで達成している。
論文 参考訳(メタデータ) (2022-03-21T05:56:12Z) - Learning Tracking Representations via Dual-Branch Fully Transformer
Networks [82.21771581817937]
追従のためのトランスフォーマーのみをベースとした,シームズ型デュアルブランチネットワークを提案する。
注目ウィンドウ内の他のパッチとのマッチング結果に基づいて,各パッチの特徴ベクトルを抽出する。
この手法は、最高の性能の方法として、より良い結果または同等の結果を得る。
論文 参考訳(メタデータ) (2021-12-05T13:44:33Z) - HM-Net: A Regression Network for Object Center Detection and Tracking on
Wide Area Motion Imagery [1.2249546377051437]
我々は、ディープニューラルネットワークに基づくオブジェクト検出と追跡の複合モデル、すなわちHeat Map Network(HM-Net)を提案する。
HM-Netは、最先端のフレーム差分法やバックグラウンドサブトラクション法よりも大幅に高速である。
WPAFBデータセット上で、最先端のWAMI移動物体の検出と追跡方法より優れています。
論文 参考訳(メタデータ) (2021-10-19T11:56:30Z) - Exploring Simple 3D Multi-Object Tracking for Autonomous Driving [10.921208239968827]
LiDARポイントクラウドにおける3Dマルチオブジェクトトラッキングは、自動運転車にとって重要な要素である。
既存の手法は、主にトラッキング・バイ・検出パイプラインに基づいており、検出アソシエーションのマッチングステップが必然的に必要である。
我々は,手作りの追跡パラダイムをシンプルにするために,原点雲からの共同検出と追跡のためのエンドツーエンドのトレーニング可能なモデルを提案する。
論文 参考訳(メタデータ) (2021-08-23T17:59:22Z) - DeepScale: An Online Frame Size Adaptation Framework to Accelerate
Visual Multi-object Tracking [8.878656943106934]
DeepScaleは、追跡スループットを高速化するモデルに依存しないフレームサイズ選択アプローチである。
フレームサイズを実行時に適応させることで、トラッキング精度と速度の適切なトレードオフを見つけることができる。
最先端のトラッカーであるDeepScale++と比較して、DeepScaleの亜種であるDeepScale++は、適度な劣化だけで1.57倍の高速化を実現している。
論文 参考訳(メタデータ) (2021-07-22T00:12:58Z) - 2nd Place Solution for Waymo Open Dataset Challenge - Real-time 2D
Object Detection [26.086623067939605]
本稿では,画像から2次元物体を検出するリアルタイム手法を提案する。
我々は、加速度RTを活用して、検出パイプラインの推論時間を最適化する。
我々のフレームワークはNvidia Tesla V100 GPU上で45.8ms/frameのレイテンシを実現する。
論文 参考訳(メタデータ) (2021-06-16T11:32:03Z) - Learnable Online Graph Representations for 3D Multi-Object Tracking [156.58876381318402]
3D MOT問題に対する統一型学習型アプローチを提案します。
我々は、完全にトレーニング可能なデータアソシエーションにNeural Message Passing Networkを使用します。
AMOTAの65.6%の最先端性能と58%のIDスウィッチを達成して、公開可能なnuScenesデータセットに対する提案手法のメリットを示す。
論文 参考訳(メタデータ) (2021-04-23T17:59:28Z) - Single Object Tracking through a Fast and Effective Single-Multiple
Model Convolutional Neural Network [0.0]
最近の最先端の(SOTA)アプローチは、エリア内の他のオブジェクトとターゲットを区別するために重い構造を持つマッチングネットワークを取ることに基づいて提案されています。
本稿では,これまでのアプローチとは対照的に,一つのショットで物体の位置を識別できる特殊なアーキテクチャを提案する。
提示されたトラッカーは、1080tiで最大120 fps$の超高速で、挑戦的な状況でsomaと比較してパフォーマンスする。
論文 参考訳(メタデータ) (2021-03-28T11:02:14Z) - Monocular Quasi-Dense 3D Object Tracking [99.51683944057191]
周囲の物体の将来の位置を予測し、自律運転などの多くのアプリケーションで観測者の行動を計画するためには、信頼性と正確な3D追跡フレームワークが不可欠である。
移動プラットフォーム上で撮影された2次元画像のシーケンスから,移動物体を時間とともに効果的に関連付け,その全3次元バウンディングボックス情報を推定するフレームワークを提案する。
論文 参考訳(メタデータ) (2021-03-12T15:30:02Z) - Robust 2D/3D Vehicle Parsing in CVIS [54.825777404511605]
本研究では,協調型車両インフラシステム(CVIS)の一環として,異なるカメラビューの車両を堅牢に検出・認識する新しいアプローチを提案する。
提案方式は任意のカメラビュー向けに設計されており,本質的パラメータや外部的パラメータを仮定しない。
実際に,本手法は2次元検出,インスタンスセグメンテーション,6-DoFのポーズ推定においてSOTA法より優れている。
論文 参考訳(メタデータ) (2021-03-11T03:35:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。