論文の概要: Object Tracking by Detection with Visual and Motion Cues
- arxiv url: http://arxiv.org/abs/2101.07549v1
- Date: Tue, 19 Jan 2021 10:29:16 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-22 11:20:17.787601
- Title: Object Tracking by Detection with Visual and Motion Cues
- Title(参考訳): 視覚と運動の手がかりによる物体追跡
- Authors: Niels Ole Salscheider
- Abstract要約: 自動運転車は、カメラ画像中の物体を検出し、追跡する必要がある。
本稿では,カルマンフィルタを用いた定速度運動モデルに基づく簡易オンライン追跡アルゴリズムを提案する。
課題のあるBDD100データセットに対するアプローチを評価します。
- 参考スコア(独自算出の注目度): 1.7818230914983044
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Self-driving cars and other autonomous vehicles need to detect and track
objects in camera images. We present a simple online tracking algorithm that is
based on a constant velocity motion model with a Kalman filter, and an
assignment heuristic. The assignment heuristic relies on four metrics: An
embedding vector that describes the appearance of objects and can be used to
re-identify them, a displacement vector that describes the object movement
between two consecutive video frames, the Mahalanobis distance between the
Kalman filter states and the new detections, and a class distance. These
metrics are combined with a linear SVM, and then the assignment problem is
solved by the Hungarian algorithm. We also propose an efficient CNN
architecture that estimates these metrics. Our multi-frame model accepts two
consecutive video frames which are processed individually in the backbone, and
then optical flow is estimated on the resulting feature maps. This allows the
network heads to estimate the displacement vectors. We evaluate our approach on
the challenging BDD100K tracking dataset. Our multi-frame model achieves a good
MOTA value of 39.1% with low localization error of 0.206 in MOTP. Our fast
single-frame model achieves an even lower localization error of 0.202 in MOTP,
and a MOTA value of 36.8%.
- Abstract(参考訳): 自動運転車や他の自動運転車は、カメラ画像内の物体を検出し追跡する必要がある。
本稿では,カルマンフィルタを用いた定速度運動モデルと割り当てヒューリスティックに基づく単純なオンライントラッキングアルゴリズムを提案する。
割り当てヒューリスティックは、オブジェクトの出現を記述し、それらを再同定するために使用できる埋め込みベクター、2つの連続したビデオフレーム間のオブジェクト移動を記述する変位ベクター、カルマンフィルタ状態と新しい検出との間のマハラノビス距離、クラス距離の4つのメトリクスに依存している。
これらのメトリクスは線形SVMと組み合わせられ、代入問題はハンガリーのアルゴリズムによって解決される。
また,これらの指標を推定する効率的なCNNアーキテクチャを提案する。
マルチフレームモデルは、バックボーン内で個別に処理された2つの連続したビデオフレームを受け入れ、得られた特徴マップに基づいて光フローを推定する。
これにより、ネットワークヘッドは変位ベクトルを推定できる。
BDD100K追跡データセットの課題に対するアプローチを評価する。
マルチフレームモデルでは,MOTP において 0.206 の低いローカライゼーション誤差で 39.1% のMOTA値が得られる。
我々の高速単一フレームモデルはMOTPの0.202のローカライゼーション誤差と36.8%のMOTA値を達成する。
関連論文リスト
- Ego-Motion Aware Target Prediction Module for Robust Multi-Object Tracking [2.7898966850590625]
我々は、Ego-motion Aware Target Prediction (EMAP)と呼ばれる新しいKFベースの予測モジュールを導入する。
提案手法は、カルマンフィルタを再構成することにより、物体軌道からのカメラ回転速度と翻訳速度の影響を分離する。
EMAPはOC-SORTとDeep OC-SORTのIDSWをそれぞれ73%と21%減少させる。
論文 参考訳(メタデータ) (2024-04-03T23:24:25Z) - ByteTrackV2: 2D and 3D Multi-Object Tracking by Associating Every
Detection Box [81.45219802386444]
マルチオブジェクトトラッキング(MOT)は、ビデオフレーム間のオブジェクトのバウンディングボックスとIDを推定することを目的としている。
低スコア検出ボックス内の真のオブジェクトをマイニングするための階層型データアソシエーション戦略を提案する。
3次元のシナリオでは、トラッカーが世界座標の物体速度を予測するのがずっと簡単である。
論文 参考訳(メタデータ) (2023-03-27T15:35:21Z) - Automatic vehicle trajectory data reconstruction at scale [2.010294990327175]
本稿では,視覚に基づく車両軌道データにおける共通誤差を補正する自動軌道データ照合法を提案する。
本手法により, 実験対象の入力データの精度が向上し, 広い範囲で精度が向上することを示す。
論文 参考訳(メタデータ) (2022-12-15T15:39:55Z) - Minkowski Tracker: A Sparse Spatio-Temporal R-CNN for Joint Object
Detection and Tracking [53.64390261936975]
我々はオブジェクトの検出と追跡を共同で解決するスパース時間R-CNNであるMinkowski Trackerを提案する。
領域ベースCNN(R-CNN)に着想を得て,物体検出器R-CNNの第2段階として動きを追跡することを提案する。
大規模実験では,本手法の総合的な性能向上は4つの要因によることがわかった。
論文 参考訳(メタデータ) (2022-08-22T04:47:40Z) - 2nd Place Solution for Waymo Open Dataset Challenge - Real-time 2D
Object Detection [26.086623067939605]
本稿では,画像から2次元物体を検出するリアルタイム手法を提案する。
我々は、加速度RTを活用して、検出パイプラインの推論時間を最適化する。
我々のフレームワークはNvidia Tesla V100 GPU上で45.8ms/frameのレイテンシを実現する。
論文 参考訳(メタデータ) (2021-06-16T11:32:03Z) - Single Object Tracking through a Fast and Effective Single-Multiple
Model Convolutional Neural Network [0.0]
最近の最先端の(SOTA)アプローチは、エリア内の他のオブジェクトとターゲットを区別するために重い構造を持つマッチングネットワークを取ることに基づいて提案されています。
本稿では,これまでのアプローチとは対照的に,一つのショットで物体の位置を識別できる特殊なアーキテクチャを提案する。
提示されたトラッカーは、1080tiで最大120 fps$の超高速で、挑戦的な状況でsomaと比較してパフォーマンスする。
論文 参考訳(メタデータ) (2021-03-28T11:02:14Z) - Monocular Quasi-Dense 3D Object Tracking [99.51683944057191]
周囲の物体の将来の位置を予測し、自律運転などの多くのアプリケーションで観測者の行動を計画するためには、信頼性と正確な3D追跡フレームワークが不可欠である。
移動プラットフォーム上で撮影された2次元画像のシーケンスから,移動物体を時間とともに効果的に関連付け,その全3次元バウンディングボックス情報を推定するフレームワークを提案する。
論文 参考訳(メタデータ) (2021-03-12T15:30:02Z) - Fast Motion Understanding with Spatiotemporal Neural Networks and
Dynamic Vision Sensors [99.94079901071163]
本稿では,高速な動きを推論するための動的視覚センサ(DVS)システムを提案する。
ロボットが15m/s以上の速度で接近する小さな物体に反応するケースを考察する。
我々は,23.4m/sで24.73degの誤差を$theta$,18.4mmの平均離散半径予測誤差,衝突予測誤差に対する25.03%の中央値で移動した玩具ダートについて,本システムの結果を強調した。
論文 参考訳(メタデータ) (2020-11-18T17:55:07Z) - Simultaneous Detection and Tracking with Motion Modelling for Multiple
Object Tracking [94.24393546459424]
本稿では,複数の物体の運動パラメータを推定し,共同検出と関連付けを行うディープ・モーション・モデリング・ネットワーク(DMM-Net)を提案する。
DMM-Netは、人気の高いUA-DETRACチャレンジで12.80 @120+ fpsのPR-MOTAスコアを達成した。
また,車両追跡のための大規模な公開データセットOmni-MOTを合成し,精密な接地トルースアノテーションを提供する。
論文 参考訳(メタデータ) (2020-08-20T08:05:33Z) - Quasi-Dense Similarity Learning for Multiple Object Tracking [82.93471035675299]
本稿では, コントラスト学習のための画像に対して, 数百の領域提案を高密度にサンプリングする準高次類似性学習を提案する。
この類似性学習と既存の検出手法を直接組み合わせてQuasi-Dense Tracking(QDTrack)を構築することができる。
論文 参考訳(メタデータ) (2020-06-11T17:57:12Z) - Novel Perception Algorithmic Framework For Object Identification and
Tracking In Autonomous Navigation [1.370633147306388]
本稿では,自律走行車における物体の認識・追跡機能を備えた新しい認識フレームワークを提案する。
このフレームワークは、Ego-vehicleのポーズ推定とKD-Treeベースのゴールセグメンテーションアルゴリズムを利用する。
方法論の有効性は、KITTIデータセット上で検証される。
論文 参考訳(メタデータ) (2020-06-08T18:21:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。