論文の概要: Motion Prediction in Visual Object Tracking
- arxiv url: http://arxiv.org/abs/2007.01120v1
- Date: Wed, 1 Jul 2020 04:29:41 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-14 23:48:09.325137
- Title: Motion Prediction in Visual Object Tracking
- Title(参考訳): 視覚物体追跡における運動予測
- Authors: Jianren Wang, Yihui He
- Abstract要約: オフザシェルフ物体検出器を用いてインスタンス境界ボックスを得る。
状態推定にはカメラモーション分離とカルマンフィルタの組み合わせを用いる。
提案手法は,VOT-2016のEAOを0.472から0.505に改善し,VOT-2018の0.410から0.431に改善する。
- 参考スコア(独自算出の注目度): 12.894104422808242
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Visual object tracking (VOT) is an essential component for many applications,
such as autonomous driving or assistive robotics. However, recent works tend to
develop accurate systems based on more computationally expensive feature
extractors for better instance matching. In contrast, this work addresses the
importance of motion prediction in VOT. We use an off-the-shelf object detector
to obtain instance bounding boxes. Then, a combination of camera motion
decouple and Kalman filter is used for state estimation. Although our baseline
system is a straightforward combination of standard methods, we obtain
state-of-the-art results. Our method establishes new state-of-the-art
performance on VOT (VOT-2016 and VOT-2018). Our proposed method improves the
EAO on VOT-2016 from 0.472 of prior art to 0.505, from 0.410 to 0.431 on
VOT-2018. To show the generalizability, we also test our method on video object
segmentation (VOS: DAVIS-2016 and DAVIS-2017) and observe consistent
improvement.
- Abstract(参考訳): 視覚オブジェクトトラッキング(VOT)は、自律運転や補助ロボットなど、多くのアプリケーションにとって不可欠なコンポーネントである。
しかし、最近の研究は、より計算コストの高い特徴抽出器に基づく正確なシステムを開発する傾向がある。
対照的に、この研究はVOTにおける動き予測の重要性に対処する。
既製の物体検出器を用いて,インスタンス境界ボックスを得る。
次に、状態推定にカメラモーション分離とカルマンフィルタの組み合わせを用いる。
我々のベースラインシステムは標準手法の直接的な組み合わせであるが、最先端の結果が得られる。
提案手法は,VOT(VOT-2016およびVOT-2018)上での最先端性能を確立する。
提案手法は,VOT-2016のEAOを0.472から0.505に改善し,VOT-2018の0.410から0.431に改善する。
一般化可能性を示すために,ビデオオブジェクトのセグメンテーション(VOS: DAVIS-2016, DAVIS-2017)についても検証し,一貫した改善を観察する。
関連論文リスト
- MPVO: Motion-Prior based Visual Odometry for PointGoal Navigation [3.9974562667271507]
視覚計測(VO)は,室内環境におけるエンボディエージェントの正確なポイントゴールナビゲーションを可能にするために不可欠である。
近年の深層学習VO法は, 頑健な性能を示すが, トレーニング中のサンプル不効率に悩まされている。
エージェントが環境をナビゲートしている間に利用可能な動作先に基づいて、ロバストでサンプル効率の良いVOパイプラインを提案する。
論文 参考訳(メタデータ) (2024-11-07T15:36:49Z) - Ego-Motion Aware Target Prediction Module for Robust Multi-Object Tracking [2.7898966850590625]
我々は、Ego-motion Aware Target Prediction (EMAP)と呼ばれる新しいKFベースの予測モジュールを導入する。
提案手法は、カルマンフィルタを再構成することにより、物体軌道からのカメラ回転速度と翻訳速度の影響を分離する。
EMAPはOC-SORTとDeep OC-SORTのIDSWをそれぞれ73%と21%減少させる。
論文 参考訳(メタデータ) (2024-04-03T23:24:25Z) - Scalable Video Object Segmentation with Simplified Framework [21.408446548059956]
本稿では,機能抽出とマッチングを行うスケーラブルなVOS(SimVOS)フレームワークを提案する。
SimVOSは拡張性のあるViTバックボーンを使用して、クエリと参照の同時抽出とマッチングを行う。
実験により,我々のSimVOSは,人気ビデオオブジェクトセグメンテーションベンチマークの最先端結果を得た。
論文 参考訳(メタデータ) (2023-08-19T04:30:48Z) - DORT: Modeling Dynamic Objects in Recurrent for Multi-Camera 3D Object
Detection and Tracking [67.34803048690428]
本稿では、この問題を解決するためにRecurrenT(DORT)の動的オブジェクトをモデル化することを提案する。
DORTは、重い計算負担を軽減する動き推定のために、オブジェクトワイズローカルボリュームを抽出する。
フレキシブルで実用的で、ほとんどのカメラベースの3Dオブジェクト検出器に差し込むことができる。
論文 参考訳(メタデータ) (2023-03-29T12:33:55Z) - Long Range Object-Level Monocular Depth Estimation for UAVs [0.0]
本稿では,画像からモノクロ物体を長距離検出するための最先端手法の新たな拡張法を提案する。
まず、回帰タスクとして深度推定をモデル化する際、SigmoidおよびReLUライクエンコーディングを提案する。
次に,深度推定を分類問題とし,訓練損失の計算にソフトアルグマックス関数を導入する。
論文 参考訳(メタデータ) (2023-02-17T15:26:04Z) - Particle-Based Score Estimation for State Space Model Learning in
Autonomous Driving [62.053071723903834]
マルチオブジェクト状態推定はロボットアプリケーションの基本的な問題である。
粒子法を用いて最大形パラメータを学習することを検討する。
自動運転車から収集した実データに本手法を適用した。
論文 参考訳(メタデータ) (2022-12-14T01:21:05Z) - QDTrack: Quasi-Dense Similarity Learning for Appearance-Only Multiple
Object Tracking [73.52284039530261]
本稿では,コントラスト学習のために,画像上に数百のオブジェクト領域を密集した擬似Dense類似性学習を提案する。
得られた特徴空間は、オブジェクトアソシエーションの推論時間において、単純な近接探索を許容する。
我々の類似性学習方式は,ビデオデータに限らず,静的入力でも有効なインスタンス類似性を学ぶことができることを示す。
論文 参考訳(メタデータ) (2022-10-12T15:47:36Z) - End-to-end Deep Object Tracking with Circular Loss Function for Rotated
Bounding Box [68.8204255655161]
Transformer Multi-Head Attentionアーキテクチャに基づく新しいエンドツーエンドのディープラーニング手法を紹介します。
また,境界ボックスの重なりと向きを考慮に入れた新しいタイプの損失関数を提案する。
論文 参考訳(メタデータ) (2020-12-17T17:29:29Z) - AutoTrajectory: Label-free Trajectory Extraction and Prediction from
Videos using Dynamic Points [92.91569287889203]
軌道抽出と予測のための新しいラベルなしアルゴリズムAutoTrajectoryを提案する。
動画中の移動物体をよりよく捉えるために,ダイナミックポイントを導入する。
ビデオ内の歩行者などの移動物体を表すインスタンスポイントに動的ポイントを集約する。
論文 参考訳(メタデータ) (2020-07-11T08:43:34Z) - ArTIST: Autoregressive Trajectory Inpainting and Scoring for Tracking [80.02322563402758]
オンラインマルチオブジェクトトラッキング(MOT)フレームワークの中核的なコンポーネントの1つは、既存のトラックレットと新しい検出を関連付けることである。
そこで我々は,トラックレットが自然運動を表す可能性を直接測定することにより,トラックレットの提案を評価する確率論的自己回帰生成モデルを提案する。
論文 参考訳(メタデータ) (2020-04-16T06:43:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。