論文の概要: Motion Prediction in Visual Object Tracking
- arxiv url: http://arxiv.org/abs/2007.01120v1
- Date: Wed, 1 Jul 2020 04:29:41 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-14 23:48:09.325137
- Title: Motion Prediction in Visual Object Tracking
- Title(参考訳): 視覚物体追跡における運動予測
- Authors: Jianren Wang, Yihui He
- Abstract要約: オフザシェルフ物体検出器を用いてインスタンス境界ボックスを得る。
状態推定にはカメラモーション分離とカルマンフィルタの組み合わせを用いる。
提案手法は,VOT-2016のEAOを0.472から0.505に改善し,VOT-2018の0.410から0.431に改善する。
- 参考スコア(独自算出の注目度): 12.894104422808242
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Visual object tracking (VOT) is an essential component for many applications,
such as autonomous driving or assistive robotics. However, recent works tend to
develop accurate systems based on more computationally expensive feature
extractors for better instance matching. In contrast, this work addresses the
importance of motion prediction in VOT. We use an off-the-shelf object detector
to obtain instance bounding boxes. Then, a combination of camera motion
decouple and Kalman filter is used for state estimation. Although our baseline
system is a straightforward combination of standard methods, we obtain
state-of-the-art results. Our method establishes new state-of-the-art
performance on VOT (VOT-2016 and VOT-2018). Our proposed method improves the
EAO on VOT-2016 from 0.472 of prior art to 0.505, from 0.410 to 0.431 on
VOT-2018. To show the generalizability, we also test our method on video object
segmentation (VOS: DAVIS-2016 and DAVIS-2017) and observe consistent
improvement.
- Abstract(参考訳): 視覚オブジェクトトラッキング(VOT)は、自律運転や補助ロボットなど、多くのアプリケーションにとって不可欠なコンポーネントである。
しかし、最近の研究は、より計算コストの高い特徴抽出器に基づく正確なシステムを開発する傾向がある。
対照的に、この研究はVOTにおける動き予測の重要性に対処する。
既製の物体検出器を用いて,インスタンス境界ボックスを得る。
次に、状態推定にカメラモーション分離とカルマンフィルタの組み合わせを用いる。
我々のベースラインシステムは標準手法の直接的な組み合わせであるが、最先端の結果が得られる。
提案手法は,VOT(VOT-2016およびVOT-2018)上での最先端性能を確立する。
提案手法は,VOT-2016のEAOを0.472から0.505に改善し,VOT-2018の0.410から0.431に改善する。
一般化可能性を示すために,ビデオオブジェクトのセグメンテーション(VOS: DAVIS-2016, DAVIS-2017)についても検証し,一貫した改善を観察する。
関連論文リスト
- Scalable Video Object Segmentation with Simplified Framework [21.408446548059956]
本稿では,機能抽出とマッチングを行うスケーラブルなVOS(SimVOS)フレームワークを提案する。
SimVOSは拡張性のあるViTバックボーンを使用して、クエリと参照の同時抽出とマッチングを行う。
実験により,我々のSimVOSは,人気ビデオオブジェクトセグメンテーションベンチマークの最先端結果を得た。
論文 参考訳(メタデータ) (2023-08-19T04:30:48Z) - DORT: Modeling Dynamic Objects in Recurrent for Multi-Camera 3D Object
Detection and Tracking [67.34803048690428]
本稿では、この問題を解決するためにRecurrenT(DORT)の動的オブジェクトをモデル化することを提案する。
DORTは、重い計算負担を軽減する動き推定のために、オブジェクトワイズローカルボリュームを抽出する。
フレキシブルで実用的で、ほとんどのカメラベースの3Dオブジェクト検出器に差し込むことができる。
論文 参考訳(メタデータ) (2023-03-29T12:33:55Z) - Long Range Object-Level Monocular Depth Estimation for UAVs [0.0]
本稿では,画像からモノクロ物体を長距離検出するための最先端手法の新たな拡張法を提案する。
まず、回帰タスクとして深度推定をモデル化する際、SigmoidおよびReLUライクエンコーディングを提案する。
次に,深度推定を分類問題とし,訓練損失の計算にソフトアルグマックス関数を導入する。
論文 参考訳(メタデータ) (2023-02-17T15:26:04Z) - Particle-Based Score Estimation for State Space Model Learning in
Autonomous Driving [62.053071723903834]
マルチオブジェクト状態推定はロボットアプリケーションの基本的な問題である。
粒子法を用いて最大形パラメータを学習することを検討する。
自動運転車から収集した実データに本手法を適用した。
論文 参考訳(メタデータ) (2022-12-14T01:21:05Z) - QDTrack: Quasi-Dense Similarity Learning for Appearance-Only Multiple
Object Tracking [73.52284039530261]
本稿では,コントラスト学習のために,画像上に数百のオブジェクト領域を密集した擬似Dense類似性学習を提案する。
得られた特徴空間は、オブジェクトアソシエーションの推論時間において、単純な近接探索を許容する。
我々の類似性学習方式は,ビデオデータに限らず,静的入力でも有効なインスタンス類似性を学ぶことができることを示す。
論文 参考訳(メタデータ) (2022-10-12T15:47:36Z) - YOLOV: Making Still Image Object Detectors Great at Video Object
Detection [23.039968987772543]
映像オブジェクト検出(VID)は,映像の外観のばらつきやフレームの多様さにより困難である。
この研究は、問題に対処するための単純だが効果的な戦略を提案する。
我々のYOLOXベースのモデルは、有望なパフォーマンスを達成することができる(例えば、1つの2080Ti GPU上のImageNet VIDデータセット上で、30FPS以上の87.5% AP50)。
論文 参考訳(メタデータ) (2022-08-20T14:12:06Z) - End-to-end Deep Object Tracking with Circular Loss Function for Rotated
Bounding Box [68.8204255655161]
Transformer Multi-Head Attentionアーキテクチャに基づく新しいエンドツーエンドのディープラーニング手法を紹介します。
また,境界ボックスの重なりと向きを考慮に入れた新しいタイプの損失関数を提案する。
論文 参考訳(メタデータ) (2020-12-17T17:29:29Z) - AutoTrajectory: Label-free Trajectory Extraction and Prediction from
Videos using Dynamic Points [92.91569287889203]
軌道抽出と予測のための新しいラベルなしアルゴリズムAutoTrajectoryを提案する。
動画中の移動物体をよりよく捉えるために,ダイナミックポイントを導入する。
ビデオ内の歩行者などの移動物体を表すインスタンスポイントに動的ポイントを集約する。
論文 参考訳(メタデータ) (2020-07-11T08:43:34Z) - Multiple-Vehicle Tracking in the Highway Using Appearance Model and
Visual Object Tracking [0.0]
本稿では,複数車種追跡の精度を許容できる,効率的な新しい手法を提案する。
ディープニューラルネットワークから抽出された特徴と従来の特徴の抽出に2つの異なるアプローチが使用されている。
第1の方法は58.9%の精度で、第2の方法は15.9%まで精度が上がった。
論文 参考訳(メタデータ) (2020-06-12T16:46:12Z) - ArTIST: Autoregressive Trajectory Inpainting and Scoring for Tracking [80.02322563402758]
オンラインマルチオブジェクトトラッキング(MOT)フレームワークの中核的なコンポーネントの1つは、既存のトラックレットと新しい検出を関連付けることである。
そこで我々は,トラックレットが自然運動を表す可能性を直接測定することにより,トラックレットの提案を評価する確率論的自己回帰生成モデルを提案する。
論文 参考訳(メタデータ) (2020-04-16T06:43:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。