論文の概要: Multiple Object Trackers in OpenCV: A Benchmark
- arxiv url: http://arxiv.org/abs/2110.05102v1
- Date: Mon, 11 Oct 2021 09:12:02 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-12 14:46:21.057793
- Title: Multiple Object Trackers in OpenCV: A Benchmark
- Title(参考訳): OpenCVにおける複数のオブジェクトトラッカー:ベンチマーク
- Authors: Na{\dj}a Dardagan, Adnan Br{\dj}anin, D\v{z}emil D\v{z}igal, Amila
Akagic
- Abstract要約: 本稿では,OpenCVで実装された7つのトラッカーをMOT20データセットに対して評価する。
結果は、MOTA(Multiple Object Tracking Accuracy)とMOTP(Multiple Object Tracking Precision)のメトリクスに基づいて示される。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Object tracking is one of the most important and fundamental disciplines of
Computer Vision. Many Computer Vision applications require specific object
tracking capabilities, including autonomous and smart vehicles, video
surveillance, medical treatments, and many others. The OpenCV as one of the
most popular libraries for Computer Vision includes several hundred Computer
Vision algorithms. Object tracking tasks in the library can be roughly
clustered in single and multiple object trackers. The library is widely used
for real-time applications, but there are a lot of unanswered questions such as
when to use a specific tracker, how to evaluate its performance, and for what
kind of objects will the tracker yield the best results? In this paper, we
evaluate 7 trackers implemented in OpenCV against the MOT20 dataset. The
results are shown based on Multiple Object Tracking Accuracy (MOTA) and
Multiple Object Tracking Precision (MOTP) metrics.
- Abstract(参考訳): 物体追跡はコンピュータビジョンの最も重要かつ基本的な分野の1つである。
多くのコンピュータビジョンアプリケーションは、自動運転車やスマートカー、ビデオ監視、医療治療など、特定の物体追跡機能を必要とする。
opencvはコンピュータビジョンのための最も人気のあるライブラリの1つであり、数百のコンピュータビジョンアルゴリズムを含んでいる。
ライブラリ内のオブジェクト追跡タスクは、大まかに1つと複数のオブジェクトトラッカーにクラスタ化できる。
ライブラリはリアルタイムアプリケーションに広く使われているが、特定のトラッカーをいつ使うか、パフォーマンスをどのように評価するか、トラッカーが最良の結果をもたらすオブジェクトの種類など、未解決の質問が数多くある。
本稿では,OpenCVで実装された7つのトラッカーをMOT20データセットに対して評価する。
結果は、MOTA(Multiple Object Tracking Accuracy)とMOTP(Multiple Object Tracking Precision)のメトリクスに基づいて示される。
関連論文リスト
- Tracking Reflected Objects: A Benchmark [12.770787846444406]
我々は、反射オブジェクトのトラッキングに特化したベンチマークであるTROを紹介します。
TROは、約70,000フレームの200のシーケンスを含み、それぞれにバウンディングボックスを慎重にアノテートする。
より強力なベースラインを提供するために,階層的特徴を用いて性能を向上させる新しいトラッカーであるHiP-HaTrackを提案する。
論文 参考訳(メタデータ) (2024-07-07T02:22:45Z) - Machine Learning Based Object Tracking [0.6466206145151128]
著者たちはOpen Computer Visionを使ってオブジェクトの周りにさまざまな関心を寄せることができた。
次に、2つのサーボモーターを同時に動作させながら、物体のトラッキングを維持するために追跡アルゴリズムが使われている。
論文 参考訳(メタデータ) (2024-01-15T19:46:05Z) - ReIDTracker Sea: the technical report of BoaTrack and SeaDronesSee-MOT
challenge at MaCVi of WACV24 [0.0]
我々のソリューションは、無人航空機(UAV)と無人表面車両(USV)の利用シナリオにおける多目的追跡の探索を試みる。
この方式は、UAVベースのマルチオブジェクト追跡とUSVベースのマルチオブジェクト追跡ベンチマークの両方でトップ3のパフォーマンスを達成した。
論文 参考訳(メタデータ) (2023-11-12T07:37:07Z) - Tracking Anything in High Quality [63.63653185865726]
HQTrackは高品質なビデオ追跡のためのフレームワークだ。
ビデオマルチオブジェクトセグメンタ(VMOS)とマスクリファインダ(MR)で構成されている。
論文 参考訳(メタデータ) (2023-07-26T06:19:46Z) - OmniTracker: Unifying Object Tracking by Tracking-with-Detection [119.51012668709502]
OmniTrackerは、完全に共有されたネットワークアーキテクチャ、モデルウェイト、推論パイプラインですべてのトラッキングタスクを解決するために提供されている。
LaSOT、TrackingNet、DAVIS16-17、MOT17、MOTS20、YTVIS19を含む7つの追跡データセットの実験は、OmniTrackerがタスク固有の追跡モデルと統合された追跡モデルの両方よりも、オンパーまたはそれ以上の結果を達成することを示した。
論文 参考訳(メタデータ) (2023-03-21T17:59:57Z) - Single Object Tracking Research: A Survey [44.24280758718638]
本稿では,過去10年間に最も人気の高い追跡フレームワーク2つについて,その理論的根拠と作業について述べる。
本稿では,異なるネットワーク構造に分類したディープラーニングに基づく追跡手法を提案する。
また、追跡問題の課題に対処するための古典的な戦略についても紹介する。
論文 参考訳(メタデータ) (2022-04-25T02:59:15Z) - Unified Transformer Tracker for Object Tracking [58.65901124158068]
異なるシナリオにおけるトラッキング問題に1つのパラダイムで対処するために,UTT(Unified Transformer Tracker)を提案する。
SOT(Single Object Tracking)とMOT(Multiple Object Tracking)の両方を対象とするトラックトランスフォーマーを開発した。
論文 参考訳(メタデータ) (2022-03-29T01:38:49Z) - MOTChallenge: A Benchmark for Single-Camera Multiple Target Tracking [72.76685780516371]
単カメラ多目的追跡(MOT)のためのベンチマークMOTChallengeを提案する。
このベンチマークは、歩行者がトラッキングコミュニティで最も研究されているオブジェクトであるため、複数の人を追跡することに重点を置いている。
我々は,最先端トラッカーの分類と広い誤差解析を行う。
論文 参考訳(メタデータ) (2020-10-15T06:52:16Z) - TAO: A Large-Scale Benchmark for Tracking Any Object [95.87310116010185]
オブジェクトのデータセットの追跡は2,907本の高解像度ビデオで構成され、平均で30分の長さの多様な環境でキャプチャされる。
ビデオの任意の時点で移動するオブジェクトにアノテータにラベルを付け、ファクトラムの後に名前を付けるように求めます。
我々の語彙は、既存の追跡データセットと著しく大きく、質的に異なる。
論文 参考訳(メタデータ) (2020-05-20T21:07:28Z) - MOT20: A benchmark for multi object tracking in crowded scenes [73.92443841487503]
我々は,非常に混み合ったシーンを描写した8つの新しいシーケンスからなるMOT20ベンチマークを提示する。
ベンチマークは第4回BMTT MOT Challenge Workshop at the Computer Vision and Pattern Recognition Conference (CVPR)で初めて発表された。
論文 参考訳(メタデータ) (2020-03-19T20:08:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。