論文の概要: NT-VOT211: A Large-Scale Benchmark for Night-time Visual Object Tracking
- arxiv url: http://arxiv.org/abs/2410.20421v1
- Date: Sun, 27 Oct 2024 12:19:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-29 12:17:11.729545
- Title: NT-VOT211: A Large-Scale Benchmark for Night-time Visual Object Tracking
- Title(参考訳): NT-VOT211:夜間ビジュアルオブジェクト追跡のための大規模ベンチマーク
- Authors: Yu Liu, Arif Mahmood, Muhammad Haris Khan,
- Abstract要約: 本稿では,夜間における視覚的物体追跡アルゴリズムの評価のための新しいベンチマークであるNT-VOT211を提案する。
NT-VOT211は211の多様なビデオで構成されており、カメラモーション、変形、高速モーション、動きのぼやけ、小さなターゲット、邪魔者、オクルージョン、外見など8つの属性を持つ211,000の良質なアノテートフレームを提供している。
これは、これまでで最大の夜間トラッキングベンチマークであり、特に、夜間トラッキングシナリオに固有の、視界の悪さ、画像のぼやけ、イントラクタといった、ユニークな課題に対処するように設計されている。
- 参考スコア(独自算出の注目度): 21.897255266278275
- License:
- Abstract: Many current visual object tracking benchmarks such as OTB100, NfS, UAV123, LaSOT, and GOT-10K, predominantly contain day-time scenarios while the challenges posed by the night-time has been less investigated. It is primarily because of the lack of a large-scale, well-annotated night-time benchmark for rigorously evaluating tracking algorithms. To this end, this paper presents NT-VOT211, a new benchmark tailored for evaluating visual object tracking algorithms in the challenging night-time conditions. NT-VOT211 consists of 211 diverse videos, offering 211,000 well-annotated frames with 8 attributes including camera motion, deformation, fast motion, motion blur, tiny target, distractors, occlusion and out-of-view. To the best of our knowledge, it is the largest night-time tracking benchmark to-date that is specifically designed to address unique challenges such as adverse visibility, image blur, and distractors inherent to night-time tracking scenarios. Through a comprehensive analysis of results obtained from 42 diverse tracking algorithms on NT-VOT211, we uncover the strengths and limitations of these algorithms, highlighting opportunities for enhancements in visual object tracking, particularly in environments with suboptimal lighting. Besides, a leaderboard for revealing performance rankings, annotation tools, comprehensive meta-information and all the necessary code for reproducibility of results is made publicly available. We believe that our NT-VOT211 benchmark will not only be instrumental in facilitating field deployment of VOT algorithms, but will also help VOT enhancements and it will unlock new real-world tracking applications. Our dataset and other assets can be found at: {https://github.com/LiuYuML/NV-VOT211.
- Abstract(参考訳): OTB100, NfS, UAV123, LaSOT, GOT-10K などの現在のビジュアルオブジェクト追跡ベンチマークでは、主に昼間のシナリオを含むが、夜間の課題はあまり調査されていない。
それは主に、追跡アルゴリズムを厳格に評価するための大規模な、十分に注釈付けされた夜間ベンチマークがないためである。
そこで本論文では,夜間条件下での視覚的物体追跡アルゴリズムの評価に適したベンチマークであるNT-VOT211を提案する。
NT-VOT211は211の多様なビデオで構成されており、カメラモーション、変形、高速モーション、動きのぼやけ、小さなターゲット、邪魔者、オクルージョン、外見など8つの属性を持つ211,000の良質なアノテートフレームを提供している。
私たちの知る限り、これまでで最大の夜間トラッキングベンチマークであり、特に悪質な可視性、画像のぼかし、夜間トラッキングシナリオに固有の邪魔者といった、ユニークな課題に対処するよう設計されています。
NT-VOT211上の42の多様な追跡アルゴリズムから得られた結果を総合的に分析することにより、これらのアルゴリズムの強みと限界を明らかにし、特に準最適照明環境における視覚的物体追跡の強化の機会を明らかにする。
さらに、パフォーマンスランキング、アノテーションツール、包括的なメタ情報、結果の再現性に必要なコードをすべて公開するリーダーボードも公開されている。
NT-VOT211ベンチマークは、VOTアルゴリズムのフィールド展開を容易にするだけでなく、VOTの強化にも役立ち、新たな実世界のトラッキングアプリケーションをアンロックできると考えています。
私たちのデータセットとその他のアセットは、以下のとおりです。
関連論文リスト
- Camouflaged_Object_Tracking__A_Benchmark [13.001689702214573]
カモフラージュされたオブジェクト追跡手法を評価するためのベンチマークであるCOTD(Camouflaged Object Tracking dataset)を導入する。
COTDは200のシーケンスと約80,000のフレームで構成され、それぞれに詳細なバウンディングボックスが付加されている。
既存の20個の追跡アルゴリズムを評価した結果,カモフラージュした物体を用いた場合,その性能に重大な欠陥があることが判明した。
本稿では,新しいトラッキングフレームワーク HiPTrack-MLS を提案する。
論文 参考訳(メタデータ) (2024-08-25T15:56:33Z) - Low-Light Object Tracking: A Benchmark [9.798869093713067]
LLOTは、低照度オブジェクト追跡用に特別に設計されたベンチマークである。
LLOTは、合計132Kフレームを持つ269の挑戦的なシーケンスで構成され、それぞれにバウンディングボックスを慎重にアノテートする。
そこで我々は,H-DCPTを提案する。H-DCPT,H-DCPT,H-DCPT,H-DCPT,H-DCPT,H-DCPT,H-DCPT。
論文 参考訳(メタデータ) (2024-08-21T09:27:57Z) - Temporal Correlation Meets Embedding: Towards a 2nd Generation of JDE-based Real-Time Multi-Object Tracking [52.04679257903805]
共同検出・埋め込み(JDE)トラッカーは多目的追跡(MOT)タスクにおいて優れた性能を示した。
TCBTrackという名前のトラッカーは、複数の公開ベンチマークで最先端のパフォーマンスを実現しています。
論文 参考訳(メタデータ) (2024-07-19T07:48:45Z) - Tracking Reflected Objects: A Benchmark [12.770787846444406]
我々は、反射オブジェクトのトラッキングに特化したベンチマークであるTROを紹介します。
TROは、約70,000フレームの200のシーケンスを含み、それぞれにバウンディングボックスを慎重にアノテートする。
より強力なベースラインを提供するために,階層的特徴を用いて性能を向上させる新しいトラッカーであるHiP-HaTrackを提案する。
論文 参考訳(メタデータ) (2024-07-07T02:22:45Z) - Autoregressive Queries for Adaptive Tracking with Spatio-TemporalTransformers [55.46413719810273]
リッチ時間情報は、視覚追跡における複雑なターゲットの出現に不可欠である。
提案手法は,6つの一般的な追跡ベンチマークにおいてトラッカーの性能を向上させる。
論文 参考訳(メタデータ) (2024-03-15T02:39:26Z) - Improving Underwater Visual Tracking With a Large Scale Dataset and
Image Enhancement [70.2429155741593]
本稿では,水中ビジュアルオブジェクト追跡(UVOT)のための新しいデータセットと汎用トラッカ拡張手法を提案する。
水中環境は、一様でない照明条件、視界の低さ、鋭さの欠如、コントラストの低さ、カモフラージュ、懸濁粒子からの反射を示す。
本研究では,追尾品質の向上に特化して設計された水中画像強調アルゴリズムを提案する。
この手法により、最先端(SOTA)ビジュアルトラッカーの最大5.0%のAUCの性能が向上した。
論文 参考訳(メタデータ) (2023-08-30T07:41:26Z) - Tracker Meets Night: A Transformer Enhancer for UAV Tracking [20.74868878876137]
空間チャネルトランスを用いた低照度エンハンサが提案され, 追従手法に先立って接続される。
高レベルタスクを対象としたセマンティックレベルの低照度化を実現するために,新しい空間チャネルアテンションモジュールを提案する。
エンハンスメント工程では、SCTは夜間画像を同時にデノイズし、照明する。
論文 参考訳(メタデータ) (2023-03-20T09:18:52Z) - AVisT: A Benchmark for Visual Object Tracking in Adverse Visibility [125.77396380698639]
AVisTは、視認性の悪いさまざまなシナリオにおける視覚的トラッキングのためのベンチマークである。
AVisTは、80kの注釈付きフレームを持つ120の挑戦的なシーケンスで構成されており、18の多様なシナリオにまたがっている。
我々は、属性間でのトラッキング性能を詳細に分析し、AVisTで17の人気のトラッカーと最近のトラッカーをベンチマークした。
論文 参考訳(メタデータ) (2022-08-14T17:49:37Z) - Visible-Thermal UAV Tracking: A Large-Scale Benchmark and New Baseline [80.13652104204691]
本稿では,可視熱UAV追跡(VTUAV)のための高多様性の大規模ベンチマークを構築する。
本稿では, フレームレベルの属性を, チャレンジ固有のトラッカーの可能性を利用するための粗粒度属性アノテーションを提案する。
さらに,様々なレベルでRGB-Tデータを融合するHMFT(Hierarchical Multi-modal Fusion Tracker)という新しいRGB-Tベースラインを設計する。
論文 参考訳(メタデータ) (2022-04-08T15:22:33Z) - MOT20: A benchmark for multi object tracking in crowded scenes [73.92443841487503]
我々は,非常に混み合ったシーンを描写した8つの新しいシーケンスからなるMOT20ベンチマークを提示する。
ベンチマークは第4回BMTT MOT Challenge Workshop at the Computer Vision and Pattern Recognition Conference (CVPR)で初めて発表された。
論文 参考訳(メタデータ) (2020-03-19T20:08:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。