論文の概要: Camouflaged Object Tracking: A Benchmark
- arxiv url: http://arxiv.org/abs/2408.13877v2
- Date: Thu, 05 Dec 2024 15:38:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-06 14:37:15.582622
- Title: Camouflaged Object Tracking: A Benchmark
- Title(参考訳): Camouflaged Object Tracking: ベンチマーク
- Authors: Xiaoyu Guo, Pengzhi Zhong, Hao Zhang, Defeng Huang, Huikai Shao, Qijun Zhao, Shuiwang Li,
- Abstract要約: カモフラージュされたオブジェクト追跡手法を評価するためのベンチマークであるCOTD(Camouflaged Object Tracking dataset)を導入する。
COTDは200のシーケンスと約80,000のフレームで構成され、それぞれに詳細なバウンディングボックスが付加されている。
既存の20個の追跡アルゴリズムを評価した結果,カモフラージュした物体を用いた場合,その性能に重大な欠陥があることが判明した。
本稿では,新しいトラッキングフレームワーク HiPTrack-MLS を提案する。
- 参考スコア(独自算出の注目度): 16.07670491479613
- License:
- Abstract: Visual tracking has seen remarkable advancements, largely driven by the availability of large-scale training datasets that have enabled the development of highly accurate and robust algorithms. While significant progress has been made in tracking general objects, research on more challenging scenarios, such as tracking camouflaged objects, remains limited. Camouflaged objects, which blend seamlessly with their surroundings or other objects, present unique challenges for detection and tracking in complex environments. This challenge is particularly critical in applications such as military, security, agriculture, and marine monitoring, where precise tracking of camouflaged objects is essential. To address this gap, we introduce the Camouflaged Object Tracking Dataset (COTD), a specialized benchmark designed specifically for evaluating camouflaged object tracking methods. The COTD dataset comprises 200 sequences and approximately 80,000 frames, each annotated with detailed bounding boxes. Our evaluation of 20 existing tracking algorithms reveals significant deficiencies in their performance with camouflaged objects. To address these issues, we propose a novel tracking framework, HiPTrack-MLS, which demonstrates promising results in improving tracking performance for camouflaged objects. COTD and code are avialable at https://github.com/openat25/HIPTrack-MLS.
- Abstract(参考訳): ビジュアルトラッキングは目覚ましい進歩を遂げており、主に高精度で堅牢なアルゴリズムの開発を可能にする大規模なトレーニングデータセットが利用可能になった。
一般的な物体の追跡には大きな進歩があったが、カモフラージュされた物体の追跡など、より困難なシナリオの研究は依然として限られている。
カモフラージュされた物体は周囲や他の物体とシームレスに融合し、複雑な環境における検出と追跡に固有の課題を提示する。
この課題は、軍事、安全保障、農業、海洋モニタリングといった応用において特に重要であり、カモフラージュされた物体の正確な追跡が不可欠である。
このギャップに対処するために,カモフラージュされたオブジェクト追跡手法の評価に特化して設計された特別なベンチマークであるCOTD(Camouflaged Object Tracking Dataset)を導入する。
COTDデータセットは200のシーケンスと約80,000のフレームで構成され、それぞれに詳細なバウンディングボックスが注釈付けされている。
既存の20個の追跡アルゴリズムを評価した結果,カモフラージュした物体を用いた場合,その性能に重大な欠陥があることが判明した。
これらの問題に対処するため,我々は新しいトラッキングフレームワークHiPTrack-MLSを提案する。
COTDとコードはhttps://github.com/openat25/HIPTrack-MLSで利用可能である。
関連論文リスト
- Low-Light Object Tracking: A Benchmark [9.798869093713067]
LLOTは、低照度オブジェクト追跡用に特別に設計されたベンチマークである。
LLOTは、合計132Kフレームを持つ269の挑戦的なシーケンスで構成され、それぞれにバウンディングボックスを慎重にアノテートする。
そこで我々は,H-DCPTを提案する。H-DCPT,H-DCPT,H-DCPT,H-DCPT,H-DCPT,H-DCPT,H-DCPT。
論文 参考訳(メタデータ) (2024-08-21T09:27:57Z) - DenseTrack: Drone-based Crowd Tracking via Density-aware Motion-appearance Synergy [33.57923199717605]
ドローンによる群集追跡は、空中からの物体の正確な識別と監視に困難に直面している。
これらの課題に対処するために、密度認識追跡(DenseTrack)フレームワークを提案する。
DenseTrackは、群衆のカウントに乗じて、オブジェクトの位置を正確に決定し、視覚とモーションのキューを混ぜて、小規模オブジェクトの追跡を改善する。
論文 参考訳(メタデータ) (2024-07-24T13:39:07Z) - Tracking Reflected Objects: A Benchmark [12.770787846444406]
我々は、反射オブジェクトのトラッキングに特化したベンチマークであるTROを紹介します。
TROは、約70,000フレームの200のシーケンスを含み、それぞれにバウンディングボックスを慎重にアノテートする。
より強力なベースラインを提供するために,階層的特徴を用いて性能を向上させる新しいトラッカーであるHiP-HaTrackを提案する。
論文 参考訳(メタデータ) (2024-07-07T02:22:45Z) - OmniTracker: Unifying Object Tracking by Tracking-with-Detection [119.51012668709502]
OmniTrackerは、完全に共有されたネットワークアーキテクチャ、モデルウェイト、推論パイプラインですべてのトラッキングタスクを解決するために提供されている。
LaSOT、TrackingNet、DAVIS16-17、MOT17、MOTS20、YTVIS19を含む7つの追跡データセットの実験は、OmniTrackerがタスク固有の追跡モデルと統合された追跡モデルの両方よりも、オンパーまたはそれ以上の結果を達成することを示した。
論文 参考訳(メタデータ) (2023-03-21T17:59:57Z) - CXTrack: Improving 3D Point Cloud Tracking with Contextual Information [59.55870742072618]
3Dオブジェクトトラッキングは、自律運転など、多くのアプリケーションにおいて重要な役割を果たす。
CXTrackは3次元オブジェクト追跡のためのトランスフォーマーベースのネットワークである。
CXTrackは29FPSで動作しながら最先端のトラッキング性能を実現する。
論文 参考訳(メタデータ) (2022-11-12T11:29:01Z) - AVisT: A Benchmark for Visual Object Tracking in Adverse Visibility [125.77396380698639]
AVisTは、視認性の悪いさまざまなシナリオにおける視覚的トラッキングのためのベンチマークである。
AVisTは、80kの注釈付きフレームを持つ120の挑戦的なシーケンスで構成されており、18の多様なシナリオにまたがっている。
我々は、属性間でのトラッキング性能を詳細に分析し、AVisTで17の人気のトラッカーと最近のトラッカーをベンチマークした。
論文 参考訳(メタデータ) (2022-08-14T17:49:37Z) - Single Object Tracking Research: A Survey [44.24280758718638]
本稿では,過去10年間に最も人気の高い追跡フレームワーク2つについて,その理論的根拠と作業について述べる。
本稿では,異なるネットワーク構造に分類したディープラーニングに基づく追跡手法を提案する。
また、追跡問題の課題に対処するための古典的な戦略についても紹介する。
論文 参考訳(メタデータ) (2022-04-25T02:59:15Z) - Learning to Track with Object Permanence [61.36492084090744]
共同物体の検出と追跡のためのエンドツーエンドのトレーニング可能なアプローチを紹介します。
私たちのモデルは、合成データと実データで共同トレーニングされ、KITTIおよびMOT17データセットの最先端を上回ります。
論文 参考訳(メタデータ) (2021-03-26T04:43:04Z) - Track to Detect and Segment: An Online Multi-Object Tracker [81.15608245513208]
TraDeSは、エンドツーエンドの検出を支援するために追跡の手がかりを利用するオンライン共同検出および追跡モデルです。
TraDeSは、以前のオブジェクトの機能を伝播するために使用されるコストボリュームでオブジェクト追跡オフセットを推測します。
論文 参考訳(メタデータ) (2021-03-16T02:34:06Z) - TAO: A Large-Scale Benchmark for Tracking Any Object [95.87310116010185]
オブジェクトのデータセットの追跡は2,907本の高解像度ビデオで構成され、平均で30分の長さの多様な環境でキャプチャされる。
ビデオの任意の時点で移動するオブジェクトにアノテータにラベルを付け、ファクトラムの後に名前を付けるように求めます。
我々の語彙は、既存の追跡データセットと著しく大きく、質的に異なる。
論文 参考訳(メタデータ) (2020-05-20T21:07:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。