論文の概要: Transparent Object Tracking Benchmark
- arxiv url: http://arxiv.org/abs/2011.10875v2
- Date: Sun, 1 Aug 2021 21:14:37 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-22 23:35:11.186825
- Title: Transparent Object Tracking Benchmark
- Title(参考訳): 透明オブジェクト追跡ベンチマーク
- Authors: Heng Fan, Halady Akhilesha Miththanthaya, Harshit, Siranjiv Ramana
Rajan, Xiaoqiong Liu, Zhilin Zou, Yuewei Lin, Haibin Ling
- Abstract要約: Transparent Object Tracking Benchmarkは、15の異なる透明なオブジェクトカテゴリから225のビデオ(86Kフレーム)で構成されている。
我々の知る限りでは、TOTBは透明なオブジェクト追跡に特化した最初のベンチマークです。
今後の研究を促進するために,透過性を利用した新しいトラッカーであるTransATOMを導入する。
- 参考スコア(独自算出の注目度): 58.19532269423211
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Visual tracking has achieved considerable progress in recent years. However,
current research in the field mainly focuses on tracking of opaque objects,
while little attention is paid to transparent object tracking. In this paper,
we make the first attempt in exploring this problem by proposing a Transparent
Object Tracking Benchmark (TOTB). Specifically, TOTB consists of 225 videos
(86K frames) from 15 diverse transparent object categories. Each sequence is
manually labeled with axis-aligned bounding boxes. To the best of our
knowledge, TOTB is the first benchmark dedicated to transparent object
tracking. In order to understand how existing trackers perform and to provide
comparison for future research on TOTB, we extensively evaluate 25
state-of-the-art tracking algorithms. The evaluation results exhibit that more
efforts are needed to improve transparent object tracking. Besides, we observe
some nontrivial findings from the evaluation that are discrepant with some
common beliefs in opaque object tracking. For example, we find that deeper
features are not always good for improvements. Moreover, to encourage future
research, we introduce a novel tracker, named TransATOM, which leverages
transparency features for tracking and surpasses all 25 evaluated approaches by
a large margin. By releasing TOTB, we expect to facilitate future research and
application of transparent object tracking in both the academia and industry.
The TOTB and evaluation results as well as TransATOM are available at
https://hengfan2010.github.io/projects/TOTB.
- Abstract(参考訳): 近年、視覚追跡は大きな進歩を遂げている。
しかし、この分野における現在の研究は主に不透明物体の追跡に焦点を当てているが、透明物体の追跡にはほとんど注目されていない。
本稿では,TOTB(Transparent Object Tracking Benchmark)を提案することにより,この問題を初めて解明する。
具体的には、TOTBは15の異なる透明なオブジェクトカテゴリから225のビデオ(86Kフレーム)で構成されている。
各シーケンスは、軸方向のバウンディングボックスで手動でラベル付けされる。
私たちの知る限り、totbは透明なオブジェクトトラッキングに特化した最初のベンチマークです。
既存のトラッカの動作を把握し,今後のtotb研究に比較するために,25の最先端トラッキングアルゴリズムを広範囲に評価した。
評価の結果,透明物体追跡の改善にはさらなる努力が必要であることが示された。
さらに,不透明物体追跡における一般的な信念と相反する評価から,いくつかの非自明な発見を観察する。
例えば、より深い機能は必ずしも改善に向いていないことが分かります。
さらに,将来的な研究を促進するために,トランスATOMという新しいトラッカーを導入する。これは透明性機能を活用し,評価された25のアプローチをすべて大きなマージンで追い越す。
TOTBのリリースにより、学術と産業の両方における透明物体追跡の今後の研究と応用が促進されることを期待する。
TOTBおよび評価結果およびTransATOMは、https://hengfan2010.github.io/projects/TOTBで入手できる。
関連論文リスト
- Tracking Reflected Objects: A Benchmark [12.770787846444406]
我々は、反射オブジェクトのトラッキングに特化したベンチマークであるTROを紹介します。
TROは、約70,000フレームの200のシーケンスを含み、それぞれにバウンディングボックスを慎重にアノテートする。
より強力なベースラインを提供するために,階層的特徴を用いて性能を向上させる新しいトラッカーであるHiP-HaTrackを提案する。
論文 参考訳(メタデータ) (2024-07-07T02:22:45Z) - A New Dataset and a Distractor-Aware Architecture for Transparent Object
Tracking [34.08943612955157]
現代のトラッカーの性能は透明な物体に対して不透明な物体に比べて著しく低下する。
104,343枚の画像を含む2k以上のシーケンスからなる,最初の透明なオブジェクト追跡トレーニングデータセットであるTrans2kを提案する。
また,局所化精度と目標識別を個別のタスクとして扱うディストラプタ対応透明物体追跡器(DiTra)を提案する。
論文 参考訳(メタデータ) (2024-01-08T13:04:28Z) - Tracking with Human-Intent Reasoning [64.69229729784008]
この作業では、新しいトラッキングタスクであるインストラクショントラッキングを提案している。
ビデオフレーム内で自動的にトラッキングを実行するようにトラッカーに要求する暗黙の追跡命令を提供する。
TrackGPTは複雑な推論ベースの追跡を行うことができる。
論文 参考訳(メタデータ) (2023-12-29T03:22:18Z) - Transparent Object Tracking with Enhanced Fusion Module [56.403878717170784]
我々は,我々の融合技術を用いて,透明物体追跡のための優れた結果を得る新しいトラッカーアーキテクチャを提案する。
我々の結果とコードの実装はhttps://github.com/kalyan05TOTEM.comで公開されます。
論文 参考訳(メタデータ) (2023-09-13T03:52:09Z) - OmniTracker: Unifying Object Tracking by Tracking-with-Detection [119.51012668709502]
OmniTrackerは、完全に共有されたネットワークアーキテクチャ、モデルウェイト、推論パイプラインですべてのトラッキングタスクを解決するために提供されている。
LaSOT、TrackingNet、DAVIS16-17、MOT17、MOTS20、YTVIS19を含む7つの追跡データセットの実験は、OmniTrackerがタスク固有の追跡モデルと統合された追跡モデルの両方よりも、オンパーまたはそれ以上の結果を達成することを示した。
論文 参考訳(メタデータ) (2023-03-21T17:59:57Z) - Trans2k: Unlocking the Power of Deep Models for Transparent Object
Tracking [41.039837388154]
104,343枚の画像を含む2k以上のシーケンスからなる,最初の透明なオブジェクト追跡トレーニングデータセットであるTrans2kを提案する。
ドメイン固有の属性を定量化し、ビジュアル属性を含むデータセットをレンダリングし、既存のオブジェクトトレーニングデータセットではカバーされていない状況を追跡する。
データセットとレンダリングエンジンは、現代的な学習ベースのトラッカーのパワーを解放し、透明なオブジェクトトラッキングにおける新しいデザインを育むために、一般公開される。
論文 参考訳(メタデータ) (2022-10-07T10:08:13Z) - Tracking Small and Fast Moving Objects: A Benchmark [0.1679937788852769]
textbfTracking textbfSmall と textbfFast textbfMoving textbfObjects のベンチマークである TSFMO を提示する。
私たちの知る限りでは、TSFMOは、特にスポーツに関連する、小さく速く動く物体を追跡するための最初のベンチマークです。
今後の研究を促進するため,評価対象20種を超越した新しいトラッカーS-KeepTrackを提案する。
論文 参考訳(メタデータ) (2022-09-09T13:14:44Z) - MOTChallenge: A Benchmark for Single-Camera Multiple Target Tracking [72.76685780516371]
単カメラ多目的追跡(MOT)のためのベンチマークMOTChallengeを提案する。
このベンチマークは、歩行者がトラッキングコミュニティで最も研究されているオブジェクトであるため、複数の人を追跡することに重点を置いている。
我々は,最先端トラッカーの分類と広い誤差解析を行う。
論文 参考訳(メタデータ) (2020-10-15T06:52:16Z) - TAO: A Large-Scale Benchmark for Tracking Any Object [95.87310116010185]
オブジェクトのデータセットの追跡は2,907本の高解像度ビデオで構成され、平均で30分の長さの多様な環境でキャプチャされる。
ビデオの任意の時点で移動するオブジェクトにアノテータにラベルを付け、ファクトラムの後に名前を付けるように求めます。
我々の語彙は、既存の追跡データセットと著しく大きく、質的に異なる。
論文 参考訳(メタデータ) (2020-05-20T21:07:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。