論文の概要: An Informative Tracking Benchmark
- arxiv url: http://arxiv.org/abs/2112.06467v1
- Date: Mon, 13 Dec 2021 07:56:16 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-15 02:30:39.233574
- Title: An Informative Tracking Benchmark
- Title(参考訳): 情報追跡ベンチマーク
- Authors: Xin Li and Qiao Liu and Wenjie Pei and Qiuhong Shen and Yaowei Wang
and Huchuan Lu and Ming-Hsuan Yang
- Abstract要約: 既存のデータセットと新たに収集されたデータセットの1.2Mフレームのうち7%が、小型かつ情報的追跡ベンチマーク(ITB)である。
1) 課題レベル, 2) 識別力, 3) 外観変化の密度を考慮し, 既存のベンチマークから最も有意義なシーケンスを選択する。
同一データ上で再学習した15の最先端トラッカーの結果を解析することにより,各シナリオ下でのロバストなトラッカーの効果的な手法を決定できる。
- 参考スコア(独自算出の注目度): 133.0931262969931
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Along with the rapid progress of visual tracking, existing benchmarks become
less informative due to redundancy of samples and weak discrimination between
current trackers, making evaluations on all datasets extremely time-consuming.
Thus, a small and informative benchmark, which covers all typical challenging
scenarios to facilitate assessing the tracker performance, is of great
interest. In this work, we develop a principled way to construct a small and
informative tracking benchmark (ITB) with 7% out of 1.2 M frames of existing
and newly collected datasets, which enables efficient evaluation while ensuring
effectiveness. Specifically, we first design a quality assessment mechanism to
select the most informative sequences from existing benchmarks taking into
account 1) challenging level, 2) discriminative strength, 3) and density of
appearance variations. Furthermore, we collect additional sequences to ensure
the diversity and balance of tracking scenarios, leading to a total of 20
sequences for each scenario. By analyzing the results of 15 state-of-the-art
trackers re-trained on the same data, we determine the effective methods for
robust tracking under each scenario and demonstrate new challenges for future
research direction in this field.
- Abstract(参考訳): ビジュアルトラッキングの急速な進歩とともに、既存のベンチマークはサンプルの冗長性や現在のトラッカー間の差別の弱さにより情報量が少なくなり、すべてのデータセットの評価は非常に時間がかかる。
このように、トラッカーのパフォーマンスを評価するための典型的なシナリオを網羅する、小さくて情報に富んだベンチマークは非常に興味深い。
本研究では,既存のデータセットの1.2Mフレームのうち7%を対象とし,有効性を確保しつつ,効率的な評価を可能にする,小型かつ情報的な追跡ベンチマーク(ITB)を構築する方法を開発した。
具体的には、既存のベンチマークから最も有意義なシーケンスを選択するための品質評価機構をまず設計する。
1)課題レベル。
2)識別力
3) および外観変化の密度。
さらに,追跡シナリオの多様性とバランスを確保するために追加シーケンスを収集し,各シナリオに合計20シーケンスを割り当てる。
同じデータで再トレーニングされた15の最先端トラッカーの結果を分析し,各シナリオにおけるロバストトラッキングの効果的な方法を決定し,この分野における今後の研究に向けた新たな課題を示す。
関連論文リスト
- SmurfCat at SemEval-2024 Task 6: Leveraging Synthetic Data for Hallucination Detection [51.99159169107426]
本稿では,SemEval-2024幻覚検出タスクのための新しいシステムを提案する。
我々の調査は、モデル予測と基準基準を比較するための様々な戦略にまたがっている。
強力なパフォーマンス指標を示す3つの異なる方法を紹介します。
論文 参考訳(メタデータ) (2024-04-09T09:03:44Z) - BAL: Balancing Diversity and Novelty for Active Learning [53.289700543331925]
多様な不確実なデータのバランスをとるために適応的なサブプールを構築する新しいフレームワークであるBalancing Active Learning (BAL)を導入する。
我々のアプローチは、広く認識されているベンチマークにおいて、確立されたすべてのアクティブな学習方法より1.20%優れています。
論文 参考訳(メタデータ) (2023-12-26T08:14:46Z) - LocoMuJoCo: A Comprehensive Imitation Learning Benchmark for Locomotion [20.545058017790428]
模倣学習は、エンボディエージェントでアジャイルの移動を可能にするための大きな約束を持っています。
本稿では,ILアルゴリズムの厳密な評価と比較を容易にするための新しいベンチマークを提案する。
このベンチマークは四足歩行、二足歩行、筋骨格人体モデルを含む多様な環境を含む。
論文 参考訳(メタデータ) (2023-11-04T19:41:50Z) - TrackFlow: Multi-Object Tracking with Normalizing Flows [36.86830078167583]
トラッキング・バイ・ディテクトをマルチモーダル・セッティングに拡張することを目的としている。
3D情報の大まかな見積も利用可能であり、他の伝統的なメトリクスとマージする必要がある。
提案手法は,複数のトラッキング・バイ・検出アルゴリズムの性能を継続的に向上させる。
論文 参考訳(メタデータ) (2023-08-22T15:40:03Z) - Self-Supervised Representation Learning from Temporal Ordering of
Automated Driving Sequences [49.91741677556553]
本研究では、認識タスクのための地域レベルの特徴表現を事前学習するための時間順述前文タスクであるTempOを提案する。
我々は各フレームを、オブジェクト検出やトラッキングシステムにとって自然な表現である、未順序な特徴ベクトルのセットで埋め込む。
BDD100K、nu Images、MOT17データセットの大規模な評価は、私たちのTempO事前学習アプローチがシングルフレームの自己教師型学習方法よりも優れていることを示している。
論文 参考訳(メタデータ) (2023-02-17T18:18:27Z) - Adaptive Siamese Tracking with a Compact Latent Network [219.38172719948048]
追跡タスクを分類に変換することで,シームズをベースとしたトラッカーを簡易化する直感的なビューを提供する。
そこで本研究では,視覚シミュレーションと実追跡例を用いて,詳細な解析を行う。
そこで我々は,古典的なSiamRPN++,SiamFC,SiamBANの3つのトラッカーを調整した。
論文 参考訳(メタデータ) (2023-02-02T08:06:02Z) - One Class One Click: Quasi Scene-level Weakly Supervised Point Cloud
Semantic Segmentation with Active Learning [29.493759008637532]
One Class One Click (OCOC)は、ポイントレベルのアノテーションとシーンレベルのアノテーションをカプセル化した、低コストで情報的な準シーンレベルのラベルである。
グローバル・ローカル・パースペクティブからの弱い監督を伴って、希少なラベルを活用するために、活発な弱監督フレームワークが提案されている。
F1スコアの平均値において、実際のシーンレベルの弱い監督手法を最大25%上回っている。
論文 参考訳(メタデータ) (2022-11-23T01:23:26Z) - Towards Sequence-Level Training for Visual Tracking [60.95799261482857]
本研究は、強化学習に基づく視覚追跡のためのシーケンスレベルのトレーニング戦略を導入する。
4つの代表的な追跡モデル、SiamRPN++、SiamAttn、TransT、TrDiMPは、提案手法をトレーニングに取り入れることで一貫して改善されている。
論文 参考訳(メタデータ) (2022-08-11T13:15:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。