論文の概要: AnimalTrack: A Large-scale Benchmark for Multi-Animal Tracking in the
Wild
- arxiv url: http://arxiv.org/abs/2205.00158v1
- Date: Sat, 30 Apr 2022 04:23:59 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-03 15:24:08.069614
- Title: AnimalTrack: A Large-scale Benchmark for Multi-Animal Tracking in the
Wild
- Title(参考訳): animaltrack:野生のマルチ動物追跡のための大規模ベンチマーク
- Authors: Libo Zhang, Junyuan Gao, Zhen Xiao, Heng Fan
- Abstract要約: 野生でのマルチ動物追跡のための大規模ベンチマークであるAnimalTrackを紹介した。
AnimalTrackは10種類の一般的な動物カテゴリーから58の配列で構成されている。
我々は14の最先端の代表トラッカーを広範囲に評価した。
- 参考スコア(独自算出の注目度): 26.794672185860538
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Multi-animal tracking (MAT), a multi-object tracking (MOT) problem, is
crucial for animal motion and behavior analysis and has many crucial
applications such as biology, ecology, animal conservation and so forth.
Despite its importance, MAT is largely under-explored compared to other MOT
problems such as multi-human tracking due to the scarcity of large-scale
benchmark. To address this problem, we introduce AnimalTrack, a large-scale
benchmark for multi-animal tracking in the wild. Specifically, AnimalTrack
consists of 58 sequences from a diverse selection of 10 common animal
categories. On average, each sequence comprises of 33 target objects for
tracking. In order to ensure high quality, every frame in AnimalTrack is
manually labeled with careful inspection and refinement. To our best knowledge,
AnimalTrack is the first benchmark dedicated to multi-animal tracking. In
addition, to understand how existing MOT algorithms perform on AnimalTrack and
provide baselines for future comparison, we extensively evaluate 14
state-of-the-art representative trackers. The evaluation results demonstrate
that, not surprisingly, most of these trackers become degenerated due to the
differences between pedestrians and animals in various aspects (e.g., pose,
motion, appearance, etc), and more efforts are desired to improve multi-animal
tracking. We hope that AnimalTrack together with evaluation and analysis will
foster further progress on multi-animal tracking. The dataset and evaluation as
well as our analysis will be made available upon the acceptance.
- Abstract(参考訳): 多対象追跡(MOT)問題であるマルチアニマルトラッキング(MAT)は、動物の動きや行動解析に不可欠であり、生物学、生態学、動物保護など多くの重要な応用がある。
その重要性にもかかわらず、MATは大規模なベンチマークが不足しているため、マルチヒューマントラッキングのような他のMOT問題と比較してほとんど探索されていない。
この問題に対処するために,野生のマルチ動物追跡のための大規模ベンチマークであるanimaltrackを紹介する。
具体的には、animaltrackは10の共通動物カテゴリの多様な選択から58の配列からなる。
各シーケンスは、追跡対象の33のオブジェクトで構成される。
高品質を確保するために、AnimalTrackのすべてのフレームに、慎重に検査と精査を手動でラベル付けする。
われわれの知る限り、animaltrackはマルチ動物追跡に特化した最初のベンチマークだ。
さらに,既存のMOTアルゴリズムがAnimalTrack上でどのように機能するかを理解し,将来の比較のためのベースラインを提供するため,14の最先端の代表トラッカーを広範囲に評価した。
評価結果から, 歩行者と動物の違い(例えば, ポーズ, 動き, 外観など)により, トラッカーのほとんどが劣化し, マルチアニマルトラッキングの改善が望まれていることが明らかとなった。
animaltrackと評価と分析が、マルチアニマルトラッキングのさらなる進歩を促すことを期待している。
データセットと評価、そして私たちの分析は、受け入れ次第利用可能になります。
関連論文リスト
- BuckTales : A multi-UAV dataset for multi-object tracking and re-identification of wild antelopes [0.6267336085190178]
BuckTalesは、野生動物の多目的追跡と再同定問題を解決するために設計された最初の大規模なUAVデータセットである。
MOTデータセットには12の高解像度(5.4K)ビデオを含む680トラックを含む120万以上のアノテーションが含まれている。
Re-IDデータセットには、同時に2つのUAVで捕獲された730人の個人が含まれている。
論文 参考訳(メタデータ) (2024-11-11T11:55:14Z) - TrackMe:A Simple and Effective Multiple Object Tracking Annotation Tool [5.102727104196738]
近年の最先端追跡手法は、物体検出、外観特徴抽出、トラックアソシエーションのためのディープラーニングアーキテクチャに基づいて構築されている。
動物で実行するには、異なる種類の大きなデータセットを複数の条件で作成する必要がある。
本研究では,よく知られたツールである LabelMe を改良し,コンピュータ科学に関する深い知識がなくても,少ない労力でアノテートできるように支援する。
論文 参考訳(メタデータ) (2024-10-20T21:57:25Z) - Iterative Scale-Up ExpansionIoU and Deep Features Association for
Multi-Object Tracking in Sports [26.33239898091364]
本稿では,スポーツシナリオに対するDeep ExpansionIoU (Deep-EIoU) という,オンラインかつ堅牢な多対象追跡手法を提案する。
従来の手法とは異なり、カルマンフィルタの使用を放棄し、スポーツシナリオにおける拡張IoUの反復的なスケールアップと深い特徴を活用して、ロバストなトラッキングを行う。
提案手法は,SportsMOTデータセットで77.2%,SportsNet-Trackingデータセットで85.4%を達成し,不規則な動き物体の追跡に顕著な効果を示した。
論文 参考訳(メタデータ) (2023-06-22T17:47:08Z) - OmniTracker: Unifying Object Tracking by Tracking-with-Detection [119.51012668709502]
OmniTrackerは、完全に共有されたネットワークアーキテクチャ、モデルウェイト、推論パイプラインですべてのトラッキングタスクを解決するために提供されている。
LaSOT、TrackingNet、DAVIS16-17、MOT17、MOTS20、YTVIS19を含む7つの追跡データセットの実験は、OmniTrackerがタスク固有の追跡モデルと統合された追跡モデルの両方よりも、オンパーまたはそれ以上の結果を達成することを示した。
論文 参考訳(メタデータ) (2023-03-21T17:59:57Z) - APT-36K: A Large-scale Benchmark for Animal Pose Estimation and Tracking [77.87449881852062]
APT-36Kは動物のポーズ推定と追跡のための最初の大規模ベンチマークである。
このビデオは、30種の動物から収集・フィルタリングされた2,400のビデオクリップと、各ビデオの15フレームで構成されており、合計で36,000フレームとなっている。
我々は,(1)ドメイン内およびドメイン間移動学習環境下での単一フレームでの動物ポーズ推定,(2)未確認動物に対する種間ドメイン一般化テスト,(3)動物追跡による動物ポーズ推定の3つのモデルについて,いくつかの代表的モデルをベンチマークした。
論文 参考訳(メタデータ) (2022-06-12T07:18:36Z) - Single Object Tracking Research: A Survey [44.24280758718638]
本稿では,過去10年間に最も人気の高い追跡フレームワーク2つについて,その理論的根拠と作業について述べる。
本稿では,異なるネットワーク構造に分類したディープラーニングに基づく追跡手法を提案する。
また、追跡問題の課題に対処するための古典的な戦略についても紹介する。
論文 参考訳(メタデータ) (2022-04-25T02:59:15Z) - DanceTrack: Multi-Object Tracking in Uniform Appearance and Diverse
Motion [56.1428110894411]
マルチヒューマントラッキングのための大規模データセットを提案する。
データセットには、主にグループダンスビデオが含まれているので、私たちはそれを"DanceTrack"と名付けます。
当社のデータセット上でいくつかの最先端トラッカーをベンチマークし、既存のベンチマークと比較した場合、DanceTrackの大幅なパフォーマンス低下を観察します。
論文 参考訳(メタデータ) (2021-11-29T16:49:06Z) - Track to Detect and Segment: An Online Multi-Object Tracker [81.15608245513208]
TraDeSは、エンドツーエンドの検出を支援するために追跡の手がかりを利用するオンライン共同検出および追跡モデルです。
TraDeSは、以前のオブジェクトの機能を伝播するために使用されるコストボリュームでオブジェクト追跡オフセットを推測します。
論文 参考訳(メタデータ) (2021-03-16T02:34:06Z) - MOTChallenge: A Benchmark for Single-Camera Multiple Target Tracking [72.76685780516371]
単カメラ多目的追跡(MOT)のためのベンチマークMOTChallengeを提案する。
このベンチマークは、歩行者がトラッキングコミュニティで最も研究されているオブジェクトであるため、複数の人を追跡することに重点を置いている。
我々は,最先端トラッカーの分類と広い誤差解析を行う。
論文 参考訳(メタデータ) (2020-10-15T06:52:16Z) - TAO: A Large-Scale Benchmark for Tracking Any Object [95.87310116010185]
オブジェクトのデータセットの追跡は2,907本の高解像度ビデオで構成され、平均で30分の長さの多様な環境でキャプチャされる。
ビデオの任意の時点で移動するオブジェクトにアノテータにラベルを付け、ファクトラムの後に名前を付けるように求めます。
我々の語彙は、既存の追跡データセットと著しく大きく、質的に異なる。
論文 参考訳(メタデータ) (2020-05-20T21:07:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。