論文の概要: TrackMe:A Simple and Effective Multiple Object Tracking Annotation Tool
- arxiv url: http://arxiv.org/abs/2410.15518v1
- Date: Sun, 20 Oct 2024 21:57:25 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-22 13:18:36.882923
- Title: TrackMe:A Simple and Effective Multiple Object Tracking Annotation Tool
- Title(参考訳): TrackMe: シンプルで効果的な複数オブジェクト追跡アノテーションツール
- Authors: Thinh Phan, Isaac Phillips, Andrew Lockett, Michael T. Kidd, Ngan Le,
- Abstract要約: 近年の最先端追跡手法は、物体検出、外観特徴抽出、トラックアソシエーションのためのディープラーニングアーキテクチャに基づいて構築されている。
動物で実行するには、異なる種類の大きなデータセットを複数の条件で作成する必要がある。
本研究では,よく知られたツールである LabelMe を改良し,コンピュータ科学に関する深い知識がなくても,少ない労力でアノテートできるように支援する。
- 参考スコア(独自算出の注目度): 5.102727104196738
- License:
- Abstract: Object tracking, especially animal tracking, is one of the key topics that attract a lot of attention due to its benefits of animal behavior understanding and monitoring. Recent state-of-the-art tracking methods are founded on deep learning architectures for object detection, appearance feature extraction and track association. Despite the good tracking performance, these methods are trained and evaluated on common objects such as human and cars. To perform on the animal, there is a need to create large datasets of different types in multiple conditions. The dataset construction comprises of data collection and data annotation. In this work, we put more focus on the latter task. Particularly, we renovate the well-known tool, LabelMe, so as to assist common user with or without in-depth knowledge about computer science to annotate the data with less effort. The new tool named as TrackMe inherits the simplicity, high compatibility with varied systems, minimal hardware requirement and convenient feature utilization from the predecessor. TrackMe is an upgraded version with essential features for multiple object tracking annotation.
- Abstract(参考訳): 対象追跡(特に動物追跡)は、動物行動の理解とモニタリングの利点により、多くの注目を集める主要なトピックの1つである。
近年の最先端追跡手法は、物体検出、外観特徴抽出、トラックアソシエーションのためのディープラーニングアーキテクチャに基づいて構築されている。
優れた追跡性能にもかかわらず、これらの手法は人や車などの一般的な物体で訓練され評価される。
動物で実行するには、異なる種類の大きなデータセットを複数の条件で作成する必要がある。
データセット構成は、データ収集とデータアノテーションから構成される。
この作業では、後者のタスクにもっと注力します。
特に、よく知られたツールであるLabelMeを改良して、コンピュータ科学に関する深い知識を必要とせずに、より少ない労力でアノテートできるようにします。
TrackMeと名付けられた新しいツールは、単純さ、さまざまなシステムとの互換性の高さ、最小限のハードウェア要件、前任者の便利な機能利用を継承する。
TrackMeは、複数のオブジェクト追跡アノテーションに不可欠な機能を備えたアップグレード版である。
関連論文リスト
- Tracking Reflected Objects: A Benchmark [12.770787846444406]
我々は、反射オブジェクトのトラッキングに特化したベンチマークであるTROを紹介します。
TROは、約70,000フレームの200のシーケンスを含み、それぞれにバウンディングボックスを慎重にアノテートする。
より強力なベースラインを提供するために,階層的特徴を用いて性能を向上させる新しいトラッカーであるHiP-HaTrackを提案する。
論文 参考訳(メタデータ) (2024-07-07T02:22:45Z) - OVTrack: Open-Vocabulary Multiple Object Tracking [64.73379741435255]
OVTrackは任意のオブジェクトクラスを追跡することができるオープン語彙トラッカーである。
大規模な大語彙のTAOベンチマークに新たな最先端技術が設定されている。
論文 参考訳(メタデータ) (2023-04-17T16:20:05Z) - Unifying Tracking and Image-Video Object Detection [54.91658924277527]
TrIVD (Tracking and Image-Video Detection) は、画像OD、ビデオOD、MOTを1つのエンドツーエンドモデルに統合する最初のフレームワークである。
カテゴリラベルの相違やセマンティックな重複に対処するため、TrIVDは対象カテゴリに対する検出/追跡を基礎と理由として定式化している。
論文 参考訳(メタデータ) (2022-11-20T20:30:28Z) - End-to-end Tracking with a Multi-query Transformer [96.13468602635082]
マルチオブジェクトトラッキング(MOT)は、時間とともにシーン内のオブジェクトの位置、外観、アイデンティティを同時に推論する必要がある課題である。
本研究の目的は、トラッキング・バイ・ディテクト・アプローチを超えて、未知のオブジェクト・クラスに対してもよく機能するクラスに依存しないトラッキングへと移行することである。
論文 参考訳(メタデータ) (2022-10-26T10:19:37Z) - AnimalTrack: A Large-scale Benchmark for Multi-Animal Tracking in the
Wild [26.794672185860538]
野生でのマルチ動物追跡のための大規模ベンチマークであるAnimalTrackを紹介した。
AnimalTrackは10種類の一般的な動物カテゴリーから58の配列で構成されている。
我々は14の最先端の代表トラッカーを広範囲に評価した。
論文 参考訳(メタデータ) (2022-04-30T04:23:59Z) - Learning to Track with Object Permanence [61.36492084090744]
共同物体の検出と追跡のためのエンドツーエンドのトレーニング可能なアプローチを紹介します。
私たちのモデルは、合成データと実データで共同トレーニングされ、KITTIおよびMOT17データセットの最先端を上回ります。
論文 参考訳(メタデータ) (2021-03-26T04:43:04Z) - Track to Detect and Segment: An Online Multi-Object Tracker [81.15608245513208]
TraDeSは、エンドツーエンドの検出を支援するために追跡の手がかりを利用するオンライン共同検出および追跡モデルです。
TraDeSは、以前のオブジェクトの機能を伝播するために使用されるコストボリュームでオブジェクト追跡オフセットを推測します。
論文 参考訳(メタデータ) (2021-03-16T02:34:06Z) - Probabilistic 3D Multi-Modal, Multi-Object Tracking for Autonomous
Driving [22.693895321632507]
異なる訓練可能なモジュールからなる確率的、マルチモーダル、マルチオブジェクトトラッキングシステムを提案する。
本手法はNuScenes Trackingデータセットの現在の状態を上回っていることを示した。
論文 参考訳(メタデータ) (2020-12-26T15:00:54Z) - TAO: A Large-Scale Benchmark for Tracking Any Object [95.87310116010185]
オブジェクトのデータセットの追跡は2,907本の高解像度ビデオで構成され、平均で30分の長さの多様な環境でキャプチャされる。
ビデオの任意の時点で移動するオブジェクトにアノテータにラベルを付け、ファクトラムの後に名前を付けるように求めます。
我々の語彙は、既存の追跡データセットと著しく大きく、質的に異なる。
論文 参考訳(メタデータ) (2020-05-20T21:07:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。