論文の概要: A Scale-Invariant Trajectory Simplification Method for Efficient Data
Collection in Videos
- arxiv url: http://arxiv.org/abs/2304.01340v1
- Date: Mon, 3 Apr 2023 20:11:35 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-05 16:27:40.980870
- Title: A Scale-Invariant Trajectory Simplification Method for Efficient Data
Collection in Videos
- Title(参考訳): ビデオ中の効率的なデータ収集のためのスケール不変トラジェクトリ簡易化法
- Authors: Yang Liu, Luiz Gustavo Hafemann
- Abstract要約: トレーニングデータは、機械学習タスクにとって重要な要件である。
アプリケーションを追跡するために、データ収集は各フレームで関心のあるクラスの周りにバウンディングボックスを描画する。
本稿では,この半自動シナリオにおいて,より効率的に地中構造データを生成するためのデータ補正パイプラインを提案する。
- 参考スコア(独自算出の注目度): 6.2646642083846436
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Training data is a critical requirement for machine learning tasks, and
labeled training data can be expensive to acquire, often requiring manual or
semi-automated data collection pipelines. For tracking applications, the data
collection involves drawing bounding boxes around the classes of interest on
each frame, and associate detections of the same "instance" over frames. In a
semi-automated data collection pipeline, this can be achieved by running a
baseline detection and tracking algorithm, and relying on manual correction to
add/remove/change bounding boxes on each frame, as well as resolving errors in
the associations over frames (track switches). In this paper, we propose a data
correction pipeline to generate ground-truth data more efficiently in this
semi-automated scenario. Our method simplifies the trajectories from the
tracking systems and let the annotator verify and correct the objects in the
sampled keyframes. Once the objects in the keyframes are corrected, the
bounding boxes in the other frames are obtained by interpolation. Our method
achieves substantial reduction in the number of frames requiring manual
correction. In the MOT dataset, it reduces the number of frames by 30x while
maintaining a HOTA score of 89.61% . Moreover, it reduces the number of frames
by a factor of 10x while achieving a HOTA score of 79.24% in the SoccerNet
dataset, and 85.79% in the DanceTrack dataset. The project code and data are
publicly released at
https://github.com/foreverYoungGitHub/trajectory-simplify-benchmark.
- Abstract(参考訳): トレーニングデータは機械学習タスクにとって重要な要件であり、ラベル付きトレーニングデータは取得に高価であり、手動または半自動のデータ収集パイプラインを必要とすることが多い。
アプリケーションを追跡するために、データ収集は各フレームの関心クラスの周りにバウンディングボックスを描画し、同じ"インスタンス"の検出をフレーム上で関連付ける。
半自動データ収集パイプラインでは、ベースライン検出とトラッキングアルゴリズムを実行し、各フレームにバウンディングボックスを追加/削除/変更するための手作業による修正と、フレーム(トラックスイッチ)上のアソシエーションエラーの解決によって、これを実現することができる。
本稿では,この半自動化シナリオにおいて,より効率的に地中データを生成するためのデータ補正パイプラインを提案する。
提案手法は追跡システムからのトラジェクタを単純化し,アノテータがサンプルしたキーフレーム内のオブジェクトの検証と修正を行う。
キーフレーム内のオブジェクトが修正されると、他のフレームのバウンディングボックスは補間によって取得される。
本手法は,手動補正を必要とするフレーム数を大幅に削減する。
MOTデータセットでは、HOTAスコア89.61%を維持しながらフレーム数を30倍に削減する。
さらに、サッカーネットデータセットでは79.24%、ダンストラックデータセットでは85.79%のホタスコアを達成しつつ、フレーム数を10倍に削減する。
プロジェクトコードとデータはhttps://github.com/foreverYoungGitHub/trajectory-simplify-benchmarkで公開されている。
関連論文リスト
- Weakly Contrastive Learning via Batch Instance Discrimination and Feature Clustering for Small Sample SAR ATR [7.2932563202952725]
BIDFC(Batch Instance Discrimination and Feature Clustering)と呼ばれる新しいフレームワークを提案する。
本枠組みでは,SAR画像中の試料間の類似度が高いため,試料間の埋め込み距離は適度である。
移動・静止目標獲得・認識(MSTAR)データベースの実験結果から,3.13%のトレーニングデータに基づいて,本手法の91.25%の分類精度が得られた。
論文 参考訳(メタデータ) (2024-08-07T08:39:33Z) - Automated Multimodal Data Annotation via Calibration With Indoor
Positioning System [0.0]
本手法では,室内位置決めシステム(IPS)を用いて,点雲と画像の両方の正確な検出ラベルを生成する。
実験では、システムは人間のベースラインの261.8倍の速さで関心のあるオブジェクトに注釈を付ける。
論文 参考訳(メタデータ) (2023-12-06T16:54:24Z) - Knowledge Combination to Learn Rotated Detection Without Rotated
Annotation [53.439096583978504]
回転バウンディングボックスは、伸長したオブジェクトの出力あいまいさを劇的に減少させる。
この効果にもかかわらず、回転検出器は広く使われていない。
本稿では,モデルが正確な回転ボックスを予測できるフレームワークを提案する。
論文 参考訳(メタデータ) (2023-04-05T03:07:36Z) - Automatic vehicle trajectory data reconstruction at scale [2.010294990327175]
本稿では,視覚に基づく車両軌道データにおける共通誤差を補正する自動軌道データ照合法を提案する。
本手法により, 実験対象の入力データの精度が向上し, 広い範囲で精度が向上することを示す。
論文 参考訳(メタデータ) (2022-12-15T15:39:55Z) - Revisiting Color-Event based Tracking: A Unified Network, Dataset, and
Metric [53.88188265943762]
上記の機能を同時に実現したCEUTrack(Color-Event Unified Tracking)のためのシングルステージバックボーンネットワークを提案する。
提案するCEUTrackはシンプルで,効率的で,75FPS以上を達成し,新たなSOTA性能を実現している。
論文 参考訳(メタデータ) (2022-11-20T16:01:31Z) - ComplETR: Reducing the cost of annotations for object detection in dense
scenes with vision transformers [73.29057814695459]
ComplETRは、部分的にアノテートされた高密度なシーンデータセットで欠落したアノテーションを明示的に補完するように設計されている。
これにより、シーン内のすべてのオブジェクトインスタンスに注釈を付ける必要がなくなり、アノテーションのコストが削減される。
本稿では, 高速R-CNN, カスケードR-CNN, CenterNet2, Deformable DETRなどの人気検出器の性能向上を示す。
論文 参考訳(メタデータ) (2022-09-13T00:11:16Z) - Multi-object Tracking with Tracked Object Bounding Box Association [18.539658212171062]
CenterTrack Trackingアルゴリズムは,単純な検出モデルと単一フレーム空間オフセットを用いて,最先端のトラッキング性能を実現する。
本研究では,CenterTrackアルゴリズムに,現在のフレームに基づく単純なトラッキングオブジェクトバウンディングボックスと重複予測を組み込むことを提案する。
論文 参考訳(メタデータ) (2021-05-17T14:32:47Z) - AutoDO: Robust AutoAugment for Biased Data with Label Noise via Scalable
Probabilistic Implicit Differentiation [3.118384520557952]
AutoAugmentはディープラーニングモデルに対する自動拡張手法への関心を呼び起こした。
バイアスデータやノイズデータに適用した場合,これらの手法は堅牢ではないことを示す。
AutoAugmentを汎用的な自動データセット最適化(AutoDO)タスクとして再構成します。
従来の手法と比較して,ラベルノイズのあるバイアス付きデータセットは最大9.3%改善した。
論文 参考訳(メタデータ) (2021-03-10T04:05:33Z) - Tracklets Predicting Based Adaptive Graph Tracking [51.352829280902114]
マルチオブジェクト追跡,すなわち textbfTPAGT のための,正確かつエンドツーエンドの学習フレームワークを提案する。
動作予測に基づいて、現在のフレーム内のトラックレットの特徴を再抽出する。
論文 参考訳(メタデータ) (2020-10-18T16:16:49Z) - Partially-Aligned Data-to-Text Generation with Distant Supervision [69.15410325679635]
我々はPADTG(Partially-Aligned Data-to-Text Generation)と呼ばれる新しい生成タスクを提案する。
自動的にアノテートされたデータをトレーニングに利用し、アプリケーションドメインを大幅に拡張するため、より実用的です。
我々のフレームワークは、全てのベースラインモデルより優れており、部分整合データの利用の可能性を検証する。
論文 参考訳(メタデータ) (2020-10-03T03:18:52Z) - Tracking Road Users using Constraint Programming [79.32806233778511]
本稿では,マルチオブジェクトトラッキング(MOT)問題のトラッキング・バイ・検出パラダイムに見られるデータアソシエーションフェーズに対する制約プログラミング(CP)アプローチを提案する。
提案手法は車両追跡データを用いてテストし,UA-DETRACベンチマークの上位手法よりも優れた結果を得た。
論文 参考訳(メタデータ) (2020-03-10T00:04:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。