論文の概要: POPCat: Propagation of particles for complex annotation tasks
- arxiv url: http://arxiv.org/abs/2406.17183v1
- Date: Mon, 24 Jun 2024 23:43:08 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-26 16:11:02.021635
- Title: POPCat: Propagation of particles for complex annotation tasks
- Title(参考訳): POPCat:複雑なアノテーションタスクのための粒子の伝播
- Authors: Adam Srebrnjak Yang, Dheeraj Khanna, John S. Zelek,
- Abstract要約: ビデオデータの多目的・時間的特徴を利用したPOPCatという時間効率な手法を提案する。
この方法は、セグメンテーションやボックスベースのビデオアノテーションのための半教師付きパイプラインを生成する。
この方法は、最良の結果よりもリコール/mAP50/mAPの改善率を示す。
- 参考スコア(独自算出の注目度): 7.236620861573004
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Novel dataset creation for all multi-object tracking, crowd-counting, and industrial-based videos is arduous and time-consuming when faced with a unique class that densely populates a video sequence. We propose a time efficient method called POPCat that exploits the multi-target and temporal features of video data to produce a semi-supervised pipeline for segmentation or box-based video annotation. The method retains the accuracy level associated with human level annotation while generating a large volume of semi-supervised annotations for greater generalization. The method capitalizes on temporal features through the use of a particle tracker to expand the domain of human-provided target points. This is done through the use of a particle tracker to reassociate the initial points to a set of images that follow the labeled frame. A YOLO model is then trained with this generated data, and then rapidly infers on the target video. Evaluations are conducted on GMOT-40, AnimalTrack, and Visdrone-2019 benchmarks. These multi-target video tracking/detection sets contain multiple similar-looking targets, camera movements, and other features that would commonly be seen in "wild" situations. We specifically choose these difficult datasets to demonstrate the efficacy of the pipeline and for comparison purposes. The method applied on GMOT-40, AnimalTrack, and Visdrone shows a margin of improvement on recall/mAP50/mAP over the best results by a value of 24.5%/9.6%/4.8%, -/43.1%/27.8%, and 7.5%/9.4%/7.5% where metrics were collected.
- Abstract(参考訳): マルチオブジェクト追跡、クラウドカウンティング、および産業ベースのビデオのための新しいデータセット作成は、ビデオシーケンスを密集するユニークなクラスに直面したとき、困難で時間を要する。
セグメント化やボックスベースのビデオアノテーションのための半教師付きパイプラインを生成するために,ビデオデータのマルチターゲットと時間的特徴を利用するPOPCatという時間効率の手法を提案する。
この方法は、より一般化するために、大量の半教師付きアノテーションを生成しながら、人間レベルのアノテーションに関連する精度レベルを保持する。
本手法は,人為的目標点の領域を拡大するために粒子追跡器を用いて時間的特徴に乗じる。
これは、ラベル付きフレームに従う画像のセットに初期点を関連付けるために、パーティクルトラッカーを使用することによって行われる。
YOLOモデルは生成されたデータでトレーニングされ、ターゲットのビデオ上で素早く推論される。
GMOT-40、AnimalTrack、Visdrone-2019ベンチマークで評価が行われた。
これらのマルチターゲットビデオ追跡・検出セットには、複数の類似したターゲット、カメラの動き、その他「ワイルド」な状況で一般的に見られるような特徴が含まれている。
具体的には、パイプラインの有効性と比較目的を実証するために、これらの難しいデータセットを選択します。
GMOT-40、AnimalTrack、Visdroneに適用された方法は、24.5%/9.6%/4.8%、-/43.1%/27.8%、そして7.5%/9.4%/7.5%の値で、最も良い結果よりもリコール/mAP50/mAPの改善率を示している。
関連論文リスト
- Multi-Granularity Video Object Segmentation [36.06127939037613]
本稿では,MUG-VOS(Multigranularity Video Object segmentation)データセットを提案する。
我々は,正当性および非正当性の両方をトラッキングするトレーニングセットを自動的に収集し,信頼性の高い評価のために人手による検査セットをキュレートした。
さらに,MUG-VOSデータセットを用いたメモリベースのマスク伝搬モデル(MMPM)を提案する。
論文 参考訳(メタデータ) (2024-12-02T13:17:41Z) - PointOdyssey: A Large-Scale Synthetic Dataset for Long-Term Point
Tracking [90.29143475328506]
本稿では,大規模合成データセットとデータ生成フレームワークであるPointOdysseyを紹介する。
私たちのゴールは、自然主義的な動きを持つ長いビデオに重点を置いて、最先端の技術を推し進めることです。
実世界のモーションキャプチャーデータを用いて変形可能なキャラクタをアニメーション化し、モーションキャプチャー環境に合わせて3Dシーンを構築し、リアルビデオ上で構造から抽出したトラジェクトリを用いてカメラ視点を描画する。
論文 参考訳(メタデータ) (2023-07-27T17:58:11Z) - Segment Anything Meets Point Tracking [116.44931239508578]
本稿では,SAMと長期点追跡を併用した,ポイント中心の対話型ビデオセグメンテーションの新たな手法を提案する。
ゼロショットオープンワールドUnidentified Video Objects(UVO)ベンチマークで直接評価することで,ポイントベーストラッキングのメリットを強調した。
DAVIS, YouTube-VOS, BDD100Kなどの人気ビデオオブジェクトのセグメンテーションと多目的セグメンテーションのベンチマーク実験により, ポイントベースセグメンテーショントラッカーがより優れたゼロショット性能と効率的なインタラクションをもたらすことが示唆された。
論文 参考訳(メタデータ) (2023-07-03T17:58:01Z) - TAP-Vid: A Benchmark for Tracking Any Point in a Video [84.94877216665793]
我々は、より長いビデオクリップで表面上の任意の物理点を追跡するという問題を定式化し、任意の点(TAP)を追尾する。
そこで本研究では,実世界の映像に正確な点線アノテーションを付加したTAP-Vidと,完全な接地木線トラックを付加した合成ビデオとを併用したベンチマーク,TAP-Vidを提案する。
本稿では, 簡易な終端点追跡モデルTAP-Netを提案する。
論文 参考訳(メタデータ) (2022-11-07T17:57:02Z) - Temporal Action Localization with Multi-temporal Scales [54.69057924183867]
マルチ時間スケールの特徴空間における行動を予測することを提案する。
具体的には、異なるスケールの洗練された特徴ピラミッドを使用して、高レベルのスケールから低レベルのスケールにセマンティクスを渡す。
提案手法は, それぞれ12.6%, 17.4%, 2.2%の改善を達成できる。
論文 参考訳(メタデータ) (2022-08-16T01:48:23Z) - Cannot See the Forest for the Trees: Aggregating Multiple Viewpoints to
Better Classify Objects in Videos [36.28269135795851]
本稿では,トラックレットに含まれる複数の視点から情報を集約することで,トラックレットの分類精度を向上させる集合分類器を提案する。
ResNet-101上のQDTrackにメソッドをアタッチするだけで、TAOの検証とテストセットで19.9%と15.7%のTrackAP_50という新しい最先端を実現できます。
論文 参考訳(メタデータ) (2022-06-05T07:51:58Z) - A Multi-Person Video Dataset Annotation Method of Spatio-Temporally
Actions [4.49302950538123]
ビデオのクロップやフレームビデオ、そしてビデオフレーム内の人間の検出にYolov5を使い、ビデオフレーム内の人間のIDをディープソートして検出します。
論文 参考訳(メタデータ) (2022-04-21T15:14:02Z) - HighlightMe: Detecting Highlights from Human-Centric Videos [52.84233165201391]
我々は,人間中心のビデオからハイライト可能な抜粋を検出するために,ドメインとユーザに依存しないアプローチを提案する。
本研究では,時空間グラフ畳み込みを用いたオートエンコーダネットワークを用いて,人間の活動やインタラクションを検出する。
我々は,最先端の手法に比べて,人手によるハイライトのマッチングの平均精度が4~12%向上したことを観察した。
論文 参考訳(メタデータ) (2021-10-05T01:18:15Z) - TAO: A Large-Scale Benchmark for Tracking Any Object [95.87310116010185]
オブジェクトのデータセットの追跡は2,907本の高解像度ビデオで構成され、平均で30分の長さの多様な環境でキャプチャされる。
ビデオの任意の時点で移動するオブジェクトにアノテータにラベルを付け、ファクトラムの後に名前を付けるように求めます。
我々の語彙は、既存の追跡データセットと著しく大きく、質的に異なる。
論文 参考訳(メタデータ) (2020-05-20T21:07:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。