論文の概要: Accelerated Video Annotation driven by Deep Detector and Tracker
- arxiv url: http://arxiv.org/abs/2302.09590v1
- Date: Sun, 19 Feb 2023 15:16:05 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-21 17:42:28.812386
- Title: Accelerated Video Annotation driven by Deep Detector and Tracker
- Title(参考訳): ディープ・ディテクタとトラッカーによるビデオアノテーションの高速化
- Authors: Eric Price and Aamir Ahmad
- Abstract要約: ビデオに物体の真実を注釈付けることは、ロボットの知覚と機械学習におけるいくつかの下流タスクにとって不可欠である。
動画中の各画像フレーム上の移動物体の注釈付きインスタンスの精度は極めて重要である。
本稿では,学習ベース検出器と学習ベーストラッカーを組み合わせたアノテーション手法を提案する。
- 参考スコア(独自算出の注目度): 12.640283469603355
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Annotating object ground truth in videos is vital for several downstream
tasks in robot perception and machine learning, such as for evaluating the
performance of an object tracker or training an image-based object detector.
The accuracy of the annotated instances of the moving objects on every image
frame in a video is crucially important. Achieving that through manual
annotations is not only very time consuming and labor intensive, but is also
prone to high error rate. State-of-the-art annotation methods depend on
manually initializing the object bounding boxes only in the first frame and
then use classical tracking methods, e.g., adaboost, or kernelized correlation
filters, to keep track of those bounding boxes. These can quickly drift,
thereby requiring tedious manual supervision. In this paper, we propose a new
annotation method which leverages a combination of a learning-based detector
(SSD) and a learning-based tracker (RE$^3$). Through this, we significantly
reduce annotation drifts, and, consequently, the required manual supervision.
We validate our approach through annotation experiments using our proposed
annotation method and existing baselines on a set of drone video frames. Source
code and detailed information on how to run the annotation program can be found
at https://github.com/robot-perception-group/smarter-labelme
- Abstract(参考訳): ビデオ中の物体の真実を注釈付けすることは、ロボットの知覚や機械学習において、オブジェクトトラッカーの性能評価や画像ベースの物体検出装置の訓練など、いくつかの下流タスクにおいて不可欠である。
動画内の各画像フレーム上の移動物体の注釈付きインスタンスの精度は極めて重要である。
手動アノテーションによってそれを達成することは、非常に時間と労力を消費するだけでなく、高いエラー率につながる。
State-of-the-artアノテーションメソッドは、最初のフレームでのみオブジェクト境界ボックスを手動で初期化し、アダブーストやカーネル相関フィルタといった古典的な追跡手法を使ってそれらの境界ボックスを追跡する。
これらはすぐに漂流し、面倒な手動の監督を必要とする。
本稿では,学習ベース検出器(SSD)と学習ベーストラッカー(RE$^3$)を組み合わせたアノテーション手法を提案する。
これによりアノテーションのドリフトが大幅に減少し,手動による監督が要求される。
本手法は,提案手法と既存のベースラインを用いて,ドローンビデオフレーム上でのアノテーション実験により検証する。
ソースコードとアノテーションプログラムの実行方法の詳細は、https://github.com/robot-perception-group/smarter-labelmeで確認できる。
関連論文リスト
- On-the-Fly Point Annotation for Fast Medical Video Labeling [1.890063512530524]
医学研究において、ディープラーニングモデルは高品質な注釈付きデータに依存している。
2つのコーナーを調整する必要があるため、プロセスは本質的にフレーム単位で行われる。
そこで本研究では,ライブビデオアノテーションのオンザフライ方式を提案し,アノテーションの効率を向上させる。
論文 参考訳(メタデータ) (2024-04-22T16:59:43Z) - Learning Tracking Representations from Single Point Annotations [49.47550029470299]
本稿では,単一点アノテーションから追跡表現を弱教師付きで学習することを提案する。
具体的には,エンド・ツー・エンド・エンド・コントラスト学習に先立って,対象対象対象性を取り入れたソフトコントラスト学習フレームワークを提案する。
論文 参考訳(メタデータ) (2024-04-15T06:50:58Z) - Refining Pre-Trained Motion Models [56.18044168821188]
我々は、自己教師付きトレーニングによる最先端の教師付きモデルの改善に挑戦する。
実世界の未学習ビデオから「クリーン」な訓練信号を得ることに重点を置いている。
本研究では,本手法が実動画における完全教師付き手法よりも信頼性が高いことを示す。
論文 参考訳(メタデータ) (2024-01-01T18:59:33Z) - Learning Referring Video Object Segmentation from Weak Annotation [78.45828085350936]
RVOS(Referring Video Object segmentation)は、対象物を記述する文に基づいて、対象物をすべてのビデオフレームにセグメント化することを目的としたタスクである。
そこで本研究では, RVOS に対する十分な監視を提供しながら, アノテーションの労力を 8 倍に削減する新たなアノテーション方式を提案する。
私たちのスキームは、最初にオブジェクトが現れるフレームのマスクと、残りのフレームのバウンディングボックスのみを必要とする。
論文 参考訳(メタデータ) (2023-08-04T06:50:52Z) - Learning Video Salient Object Detection Progressively from Unlabeled
Videos [8.224670666756193]
ビデオアノテーションを使わずに、適切なオブジェクトを連続的に特定・セグメントするプログレッシブフレームワークによる新しいVSOD手法を提案する。
具体的には, 隣接フレームにおける高精度な位置ラベルの生成と有意な物体の追跡を行うディープテンポラルな位置ラベルを生成するアルゴリズムを提案する。
DAVIS, FBMS, ViSal, VOS, DAVSODの5つの公開ベンチマークによる実験結果から, 提案手法は完全教師付き手法と競合し, 最先端・非教師付き手法よりも優れていることが示された。
論文 参考訳(メタデータ) (2022-04-05T06:12:45Z) - Few-Shot Learning for Video Object Detection in a Transfer-Learning
Scheme [70.45901040613015]
ビデオ物体検出のための数発学習の新たな課題について検討する。
我々は,多数のベースクラスオブジェクトに対して映像物体検出を効果的に訓練するトランスファー学習フレームワークと,ノベルクラスオブジェクトのいくつかのビデオクリップを用いる。
論文 参考訳(メタデータ) (2021-03-26T20:37:55Z) - "What's This?" -- Learning to Segment Unknown Objects from Manipulation
Sequences [27.915309216800125]
本稿では,ロボットマニピュレータを用いた自己教師型把握対象セグメンテーションのための新しいフレームワークを提案する。
本稿では,モーションキューとセマンティック知識を共同で組み込んだ,エンドツーエンドのトレーニング可能な単一アーキテクチャを提案する。
我々の手法は、運動ロボットや3Dオブジェクトモデルの視覚的登録にも、正確な手眼の校正や追加センサーデータにも依存しない。
論文 参考訳(メタデータ) (2020-11-06T10:55:28Z) - Unsupervised Deep Representation Learning for Real-Time Tracking [137.69689503237893]
視覚追跡のための教師なし学習手法を提案する。
教師なし学習の動機は、ロバストなトラッカーが双方向トラッキングに有効であるべきだということです。
我々は,シームズ相関フィルタネットワーク上にフレームワークを構築し,教師なし学習を容易にするために,多フレーム検証方式とコスト感受性損失を提案する。
論文 参考訳(メタデータ) (2020-07-22T08:23:12Z) - AutoTrajectory: Label-free Trajectory Extraction and Prediction from
Videos using Dynamic Points [92.91569287889203]
軌道抽出と予測のための新しいラベルなしアルゴリズムAutoTrajectoryを提案する。
動画中の移動物体をよりよく捉えるために,ダイナミックポイントを導入する。
ビデオ内の歩行者などの移動物体を表すインスタンスポイントに動的ポイントを集約する。
論文 参考訳(メタデータ) (2020-07-11T08:43:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。