論文の概要: Semi-Automatic Video Annotation For Object Detection
- arxiv url: http://arxiv.org/abs/2101.06977v2
- Date: Sun, 24 Jan 2021 13:20:59 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-27 05:56:33.156085
- Title: Semi-Automatic Video Annotation For Object Detection
- Title(参考訳): 物体検出のための半自動ビデオアノテーション
- Authors: Kutalmis Gokalp Ince, Aybora Koksal, Arda Fazla, A. Aydin Alatan
- Abstract要約: 提案手法は、時間的情報を用いて、追従検出手法により偽陽性を除去する。
新しいインクリメンタル学習アプローチは、ビデオに反復的な注釈をつけるのに役立つ。
- 参考スコア(独自算出の注目度): 10.821734742665598
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this study, a semi-automatic video annotation method is proposed which
utilizes temporal information to eliminate false-positives with a
tracking-by-detection approach by employing multiple hypothesis tracking (MHT).
MHT method automatically forms tracklets which are confirmed by human operators
to enlarge the training set. A novel incremental learning approach helps to
annotate videos in an iterative way. The experiments performed on AUTH
Multidrone Dataset reveals that the annotation workload can be reduced up to
96% by the proposed approach.
- Abstract(参考訳): 本研究では,複数仮説追跡(multiple hypothesis tracking:mht)を用いた追跡・検出手法を用いて,時間情報を用いて偽陽性を除去した半自動ビデオアノテーション手法を提案する。
MHT法は人間の操作者によって確認されたトラックレットを自動生成してトレーニングセットを拡大する。
新しいインクリメンタル学習アプローチは、ビデオに反復的な注釈をつけるのに役立つ。
AUTH Multidrone Datasetで行った実験では、提案手法によりアノテーションのワークロードを最大96%削減できることがわかった。
関連論文リスト
- VOVTrack: Exploring the Potentiality in Videos for Open-Vocabulary Object Tracking [61.56592503861093]
オープンボキャブラリオブジェクト検出(OVD)とマルチオブジェクトトラッキング(MOT)の複雑さを両立させる。
OVMOT の既存のアプローチは、OVD と MOT の方法論を別個のモジュールとして統合することが多く、主に画像中心のレンズによる問題に焦点を当てている。
VOVTrackは、MOTとビデオ中心トレーニングに関連するオブジェクト状態を統合する新しい手法であり、ビデオオブジェクト追跡の観点からこの問題に対処する。
論文 参考訳(メタデータ) (2024-10-11T05:01:49Z) - Semi-automatic Data Annotation System for Multi-Target Multi-Camera
Vehicle Tracking [5.479834571773961]
マルチターゲットマルチカメラトラッキング(MTMCT)は、インテリジェントビデオ分析、監視ビデオ検索、その他のアプリケーションシナリオにおいて重要な役割を果たす。
ディープラーニングベースのTMCTが主流であり、精度と効率のトラッキングに関して、素晴らしい改善が達成されている。
本稿では,実世界のTMCTデータセット構築を容易にする半自動データアノテーションシステムを提案する。
論文 参考訳(メタデータ) (2022-09-20T10:37:38Z) - Video Annotation for Visual Tracking via Selection and Refinement [74.08109740917122]
ビデオシーケンスのバウンディングボックスアノテーションを容易にするための新しいフレームワークを提案する。
目標位置の時間的コヒーレンスを捉えることのできる時間的アセスメントネットワークを提案する。
また、選択したトラッキング結果をさらに強化するために、ビジュアルジオメトリ・リファインメント・ネットワークが設計されている。
論文 参考訳(メタデータ) (2021-08-09T05:56:47Z) - Weakly Supervised Video Salient Object Detection [79.51227350937721]
本稿では,relabeled relabeled "fixation guided scribble annotations" に基づく最初の弱教師付きビデオサリエント物体検出モデルを提案する。
効果的なマルチモーダル学習と長期時間文脈モデリングを実現するために,「アプレンス・モーション・フュージョン・モジュール」と双方向のConvLSTMベースのフレームワークを提案する。
論文 参考訳(メタデータ) (2021-04-06T09:48:38Z) - Exploring Semi-Supervised Learning for Predicting Listener Backchannels [35.867776597496494]
バックチャネルを同定するプロセスを自動化するために,セミスーパーバイザー技術を用いて提案する。
実験の結果,60%の被験者が,提案モデルが予測したバックチャネル応答をより自然なものであることがわかった。
論文 参考訳(メタデータ) (2021-01-06T07:30:38Z) - Self-supervised Co-training for Video Representation Learning [103.69904379356413]
実例に基づく情報ノイズコントラスト推定訓練に意味クラス正の付加を施すことの利点について検討する。
本稿では,インフォネッションNCEの損失を改善するための,自己指導型協調学習手法を提案する。
本研究では,2つの下流タスク(行動認識とビデオ検索)における学習表現の質を評価する。
論文 参考訳(メタデータ) (2020-10-19T17:59:01Z) - Deep Semi-supervised Knowledge Distillation for Overlapping Cervical
Cell Instance Segmentation [54.49894381464853]
本稿では, ラベル付きデータとラベルなしデータの両方を, 知識蒸留による精度向上に活用することを提案する。
摂動に敏感なサンプルマイニングを用いたマスク誘導型平均教師フレームワークを提案する。
実験の結果,ラベル付きデータのみから学習した教師付き手法と比較して,提案手法は性能を著しく向上することがわかった。
論文 参考訳(メタデータ) (2020-07-21T13:27:09Z) - Self-supervised Video Object Segmentation [76.83567326586162]
本研究の目的は、半教師付きビデオオブジェクトセグメンテーション(高密度トラッキング)の解決を目的とした自己教師付き表現学習である。
i) 従来の自己教師型アプローチを改善すること、(ii) オンライン適応モジュールによる自己教師型アプローチの強化により、空間的時間的不連続性によるトラッカーのドリフトを緩和すること、(iv) DAVIS-2017とYouTubeの自己教師型アプローチで最先端の結果を示すこと、などが提案されている。
論文 参考訳(メタデータ) (2020-06-22T17:55:59Z) - Any-Shot Sequential Anomaly Detection in Surveillance Videos [36.24563211765782]
本稿では,トランスファーラーニングとノンショットラーニングを用いた監視ビデオのオンライン異常検出手法を提案する。
提案アルゴリズムは,トランスファー学習のためのニューラルネットワークモデルの特徴抽出能力と,統計的検出手法のノンショット学習能力を利用する。
論文 参考訳(メタデータ) (2020-04-05T02:15:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。