論文の概要: CrowdMOT: Crowdsourcing Strategies for Tracking Multiple Objects in
Videos
- arxiv url: http://arxiv.org/abs/2009.14265v1
- Date: Tue, 29 Sep 2020 19:12:21 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-13 06:54:17.158211
- Title: CrowdMOT: Crowdsourcing Strategies for Tracking Multiple Objects in
Videos
- Title(参考訳): CrowdMOT: ビデオ内の複数のオブジェクトを追跡するためのクラウドソーシング戦略
- Authors: Samreen Anjum, Chi Lin, Danna Gurari
- Abstract要約: 我々はCrowdMOTというクラウドソーシングプラットフォームを紹介した。
我々は、慣れ親しんだ物体(別名-人)と馴染みのない物体(別名-細胞)の両方を示すビデオの多様性に関する実験を行う。
本研究は,現在のクラウドソーシングシステムで採用されている手法を用いた場合よりも,高品質なアノテーションを効率よく収集する戦略を強調した。
- 参考スコア(独自算出の注目度): 23.323919750940508
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Crowdsourcing is a valuable approach for tracking objects in videos in a more
scalable manner than possible with domain experts. However, existing frameworks
do not produce high quality results with non-expert crowdworkers, especially
for scenarios where objects split. To address this shortcoming, we introduce a
crowdsourcing platform called CrowdMOT, and investigate two micro-task design
decisions: (1) whether to decompose the task so that each worker is in charge
of annotating all objects in a sub-segment of the video versus annotating a
single object across the entire video, and (2) whether to show annotations from
previous workers to the next individuals working on the task. We conduct
experiments on a diversity of videos which show both familiar objects (aka -
people) and unfamiliar objects (aka - cells). Our results highlight strategies
for efficiently collecting higher quality annotations than observed when using
strategies employed by today's state-of-art crowdsourcing system.
- Abstract(参考訳): クラウドソーシングは、ドメインの専門家によってできる限りスケーラブルな方法でビデオ内のオブジェクトを追跡するための貴重なアプローチである。
しかし、既存のフレームワークは、特にオブジェクトが分裂するシナリオにおいて、非熟練のクラウドワーカーで高品質な結果を生み出しない。
この欠点に対処するために,crowdmotと呼ばれるクラウドソーシングプラットフォームを導入し,(1)各作業員がビデオのサブセグメント内のすべてのオブジェクトに注釈を付けるか,ビデオ全体にわたって1つのオブジェクトに注釈を付けるか,(2)タスクに携わる前の作業員から次の個人に注釈を示すか,という2つのマイクロタスク設計決定について検討する。
我々は,身近な物体(人)と未知の物体(あるいは細胞)の両方を示すビデオの多様性について実験を行う。
本研究は,現在のクラウドソーシングシステムで採用されている手法を用いた場合よりも,高品質なアノテーションを効率よく収集する戦略を強調した。
関連論文リスト
- MINOTAUR: Multi-task Video Grounding From Multimodal Queries [70.08973664126873]
長文ビデオにおける問合せに基づくビデオ理解に一貫した単一のモデルを提案する。
特に、我々のモデルは、Ego4D Episodic Memoryベンチマークの3つのタスクすべてに対処できる。
論文 参考訳(メタデータ) (2023-02-16T04:00:03Z) - BURST: A Benchmark for Unifying Object Recognition, Segmentation and
Tracking in Video [58.71785546245467]
複数の既存のベンチマークには、ビデオ内のオブジェクトのトラッキングとセグメンテーションが含まれる。
異なるベンチマークデータセットとメトリクスを使用するため、それらの相互作用はほとんどありません。
高品質なオブジェクトマスクを備えた数千の多様なビデオを含むデータセットであるBURSTを提案する。
すべてのタスクは、同じデータと同等のメトリクスを使って評価されます。
論文 参考訳(メタデータ) (2022-09-25T01:27:35Z) - Tackling Background Distraction in Video Object Segmentation [7.187425003801958]
ビデオオブジェクトセグメンテーション(VOS)は、ビデオ内の特定のオブジェクトを密に追跡することを目的としている。
このタスクの主な課題の1つは、ターゲットオブジェクトに類似したように見えるバックグラウンド・トラクタの存在である。
このような混乱を抑制するための3つの新しい戦略を提案する。
我々のモデルは,リアルタイムな性能であっても,現代の最先端手法に匹敵する性能を実現している。
論文 参考訳(メタデータ) (2022-07-14T14:25:19Z) - The Second Place Solution for The 4th Large-scale Video Object
Segmentation Challenge--Track 3: Referring Video Object Segmentation [18.630453674396534]
ReferFormerは、すべてのビデオフレームで言語表現によって参照される所定のビデオでオブジェクトインスタンスをセグメントすることを目的としている。
本研究は, 循環学習率, 半教師付きアプローチ, テスト時間拡張推論など, さらなる向上策を提案する。
改良されたReferFormerはCVPR2022 Referring Youtube-VOS Challengeで2位にランクインした。
論文 参考訳(メタデータ) (2022-06-24T02:15:06Z) - Learning Visual Affordance Grounding from Demonstration Videos [76.46484684007706]
Affordance Groundingは、画像/ビデオから人とオブジェクト間のすべての可能な相互作用領域を分割することを目的としている。
実演ビデオにおける手の位置と動作から得られる手掛かりを活用できる,手支援型住宅地すべりネットワーク(HAGNet)を提案する。
論文 参考訳(メタデータ) (2021-08-12T11:45:38Z) - A Survey on Deep Learning Technique for Video Segmentation [147.0767454918527]
ビデオセグメンテーションは幅広い応用において重要な役割を果たしている。
ディープラーニングベースのアプローチは、ビデオセグメンテーションに特化しており、魅力的なパフォーマンスを提供している。
論文 参考訳(メタデータ) (2021-07-02T15:51:07Z) - Video Exploration via Video-Specific Autoencoders [60.256055890647595]
ヒト制御可能なビデオ探索を可能にするビデオ固有オートエンコーダを提案する。
特定のビデオの複数のフレームで訓練された単純なオートエンコーダは、さまざまなビデオ処理および編集タスクを実行できることを観察します。
論文 参考訳(メタデータ) (2021-03-31T17:56:13Z) - Few-Shot Learning for Video Object Detection in a Transfer-Learning
Scheme [70.45901040613015]
ビデオ物体検出のための数発学習の新たな課題について検討する。
我々は,多数のベースクラスオブジェクトに対して映像物体検出を効果的に訓練するトランスファー学習フレームワークと,ノベルクラスオブジェクトのいくつかのビデオクリップを用いる。
論文 参考訳(メタデータ) (2021-03-26T20:37:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。