論文の概要: TagMe: GPS-Assisted Automatic Object Annotation in Videos
- arxiv url: http://arxiv.org/abs/2103.13428v1
- Date: Wed, 24 Mar 2021 18:15:32 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-27 03:45:06.513236
- Title: TagMe: GPS-Assisted Automatic Object Annotation in Videos
- Title(参考訳): TagMe:ビデオにおけるGPSによる自動オブジェクトアノテーション
- Authors: Songtao He, Favyen Bastani, Mohammad Alizadeh, Hari Balakrishnan,
Michael Cafarella, Tim Kraska, Sam Madden
- Abstract要約: TagMeは、GPSデータを使用したビデオの自動オブジェクトアノテーションの新しいアプローチです。
TagMeは、完全自動で低コストで高品質なオブジェクトアノテーションを作成できることを示す。
- 参考スコア(独自算出の注目度): 33.546535235508415
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Training high-accuracy object detection models requires large and diverse
annotated datasets. However, creating these data-sets is time-consuming and
expensive since it relies on human annotators. We design, implement, and
evaluate TagMe, a new approach for automatic object annotation in videos that
uses GPS data. When the GPS trace of an object is available, TagMe matches the
object's motion from GPS trace and the pixels' motions in the video to find the
pixels belonging to the object in the video and creates the bounding box
annotations of the object. TagMe works using passive data collection and can
continuously generate new object annotations from outdoor video streams without
any human annotators. We evaluate TagMe on a dataset of 100 video clips. We
show TagMe can produce high-quality object annotations in a fully-automatic and
low-cost way. Compared with the traditional human-in-the-loop solution, TagMe
can produce the same amount of annotations at a much lower cost, e.g., up to
110x.
- Abstract(参考訳): 高精度なオブジェクト検出モデルのトレーニングには、大きくて多様な注釈付きデータセットが必要です。
しかし、人間のアノテーションに依存するため、これらのデータセットの作成には時間と費用がかかる。
gpsデータを用いたビデオの自動オブジェクトアノテーションのための新しいアプローチであるtagmeを設計し,実装し,評価する。
オブジェクトのgpsトレースが利用可能であれば、tagmeは、gpsトレースからのオブジェクトの動きとビデオ内のピクセルの動きとをマッチングして、ビデオ内のオブジェクトに属するピクセルを見つけ、オブジェクトのバウンディングボックスアノテーションを作成する。
TagMeは受動的データ収集を使用しており、人間のアノテーションなしで屋外のビデオストリームから新しいオブジェクトアノテーションを連続的に生成することができる。
我々は100本のビデオクリップのデータセット上でTagMeを評価する。
TagMeが完全自動で低コストで高品質なオブジェクトアノテーションを作成できることを示す。
従来のHuman-in-the-loopソリューションと比較して、TagMeは110倍のコストで同じ量のアノテーションを作成できる。
関連論文リスト
- TrackMe:A Simple and Effective Multiple Object Tracking Annotation Tool [5.102727104196738]
近年の最先端追跡手法は、物体検出、外観特徴抽出、トラックアソシエーションのためのディープラーニングアーキテクチャに基づいて構築されている。
動物で実行するには、異なる種類の大きなデータセットを複数の条件で作成する必要がある。
本研究では,よく知られたツールである LabelMe を改良し,コンピュータ科学に関する深い知識がなくても,少ない労力でアノテートできるように支援する。
論文 参考訳(メタデータ) (2024-10-20T21:57:25Z) - POPCat: Propagation of particles for complex annotation tasks [7.236620861573004]
ビデオデータの多目的・時間的特徴を利用したPOPCatという時間効率な手法を提案する。
この方法は、セグメンテーションやボックスベースのビデオアノテーションのための半教師付きパイプラインを生成する。
この方法は、最良の結果よりもリコール/mAP50/mAPの改善率を示す。
論文 参考訳(メタデータ) (2024-06-24T23:43:08Z) - Point-VOS: Pointing Up Video Object Segmentation [16.359861197595986]
現在の最先端のビデオオブジェクト(VOS)メソッドは、トレーニングとテストの両方において、オブジェクトごとの密集したマスクアノテーションに依存している。
本稿では,その労力を大幅に削減する疎時間的ポイントワイドアノテーションスキームを備えた新しいPoint-VOSタスクを提案する。
ビデオナラティブグラウンドディング(VNG)タスクで評価することで、視覚と言語を接続するモデルを改善するために、我々のデータが利用できることを示す。
論文 参考訳(メタデータ) (2024-02-08T18:52:23Z) - Object-Centric Multiple Object Tracking [124.30650395969126]
本稿では,多目的追跡パイプラインのためのビデオオブジェクト中心モデルを提案する。
オブジェクト中心のスロットを検出出力に適応するインデックスマージモジュールと、オブジェクトメモリモジュールで構成される。
オブジェクト中心学習に特化して、オブジェクトのローカライゼーションと機能バインディングのためのスパース検出ラベルしか必要としない。
論文 参考訳(メタデータ) (2023-09-01T03:34:12Z) - PointOdyssey: A Large-Scale Synthetic Dataset for Long-Term Point
Tracking [90.29143475328506]
本稿では,大規模合成データセットとデータ生成フレームワークであるPointOdysseyを紹介する。
私たちのゴールは、自然主義的な動きを持つ長いビデオに重点を置いて、最先端の技術を推し進めることです。
実世界のモーションキャプチャーデータを用いて変形可能なキャラクタをアニメーション化し、モーションキャプチャー環境に合わせて3Dシーンを構築し、リアルビデオ上で構造から抽出したトラジェクトリを用いてカメラ視点を描画する。
論文 参考訳(メタデータ) (2023-07-27T17:58:11Z) - Cannot See the Forest for the Trees: Aggregating Multiple Viewpoints to
Better Classify Objects in Videos [36.28269135795851]
本稿では,トラックレットに含まれる複数の視点から情報を集約することで,トラックレットの分類精度を向上させる集合分類器を提案する。
ResNet-101上のQDTrackにメソッドをアタッチするだけで、TAOの検証とテストセットで19.9%と15.7%のTrackAP_50という新しい最先端を実現できます。
論文 参考訳(メタデータ) (2022-06-05T07:51:58Z) - UFO$^2$: A Unified Framework towards Omni-supervised Object Detection [175.9693271392461]
UFO$2$は、異なる形式の監視を同時に処理できる統一オブジェクト検出フレームワークである。
具体的には、UFO$2$は、強力な監督(箱など)、様々な形式の部分的な監督(例えば、クラスタグ、ポイント、スクリブル)、ラベルなしのデータを含んでいる。
論文 参考訳(メタデータ) (2020-10-21T07:46:30Z) - Object Detection with a Unified Label Space from Multiple Datasets [94.33205773893151]
異なるラベル空間を持つ複数のデータセットが与えられた場合、この研究の目標は、すべてのラベル空間の結合について予測する単一のオブジェクト検出器をトレーニングすることである。
あるデータセットにアノテートされているが、別のデータセットにアノテートされていない顔のようなオブジェクトカテゴリを考えてみましょう。
顔のようないくつかのカテゴリは、あるデータセットでは前景と見なされるが、別のデータセットでは背景と見なされる。
本稿では,部分的だが正しいアノテーションを補完的だがノイズの多い擬似ラベルと注意深く統合する損失関数を提案する。
論文 参考訳(メタデータ) (2020-08-15T00:51:27Z) - TAO: A Large-Scale Benchmark for Tracking Any Object [95.87310116010185]
オブジェクトのデータセットの追跡は2,907本の高解像度ビデオで構成され、平均で30分の長さの多様な環境でキャプチャされる。
ビデオの任意の時点で移動するオブジェクトにアノテータにラベルを付け、ファクトラムの後に名前を付けるように求めます。
我々の語彙は、既存の追跡データセットと著しく大きく、質的に異なる。
論文 参考訳(メタデータ) (2020-05-20T21:07:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。