論文の概要: Two Video Data Sets for Tracking and Retrieval of Out of Distribution
Objects
- arxiv url: http://arxiv.org/abs/2210.02074v1
- Date: Wed, 5 Oct 2022 07:55:04 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-06 14:11:07.128845
- Title: Two Video Data Sets for Tracking and Retrieval of Out of Distribution
Objects
- Title(参考訳): 分散オブジェクトの追跡と検索のための2つのビデオデータセット
- Authors: Kira Maag, Robin Chan, Svenja Uhlemeyer, Kamil Kowol and Hanno
Gottschalk
- Abstract要約: 配電追跡(OOD)の新しいコンピュータビジョン(CV)タスクのための2つのビデオテストデータセットを提案する。
ビデオシーケンスで発生するOODオブジェクトは、できるだけ早く単一のフレームで検出し、その出現時刻をできるだけ長く追跡する必要がある。
我々は,OODトラッキングの成功を測定する指標を提案し,OODオブジェクトを効率的に追跡するベースラインアルゴリズムを開発した。
- 参考スコア(独自算出の注目度): 1.5749416770494706
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this work we present two video test data sets for the novel computer
vision (CV) task of out of distribution tracking (OOD tracking). Here, OOD
objects are understood as objects with a semantic class outside the semantic
space of an underlying image segmentation algorithm, or an instance within the
semantic space which however looks decisively different from the instances
contained in the training data. OOD objects occurring on video sequences should
be detected on single frames as early as possible and tracked over their time
of appearance as long as possible. During the time of appearance, they should
be segmented as precisely as possible. We present the SOS data set containing
20 video sequences of street scenes and more than 1000 labeled frames with up
to two OOD objects. We furthermore publish the synthetic CARLA-WildLife data
set that consists of 26 video sequences containing up to four OOD objects on a
single frame. We propose metrics to measure the success of OOD tracking and
develop a baseline algorithm that efficiently tracks the OOD objects. As an
application that benefits from OOD tracking, we retrieve OOD sequences from
unlabeled videos of street scenes containing OOD objects.
- Abstract(参考訳): 本研究では,out of distribution tracking(ood tracking)という新しいコンピュータビジョン(cv)タスクのための2つのビデオテストデータセットを提案する。
ここでは、OODオブジェクトは、下層のイメージセグメンテーションアルゴリズムのセマンティクス空間の外にあるセマンティクスクラスを持つオブジェクト、あるいは、トレーニングデータに含まれるインスタンスと決定的に異なるように見えるセマンティクス空間内のインスタンスとして理解される。
ビデオシーケンスで発生するOODオブジェクトは、できるだけ早く単一のフレームで検出し、その出現時間を可能な限り長く追跡する必要がある。
外観の段階では、できるだけ正確に区切らなければならない。
我々は,最大2つのOODオブジェクトを持つ20の街路シーンと1000以上のラベル付きフレームを含むSOSデータセットを提案する。
さらに,最大4つのOODオブジェクトを含む26の動画シーケンスからなる合成CARLA-WildLifeデータセットを1フレームで公開する。
我々は,OODトラッキングの成功を測定する指標を提案し,OODオブジェクトを効率的に追跡するベースラインアルゴリズムを開発した。
OODトラッキングの利点を生かしたアプリケーションとして、OODオブジェクトを含むストリートシーンのラベルなしビデオからOODシーケンスを検索する。
関連論文リスト
- SOOD: Towards Semi-Supervised Oriented Object Detection [57.05141794402972]
本稿では, 主流の擬似ラベリングフレームワーク上に構築された, SOOD と呼ばれる, 半教師付きオブジェクト指向物体検出モデルを提案する。
提案した2つの損失をトレーニングした場合,SOODはDOTA-v1.5ベンチマークの様々な設定下で,最先端のSSOD法を超越することを示した。
論文 参考訳(メタデータ) (2023-04-10T11:10:42Z) - Uncertainty Aware Active Learning for Reconfiguration of Pre-trained
Deep Object-Detection Networks for New Target Domains [0.0]
物体検出はコンピュータビジョンタスクの最も重要かつ基本的な側面の1つである。
オブジェクト検出モデルのトレーニングデータを効率的に取得するために、多くのデータセットは、ビデオフォーマットでアノテーションのないデータを取得することを選択します。
ビデオからすべてのフレームに注釈を付けるのは、多くのフレームがモデルが学ぶのに非常によく似た情報を含んでいるため、費用がかかり非効率である。
本稿では,この問題に対処するためのオブジェクト検出モデルのための新しい能動学習アルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-03-22T17:14:10Z) - Unifying Tracking and Image-Video Object Detection [54.91658924277527]
TrIVD (Tracking and Image-Video Detection) は、画像OD、ビデオOD、MOTを1つのエンドツーエンドモデルに統合する最初のフレームワークである。
カテゴリラベルの相違やセマンティックな重複に対処するため、TrIVDは対象カテゴリに対する検出/追跡を基礎と理由として定式化している。
論文 参考訳(メタデータ) (2022-11-20T20:30:28Z) - BURST: A Benchmark for Unifying Object Recognition, Segmentation and
Tracking in Video [58.71785546245467]
複数の既存のベンチマークには、ビデオ内のオブジェクトのトラッキングとセグメンテーションが含まれる。
異なるベンチマークデータセットとメトリクスを使用するため、それらの相互作用はほとんどありません。
高品質なオブジェクトマスクを備えた数千の多様なビデオを含むデータセットであるBURSTを提案する。
すべてのタスクは、同じデータと同等のメトリクスを使って評価されます。
論文 参考訳(メタデータ) (2022-09-25T01:27:35Z) - Tag-Based Attention Guided Bottom-Up Approach for Video Instance
Segmentation [83.13610762450703]
ビデオインスタンスは、ビデオシーケンス全体にわたるオブジェクトインスタンスのセグメンテーションと追跡を扱う、基本的なコンピュータビジョンタスクである。
そこで本研究では,従来の領域プロモーター方式ではなく,画素レベルの粒度でインスタンスマスク予測を実現するための,単純なエンドツーエンドのボトムアップ方式を提案する。
提案手法は,YouTube-VIS と DAVIS-19 のデータセット上での競合結果を提供する。
論文 参考訳(メタデータ) (2022-04-22T15:32:46Z) - Triggering Failures: Out-Of-Distribution detection by learning from
local adversarial attacks in Semantic Segmentation [76.2621758731288]
セグメンテーションにおけるアウト・オブ・ディストリビューション(OOD)オブジェクトの検出に取り組む。
私たちの主な貢献は、ObsNetと呼ばれる新しいOOD検出アーキテクチャであり、ローカル・アタック(LAA)に基づく専用トレーニングスキームと関連付けられています。
3つの異なるデータセットの文献の最近の10つの手法と比較して,速度と精度の両面で最高の性能が得られることを示す。
論文 参考訳(メタデータ) (2021-08-03T17:09:56Z) - Prototypical Cross-Attention Networks for Multiple Object Tracking and
Segmentation [95.74244714914052]
複数のオブジェクトのトラッキングとセグメンテーションには、与えられたクラスのセットに属するオブジェクトを検出し、追跡し、セグメンテーションする必要がある。
オンライン上でリッチ・テンポラル情報を活用するプロトタイプ・クロス・アテンション・ネットワーク(PCAN)を提案する。
PCANは、Youtube-VISとBDD100Kデータセットで、現在のビデオインスタンス追跡とセグメンテーションコンテストの勝者を上回っている。
論文 参考訳(メタデータ) (2021-06-22T17:57:24Z) - Siamese Tracking with Lingual Object Constraints [28.04334832366449]
本稿では、追加の言語制約を受ける視覚オブジェクトの追跡について検討する。
Liなどとは違って、トラッキングに新たな言語制約を課し、トラッキングの新しいアプリケーションを可能にします。
本手法は,制約の妥当性に基づいて,動画の選択的圧縮を可能にする。
論文 参考訳(メタデータ) (2020-11-23T20:55:08Z) - A Self-supervised Learning System for Object Detection in Videos Using
Random Walks on Graphs [20.369646864364547]
本稿では,画像中の対象の新規かつ未確認なカテゴリを検出するための,自己教師型学習システムを提案する。
提案システムは,様々なオブジェクトを含むシーンの未ラベル映像を入力として受信する。
ビデオのフレームは深度情報を使ってオブジェクトに分割され、各ビデオに沿ってセグメントが追跡される。
論文 参考訳(メタデータ) (2020-11-10T23:37:40Z) - Evaluating Temporal Queries Over Video Feeds [25.04363138106074]
ビデオフィードにおけるオブジェクトとその共起に関する時間的クエリは、法執行機関からセキュリティ、安全に至るまで、多くのアプリケーションにとって関心がある。
本稿では,オブジェクト検出/追跡,中間データ生成,クエリ評価という3つのレイヤからなるアーキテクチャを提案する。
中間データ生成層における全ての検出対象を整理するために,MFSとSSGという2つの手法を提案する。
また、SSGに対して入力フレームを処理し、クエリ評価とは無関係なオブジェクトやフレームを効率よくプーンするState Traversal (ST)アルゴリズムを導入する。
論文 参考訳(メタデータ) (2020-03-02T14:55:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。