論文の概要: SFU-HW-Tracks-v1: Object Tracking Dataset on Raw Video Sequences
- arxiv url: http://arxiv.org/abs/2112.14934v1
- Date: Thu, 30 Dec 2021 05:52:15 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-04 04:07:51.312929
- Title: SFU-HW-Tracks-v1: Object Tracking Dataset on Raw Video Sequences
- Title(参考訳): SFU-HW-Tracks-v1: 生ビデオシーケンス上のオブジェクト追跡データセット
- Authors: Takehiro Tanaka, Hyomin Choi, Ivan V. Baji\'c
- Abstract要約: 本稿では,高効率ビデオ符号化 (HEVC) v1 Common Test Conditions (CTC) シーケンスに対して,ユニークなオブジェクトIDを持つオブジェクトアノテーションを含むデータセットを提案する。
各ビデオフレームには、オブジェクトクラスID、オブジェクトID、バウンディングボックスの位置とその次元が含まれる。
- 参考スコア(独自算出の注目度): 30.058005235097113
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present a dataset that contains object annotations with unique object
identities (IDs) for the High Efficiency Video Coding (HEVC) v1 Common Test
Conditions (CTC) sequences. Ground-truth annotations for 13 sequences were
prepared and released as the dataset called SFU-HW-Tracks-v1. For each video
frame, ground truth annotations include object class ID, object ID, and
bounding box location and its dimensions. The dataset can be used to evaluate
object tracking performance on uncompressed video sequences and study the
relationship between video compression and object tracking.
- Abstract(参考訳): 本稿では,高効率ビデオ符号化 (HEVC) v1 Common Test Conditions (CTC) シーケンスに対して,ユニークなオブジェクトIDを持つオブジェクトアノテーションを含むデータセットを提案する。
SFU-HW-Tracks-v1というデータセットを作成した。
各ビデオフレームについて、ground truthアノテーションにはオブジェクトクラスid、オブジェクトid、バウンディングボックス位置とその寸法が含まれる。
このデータセットは、未圧縮ビデオシーケンスにおけるオブジェクト追跡性能の評価や、ビデオ圧縮とオブジェクトトラッキングの関係の研究に使用できる。
関連論文リスト
- VOVTrack: Exploring the Potentiality in Videos for Open-Vocabulary Object Tracking [61.56592503861093]
オープンボキャブラリオブジェクト検出(OVD)とマルチオブジェクトトラッキング(MOT)の複雑さを両立させる。
OVMOT の既存のアプローチは、OVD と MOT の方法論を別個のモジュールとして統合することが多く、主に画像中心のレンズによる問題に焦点を当てている。
VOVTrackは、MOTとビデオ中心トレーニングに関連するオブジェクト状態を統合する新しい手法であり、ビデオオブジェクト追跡の観点からこの問題に対処する。
論文 参考訳(メタデータ) (2024-10-11T05:01:49Z) - 1st Place Solution for MOSE Track in CVPR 2024 PVUW Workshop: Complex Video Object Segmentation [72.54357831350762]
本稿では,ビデオオブジェクトのセグメンテーションモデルを提案する。
我々は大規模ビデオオブジェクトセグメンテーションデータセットを用いてモデルを訓練した。
我々のモデルは、複雑なビデオオブジェクトチャレンジのテストセットで1位(textbf84.45%)を達成した。
論文 参考訳(メタデータ) (2024-06-07T03:13:46Z) - OW-VISCap: Open-World Video Instance Segmentation and Captioning [95.6696714640357]
本研究では,映像中の映像や未確認の物体の分割,追跡,キャプションを共同で行う手法を提案する。
マスク付アテンション拡張LDM入力により,検出対象毎にリッチな記述文とオブジェクト中心のキャプションを生成する。
当社のアプローチは,3つのタスクにおいて最先端の作業と一致しているか,あるいは超えています。
論文 参考訳(メタデータ) (2024-04-04T17:59:58Z) - Unifying Visual and Vision-Language Tracking via Contrastive Learning [34.49865598433915]
単一のオブジェクト追跡は、異なるモーダル参照に従って、ビデオシーケンス内の対象オブジェクトを特定することを目的としている。
異なるモダリティ間のギャップのため、既存のトラッカーのほとんどは、これらの参照設定の単一または部分のために設計されている。
3つの参照設定を同時に処理できるUVLTrackという統合トラッカーを提案する。
論文 参考訳(メタデータ) (2024-01-20T13:20:54Z) - MeViS: A Large-scale Benchmark for Video Segmentation with Motion
Expressions [93.35942025232943]
複雑な環境下で対象物を示すために,多数の動作表現を含む大規模データセットMeViSを提案する。
本ベンチマークの目的は,効率的な言語誘導ビデオセグメンテーションアルゴリズムの開発を可能にするプラットフォームを提供することである。
論文 参考訳(メタデータ) (2023-08-16T17:58:34Z) - DIVOTrack: A Novel Dataset and Baseline Method for Cross-View
Multi-Object Tracking in DIVerse Open Scenes [74.64897845999677]
歩行者が密集したDIVerse Openのシーンを対象とした,新しいクロスビュー多目的追跡データセットを提案する。
私たちのDIVOTrackには15の異なるシナリオと953のクロスビュートラックがあります。
さらに,クロスモット(CrossMOT)という統合型共同検出・クロスビュートラッキングフレームワークを用いた新しいベースラインクロスビュートラッキング手法を提案する。
論文 参考訳(メタデータ) (2023-02-15T14:10:42Z) - Two Video Data Sets for Tracking and Retrieval of Out of Distribution
Objects [1.5749416770494706]
配電追跡(OOD)の新しいコンピュータビジョン(CV)タスクのための2つのビデオテストデータセットを提案する。
ビデオシーケンスで発生するOODオブジェクトは、できるだけ早く単一のフレームで検出し、その出現時刻をできるだけ長く追跡する必要がある。
我々は,OODトラッキングの成功を測定する指標を提案し,OODオブジェクトを効率的に追跡するベースラインアルゴリズムを開発した。
論文 参考訳(メタデータ) (2022-10-05T07:55:04Z) - BURST: A Benchmark for Unifying Object Recognition, Segmentation and
Tracking in Video [58.71785546245467]
複数の既存のベンチマークには、ビデオ内のオブジェクトのトラッキングとセグメンテーションが含まれる。
異なるベンチマークデータセットとメトリクスを使用するため、それらの相互作用はほとんどありません。
高品質なオブジェクトマスクを備えた数千の多様なビデオを含むデータセットであるBURSTを提案する。
すべてのタスクは、同じデータと同等のメトリクスを使って評価されます。
論文 参考訳(メタデータ) (2022-09-25T01:27:35Z) - UnOVOST: Unsupervised Offline Video Object Segmentation and Tracking [23.326644949067145]
我々は,UnOVOST(Unsupervised Video Unsupervised Object Tracking)を,多種多様なオブジェクトの追跡とセグメント化が可能な,シンプルで汎用的なアルゴリズムとして提示する。
これを実現するために、新しいトラックレットベースのフォレストパスカットデータアソシエーションアルゴリズムを導入する。
DAVIS 2017でのアプローチを評価する際、教師なしのデータセットは、valで67.9%、test-devで58%、test-challengeベンチマークで56.4%の最先端のパフォーマンスを取得し、DAVIS 2019 Video Object Challengeで1位を獲得した。
論文 参考訳(メタデータ) (2020-01-15T16:49:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。