論文の概要: SFU-HW-Tracks-v1: Object Tracking Dataset on Raw Video Sequences
- arxiv url: http://arxiv.org/abs/2112.14934v1
- Date: Thu, 30 Dec 2021 05:52:15 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-04 04:07:51.312929
- Title: SFU-HW-Tracks-v1: Object Tracking Dataset on Raw Video Sequences
- Title(参考訳): SFU-HW-Tracks-v1: 生ビデオシーケンス上のオブジェクト追跡データセット
- Authors: Takehiro Tanaka, Hyomin Choi, Ivan V. Baji\'c
- Abstract要約: 本稿では,高効率ビデオ符号化 (HEVC) v1 Common Test Conditions (CTC) シーケンスに対して,ユニークなオブジェクトIDを持つオブジェクトアノテーションを含むデータセットを提案する。
各ビデオフレームには、オブジェクトクラスID、オブジェクトID、バウンディングボックスの位置とその次元が含まれる。
- 参考スコア(独自算出の注目度): 30.058005235097113
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present a dataset that contains object annotations with unique object
identities (IDs) for the High Efficiency Video Coding (HEVC) v1 Common Test
Conditions (CTC) sequences. Ground-truth annotations for 13 sequences were
prepared and released as the dataset called SFU-HW-Tracks-v1. For each video
frame, ground truth annotations include object class ID, object ID, and
bounding box location and its dimensions. The dataset can be used to evaluate
object tracking performance on uncompressed video sequences and study the
relationship between video compression and object tracking.
- Abstract(参考訳): 本稿では,高効率ビデオ符号化 (HEVC) v1 Common Test Conditions (CTC) シーケンスに対して,ユニークなオブジェクトIDを持つオブジェクトアノテーションを含むデータセットを提案する。
SFU-HW-Tracks-v1というデータセットを作成した。
各ビデオフレームについて、ground truthアノテーションにはオブジェクトクラスid、オブジェクトid、バウンディングボックス位置とその寸法が含まれる。
このデータセットは、未圧縮ビデオシーケンスにおけるオブジェクト追跡性能の評価や、ビデオ圧縮とオブジェクトトラッキングの関係の研究に使用できる。
関連論文リスト
- Unifying Visual and Vision-Language Tracking via Contrastive Learning [34.49865598433915]
単一のオブジェクト追跡は、異なるモーダル参照に従って、ビデオシーケンス内の対象オブジェクトを特定することを目的としている。
異なるモダリティ間のギャップのため、既存のトラッカーのほとんどは、これらの参照設定の単一または部分のために設計されている。
3つの参照設定を同時に処理できるUVLTrackという統合トラッカーを提案する。
論文 参考訳(メタデータ) (2024-01-20T13:20:54Z) - Chat-3D v2: Bridging 3D Scene and Large Language Models with Object
Identifiers [62.232809030044116]
会話中にオブジェクトを自由に参照するためにオブジェクト識別子を導入する。
本稿では,属性認識トークンと関係認識トークンを各オブジェクトに対して学習する2段階アライメント手法を提案する。
ScanQA、ScanRefer、Nr3D/Sr3Dといった従来のデータセットで行った実験は、提案手法の有効性を示した。
論文 参考訳(メタデータ) (2023-12-13T14:27:45Z) - MeViS: A Large-scale Benchmark for Video Segmentation with Motion
Expressions [93.35942025232943]
複雑な環境下で対象物を示すために,多数の動作表現を含む大規模データセットMeViSを提案する。
本ベンチマークの目的は,効率的な言語誘導ビデオセグメンテーションアルゴリズムの開発を可能にするプラットフォームを提供することである。
論文 参考訳(メタデータ) (2023-08-16T17:58:34Z) - Segment Anything Meets Point Tracking [116.44931239508578]
本稿では,SAMと長期点追跡を併用した,ポイント中心の対話型ビデオセグメンテーションの新たな手法を提案する。
ゼロショットオープンワールドUnidentified Video Objects(UVO)ベンチマークで直接評価することで,ポイントベーストラッキングのメリットを強調した。
DAVIS, YouTube-VOS, BDD100Kなどの人気ビデオオブジェクトのセグメンテーションと多目的セグメンテーションのベンチマーク実験により, ポイントベースセグメンテーショントラッカーがより優れたゼロショット性能と効率的なインタラクションをもたらすことが示唆された。
論文 参考訳(メタデータ) (2023-07-03T17:58:01Z) - DIVOTrack: A Novel Dataset and Baseline Method for Cross-View
Multi-Object Tracking in DIVerse Open Scenes [74.64897845999677]
歩行者が密集したDIVerse Openのシーンを対象とした,新しいクロスビュー多目的追跡データセットを提案する。
私たちのDIVOTrackには15の異なるシナリオと953のクロスビュートラックがあります。
さらに,クロスモット(CrossMOT)という統合型共同検出・クロスビュートラッキングフレームワークを用いた新しいベースラインクロスビュートラッキング手法を提案する。
論文 参考訳(メタデータ) (2023-02-15T14:10:42Z) - MOSE: A New Dataset for Video Object Segmentation in Complex Scenes [106.64327718262764]
ビデオオブジェクトセグメンテーション(VOS)は、ビデオクリップシーケンス全体を通して特定のオブジェクトをセグメンテーションすることを目的としている。
最先端のVOSメソッドは、既存のデータセット上で優れたパフォーマンス(例えば、90%以上のJ&F)を達成した。
我々は、複雑な環境でのトラッキングとセグメンテーションを研究するために、coMplex video Object SEgmentation (MOSE)と呼ばれる新しいVOSデータセットを収集する。
論文 参考訳(メタデータ) (2023-02-03T17:20:03Z) - Two Video Data Sets for Tracking and Retrieval of Out of Distribution
Objects [1.5749416770494706]
配電追跡(OOD)の新しいコンピュータビジョン(CV)タスクのための2つのビデオテストデータセットを提案する。
ビデオシーケンスで発生するOODオブジェクトは、できるだけ早く単一のフレームで検出し、その出現時刻をできるだけ長く追跡する必要がある。
我々は,OODトラッキングの成功を測定する指標を提案し,OODオブジェクトを効率的に追跡するベースラインアルゴリズムを開発した。
論文 参考訳(メタデータ) (2022-10-05T07:55:04Z) - BURST: A Benchmark for Unifying Object Recognition, Segmentation and
Tracking in Video [58.71785546245467]
複数の既存のベンチマークには、ビデオ内のオブジェクトのトラッキングとセグメンテーションが含まれる。
異なるベンチマークデータセットとメトリクスを使用するため、それらの相互作用はほとんどありません。
高品質なオブジェクトマスクを備えた数千の多様なビデオを含むデータセットであるBURSTを提案する。
すべてのタスクは、同じデータと同等のメトリクスを使って評価されます。
論文 参考訳(メタデータ) (2022-09-25T01:27:35Z) - UnOVOST: Unsupervised Offline Video Object Segmentation and Tracking [23.326644949067145]
我々は,UnOVOST(Unsupervised Video Unsupervised Object Tracking)を,多種多様なオブジェクトの追跡とセグメント化が可能な,シンプルで汎用的なアルゴリズムとして提示する。
これを実現するために、新しいトラックレットベースのフォレストパスカットデータアソシエーションアルゴリズムを導入する。
DAVIS 2017でのアプローチを評価する際、教師なしのデータセットは、valで67.9%、test-devで58%、test-challengeベンチマークで56.4%の最先端のパフォーマンスを取得し、DAVIS 2019 Video Object Challengeで1位を獲得した。
論文 参考訳(メタデータ) (2020-01-15T16:49:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。