論文の概要: SynthVerse: A Large-Scale Diverse Synthetic Dataset for Point Tracking
- arxiv url: http://arxiv.org/abs/2602.04441v1
- Date: Wed, 04 Feb 2026 11:14:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-05 19:45:11.497195
- Title: SynthVerse: A Large-Scale Diverse Synthetic Dataset for Point Tracking
- Title(参考訳): SynthVerse: ポイントトラッキングのための大規模分散合成データセット
- Authors: Weiguang Zhao, Haoran Xu, Xingyu Miao, Qin Zhao, Rui Zhang, Kaizhu Huang, Ning Gao, Peizhou Cao, Mingze Sun, Mulin Yu, Tao Lu, Linning Xu, Junting Dong, Jiangmiao Pang,
- Abstract要約: ポイントトラッキングに特化した大規模で多様な合成データセットであるSynthVerseを紹介する。
SynthVerseは、広範囲のオブジェクトカテゴリをカバーすることによって、データセットの多様性を大幅に拡張する。
我々は,最先端の手法を体系的に評価するために,高度に多様な点追跡ベンチマークを構築した。
- 参考スコア(独自算出の注目度): 61.01458607791313
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Point tracking aims to follow visual points through complex motion, occlusion, and viewpoint changes, and has advanced rapidly with modern foundation models. Yet progress toward general point tracking remains constrained by limited high-quality data, as existing datasets often provide insufficient diversity and imperfect trajectory annotations. To this end, we introduce SynthVerse, a large-scale, diverse synthetic dataset specifically designed for point tracking. SynthVerse includes several new domains and object types missing from existing synthetic datasets, such as animated-film-style content, embodied manipulation, scene navigation, and articulated objects. SynthVerse substantially expands dataset diversity by covering a broader range of object categories and providing high-quality dynamic motions and interactions, enabling more robust training and evaluation for general point tracking. In addition, we establish a highly diverse point tracking benchmark to systematically evaluate state-of-the-art methods under broader domain shifts. Extensive experiments and analyses demonstrate that training with SynthVerse yields consistent improvements in generalization and reveal limitations of existing trackers under diverse settings.
- Abstract(参考訳): ポイントトラッキングは、複雑な動き、閉塞、視点の変化を通じて視覚的視点を追従することを目的としており、現代の基礎モデルによって急速に進歩している。
しかし、既存のデータセットは、しばしば不十分な多様性と不完全な軌跡アノテーションを提供するため、一般的な点追跡への進歩は、限られた高品質なデータによって制限され続けている。
この目的のために,ポイントトラッキングに特化した大規模で多様な合成データセットであるSynthVerseを紹介した。
SynthVerseには、アニメーションフィルムスタイルのコンテンツ、エンボディ操作、シーンナビゲーション、音声オブジェクトなど、既存の合成データセットから欠落しているいくつかの新しいドメインとオブジェクトタイプが含まれている。
SynthVerseは、広範囲のオブジェクトカテゴリをカバーし、高品質な動的モーションとインタラクションを提供することで、データセットの多様性を大幅に拡張し、一般的なポイントトラッキングのためのより堅牢なトレーニングと評価を可能にします。
さらに、より広範なドメインシフトの下で最先端の手法を体系的に評価するための、高度に多様な点追跡ベンチマークを構築した。
SynthVerseによるトレーニングにより、一般化における一貫した改善が得られ、さまざまな設定下で既存のトラッカーの制限が明らかになる。
関連論文リスト
- Is This Tracker On? A Benchmark Protocol for Dynamic Tracking [6.23176842962524]
ITTOは、ポイントトラッキングメソッドの機能と制限を評価し、診断するための新しいベンチマークスイートである。
我々はITTOにおける最先端追跡手法の厳密な分析を行い、動きの複雑さの鍵軸に沿って性能を損なう。
論文 参考訳(メタデータ) (2025-10-22T17:53:56Z) - A Deep Dive into Generic Object Tracking: A Survey [3.7305040207339286]
オブジェクト追跡は、複雑な時間的ダイナミクスのため、コンピュータビジョンにおいて依然として重要な課題である。
これらの課題に対処するために、シームズベースのトラッカー、識別トラッカー、トランスフォーマーベースのアプローチが導入された。
論文 参考訳(メタデータ) (2025-07-31T05:19:26Z) - Unified People Tracking with Graph Neural Networks [39.22185669123208]
我々は、検出を軌跡に関連付けることを学ぶ多人数追跡のための統一的で完全に差別化可能なモデルを提案する。
モデルは動的グラフを構築し、空間的、文脈的、時間的情報を集約する。
また,25の重なり合うビュー,詳細なシーン再構築,広範囲なオクルージョンを備えた新しいスケールデータセットも導入した。
論文 参考訳(メタデータ) (2025-07-11T11:17:25Z) - MTGS: Multi-Traversal Gaussian Splatting [51.22657444433942]
マルチトラバースデータは、道路ブロック内のシーン再構築のための複数の視点を提供する。
任意に収集したマルチトラバーサルデータから高品質な運転シーンを再構成する新しい手法であるマルチトラバーサル・ガウス・スプラッティング(MTGS)を提案する。
その結果、MTGSはLPIPSを23.5%改善し、幾何学的精度は46.3%向上した。
論文 参考訳(メタデータ) (2025-03-16T15:46:12Z) - OmniPose6D: Towards Short-Term Object Pose Tracking in Dynamic Scenes from Monocular RGB [40.62577054196799]
実環境の多様性を反映した大規模合成データセットOmniPose6Dを提案する。
本稿では,ポーズ追跡アルゴリズムの総合的な比較のためのベンチマークフレームワークを提案する。
論文 参考訳(メタデータ) (2024-10-09T09:01:40Z) - TRoVE: Transforming Road Scene Datasets into Photorealistic Virtual
Environments [84.6017003787244]
本研究では、シミュレーションデータセットに存在する困難とドメインギャップに対処する合成データ生成パイプラインを提案する。
既存のデータセットからアノテーションや視覚的手がかりを利用すれば、自動マルチモーダルデータ生成が容易になることを示す。
論文 参考訳(メタデータ) (2022-08-16T20:46:08Z) - MetaGraspNet: A Large-Scale Benchmark Dataset for Scene-Aware
Ambidextrous Bin Picking via Physics-based Metaverse Synthesis [72.85526892440251]
本稿では,物理に基づくメタバース合成により構築した大規模写真リアリスティックビンピックデータセットであるMetaGraspNetを紹介する。
提案データセットは,82種類の記事に対して217kのRGBD画像を含み,オブジェクト検出,アモーダル認識,キーポイント検出,操作順序,および並列ジャウと真空グリップパー用のアンビデクストグリップラベルの完全なアノテーションを備える。
また,2.3k以上の完全アノテートされた高品質なRGBD画像からなる実際のデータセットを5段階の難易度と,異なるオブジェクトおよびレイアウト特性を評価するための見えないオブジェクトセットに分割する。
論文 参考訳(メタデータ) (2022-08-08T08:15:34Z) - Salient Objects in Clutter [130.63976772770368]
本稿では,既存の正当性オブジェクト検出(SOD)データセットの重大な設計バイアスを特定し,対処する。
この設計バイアスは、既存のデータセットで評価した場合、最先端のSODモデルのパフォーマンスの飽和につながった。
我々は,新しい高品質データセットを提案し,前回のsaliencyベンチマークを更新する。
論文 参考訳(メタデータ) (2021-05-07T03:49:26Z) - Benchmarking Unsupervised Object Representations for Video Sequences [111.81492107649889]
ViMON, OP3, TBA, SCALORの4つのオブジェクト中心アプローチの知覚能力を比較した。
この結果から,制約のない潜在表現を持つアーキテクチャは,オブジェクト検出やセグメンテーション,トラッキングといった観点から,より強力な表現を学習できる可能性が示唆された。
我々のベンチマークは、より堅牢なオブジェクト中心のビデオ表現を学習するための実りあるガイダンスを提供するかもしれない。
論文 参考訳(メタデータ) (2020-06-12T09:37:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。