論文の概要: Trace Anything: Representing Any Video in 4D via Trajectory Fields
- arxiv url: http://arxiv.org/abs/2510.13802v1
- Date: Wed, 15 Oct 2025 17:59:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-16 20:13:28.804652
- Title: Trace Anything: Representing Any Video in 4D via Trajectory Fields
- Title(参考訳): トレーサリー・フィールドで4D動画を映し出す「Trace Anything」
- Authors: Xinhang Liu, Yuxi Xiao, Donny Y. Chen, Jiashi Feng, Yu-Wing Tai, Chi-Keung Tang, Bingyi Kang,
- Abstract要約: 軌道場 (Trajectory Field) は、各フレーム内の各ピクセルに時間の連続した3次元軌跡関数を割り当てる密集写像である。
我々は,1つのフィードフォワードパスで軌道場全体を予測するニューラルネットワークであるTrace Anythingを紹介する。
私たちは、新しいプラットフォームからのデータを含む大規模な4Dデータに基づいて、Trace Anythingモデルをトレーニングしました。
- 参考スコア(独自算出の注目度): 98.85848134960172
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Effective spatio-temporal representation is fundamental to modeling, understanding, and predicting dynamics in videos. The atomic unit of a video, the pixel, traces a continuous 3D trajectory over time, serving as the primitive element of dynamics. Based on this principle, we propose representing any video as a Trajectory Field: a dense mapping that assigns a continuous 3D trajectory function of time to each pixel in every frame. With this representation, we introduce Trace Anything, a neural network that predicts the entire trajectory field in a single feed-forward pass. Specifically, for each pixel in each frame, our model predicts a set of control points that parameterizes a trajectory (i.e., a B-spline), yielding its 3D position at arbitrary query time instants. We trained the Trace Anything model on large-scale 4D data, including data from our new platform, and our experiments demonstrate that: (i) Trace Anything achieves state-of-the-art performance on our new benchmark for trajectory field estimation and performs competitively on established point-tracking benchmarks; (ii) it offers significant efficiency gains thanks to its one-pass paradigm, without requiring iterative optimization or auxiliary estimators; and (iii) it exhibits emergent abilities, including goal-conditioned manipulation, motion forecasting, and spatio-temporal fusion. Project page: https://trace-anything.github.io/.
- Abstract(参考訳): ビデオのモデリング、理解、予測には、効果的な時空間表現が不可欠である。
ビデオの原子単位であるピクセルは、時間の経過とともに連続した3D軌道を辿り、ダイナミクスの原始的な要素として機能する。
この原理に基づいて,任意の映像をトラジェクティブ・フィールドとして表現し,フレーム毎に連続的な3次元トラジェクトリ関数を割り当てる密集写像を提案する。
この表現により、単一フィードフォワードパスにおける軌道場全体を予測するニューラルネットワークであるTrace Anythingを導入する。
具体的には,各フレームの各ピクセルに対して,軌道をパラメータ化する制御点の集合(B-スプライン)を予測し,任意のクエリ時に3D位置を求める。
私たちは、新しいプラットフォームからのデータを含む大規模な4Dデータに基づいてTrace Anythingモデルをトレーニングしました。
(i)Trace Anythingは、軌道場推定のための新しいベンチマークで最先端のパフォーマンスを達成し、確立された点追跡ベンチマーク上で競争的に実行します。
(II)反復最適化や補助推定器を必要とせず、ワンパスパラダイムによる大幅な効率向上を提供する。
三 目標条件付き操作、運動予測、時空間融合等の創発的能力を示すこと。
プロジェクトページ: https://trace-anything.github.io/.com
関連論文リスト
- St4RTrack: Simultaneous 4D Reconstruction and Tracking in the World [106.91539872943864]
St4RTrackは、RGB入力から世界座標フレーム内の動的ビデオコンテンツを同時に再構成し、追跡するフレームワークである。
静的および動的シーン幾何学の両方をキャプチャして、同じ世界において、同時に両方のポイントマップを予測する。
統合されたデータ駆動フレームワークの有効性と効率を実証し、世界フレームの再構築と追跡のための新しい広範囲なベンチマークを構築します。
論文 参考訳(メタデータ) (2025-04-17T17:55:58Z) - TAPVid-3D: A Benchmark for Tracking Any Point in 3D [63.060421798990845]
我々は,3Dにおける任意の点の追跡作業を評価するための新しいベンチマークTAPVid-3Dを導入する。
このベンチマークは、モノクロビデオから正確な3Dの動きと表面の変形を理解する能力を改善するためのガイドポストとして機能する。
論文 参考訳(メタデータ) (2024-07-08T13:28:47Z) - Time3D: End-to-End Joint Monocular 3D Object Detection and Tracking for
Autonomous Driving [3.8073142980733]
本稿では,モノクローナルビデオのみからエンドツーエンドに3D検出と3D追跡を共同で行うことを提案する。
Time3Dは21.4%のAMOTA、13.6%のAMOTPをnuScenesの3D追跡ベンチマークで達成し、全競合を抜いた。
論文 参考訳(メタデータ) (2022-05-30T06:41:10Z) - Motion-from-Blur: 3D Shape and Motion Estimation of Motion-blurred
Objects in Videos [115.71874459429381]
本研究では,映像から3次元の運動,3次元の形状,および高度に動きやすい物体の外観を同時推定する手法を提案する。
提案手法は, 高速移動物体の劣化と3次元再構成において, 従来の手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2021-11-29T11:25:14Z) - Monocular Quasi-Dense 3D Object Tracking [99.51683944057191]
周囲の物体の将来の位置を予測し、自律運転などの多くのアプリケーションで観測者の行動を計画するためには、信頼性と正確な3D追跡フレームワークが不可欠である。
移動プラットフォーム上で撮影された2次元画像のシーケンスから,移動物体を時間とともに効果的に関連付け,その全3次元バウンディングボックス情報を推定するフレームワークを提案する。
論文 参考訳(メタデータ) (2021-03-12T15:30:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。