論文の概要: GIFT: Generated Indoor video frames for Texture-less point tracking
- arxiv url: http://arxiv.org/abs/2503.12944v1
- Date: Mon, 17 Mar 2025 08:58:33 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-18 12:30:31.672668
- Title: GIFT: Generated Indoor video frames for Texture-less point tracking
- Title(参考訳): GIFT:テクスチュアレスポイントトラッキングのための屋内ビデオフレーム
- Authors: Jianzheng Huang, Xianyu Mo, Ziling Liu, Jinyu Yang, Feng Zheng,
- Abstract要約: 本研究では,3次元物体のテクスチャ強度を評価する指標を提案する。
GIFTは、1800の屋内ビデオシーケンスとリッチアノテーションからなる、難しい合成ベンチマークである。
グラウンド真理点を任意に割り当てる既存のデータセットとは異なり、GIFTは分類された対象オブジェクトにグラウンド真理を正確に固定する。
- 参考スコア(独自算出の注目度): 37.78982740178578
- License:
- Abstract: Point tracking is becoming a powerful solver for motion estimation and video editing. Compared to classical feature matching, point tracking methods have the key advantage of robustly tracking points under complex camera motion trajectories and over extended periods. However, despite certain improvements in methodologies, current point tracking methods still struggle to track any position in video frames, especially in areas that are texture-less or weakly textured. In this work, we first introduce metrics for evaluating the texture intensity of a 3D object. Using these metrics, we classify the 3D models in ShapeNet into three levels of texture intensity and create GIFT, a challenging synthetic benchmark comprising 1800 indoor video sequences with rich annotations. Unlike existing datasets that assign ground truth points arbitrarily, GIFT precisely anchors ground truth on classified target objects, ensuring that each video corresponds to a specific texture intensity level. Furthermore, we comprehensively evaluate current methods on GIFT to assess their performance across different texture intensity levels and analyze the impact of texture on point tracking.
- Abstract(参考訳): ポイントトラッキングは、モーション推定とビデオ編集の強力な解決手段になりつつある。
古典的特徴マッチングと比較して、点追跡法は、複雑なカメラの運動軌跡や長い期間にわたって、頑健な点追跡の鍵となる利点を持つ。
しかし、特定の手法が改良されているにも関わらず、現在の点追跡法は、特にテクスチャレス、または弱いテクスチャ化された領域において、ビデオフレーム内のあらゆる位置を追跡するのに苦慮している。
本研究では,まず3次元物体のテクスチャ強度を評価する指標を紹介する。
これらの指標を用いて、ShapeNetの3次元モデルを3段階のテクスチャ強度に分類し、リッチアノテーションを備えた1800の屋内ビデオシーケンスからなる挑戦的な合成ベンチマークであるGIFTを作成する。
基底の真理点を任意に割り当てる既存のデータセットとは異なり、GIFTは分類対象のオブジェクトに正確な真理を固定し、各ビデオが特定のテクスチャ強度レベルに対応することを保証する。
さらに,GIFTの現在の手法を総合的に評価し,異なるテクスチャ強度レベルで評価し,テクスチャが点追跡に与える影響を分析する。
関連論文リスト
- 3D-Aware Instance Segmentation and Tracking in Egocentric Videos [107.10661490652822]
エゴセントリックなビデオは、3Dシーンの理解にユニークな課題を提示する。
本稿では,一対一のビデオにおけるインスタンスのセグメンテーションとトラッキングに対する新しいアプローチを提案する。
空間的および時間的手がかりを取り入れることで、最先端の2D手法と比較して優れた性能が得られる。
論文 参考訳(メタデータ) (2024-08-19T10:08:25Z) - TAPVid-3D: A Benchmark for Tracking Any Point in 3D [63.060421798990845]
我々は,3Dにおける任意の点の追跡作業を評価するための新しいベンチマークTAPVid-3Dを導入する。
このベンチマークは、モノクロビデオから正確な3Dの動きと表面の変形を理解する能力を改善するためのガイドポストとして機能する。
論文 参考訳(メタデータ) (2024-07-08T13:28:47Z) - PointOdyssey: A Large-Scale Synthetic Dataset for Long-Term Point
Tracking [90.29143475328506]
本稿では,大規模合成データセットとデータ生成フレームワークであるPointOdysseyを紹介する。
私たちのゴールは、自然主義的な動きを持つ長いビデオに重点を置いて、最先端の技術を推し進めることです。
実世界のモーションキャプチャーデータを用いて変形可能なキャラクタをアニメーション化し、モーションキャプチャー環境に合わせて3Dシーンを構築し、リアルビデオ上で構造から抽出したトラジェクトリを用いてカメラ視点を描画する。
論文 参考訳(メタデータ) (2023-07-27T17:58:11Z) - Tracking by 3D Model Estimation of Unknown Objects in Videos [122.56499878291916]
この表現は限定的であり、代わりに明示的なオブジェクト表現を用いて2次元追跡をガイドし改善することを提案する。
我々の表現は、全てのビデオフレームのオブジェクト上の全ての3Dポイント間の複雑な長期密度対応問題に取り組む。
提案手法は, 最適3次元形状, テクスチャ, 6DoFのポーズを推定するために, 新たな損失関数を最小化する。
論文 参考訳(メタデータ) (2023-04-13T11:32:36Z) - TAP-Vid: A Benchmark for Tracking Any Point in a Video [84.94877216665793]
我々は、より長いビデオクリップで表面上の任意の物理点を追跡するという問題を定式化し、任意の点(TAP)を追尾する。
そこで本研究では,実世界の映像に正確な点線アノテーションを付加したTAP-Vidと,完全な接地木線トラックを付加した合成ビデオとを併用したベンチマーク,TAP-Vidを提案する。
本稿では, 簡易な終端点追跡モデルTAP-Netを提案する。
論文 参考訳(メタデータ) (2022-11-07T17:57:02Z) - Iterative Corresponding Geometry: Fusing Region and Depth for Highly
Efficient 3D Tracking of Textureless Objects [25.448657318818764]
ICGは領域と深度情報を融合させる新しい確率的トラッカーであり、物体形状のみを必要とする。
本手法では, 対応線を配置し, ポーズを反復的に洗練する。
YCB-Video、OPT、Choiデータセットの実験は、テクスチャ化されたオブジェクトであっても、我々のアプローチが現在の技術よりも優れていることを示した。
論文 参考訳(メタデータ) (2022-03-10T12:30:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。