論文の概要: PoreTrack3D: A Benchmark for Dynamic 3D Gaussian Splatting in Pore-Scale Facial Trajectory Tracking
- arxiv url: http://arxiv.org/abs/2512.02648v1
- Date: Tue, 02 Dec 2025 11:08:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-03 21:04:45.837534
- Title: PoreTrack3D: A Benchmark for Dynamic 3D Gaussian Splatting in Pore-Scale Facial Trajectory Tracking
- Title(参考訳): PoreTrack3D: 顔軌跡追跡における動的3次元ガウス散乱のベンチマーク
- Authors: Dong Li, Jiahao Xiong, Yingda Huang, Le Chang,
- Abstract要約: PoreTrack3Dは、多孔質で非剛性な3D顔軌跡追跡における動的3Dガウススプラッティングの最初のベンチマークである。
顔の軌跡は4万枚以上あり、そのうち5万2000枚以上が10コマより長い。
PoreTrack3Dは、従来の顔のランドマークと多孔質キーポイントの軌跡の両方をキャプチャする最初のベンチマークデータセットである。
- 参考スコア(独自算出の注目度): 8.004264378102272
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We introduce PoreTrack3D, the first benchmark for dynamic 3D Gaussian splatting in pore-scale, non-rigid 3D facial trajectory tracking. It contains over 440,000 facial trajectories in total, among which more than 52,000 are longer than 10 frames, including 68 manually reviewed trajectories that span the entire 150 frames. To the best of our knowledge, PoreTrack3D is the first benchmark dataset to capture both traditional facial landmarks and pore-scale keypoints trajectory, advancing the study of fine-grained facial expressions through the analysis of subtle skin-surface motion. We systematically evaluate state-of-the-art dynamic 3D Gaussian splatting methods on PoreTrack3D, establishing the first performance baseline in this domain. Overall, the pipeline developed for this benchmark dataset's creation establishes a new framework for high-fidelity facial motion capture and dynamic 3D reconstruction. Our dataset are publicly available at: https://github.com/JHXion9/PoreTrack3D
- Abstract(参考訳): PoreTrack3Dは、多孔質で非剛性な3次元顔軌跡追跡における動的3Dガウススプラッティングのための最初のベンチマークである。
顔の軌跡は4万件以上あり、そのうち5万2000件以上が10フレーム以上で、そのうち68件が手作業でレビューされ150フレーム全体にわたっている。
私たちの知る限りでは、PoreTrack3Dは従来の顔のランドマークと細孔スケールのキーポイントの軌跡の両方をキャプチャする最初のベンチマークデータセットであり、微妙な皮膚表面の動きの分析を通じて、きめ細かい表情の研究を進めています。
我々は,PoreTrack3Dの動的3Dガウススプラッティング手法を体系的に評価し,この領域における最初のパフォーマンスベースラインを確立した。
全体として、このベンチマークデータセットの作成のために開発されたパイプラインは、高忠実な顔の動きのキャプチャと動的3D再構成のための新しいフレームワークを確立する。
私たちのデータセットは、https://github.com/JHXion9/PoreTrack3Dで公開されています。
関連論文リスト
- SpatialTrackerV2: 3D Point Tracking Made Easy [73.0350898700048]
SpaceTrackerV2はモノクロビデオのフィードフォワード3Dポイントトラッキング手法である。
これは、世界空間の3Dモーションをシーン幾何学、カメラエゴモーション、ピクセルワイドオブジェクトモーションに分解する。
このような異種データから幾何学と運動を共同で学習することで、SpatialTrackerV2は既存の3Dトラッキング方法よりも30%優れています。
論文 参考訳(メタデータ) (2025-07-16T17:59:03Z) - TAPVid-3D: A Benchmark for Tracking Any Point in 3D [63.060421798990845]
我々は,3Dにおける任意の点の追跡作業を評価するための新しいベンチマークTAPVid-3Dを導入する。
このベンチマークは、モノクロビデオから正確な3Dの動きと表面の変形を理解する能力を改善するためのガイドポストとして機能する。
論文 参考訳(メタデータ) (2024-07-08T13:28:47Z) - Common Pets in 3D: Dynamic New-View Synthesis of Real-Life Deformable
Categories [80.30216777363057]
コモンペットを3Dで紹介する(CoP3D)。
テスト時には、目に見えないオブジェクトの少数のビデオフレームが与えられたとき、Tracker-NeRFはその3Dポイントの軌跡を予測し、新しいビューを生成する。
CoP3Dの結果は、既存のベースラインよりも、厳密でない新規ビュー合成性能が著しく向上した。
論文 参考訳(メタデータ) (2022-11-07T22:42:42Z) - Monocular Quasi-Dense 3D Object Tracking [99.51683944057191]
周囲の物体の将来の位置を予測し、自律運転などの多くのアプリケーションで観測者の行動を計画するためには、信頼性と正確な3D追跡フレームワークが不可欠である。
移動プラットフォーム上で撮影された2次元画像のシーケンスから,移動物体を時間とともに効果的に関連付け,その全3次元バウンディングボックス情報を推定するフレームワークを提案する。
論文 参考訳(メタデータ) (2021-03-12T15:30:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。