論文の概要: Avatar4D: Synthesizing Domain-Specific 4D Humans for Real-World Pose Estimation
- arxiv url: http://arxiv.org/abs/2512.16199v1
- Date: Thu, 18 Dec 2025 05:46:15 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-19 18:10:31.929199
- Title: Avatar4D: Synthesizing Domain-Specific 4D Humans for Real-World Pose Estimation
- Title(参考訳): Avatar4D: 実世界ポース推定のためのドメイン特化4Dヒューマンの合成
- Authors: Jerrin Bright, Zhibo Wang, Dmytro Klepachevskyi, Yuhao Chen, Sirisha Rambhatla, David Clausi, John Zelek,
- Abstract要約: Avatar4Dは、ドメイン固有のアプリケーションに適したカスタマイズ可能な人間のモーションデータセットを生成するための、現実世界のトランスファー可能なパイプラインである。
野球やアイスホッケーを含むスポーツを対象とする大規模な合成データセットであるSyn2Sportを紹介する。
我々は,Syn2Sportの最先端ポーズ推定モデルをいくつかベンチマークし,教師付き学習,実世界のデータへのゼロショット転送,スポーツにおける一般化の有効性を実証した。
- 参考スコア(独自算出の注目度): 13.035092314146612
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present Avatar4D, a real-world transferable pipeline for generating customizable synthetic human motion datasets tailored to domain-specific applications. Unlike prior works, which focus on general, everyday motions and offer limited flexibility, our approach provides fine-grained control over body pose, appearance, camera viewpoint, and environmental context, without requiring any manual annotations. To validate the impact of Avatar4D, we focus on sports, where domain-specific human actions and movement patterns pose unique challenges for motion understanding. In this setting, we introduce Syn2Sport, a large-scale synthetic dataset spanning sports, including baseball and ice hockey. Avatar4D features high-fidelity 4D (3D geometry over time) human motion sequences with varying player appearances rendered in diverse environments. We benchmark several state-of-the-art pose estimation models on Syn2Sport and demonstrate their effectiveness for supervised learning, zero-shot transfer to real-world data, and generalization across sports. Furthermore, we evaluate how closely the generated synthetic data aligns with real-world datasets in feature space. Our results highlight the potential of such systems to generate scalable, controllable, and transferable human datasets for diverse domain-specific tasks without relying on domain-specific real data.
- Abstract(参考訳): Avatar4Dは、ドメイン固有のアプリケーションに適した、カスタマイズ可能な人間のモーションデータセットを生成するための、現実世界のトランスファー可能なパイプラインである。
一般的な日常的な動きに焦点をあて、柔軟性が制限された以前の作品とは異なり、我々のアプローチは手動のアノテーションを必要とせず、身体のポーズ、外観、カメラの視点、環境状況のきめ細かい制御を提供する。
Avatar4Dの効果を検証するために、我々は、ドメイン固有の人間の行動と運動パターンが動作理解に固有の課題をもたらすスポーツに焦点を当てる。
本稿では,野球やアイスホッケーを含むスポーツを対象とする大規模合成データセットであるSyn2Sportを紹介する。
アバター4Dは、様々な環境下でレンダリングされた様々なプレイヤーの外観を持つ高忠実な4D(3Dジオメトリ)の人間のモーションシーケンスを特徴としている。
我々は,Syn2Sportの最先端ポーズ推定モデルをいくつかベンチマークし,教師付き学習,実世界のデータへのゼロショット転送,スポーツにおける一般化の有効性を実証した。
さらに,生成した合成データが,特徴空間における実世界のデータセットとどの程度密接に一致しているかを評価する。
この結果は、ドメイン固有の実データに頼ることなく、多様なドメイン固有のタスクに対して、スケーラブルで制御可能で、転送可能な人的データセットを生成するシステムの可能性を強調した。
関連論文リスト
- Dynamic Avatar-Scene Rendering from Human-centric Context [75.95641456716373]
分離されたモデルと最適化されたモデルをブリッジするbf分離マップ(StM)戦略を提案する。
StMは、視覚的品質とレンダリングの精度の両方において、既存の最先端の手法を著しく上回っている。
論文 参考訳(メタデータ) (2025-11-13T17:39:06Z) - Gen4D: Synthesizing Humans and Scenes in the Wild [10.696169692478275]
我々は,多種多様でフォトリアリスティックな4Dアニメーションを生成するための完全自動化パイプラインであるGen4Dを紹介する。
野球,アイスホッケー,サッカーの3つのスポーツにまたがる大規模な合成データセットであるSportPALを提示する。
Gen4DとSportPALは、Wildの人間中心の視覚タスクに適した合成データセットを構築するためのスケーラブルな基盤を提供する。
論文 参考訳(メタデータ) (2025-06-03T20:04:41Z) - Diffusion Models are Efficient Data Generators for Human Mesh Recovery [55.37787289869703]
生成モデルにより生成された合成データはCGレンダリングデータと相補的であることを示す。
我々はHumanWildと呼ばれる最近の拡散モデルに基づく効率的なデータ生成パイプラインを提案する。
われわれの研究は、人間の3Dリカバリを現場に拡大するための道を開くかもしれない。
論文 参考訳(メタデータ) (2024-03-17T06:31:16Z) - Scaling Up Dynamic Human-Scene Interaction Modeling [58.032368564071895]
TRUMANSは、現在利用可能な最も包括的なモーションキャプチャーHSIデータセットである。
人体全体の動きや部分レベルの物体の動きを複雑に捉えます。
本研究では,任意の長さのHSI配列を効率的に生成する拡散型自己回帰モデルを提案する。
論文 参考訳(メタデータ) (2024-03-13T15:45:04Z) - Synthesizing Diverse Human Motions in 3D Indoor Scenes [16.948649870341782]
そこで本研究では,仮想人間による3次元屋内シーンの映像化手法を提案する。
既存のアプローチは、キャプチャーされた人間の動きと、それらが相互作用する3Dシーンを含むトレーニングシーケンスに依存している。
仮想人間が3Dシーンをナビゲートし、現実的かつ自律的にオブジェクトと対話できる強化学習ベースのアプローチを提案する。
論文 参考訳(メタデータ) (2023-05-21T09:22:24Z) - CIRCLE: Capture In Rich Contextual Environments [69.97976304918149]
そこで我々は,アクターが仮想世界において知覚し,操作する新たな動き獲得システムを提案する。
9つのシーンにわたる5人の被験者から10時間のフルボディ到達動作を含むデータセットであるCIRCLEを提示する。
このデータセットを用いて、シーン情報に基づいて人間の動きを生成するモデルを訓練する。
論文 参考訳(メタデータ) (2023-03-31T09:18:12Z) - HSPACE: Synthetic Parametric Humans Animated in Complex Environments [67.8628917474705]
我々は、複雑な屋内および屋外環境に置かれたアニメーション人間による大規模な写真リアルデータセット、Human-SPACEを構築した。
年齢、性別、比率、民族性の異なる数百の個人と数百の動きとシーンを組み合わせて、100万フレームを超える最初のデータセットを生成します。
アセットは大規模に自動生成され、既存のリアルタイムレンダリングやゲームエンジンと互換性がある。
論文 参考訳(メタデータ) (2021-12-23T22:27:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。