論文の概要: HumanRig: Learning Automatic Rigging for Humanoid Character in a Large Scale Dataset
- arxiv url: http://arxiv.org/abs/2412.02317v1
- Date: Tue, 03 Dec 2024 09:33:00 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-04 21:11:22.959298
- Title: HumanRig: Learning Automatic Rigging for Humanoid Character in a Large Scale Dataset
- Title(参考訳): HumanRig: 大規模データセットにおけるヒューマノイド文字の自動リギング学習
- Authors: Zedong Chu, Feng Xiong, Meiduo Liu, Jinzhi Zhang, Mingqi Shao, Zhaoxu Sun, Di Wang, Mu Xu,
- Abstract要約: 我々は3次元ヒューマノイドキャラクタリギング用に特別に設計された最初の大規模データセットであるHumanRigを紹介する。
本稿では,GNN方式の限界を克服する,革新的なデータ駆動型自動リギングフレームワークを提案する。
この作業は、リギング研究におけるデータセット不足を修復するだけでなく、アニメーション産業をより効率的かつ自動化されたキャラクタリギングパイプラインへと発展させる。
- 参考スコア(独自算出の注目度): 6.978870586488504
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With the rapid evolution of 3D generation algorithms, the cost of producing 3D humanoid character models has plummeted, yet the field is impeded by the lack of a comprehensive dataset for automatic rigging, which is a pivotal step in character animation. Addressing this gap, we present HumanRig, the first large-scale dataset specifically designed for 3D humanoid character rigging, encompassing 11,434 meticulously curated T-posed meshes adhered to a uniform skeleton topology. Capitalizing on this dataset, we introduce an innovative, data-driven automatic rigging framework, which overcomes the limitations of GNN-based methods in handling complex AI-generated meshes. Our approach integrates a Prior-Guided Skeleton Estimator (PGSE) module, which uses 2D skeleton joints to provide a preliminary 3D skeleton, and a Mesh-Skeleton Mutual Attention Network (MSMAN) that fuses skeleton features with 3D mesh features extracted by a U-shaped point transformer. This enables a coarse-to-fine 3D skeleton joint regression and a robust skinning estimation, surpassing previous methods in quality and versatility. This work not only remedies the dataset deficiency in rigging research but also propels the animation industry towards more efficient and automated character rigging pipelines.
- Abstract(参考訳): 3次元生成アルゴリズムの急速な進化により、3次元ヒューマノイドキャラクタモデルの作成コストは急落したが、文字アニメーションにおける重要なステップである自動リギングのための包括的なデータセットが欠如しているため、この分野は妨げられている。
このギャップに対処するため,11,434個の微調整されたT面メッシュを均一な骨格トポロジーに付着させた3次元ヒューマノイドキャラクタリギング用に設計された,最初の大規模データセットであるHumanRigを提案する。
このデータセットに基づいて、複雑なAI生成メッシュを扱う際のGNNベースのメソッドの制限を克服する、革新的なデータ駆動型自動リギングフレームワークを導入します。
提案手法では,2次元骨格継手を用いて予備的な3次元骨格を提供するPGSEモジュールと,U字型点変換器で抽出した3次元メッシュ特徴を融合するMesh-Skeleton Mutual Attention Network (MSMAN)を併用する。
これにより、粗く細い3D骨格の関節のレグレッションと堅牢なスキンニング推定が可能となり、従来手法よりも品質と汎用性が向上した。
この作業は、リギング研究におけるデータセット不足を修復するだけでなく、アニメーション産業をより効率的かつ自動化されたキャラクタリギングパイプラインへと発展させる。
関連論文リスト
- SIGMAN:Scaling 3D Human Gaussian Generation with Millions of Assets [72.26350984924129]
本稿では,3次元デジタル化のための潜在空間生成パラダイムを提案する。
我々は,不適切な低次元から高次元のマッピング問題を学習可能な分布シフトに変換する。
我々は、HGS-1Mデータセットを構築するために、合成データと組み合わせた多視点最適化アプローチを採用する。
論文 参考訳(メタデータ) (2025-04-09T15:38:18Z) - ARMO: Autoregressive Rigging for Multi-Category Objects [8.030479370619458]
我々はOmniRigを紹介した。OmniRigは79,499個のメッシュで構成され、詳細なスケルトンとスキン情報を含んでいる。
定義済みの標準ポーズに依存する従来のベンチマークとは異なり、データセットにはさまざまな形状カテゴリ、スタイル、ポーズが採用されています。
本稿では、自己回帰モデルを用いて、関節位置と接続関係を統一的に予測する新しいリギングフレームワークARMOを提案する。
論文 参考訳(メタデータ) (2025-03-26T15:56:48Z) - MagicArticulate: Make Your 3D Models Articulation-Ready [109.35703811628045]
静的な3Dモデルを自動的に調音可能なアセットに変換する効果的なフレームワークであるMagicArticulateを提案する。
まず,高品質な調音アノテーションを備えた33k以上の3Dモデルを含むArticulation-averseベンチマークを紹介し,XL-XLから慎重にキュレートする。
大規模な実験では、MagicArticulateはさまざまなオブジェクトカテゴリで既存のメソッドよりも大幅に優れています。
論文 参考訳(メタデータ) (2025-02-17T18:53:27Z) - RigAnything: Template-Free Autoregressive Rigging for Diverse 3D Assets [47.81216915952291]
本稿では,新しい自己回帰変換モデルであるRigAnythingを紹介する。
関節や骨格のトポロジを確率的に生成し、スキンの重量をテンプレートのない方法で割り当てることで、3Dアセットを準備できる。
RigAnythingは、ヒューマノイド、四足動物、海洋生物、昆虫など、さまざまな種類の物体で最先端のパフォーマンスを実証している。
論文 参考訳(メタデータ) (2025-02-13T18:59:13Z) - Neural Localizer Fields for Continuous 3D Human Pose and Shape Estimation [32.30055363306321]
本研究では、異なる人間のポーズや形状に関連したタスクやデータセットをシームレスに統一するパラダイムを提案する。
私たちの定式化は、トレーニングとテスト時間の両方で、人間の体積の任意の点を問う能力に重点を置いています。
メッシュや2D/3Dスケルトン,密度の高いポーズなど,さまざまな注釈付きデータソースを,変換することなく自然に利用することが可能です。
論文 参考訳(メタデータ) (2024-07-10T10:44:18Z) - Graph and Skipped Transformer: Exploiting Spatial and Temporal Modeling Capacities for Efficient 3D Human Pose Estimation [36.93661496405653]
我々は、簡潔なグラフとSkipped Transformerアーキテクチャを用いて、Transformer-temporal情報を活用するためのグローバルなアプローチを採っている。
具体的には、3Dポーズの段階では、粗粒の体部が展開され、完全なデータ駆動適応モデルが構築される。
実験はHuman3.6M、MPI-INF-3DHP、Human-Evaベンチマークで行われた。
論文 参考訳(メタデータ) (2024-07-03T10:42:09Z) - 3D Human Reconstruction in the Wild with Synthetic Data Using Generative Models [52.96248836582542]
本稿では,人間の画像とそれに対応する3Dメッシュアノテーションをシームレスに生成できるHumanWildという,最近の拡散モデルに基づく効果的なアプローチを提案する。
生成モデルを排他的に活用することにより,大規模な人体画像と高品質なアノテーションを生成し,実世界のデータ収集の必要性を解消する。
論文 参考訳(メタデータ) (2024-03-17T06:31:16Z) - SpATr: MoCap 3D Human Action Recognition based on Spiral Auto-encoder and Transformer Network [1.4732811715354455]
SpATr(Spiral Auto-Encoder and Transformer Network)と呼ばれる3次元動作認識のための新しいアプローチを提案する。
スパイラル畳み込みに基づく軽量オートエンコーダを用いて,各3次元メッシュから空間幾何学的特徴を抽出する。
提案手法は,Babel,MoVi,BMLrubの3つの顕著な3次元行動データセットを用いて評価した。
論文 参考訳(メタデータ) (2023-06-30T11:49:00Z) - Learning 3D Human Pose Estimation from Dozens of Datasets using a
Geometry-Aware Autoencoder to Bridge Between Skeleton Formats [80.12253291709673]
本稿では,アフィン結合型オートエンコーダ(ACAE)法を提案する。
このアプローチは、28人の人間のポーズデータセットを使って1つのモデルを監督する、極端なマルチデータセット体制にスケールします。
論文 参考訳(メタデータ) (2022-12-29T22:22:49Z) - A Lightweight Graph Transformer Network for Human Mesh Reconstruction
from 2D Human Pose [8.816462200869445]
GTRSは2次元の人間のポーズから人間のメッシュを再構築する。
我々は、Human3.6Mと3DPWデータセットの広範囲な評価により、GTRSの効率性と一般化を実証する。
論文 参考訳(メタデータ) (2021-11-24T18:48:03Z) - VoteHMR: Occlusion-Aware Voting Network for Robust 3D Human Mesh
Recovery from Partial Point Clouds [32.72878775887121]
単フレーム部分点雲から信頼性の高い3次元形状を復元する最初の試みを行う。
本稿では,VoteHMRというエンドツーエンドの学習方法を提案する。
提案手法は,2つの大規模データセット上での最先端性能を実現する。
論文 参考訳(メタデータ) (2021-10-17T05:42:04Z) - THUNDR: Transformer-based 3D HUmaN Reconstruction with Markers [67.8628917474705]
THUNDRは、人の3Dポーズと形状を再構築するトランスフォーマーベースのディープニューラルネットワーク手法である。
完全教師付きモデルと自己教師型モデルの両方に対して,Human3.6Mと3DPWの最先端結果を示す。
野生で収集された難易度の高い人間のポーズに対して, 非常に堅固な3次元再構成性能を観察した。
論文 参考訳(メタデータ) (2021-06-17T09:09:24Z) - Exemplar Fine-Tuning for 3D Human Model Fitting Towards In-the-Wild 3D
Human Pose Estimation [107.07047303858664]
3次元の地平線アノテーションを持つ大規模な人的データセットは、野生では入手が困難である。
既存の2Dデータセットを高品質な3Dポーズマッチングで拡張することで、この問題に対処する。
結果として得られるアノテーションは、3Dのプロシージャネットワークをスクラッチからトレーニングするのに十分である。
論文 参考訳(メタデータ) (2020-04-07T20:21:18Z) - Anatomy-aware 3D Human Pose Estimation with Bone-based Pose
Decomposition [92.99291528676021]
3次元関節位置を直接回帰するのではなく,骨方向予測と骨長予測に分解する。
私たちのモチベーションは、人間の骨格の骨の長さが時間とともに一定であることにあります。
我々の完全なモデルは、Human3.6MとMPI-INF-3DHPデータセットにおいて、以前の最高の結果よりも優れています。
論文 参考訳(メタデータ) (2020-02-24T15:49:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。