論文の概要: RigAnything: Template-Free Autoregressive Rigging for Diverse 3D Assets
- arxiv url: http://arxiv.org/abs/2502.09615v1
- Date: Thu, 13 Feb 2025 18:59:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-14 13:48:10.690538
- Title: RigAnything: Template-Free Autoregressive Rigging for Diverse 3D Assets
- Title(参考訳): RigAnything: テンプレートなしの3Dアセット自動回帰リグ
- Authors: Isabella Liu, Zhan Xu, Wang Yifan, Hao Tan, Zexiang Xu, Xiaolong Wang, Hao Su, Zifan Shi,
- Abstract要約: 本稿では,新しい自己回帰変換モデルであるRigAnythingを紹介する。
関節や骨格のトポロジを確率的に生成し、スキンの重量をテンプレートのない方法で割り当てることで、3Dアセットを準備できる。
RigAnythingは、ヒューマノイド、四足動物、海洋生物、昆虫など、さまざまな種類の物体で最先端のパフォーマンスを実証している。
- 参考スコア(独自算出の注目度): 47.81216915952291
- License:
- Abstract: We present RigAnything, a novel autoregressive transformer-based model, which makes 3D assets rig-ready by probabilistically generating joints, skeleton topologies, and assigning skinning weights in a template-free manner. Unlike most existing auto-rigging methods, which rely on predefined skeleton template and are limited to specific categories like humanoid, RigAnything approaches the rigging problem in an autoregressive manner, iteratively predicting the next joint based on the global input shape and the previous prediction. While autoregressive models are typically used to generate sequential data, RigAnything extends their application to effectively learn and represent skeletons, which are inherently tree structures. To achieve this, we organize the joints in a breadth-first search (BFS) order, enabling the skeleton to be defined as a sequence of 3D locations and the parent index. Furthermore, our model improves the accuracy of position prediction by leveraging diffusion modeling, ensuring precise and consistent placement of joints within the hierarchy. This formulation allows the autoregressive model to efficiently capture both spatial and hierarchical relationships within the skeleton. Trained end-to-end on both RigNet and Objaverse datasets, RigAnything demonstrates state-of-the-art performance across diverse object types, including humanoids, quadrupeds, marine creatures, insects, and many more, surpassing prior methods in quality, robustness, generalizability, and efficiency. Please check our website for more details: https://www.liuisabella.com/RigAnything.
- Abstract(参考訳): 本稿では,新しい自己回帰型トランスフォーマーモデルであるRigAnythingについて紹介する。
既定のスケルトンテンプレートに依存し、ヒューマノイドのような特定のカテゴリに限定される既存の自動リギング法とは異なり、RigAnythingは自己回帰的な方法でリギング問題にアプローチし、グローバルな入力形状と以前の予測に基づいて次の関節を反復的に予測する。
自己回帰モデルは典型的にはシーケンシャルデータを生成するために使用されるが、RigAnythingはアプリケーションを拡張して、本質的に木構造であるスケルトンを効果的に学習し、表現する。
そこで我々は,関節を幅優先探索(BFS)順に整理し,骨格を3D位置と親指標のシーケンスとして定義する。
さらに,拡散モデルを利用して位置予測の精度を向上し,階層内の関節の正確な配置と一貫した配置を確保する。
この定式化により、自己回帰モデルは骨格内の空間的および階層的関係を効率的に捉えることができる。
RigAnythingは、RigNetとObjaverseのデータセットの両方でエンドツーエンドで訓練され、ヒューマノイド、四足動物、海洋生物、昆虫など、さまざまな種類のオブジェクトに対して最先端のパフォーマンスを示し、品質、堅牢性、一般化性、効率性において先行した手法を超越している。
詳細はWebサイト(https://www.liuisabella.com/RigAnything.com)を参照してください。
関連論文リスト
- MagicArticulate: Make Your 3D Models Articulation-Ready [109.35703811628045]
静的な3Dモデルを自動的に調音可能なアセットに変換する効果的なフレームワークであるMagicArticulateを提案する。
まず,高品質な調音アノテーションを備えた33k以上の3Dモデルを含むArticulation-averseベンチマークを紹介し,XL-XLから慎重にキュレートする。
大規模な実験では、MagicArticulateはさまざまなオブジェクトカテゴリで既存のメソッドよりも大幅に優れています。
論文 参考訳(メタデータ) (2025-02-17T18:53:27Z) - HumanRig: Learning Automatic Rigging for Humanoid Character in a Large Scale Dataset [6.978870586488504]
我々は3次元ヒューマノイドキャラクタリギング用に特別に設計された最初の大規模データセットであるHumanRigを紹介する。
本稿では,GNN方式の限界を克服する,革新的なデータ駆動型自動リギングフレームワークを提案する。
この作業は、リギング研究におけるデータセット不足を修復するだけでなく、アニメーション産業をより効率的かつ自動化されたキャラクタリギングパイプラインへと発展させる。
論文 参考訳(メタデータ) (2024-12-03T09:33:00Z) - Neural Localizer Fields for Continuous 3D Human Pose and Shape Estimation [32.30055363306321]
本研究では、異なる人間のポーズや形状に関連したタスクやデータセットをシームレスに統一するパラダイムを提案する。
我々の定式化は、人間の容積の任意の点を問合せし、推定位置を3Dで取得することに集中している。
論文 参考訳(メタデータ) (2024-07-10T10:44:18Z) - Pushing Auto-regressive Models for 3D Shape Generation at Capacity and Scalability [118.26563926533517]
自己回帰モデルでは,格子空間における関節分布をモデル化することにより,2次元画像生成において顕著な結果が得られた。
自動回帰モデルを3次元領域に拡張し,キャパシティとスケーラビリティを同時に向上することにより,3次元形状生成の強力な能力を求める。
論文 参考訳(メタデータ) (2024-02-19T15:33:09Z) - Unsupervised 3D Pose Estimation with Non-Rigid Structure-from-Motion
Modeling [83.76377808476039]
本研究では,人間のポーズの変形をモデル化し,それに伴う拡散に基づく動きを事前に設計する手法を提案する。
動作中の3次元人間の骨格を復元する作業は3次元基準骨格の推定に分割する。
混合時空間NASfMformerを用いて、各フレームの3次元基準骨格と骨格変形を2次元観測シーケンスから同時に推定する。
論文 参考訳(メタデータ) (2023-08-18T16:41:57Z) - Iterative Graph Filtering Network for 3D Human Pose Estimation [5.177947445379688]
グラフ畳み込みネットワーク(GCN)は3次元人間のポーズ推定に有効な手法であることが証明されている。
本稿では,3次元ポーズ推定のための反復グラフフィルタリングフレームワークを提案する。
我々のアプローチは、ラプラシア正規化によるグラフフィルタリングを反復的に解くという考え方に基づいている。
論文 参考訳(メタデータ) (2023-07-29T20:46:44Z) - Learning 3D Human Pose Estimation from Dozens of Datasets using a
Geometry-Aware Autoencoder to Bridge Between Skeleton Formats [80.12253291709673]
本稿では,アフィン結合型オートエンコーダ(ACAE)法を提案する。
このアプローチは、28人の人間のポーズデータセットを使って1つのモデルを監督する、極端なマルチデータセット体制にスケールします。
論文 参考訳(メタデータ) (2022-12-29T22:22:49Z) - Hi-LASSIE: High-Fidelity Articulated Shape and Skeleton Discovery from
Sparse Image Ensemble [72.3681707384754]
Hi-LASSIEは、ユーザーが定義した形状やスケルトンテンプレートを使わずに、野生の20~30のオンライン画像から3Dで再現する。
まず,手動でアノテートした3Dスケルトンに頼る代わりに,選択した基準画像からクラス固有のスケルトンを自動的に推定する。
第二に、各インスタンスに忠実に適合する新しいインスタンス固有の最適化戦略により、形状再構成を改善する。
論文 参考訳(メタデータ) (2022-12-21T14:31:33Z) - Dynamical Deep Generative Latent Modeling of 3D Skeletal Motion [15.359134407309726]
本モデルでは,高度に相関した骨格データを時間的変化の空間的基礎の集合に分解する。
これにより、3次元ポーズデータのダイナミックスにおいて意味のある内在状態を解析する動的深部生成潜在モデルが得られる。
論文 参考訳(メタデータ) (2021-06-18T23:58:49Z) - Dynamic multi-object Gaussian process models: A framework for
data-driven functional modelling of human joints [0.0]
形状とポーズを結合する原則的かつ堅牢な方法が,3つの主要な問題によって明らかになってきた。
本研究では,人体関節解析のための動的多目的統計モデリングフレームワークを提案する。
このフレームワークは、生物学的関節のための効率的な生成動的マルチオブジェクトモデリングプラットフォームを提供する。
論文 参考訳(メタデータ) (2020-01-22T07:57:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。