論文の概要: Anymate: A Dataset and Baselines for Learning 3D Object Rigging
- arxiv url: http://arxiv.org/abs/2505.06227v1
- Date: Fri, 09 May 2025 17:59:33 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-12 20:40:10.361164
- Title: Anymate: A Dataset and Baselines for Learning 3D Object Rigging
- Title(参考訳): Anymate: 3Dオブジェクトのリグを学習するためのデータセットとベースライン
- Authors: Yufan Deng, Yuhao Zhang, Chen Geng, Shangzhe Wu, Jiajun Wu,
- Abstract要約: 本稿では,230Kの3Dアセットの大規模データセットと,専門家によるリギングとスキン情報の組み合わせについて述べる。
本稿では,関節,接続性,およびスキンウェイト予測のための3つの逐次モジュールを用いた学習ベースの自動リギングフレームワークを提案する。
我々のモデルは既存の手法を著しく上回り、自動化リギングとスキンニングにおける将来の手法を比較する基盤を提供する。
- 参考スコア(独自算出の注目度): 18.973312365787137
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Rigging and skinning are essential steps to create realistic 3D animations, often requiring significant expertise and manual effort. Traditional attempts at automating these processes rely heavily on geometric heuristics and often struggle with objects of complex geometry. Recent data-driven approaches show potential for better generality, but are often constrained by limited training data. We present the Anymate Dataset, a large-scale dataset of 230K 3D assets paired with expert-crafted rigging and skinning information -- 70 times larger than existing datasets. Using this dataset, we propose a learning-based auto-rigging framework with three sequential modules for joint, connectivity, and skinning weight prediction. We systematically design and experiment with various architectures as baselines for each module and conduct comprehensive evaluations on our dataset to compare their performance. Our models significantly outperform existing methods, providing a foundation for comparing future methods in automated rigging and skinning. Code and dataset can be found at https://anymate3d.github.io/.
- Abstract(参考訳): リグとスキンはリアルな3Dアニメーションを作るための重要なステップであり、しばしば重要な専門知識と手作業を必要とする。
これらの過程を自動化しようとする伝統的な試みは幾何学的ヒューリスティックに大きく依存しており、しばしば複雑な幾何学の物体と競合する。
最近のデータ駆動型アプローチは、より一般的な可能性を示しているが、しばしば限られたトレーニングデータによって制約される。
Anymate Datasetは、230Kの3Dアセットの大規模なデータセットで、専門家が作成したリギングとスキン情報を組み合わせています。
本データセットを用いて,関節,接続性,スキンウェイト予測のための3つの逐次モジュールを用いた学習ベースの自動リギングフレームワークを提案する。
我々は,各モジュールのベースラインとして様々なアーキテクチャを体系的に設計し,実験し,その性能を比較するためにデータセットの包括的な評価を行う。
我々のモデルは既存の手法を著しく上回り、自動化リギングとスキンニングにおける将来の手法を比較する基盤を提供する。
コードとデータセットはhttps://anymate3d.github.io/で確認できる。
関連論文リスト
- ARMO: Autoregressive Rigging for Multi-Category Objects [8.030479370619458]
我々はOmniRigを紹介した。OmniRigは79,499個のメッシュで構成され、詳細なスケルトンとスキン情報を含んでいる。
定義済みの標準ポーズに依存する従来のベンチマークとは異なり、データセットにはさまざまな形状カテゴリ、スタイル、ポーズが採用されています。
本稿では、自己回帰モデルを用いて、関節位置と接続関係を統一的に予測する新しいリギングフレームワークARMOを提案する。
論文 参考訳(メタデータ) (2025-03-26T15:56:48Z) - Enhancing Generalizability of Representation Learning for Data-Efficient 3D Scene Understanding [50.448520056844885]
本研究では,実世界のパターンを持つ多様な合成シーンを生成可能なベイズネットワークを提案する。
一連の実験は、既存の最先端の事前学習手法に比べて、我々の手法が一貫した優位性を示す。
論文 参考訳(メタデータ) (2024-06-17T07:43:53Z) - MASSTAR: A Multi-Modal and Large-Scale Scene Dataset with a Versatile Toolchain for Surface Prediction and Completion [25.44529512862336]
MASSTARはマルチモーダルなlArgeスケールのシーンデータセットであり、サーフAce predictionと完了のためのVerSatile Toolchainを備えている。
環境から生の3Dデータを処理するための汎用的で効率的なツールチェーンを開発した。
実世界の部分的なデータを含む1000以上のシーンレベルのモデルからなるサンプルデータセットを生成する。
論文 参考訳(メタデータ) (2024-03-18T11:35:18Z) - AutoSynth: Learning to Generate 3D Training Data for Object Point Cloud
Registration [69.21282992341007]
Auto Synthは、ポイントクラウド登録のための3Dトレーニングデータを自動的に生成する。
私たちはポイントクラウド登録ネットワークをもっと小さなサロゲートネットワークに置き換え、4056.43$のスピードアップを実現しました。
TUD-L,LINEMOD,Occluded-LINEMODに関する我々の研究結果は,検索データセットでトレーニングされたニューラルネットワークが,広く使用されているModelNet40データセットでトレーニングされたニューラルネットワークよりも一貫してパフォーマンスが向上していることを示す。
論文 参考訳(メタデータ) (2023-09-20T09:29:44Z) - Learning 3D Human Pose Estimation from Dozens of Datasets using a
Geometry-Aware Autoencoder to Bridge Between Skeleton Formats [80.12253291709673]
本稿では,アフィン結合型オートエンコーダ(ACAE)法を提案する。
このアプローチは、28人の人間のポーズデータセットを使って1つのモデルを監督する、極端なマルチデータセット体制にスケールします。
論文 参考訳(メタデータ) (2022-12-29T22:22:49Z) - TRoVE: Transforming Road Scene Datasets into Photorealistic Virtual
Environments [84.6017003787244]
本研究では、シミュレーションデータセットに存在する困難とドメインギャップに対処する合成データ生成パイプラインを提案する。
既存のデータセットからアノテーションや視覚的手がかりを利用すれば、自動マルチモーダルデータ生成が容易になることを示す。
論文 参考訳(メタデータ) (2022-08-16T20:46:08Z) - RandomRooms: Unsupervised Pre-training from Synthetic Shapes and
Randomized Layouts for 3D Object Detection [138.2892824662943]
有望な解決策は、CADオブジェクトモデルで構成される合成データセットをよりよく利用して、実際のデータセットでの学習を促進することである。
最近の3次元事前学習の研究は、合成物体から他の実世界の応用へ学習した伝達特性が失敗することを示している。
本研究では,この目的を達成するためにRandomRoomsという新しい手法を提案する。
論文 参考訳(メタデータ) (2021-08-17T17:56:12Z) - REGRAD: A Large-Scale Relational Grasp Dataset for Safe and
Object-Specific Robotic Grasping in Clutter [52.117388513480435]
本稿では,オブジェクト間の関係のモデル化を継続するregradという新しいデータセットを提案する。
データセットは2D画像と3Dポイントクラウドの両方で収集されます。
ユーザは、好きなだけ多くのデータを生成するために、自由に独自のオブジェクトモデルをインポートできる。
論文 参考訳(メタデータ) (2021-04-29T05:31:21Z) - Generating synthetic photogrammetric data for training deep learning
based 3D point cloud segmentation models [0.0]
I/ITSEC 2019で著者らは、3Dフォトグラムのポイントクラウド/ミームをセグメント化し、オブジェクト情報を抽出する、完全に自動化されたワークフローを発表した。
最終的な目標は、現実的な仮想環境を作成し、シミュレーションに必要な情報を提供することである。
論文 参考訳(メタデータ) (2020-08-21T18:50:42Z) - Measures of Complexity for Large Scale Image Datasets [0.3655021726150368]
本研究では,データセットの複雑さを計測する比較的単純な手法のシリーズを構築する。
我々は,自動運転研究コミュニティであるCityscapes,IDD,BDD,Vistaの4つのデータセットを用いて分析を行った。
エントロピーに基づくメトリクスを用いて、これらのデータセットのランク順の複雑さを示し、ディープラーニングに関して確立されたランク順と比較する。
論文 参考訳(メタデータ) (2020-08-10T21:54:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。