論文の概要: RigNet: Neural Rigging for Articulated Characters
- arxiv url: http://arxiv.org/abs/2005.00559v2
- Date: Sun, 5 Jul 2020 19:38:56 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-08 00:21:10.216709
- Title: RigNet: Neural Rigging for Articulated Characters
- Title(参考訳): RigNet:Articulated Charactersのためのニューラルリギング
- Authors: Zhan Xu, Yang Zhou, Evangelos Kalogerakis, Chris Landreth and Karan
Singh
- Abstract要約: RigNetは、入力文字モデルからアニメーションリグを生成するエンドツーエンドの自動化手法である。
関節の配置とトポロジーにおけるアニメーターの期待と一致する骨格を予測する。
また、予測された骨格に基づいて表面の皮膚重量を推定する。
- 参考スコア(独自算出の注目度): 34.46896139582373
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present RigNet, an end-to-end automated method for producing animation
rigs from input character models. Given an input 3D model representing an
articulated character, RigNet predicts a skeleton that matches the animator
expectations in joint placement and topology. It also estimates surface skin
weights based on the predicted skeleton. Our method is based on a deep
architecture that directly operates on the mesh representation without making
assumptions on shape class and structure. The architecture is trained on a
large and diverse collection of rigged models, including their mesh, skeletons
and corresponding skin weights. Our evaluation is three-fold: we show better
results than prior art when quantitatively compared to animator rigs;
qualitatively we show that our rigs can be expressively posed and animated at
multiple levels of detail; and finally, we evaluate the impact of various
algorithm choices on our output rigs.
- Abstract(参考訳): 本稿では,入力文字モデルからアニメーションリグを自動生成するRigNetを提案する。
調音文字を表す入力3Dモデルが与えられた後、RigNetは、関節配置とトポロジーにおけるアニメーターの期待と一致する骨格を予測する。
また、予測された骨格に基づいて表面の皮膚重量を推定する。
本手法は,形状クラスや構造を仮定することなく,メッシュ表現を直接操作する深層アーキテクチャに基づいている。
このアーキテクチャは、メッシュ、骨格、および対応する皮膚重量を含む、多種多様なリッグモデルのコレクションに基づいて訓練されている。
アニメーターリグを定量的に比較すると,先行技術よりも優れた結果が得られ,定性的に複数の詳細レベルで表現・アニメーションできることを示し,最後に,出力リグに対する様々なアルゴリズム選択の影響を評価する。
関連論文リスト
- RigAnything: Template-Free Autoregressive Rigging for Diverse 3D Assets [47.81216915952291]
本稿では,新しい自己回帰変換モデルであるRigAnythingを紹介する。
関節や骨格のトポロジを確率的に生成し、スキンの重量をテンプレートのない方法で割り当てることで、3Dアセットを準備できる。
RigAnythingは、ヒューマノイド、四足動物、海洋生物、昆虫など、さまざまな種類の物体で最先端のパフォーマンスを実証している。
論文 参考訳(メタデータ) (2025-02-13T18:59:13Z) - Make-It-Animatable: An Efficient Framework for Authoring Animation-Ready 3D Characters [86.13319549186959]
我々は3次元ヒューマノイドモデルを1秒未満でキャラクターアニメーションに対応させる新しいデータ駆動方式であるMake-It-Animatableを提案する。
我々のフレームワークは、高品質なブレンドウェイト、骨、ポーズトランスフォーメーションを生成します。
既存の手法と比較して,本手法は品質と速度の両方において著しく改善されている。
論文 参考訳(メタデータ) (2024-11-27T10:18:06Z) - SkelFormer: Markerless 3D Pose and Shape Estimation using Skeletal Transformers [57.46911575980854]
マルチビュー人間のポーズと形状推定のための新しいマーカーレスモーションキャプチャパイプラインであるSkelFormerを紹介する。
提案手法は,まず市販の2次元キーポイント推定器を用いて,大規模インザミルドデータに基づいて事前トレーニングを行い,3次元関節位置を求める。
次に、重雑音観測から、関節の位置をポーズと形状の表現にマッピングする回帰に基づく逆運動性骨格変換器を設計する。
論文 参考訳(メタデータ) (2024-04-19T04:51:18Z) - Learning Multi-Object Dynamics with Compositional Neural Radiance Fields [63.424469458529906]
本稿では,暗黙的オブジェクトエンコーダ,ニューラルレージアンスフィールド(NeRF),グラフニューラルネットワークに基づく画像観測から構成予測モデルを学習する手法を提案する。
NeRFは3D以前の強みから、シーンを表現するための一般的な選択肢となっている。
提案手法では,学習した潜時空間にRTを応用し,そのモデルと暗黙のオブジェクトエンコーダを用いて潜時空間を情報的かつ効率的にサンプリングする。
論文 参考訳(メタデータ) (2022-02-24T01:31:29Z) - Learning Skeletal Articulations with Neural Blend Shapes [57.879030623284216]
あらかじめ定義された骨格構造を有するエンベロープを用いて3次元文字を表現できるニューラルテクニックを開発している。
我々のフレームワークは、同じ調音構造を持つリグとスキンキャラクタを学習する。
関節領域の変形品質を向上させるニューラルブレンディング形状を提案します。
論文 参考訳(メタデータ) (2021-05-06T05:58:13Z) - A-NeRF: Surface-free Human 3D Pose Refinement via Neural Rendering [13.219688351773422]
本稿では,自己教師型でユーザの体積体モデルを学習する単眼モーションキャプチャのためのテスト時間最適化手法を提案する。
我々のアプローチは自己監督的であり、外観、ポーズ、および3D形状のための追加の真実ラベルを必要としない。
本研究では, 識別的ポーズ推定手法と表面自由解析-合成による識別的ポーズ推定手法の組み合わせが, 純粋に識別的ポーズ推定手法より優れていることを示す。
論文 参考訳(メタデータ) (2021-02-11T18:58:31Z) - TailorNet: Predicting Clothing in 3D as a Function of Human Pose, Shape
and Garment Style [43.99803542307155]
本稿では,3次元の衣服の変形を,ポーズ,形状,スタイルの3因子の関数として予測するニューラルネットワークであるTailorNetを提案する。
我々の仮説は、例の(非線形でも)組み合わせは、微細なしわのような高周波成分を滑らかに出すというものである。
いくつかの実験では、TailorNetは以前の作業よりも現実的な結果を生み出し、時間的に一貫性のある変形も生成している。
論文 参考訳(メタデータ) (2020-03-10T08:49:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。