論文の概要: Learning Skeletal Articulations with Neural Blend Shapes
- arxiv url: http://arxiv.org/abs/2105.02451v1
- Date: Thu, 6 May 2021 05:58:13 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-07 13:33:39.776536
- Title: Learning Skeletal Articulations with Neural Blend Shapes
- Title(参考訳): ニューラルブレンド形状を用いた骨格構音の学習
- Authors: Peizhuo Li, Kfir Aberman, Rana Hanocka, Libin Liu, Olga
Sorkine-Hornung, Baoquan Chen
- Abstract要約: あらかじめ定義された骨格構造を有するエンベロープを用いて3次元文字を表現できるニューラルテクニックを開発している。
我々のフレームワークは、同じ調音構造を持つリグとスキンキャラクタを学習する。
関節領域の変形品質を向上させるニューラルブレンディング形状を提案します。
- 参考スコア(独自算出の注目度): 57.879030623284216
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Animating a newly designed character using motion capture (mocap) data is a
long standing problem in computer animation. A key consideration is the
skeletal structure that should correspond to the available mocap data, and the
shape deformation in the joint regions, which often requires a tailored,
pose-specific refinement. In this work, we develop a neural technique for
articulating 3D characters using enveloping with a pre-defined skeletal
structure which produces high quality pose dependent deformations. Our
framework learns to rig and skin characters with the same articulation
structure (e.g., bipeds or quadrupeds), and builds the desired skeleton
hierarchy into the network architecture. Furthermore, we propose neural blend
shapes--a set of corrective pose-dependent shapes which improve the deformation
quality in the joint regions in order to address the notorious artifacts
resulting from standard rigging and skinning. Our system estimates neural blend
shapes for input meshes with arbitrary connectivity, as well as weighting
coefficients which are conditioned on the input joint rotations. Unlike recent
deep learning techniques which supervise the network with ground-truth rigging
and skinning parameters, our approach does not assume that the training data
has a specific underlying deformation model. Instead, during training, the
network observes deformed shapes and learns to infer the corresponding rig,
skin and blend shapes using indirect supervision. During inference, we
demonstrate that our network generalizes to unseen characters with arbitrary
mesh connectivity, including unrigged characters built by 3D artists.
Conforming to standard skeletal animation models enables direct plug-and-play
in standard animation software, as well as game engines.
- Abstract(参考訳): モーションキャプチャ(mocap)データを用いた新たに設計されたキャラクタのアニメーション化は,コンピュータアニメーションにおける長期にわたる問題である。
重要な考慮事項は、利用可能なmocapデータに対応する骨格構造と、しばしば調整されたポーズ特有の細分化を必要とするジョイント領域の形状変形である。
本研究では,高品質なポーズ依存変形を発生させる骨格構造を包絡して3次元文字を調音するニューラル手法を開発した。
我々のフレームワークは、同じ調音構造(例えば、二足歩行や四足歩行)でリグとスキンキャラクタを学習し、望ましい骨格構造をネットワークアーキテクチャに組み込む。
さらに, 標準的なリギングやスキンニングから生じる悪名高い人工物に対処するため, 関節領域の変形品質を向上する修正的ポーズ依存形状のセットであるニューラルブレンド形状を提案する。
本システムでは,任意の接続性を有する入力メッシュのニューラルブレンド形状と,入力関節回転を条件とした重み付け係数を推定する。
近年の深層学習技術では,地表面の剛性やスキンのパラメータによってネットワークを監視されているが,本手法では,トレーニングデータに特定の変形モデルが存在するとは考えていない。
トレーニング中、ネットワークは変形した形状を観察し、間接的な監督によって対応するリグ、スキン、ブレンド形状を推測する。
推論中,我々は3dアーティストが構築したアンリグドキャラクタを含む任意のメッシュ接続を持つ未認識キャラクタにネットワークが一般化できることを実証する。
標準的な骨格アニメーションモデルに従うことで、標準的なアニメーションソフトウェアやゲームエンジンで直接プラグアンドプレイが可能になる。
関連論文リスト
- Learning Localization of Body and Finger Animation Skeleton Joints on Three-Dimensional Models of Human Bodies [0.0]
本研究は,人体の3次元モデル内での人体と指のアニメーションの骨格関節の位置決め問題に対する,そのような解決法を提案する。
提案手法を最先端技術と比較することにより,より単純なアーキテクチャで極めて優れた結果が得られることを示す。
論文 参考訳(メタデータ) (2024-07-11T13:16:02Z) - Pose Modulated Avatars from Video [22.395774558845336]
周波数領域において適応的かつ明示的な2分岐ニューラルネットワークを開発する。
最初のブランチは、体の部分間の相関を局所的にモデル化するグラフニューラルネットワークである。
第2のブランチは、これらの相関特徴を大域周波数のセットと組み合わせて、特徴符号化を変調する。
論文 参考訳(メタデータ) (2023-08-23T06:49:07Z) - Pixel2Mesh++: 3D Mesh Generation and Refinement from Multi-View Images [82.32776379815712]
カメラポーズの有無にかかわらず、少数のカラー画像から3次元メッシュ表現における形状生成の問題について検討する。
我々は,グラフ畳み込みネットワークを用いたクロスビュー情報を活用することにより,形状品質をさらに向上する。
我々のモデルは初期メッシュの品質とカメラポーズの誤差に頑健であり、テスト時間最適化のための微分関数と組み合わせることができる。
論文 参考訳(メタデータ) (2022-04-21T03:42:31Z) - Animatable Implicit Neural Representations for Creating Realistic
Avatars from Videos [63.16888987770885]
本稿では,マルチビュー映像からアニマタブルな人間モデルを構築することの課題について述べる。
線形ブレンドスキンアルゴリズムに基づくポーズ駆動変形場を提案する。
提案手法は,近年の人体モデリング手法よりも大幅に優れていることを示す。
論文 参考訳(メタデータ) (2022-03-15T17:56:59Z) - Scene Synthesis via Uncertainty-Driven Attribute Synchronization [52.31834816911887]
本稿では,3次元シーンの多様な特徴パターンを捉えるニューラルシーン合成手法を提案する。
提案手法は,ニューラルネットワークと従来のシーン合成手法の双方の長所を結合する。
論文 参考訳(メタデータ) (2021-08-30T19:45:07Z) - SCALE: Modeling Clothed Humans with a Surface Codec of Articulated Local
Elements [62.652588951757764]
衣服のモデル化と再構成は、調音性、非剛性変形、衣服の種類や地形の変化などにより困難である。
最近の研究では、ニューラルネットワークを使ってローカルな表面要素をパラメータ化している。
まず、人間の体モデルに基づいて表面要素を変形させます。
第2に,局所的な特徴から局所的な幾何学を回帰させることにより,既存の神経表面要素の制限を解消する。
論文 参考訳(メタデータ) (2021-04-15T17:59:39Z) - SCANimate: Weakly Supervised Learning of Skinned Clothed Avatar Networks [54.94737477860082]
本論文では,着る人間の生の3Dスキャンをイメージ可能なアバターに変える,エンドツーエンドのトレーニング可能なフレームワークを提案する。
SCANimateはカスタマイズされたメッシュテンプレートや表面メッシュ登録に依存しません。
本手法はポーズ認識型外観モデルに適用でき,完全にテクスチャ化されたアバターを生成できる。
論文 参考訳(メタデータ) (2021-04-07T17:59:58Z) - RigNet: Neural Rigging for Articulated Characters [34.46896139582373]
RigNetは、入力文字モデルからアニメーションリグを生成するエンドツーエンドの自動化手法である。
関節の配置とトポロジーにおけるアニメーターの期待と一致する骨格を予測する。
また、予測された骨格に基づいて表面の皮膚重量を推定する。
論文 参考訳(メタデータ) (2020-05-01T18:12:44Z) - TailorNet: Predicting Clothing in 3D as a Function of Human Pose, Shape
and Garment Style [43.99803542307155]
本稿では,3次元の衣服の変形を,ポーズ,形状,スタイルの3因子の関数として予測するニューラルネットワークであるTailorNetを提案する。
我々の仮説は、例の(非線形でも)組み合わせは、微細なしわのような高周波成分を滑らかに出すというものである。
いくつかの実験では、TailorNetは以前の作業よりも現実的な結果を生み出し、時間的に一貫性のある変形も生成している。
論文 参考訳(メタデータ) (2020-03-10T08:49:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。