論文の概要: AutoAvatar: Autoregressive Neural Fields for Dynamic Avatar Modeling
- arxiv url: http://arxiv.org/abs/2203.13817v1
- Date: Fri, 25 Mar 2022 17:59:59 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-28 14:24:28.070322
- Title: AutoAvatar: Autoregressive Neural Fields for Dynamic Avatar Modeling
- Title(参考訳): AutoAvatar:動的アバターモデリングのための自己回帰型ニューラルネットワーク
- Authors: Ziqian Bai, Timur Bagautdinov, Javier Romero, Michael Zollh\"ofer,
Ping Tan, Shunsuke Saito
- Abstract要約: 本研究では, 自己回帰モデルを用いて, 軟部変形などの動的効果を捉える。
パラメトリックな人体モデルの明示的な面に暗黙の状態を関連づける、明瞭な観察点の概念を導入する。
提案手法は, 目立たない動作であっても, 高い動的変形を達成し, 芸術的状態よりも優れる。
- 参考スコア(独自算出の注目度): 38.9663410820652
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Neural fields such as implicit surfaces have recently enabled avatar modeling
from raw scans without explicit temporal correspondences. In this work, we
exploit autoregressive modeling to further extend this notion to capture
dynamic effects, such as soft-tissue deformations. Although autoregressive
models are naturally capable of handling dynamics, it is non-trivial to apply
them to implicit representations, as explicit state decoding is infeasible due
to prohibitive memory requirements. In this work, for the first time, we enable
autoregressive modeling of implicit avatars. To reduce the memory bottleneck
and efficiently model dynamic implicit surfaces, we introduce the notion of
articulated observer points, which relate implicit states to the explicit
surface of a parametric human body model. We demonstrate that encoding implicit
surfaces as a set of height fields defined on articulated observer points leads
to significantly better generalization compared to a latent representation. The
experiments show that our approach outperforms the state of the art, achieving
plausible dynamic deformations even for unseen motions.
https://zqbai-jeremy.github.io/autoavatar
- Abstract(参考訳): 暗黙の表面のようなニューラルネットワークは、最近、明示的な時間的対応なしに生スキャンからアバターモデリングを可能にした。
本研究では, 自己回帰モデルを用いて, この概念をさらに拡張し, 軟部変形などの動的効果を捉える。
自己回帰モデルは自然にダイナミクスを扱うことができるが、明示的な状態復号化はメモリの要求のために実現不可能であるため、暗黙の表現に適用するのは自明ではない。
本研究では,初めて暗黙のアバターの自己回帰モデリングを可能にする。
メモリボトルネックを低減し、動的暗黙的表面を効率的にモデル化するために、パラメトリック人体モデルの明示的表面と暗黙的状態を関連付ける明瞭な観察点の概念を導入する。
明瞭な観測点上に定義された高さ場の集合として暗黙曲面を符号化することは、潜在表現よりもはるかに優れた一般化をもたらすことを示す。
実験の結果,本手法は芸術の状態を上回り,目に見えない動きに対しても高い動的変形が得られることがわかった。
https://zqbai-jeremy.github.io/autoavatar
関連論文リスト
- DENSER: 3D Gaussians Splatting for Scene Reconstruction of Dynamic Urban Environments [0.0]
動的オブジェクトの表現を大幅に強化するフレームワークであるDENSERを提案する。
提案手法は最先端の手法を広いマージンで大幅に上回る。
論文 参考訳(メタデータ) (2024-09-16T07:11:58Z) - Degrees of Freedom Matter: Inferring Dynamics from Point Trajectories [28.701879490459675]
ニューラルネットワークによってパラメータ化された暗黙の運動場を学習し、同一領域内の新規点の動きを予測することを目的とする。
我々は、SIRENが提供する固有正則化を活用し、入力層を変更して時間的に滑らかな運動場を生成する。
実験では, 未知点軌道の予測におけるモデルの性能評価と, 変形を伴う時間メッシュアライメントへの応用について検討した。
論文 参考訳(メタデータ) (2024-06-05T21:02:10Z) - EmerNeRF: Emergent Spatial-Temporal Scene Decomposition via
Self-Supervision [85.17951804790515]
EmerNeRFは動的駆動シーンの時空間表現を学習するためのシンプルだが強力なアプローチである。
シーンの幾何学、外観、動き、セマンティクスを自己ブートストラップで同時にキャプチャする。
本手法はセンサシミュレーションにおける最先端性能を実現する。
論文 参考訳(メタデータ) (2023-11-03T17:59:55Z) - Dynamic Point Fields [30.029872787758705]
本稿では,明示的な点ベースグラフィックスの表現的利点と暗黙的な変形ネットワークを組み合わせた動的点場モデルを提案する。
我々は,その表現力,学習効率,および配布外小説のポーズに対する堅牢性の観点から,我々の動的点場フレームワークの利点を示す。
論文 参考訳(メタデータ) (2023-04-05T17:52:37Z) - Neural Abstractions [72.42530499990028]
本稿では,ニューラルネットワークを用いた非線形力学モデルの安全性検証手法を提案する。
提案手法は,既存のベンチマーク非線形モデルにおいて,成熟度の高いFlow*と同等に動作することを示す。
論文 参考訳(メタデータ) (2023-01-27T12:38:09Z) - Drivable Volumetric Avatars using Texel-Aligned Features [52.89305658071045]
光テレプレゼンスは、動的に合成された外観を実現するために、高忠実度ボディモデリングと忠実な運転の両方を必要とする。
本稿では,現実人のフルボディアバターをモデリングし,駆動する際の2つの課題に対処するエンドツーエンドフレームワークを提案する。
論文 参考訳(メタデータ) (2022-07-20T09:28:16Z) - Animatable Implicit Neural Representations for Creating Realistic
Avatars from Videos [63.16888987770885]
本稿では,マルチビュー映像からアニマタブルな人間モデルを構築することの課題について述べる。
線形ブレンドスキンアルゴリズムに基づくポーズ駆動変形場を提案する。
提案手法は,近年の人体モデリング手法よりも大幅に優れていることを示す。
論文 参考訳(メタデータ) (2022-03-15T17:56:59Z) - ACID: Action-Conditional Implicit Visual Dynamics for Deformable Object
Manipulation [135.10594078615952]
本稿では,体積変形可能なオブジェクトに対する動作条件の視覚力学モデルであるACIDを紹介する。
ベンチマークには17,000以上のアクション・トラジェクトリー、6種類のぬいぐるみと78種類の変種が含まれている。
我々のモデルは、幾何学、対応、力学の予測において最高の性能を達成する。
論文 参考訳(メタデータ) (2022-03-14T04:56:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。