論文の概要: DELIFFAS: Deformable Light Fields for Fast Avatar Synthesis
- arxiv url: http://arxiv.org/abs/2310.11449v1
- Date: Tue, 17 Oct 2023 17:58:00 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-18 14:38:49.435709
- Title: DELIFFAS: Deformable Light Fields for Fast Avatar Synthesis
- Title(参考訳): DELIFFAS:高速アバター合成のための変形可能な光場
- Authors: Youngjoong Kwon, Lingjie Liu, Henry Fuchs, Marc Habermann, Christian
Theobalt
- Abstract要約: 本研究では,表面光場としての人間の外観をパラメータ化するDELIFFASという新しい手法を提案する。
中心となるのは、変形可能な2面パラメタライゼーションにより、人間の外見の高速かつ正確な推測を可能にする、人間の周囲の光場を表現することである。
慎重に設計された人間の表現と監督戦略は、最先端の合成結果と推測時間につながる。
- 参考スコア(独自算出の注目度): 79.66663771181204
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Generating controllable and photorealistic digital human avatars is a
long-standing and important problem in Vision and Graphics. Recent methods have
shown great progress in terms of either photorealism or inference speed while
the combination of the two desired properties still remains unsolved. To this
end, we propose a novel method, called DELIFFAS, which parameterizes the
appearance of the human as a surface light field that is attached to a
controllable and deforming human mesh model. At the core, we represent the
light field around the human with a deformable two-surface parameterization,
which enables fast and accurate inference of the human appearance. This allows
perceptual supervision on the full image compared to previous approaches that
could only supervise individual pixels or small patches due to their slow
runtime. Our carefully designed human representation and supervision strategy
leads to state-of-the-art synthesis results and inference time. The video
results and code are available at
https://vcai.mpi-inf.mpg.de/projects/DELIFFAS.
- Abstract(参考訳): 制御可能でフォトリアリスティックなデジタルアバターを生成することは、ビジョンとグラフィックにおいて長年にわたって重要な問題である。
近年の手法では、光現実性や推論速度の面で大きな進歩が見られる一方で、2つの望ましい性質の組み合わせは未解決のままである。
そこで本研究では,人体を制御可能で変形可能なメッシュモデルに付加した表面光場として,人間の外観をパラメータ化するDELIFFASという新しい手法を提案する。
中心となるのは、変形可能な2面パラメータ化によって人間のまわりの光場を表現し、それによって人間の外観を素早く正確に推測することができる。
これにより、個々のピクセルや小さなパッチのみを監視できる従来のアプローチと比較して、フルイメージの知覚的な監視が可能になる。
慎重に設計された人間の表現と監督戦略は、最先端の合成結果と推測時間につながる。
ビデオの結果とコードはhttps://vcai.mpi-inf.mpg.de/projects/DELIFFASで公開されている。
関連論文リスト
- HINT: Learning Complete Human Neural Representations from Limited Viewpoints [69.76947323932107]
我々は、限られた視野角から詳細な人間のモデルを学習できるNeRFベースのアルゴリズムを提案する。
その結果,数個の視角からでも完全な人間の再構築が可能となり,性能は15%以上向上した。
論文 参考訳(メタデータ) (2024-05-30T05:43:09Z) - Deformable 3D Gaussian Splatting for Animatable Human Avatars [50.61374254699761]
本稿では,デジタルアバターを単一単分子配列で構築する手法を提案する。
ParDy-Humanは、リアルなダイナミックな人間のアバターの明示的なモデルを構成する。
当社のアバター学習には,Splatマスクなどの追加アノテーションが不要であり,ユーザのハードウェア上でも,フル解像度の画像を効率的に推測しながら,さまざまなバックグラウンドでトレーニングすることが可能である。
論文 参考訳(メタデータ) (2023-12-22T20:56:46Z) - ASH: Animatable Gaussian Splats for Efficient and Photoreal Human Rendering [62.81677824868519]
本稿では,動的人間をリアルタイムに写実的にレンダリングするためのアニマタブルなガウススプラッティング手法を提案する。
我々は、被服をアニマタブルな3Dガウスとしてパラメータ化し、画像空間に効率よく切り込み、最終的なレンダリングを生成する。
我々は、ポーズ制御可能なアバターの競合手法を用いてASHをベンチマークし、我々の手法が既存のリアルタイムメソッドよりも大きなマージンで優れており、オフラインメソッドよりも同等またはそれ以上の結果を示すことを示した。
論文 参考訳(メタデータ) (2023-12-10T17:07:37Z) - TriHuman : A Real-time and Controllable Tri-plane Representation for
Detailed Human Geometry and Appearance Synthesis [76.73338151115253]
TriHumanは、人間によって調整され、変形可能で、効率的な三面体表現である。
我々は、未変形の三面体テクスチャ空間に、地球規模のサンプルを厳格にワープする。
このような三面的特徴表現が骨格運動でどのように条件付けされ、動的外観や幾何学的変化を考慮に入れられるかを示す。
論文 参考訳(メタデータ) (2023-12-08T16:40:38Z) - MetaAvatar: Learning Animatable Clothed Human Models from Few Depth
Images [60.56518548286836]
新規な入力ポーズから現実的な布の変形を生成するには、通常、水密メッシュや高密度フルボディスキャンが入力として必要とされる。
本研究では, 単眼深度画像のみを考慮し, 制御可能なニューラルSDFとして表現された, リアルな衣服付きアバターを迅速に生成する手法を提案する。
論文 参考訳(メタデータ) (2021-06-22T17:30:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。