論文の概要: DANBO: Disentangled Articulated Neural Body Representations via Graph
Neural Networks
- arxiv url: http://arxiv.org/abs/2205.01666v1
- Date: Tue, 3 May 2022 17:56:46 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-04 14:21:35.012587
- Title: DANBO: Disentangled Articulated Neural Body Representations via Graph
Neural Networks
- Title(参考訳): DANBO: グラフニューラルネットワークによる遠方関節型ニューラルネットワーク表現
- Authors: Shih-Yang Su, Timur Bagautdinov, Helge Rhodin
- Abstract要約: 高解像度モデルは、写真リアリスティックなアバターを可能にするが、エンドユーザーには利用できないスタジオ設定を必要とするコストがかかる。
私たちのゴールは、高価なスタジオのセットアップや表面追跡に頼ることなく、生画像から直接アバターを作ることです。
本稿では,2つの帰納バイアスを誘導する3段階の手法を提案する。
- 参考スコア(独自算出の注目度): 12.132886846993108
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep learning greatly improved the realism of animatable human models by
learning geometry and appearance from collections of 3D scans, template meshes,
and multi-view imagery. High-resolution models enable photo-realistic avatars
but at the cost of requiring studio settings not available to end users. Our
goal is to create avatars directly from raw images without relying on expensive
studio setups and surface tracking. While a few such approaches exist, those
have limited generalization capabilities and are prone to learning spurious
(chance) correlations between irrelevant body parts, resulting in implausible
deformations and missing body parts on unseen poses. We introduce a three-stage
method that induces two inductive biases to better disentangled pose-dependent
deformation. First, we model correlations of body parts explicitly with a graph
neural network. Second, to further reduce the effect of chance correlations, we
introduce localized per-bone features that use a factorized volumetric
representation and a new aggregation function. We demonstrate that our model
produces realistic body shapes under challenging unseen poses and shows
high-quality image synthesis. Our proposed representation strikes a better
trade-off between model capacity, expressiveness, and robustness than competing
methods. Project website: https://lemonatsu.github.io/danbo.
- Abstract(参考訳): 深層学習は、3Dスキャン、テンプレートメッシュ、マルチビュー画像の集合から幾何学と外観を学ぶことによって、アニマタブルな人間モデルのリアリズムを大幅に改善した。
高解像度モデルは写真リアリスティックなアバターを可能にするが、エンドユーザーには利用できないスタジオ設定を必要とするコストがかかる。
私たちの目標は、高価なスタジオ設定や表面追跡に頼ることなく、生の画像から直接アバターを作ることです。
このようなアプローチはいくつか存在するが、一般化能力は限られており、無関係な身体部分間の急激な(チャンス)相関を学習する傾向があるため、不明瞭な変形や、見えないポーズの身体部分の欠落が生じる。
本稿では,2つの帰納バイアスを誘導する3段階の手法を提案する。
まず,身体部位の相関をグラフニューラルネットワークと明示的にモデル化する。
第2に, 確率相関の効果をさらに下げるために, 因子化された体積表現と新しい集計関数を用いた骨単位の局所化特徴を導入する。
本モデルでは,難解なポーズで現実的な身体形状を再現し,高品質な画像合成を示す。
提案する表現は,競合する手法よりもモデルキャパシティ,表現性,堅牢性とのトレードオフが優れている。
プロジェクトサイト: https://lemonatsu.github.io/danbo。
関連論文リスト
- Person Image Synthesis via Denoising Diffusion Model [116.34633988927429]
本研究では,高忠実度人物画像合成に拡散モデルをいかに応用できるかを示す。
2つの大規模ベンチマークとユーザスタディの結果は、挑戦的なシナリオ下で提案したアプローチのフォトリアリズムを実証している。
論文 参考訳(メタデータ) (2022-11-22T18:59:50Z) - Neural Novel Actor: Learning a Generalized Animatable Neural
Representation for Human Actors [98.24047528960406]
本稿では,複数の人物の多視点画像のスパース集合から,汎用的アニマタブルなニューラル表現を学習するための新しい手法を提案する。
学習された表現は、カメラのスパースセットから任意の人の新しいビューイメージを合成し、さらにユーザのポーズ制御でアニメーション化することができる。
論文 参考訳(メタデータ) (2022-08-25T07:36:46Z) - LatentHuman: Shape-and-Pose Disentangled Latent Representation for Human
Bodies [78.17425779503047]
本稿では,人体に対する新しい暗黙の表現法を提案する。
完全に微分可能で、非交叉形状で最適化可能であり、潜在空間を映し出す。
我々のモデルは、よく設計された損失を伴う、水密でない生データを直接訓練し、微調整することができる。
論文 参考訳(メタデータ) (2021-11-30T04:10:57Z) - imGHUM: Implicit Generative Models of 3D Human Shape and Articulated
Pose [42.4185273307021]
人間の3次元形状とポーズの合成モデルImGHUMについて述べる。
人間の全身をゼロレベルの関数として暗黙的にモデル化し、明示的なテンプレートメッシュを使用しない。
論文 参考訳(メタデータ) (2021-08-24T17:08:28Z) - Neural-GIF: Neural Generalized Implicit Functions for Animating People
in Clothing [49.32522765356914]
私たちは、身体のポーズの関数として、服装の人々をアニメーションすることを学びます。
我々は、学習された変形場を非剛性効果のモデルに適用した、空間のすべての点を標準空間にマッピングすることを学ぶ。
ニューラルGIFは生の3Dスキャンに基づいてトレーニングし、詳細な複雑な表面形状と変形を再構築することができる。
論文 参考訳(メタデータ) (2021-08-19T17:25:16Z) - Neural Actor: Neural Free-view Synthesis of Human Actors with Pose
Control [80.79820002330457]
任意の視点と任意の制御可能なポーズの下での人間の高品質な合成法を提案する。
提案手法は,新しいポーズ合成法と同様に,再生時の最先端技術よりも優れた品質を実現し,トレーニングポーズと大きく異なる新しいポーズを一般化することができる。
論文 参考訳(メタデータ) (2021-06-03T17:40:48Z) - SCANimate: Weakly Supervised Learning of Skinned Clothed Avatar Networks [54.94737477860082]
本論文では,着る人間の生の3Dスキャンをイメージ可能なアバターに変える,エンドツーエンドのトレーニング可能なフレームワークを提案する。
SCANimateはカスタマイズされたメッシュテンプレートや表面メッシュ登録に依存しません。
本手法はポーズ認識型外観モデルに適用でき,完全にテクスチャ化されたアバターを生成できる。
論文 参考訳(メタデータ) (2021-04-07T17:59:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。