論文の概要: MoRF: Mobile Realistic Fullbody Avatars from a Monocular Video
- arxiv url: http://arxiv.org/abs/2303.10275v1
- Date: Fri, 17 Mar 2023 23:14:04 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-21 20:23:05.300152
- Title: MoRF: Mobile Realistic Fullbody Avatars from a Monocular Video
- Title(参考訳): MoRF:モノクラービデオのリアルなフルボディアバター
- Authors: Alexey Larionov, Evgeniya Ustinova, Mikhail Sidorenko, David Svitov,
Ilya Zakharkin, Victor Lempitsky, Renat Bashirov
- Abstract要約: モバイルリアルフルボディ(MoRF)アバターを学習するための新しいアプローチを提案する。
MoRFアバターは携帯電話上でリアルタイムにレンダリングでき、高いリアリズムを持ち、モノクロビデオから学ぶことができる。
- 参考スコア(独自算出の注目度): 4.5876167121827764
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: We present a new approach for learning Mobile Realistic Fullbody (MoRF)
avatars. MoRF avatars can be rendered in real-time on mobile phones, have high
realism, and can be learned from monocular videos. As in previous works, we use
a combination of neural textures and the mesh-based body geometry modeling
SMPL-X. We improve on prior work, by learning per-frame warping fields in the
neural texture space, allowing to better align the training signal between
different frames. We also apply existing SMPL-X fitting procedure refinements
for videos to improve overall avatar quality. In the comparisons to other
monocular video-based avatar systems, MoRF avatars achieve higher image
sharpness and temporal consistency. Participants of our user study also
preferred avatars generated by MoRF.
- Abstract(参考訳): モバイルリアルフルボディ(MoRF)アバターを学習するための新しいアプローチを提案する。
MoRFアバターは携帯電話上でリアルタイムにレンダリングでき、高いリアリズムを持ち、モノクロビデオから学ぶことができる。
従来の研究と同様に、ニューラルネットワークとメッシュベースの体形状モデリングSMPL-Xの組み合わせを用いる。
我々は、ニューラルネットワークのテクスチャ空間におけるフレーム単位のワープフィールドを学習することで、事前作業を改善することにより、異なるフレーム間のトレーニング信号の整合性を向上する。
また,既存のSMPL-Xフィッティング手順をビデオに適用し,全体的なアバター品質を向上させる。
他の単眼ビデオベースのアバターシステムと比較すると、morfアバターはより高い画像のシャープさと時間的一貫性を達成する。
ユーザスタディの参加者はMORFが生成するアバターも好んだ。
関連論文リスト
- LightAvatar: Efficient Head Avatar as Dynamic Neural Light Field [58.93692943064746]
ニューラル光場(NeLF)に基づく最初の頭部アバターモデルであるLightAvatarを紹介する。
LightAvatarは3DMMパラメータから画像をレンダリングし、メッシュやボリュームレンダリングを使わずに、単一のネットワークフォワードパスを介してカメラがポーズする。
論文 参考訳(メタデータ) (2024-09-26T17:00:02Z) - HAHA: Highly Articulated Gaussian Human Avatars with Textured Mesh Prior [24.094129395653134]
HAHAは単眼入力ビデオからヒトアバターをアニマタブルに生成するための新しいアプローチである。
SMPL-Xパラメトリックモデルを用いて全身のアバターをアニメーション化しレンダリングする効率を実証する。
論文 参考訳(メタデータ) (2024-04-01T11:23:38Z) - One2Avatar: Generative Implicit Head Avatar For Few-shot User Adaptation [31.310769289315648]
本稿では,1ユーザあたり1枚または数枚の画像のみを利用した高品質なヘッドアバターを作成するための新しいアプローチを提案する。
我々は2407名の被験者から多視点の表情データセットから3次元アニマタブルなフォトリアリスティックヘッドアバターの生成モデルを学習した。
提案手法は,従来のアバター適応手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2024-02-19T07:48:29Z) - 3DGS-Avatar: Animatable Avatars via Deformable 3D Gaussian Splatting [32.63571465495127]
3Dガウススプラッティング(3DGS)を用いた単眼ビデオからアニマタブルな人間のアバターを作成する手法を提案する。
我々は、30分以内でトレーニングでき、リアルタイムフレームレート(50以上のFPS)でレンダリングできる非剛性ネットワークを学習する。
実験結果から,本手法は単分子入力によるアニマタブルアバター生成に対する最先端手法と比較して,同等,さらに優れた性能が得られることが示された。
論文 参考訳(メタデータ) (2023-12-14T18:54:32Z) - AvatarStudio: High-fidelity and Animatable 3D Avatar Creation from Text [71.09533176800707]
アバターストゥディオ(AvatarStudio)は、アニマタブルな人間のアバターのために、明瞭なテクスチャ化された3Dメッシュを生成する粗大で微細な生成モデルである。
調音メッシュ表現とDensePose条件拡散モデルとの相乗効果を効果的に活用することにより、AvatarStudioは高品質なアバターを作成することができる。
論文 参考訳(メタデータ) (2023-11-29T18:59:32Z) - DreamWaltz: Make a Scene with Complex 3D Animatable Avatars [68.49935994384047]
本稿では,テキストガイダンスとパラメトリック人体を用いた複雑な3Dアバターの生成とアニメーションを行う新しいフレームワークであるDreamWaltzを紹介する。
アニメーションでは,様々なポーズに条件付き拡散モデルの豊富な画像から,アニマタブルな3次元アバター表現を学習する。
論文 参考訳(メタデータ) (2023-05-21T17:59:39Z) - AvatarMAV: Fast 3D Head Avatar Reconstruction Using Motion-Aware Neural
Voxels [33.085274792188756]
動作認識型ニューラルボクセルを用いた高速な3次元頭部アバター再構成法であるAvatarMAVを提案する。
アバターMAVは、頭アバターの神経ボクセルによる標準的外観と解離した表情運動の両方をモデル化した最初のものである。
提案したAvatarMAVは、最先端の顔再現法よりもはるかに高速な5分で、フォトリアリスティックな頭部アバターを回収することができる。
論文 参考訳(メタデータ) (2022-11-23T18:49:31Z) - Capturing and Animation of Body and Clothing from Monocular Video [105.87228128022804]
メッシュベース体とニューラル放射場を組み合わせたハイブリッドモデルであるSCARFを提案する。
メッシュをレンダリングに統合することで、モノクロビデオから直接SCARFを最適化できます。
本研究は,SCARFが従来の方法よりも高品質な衣服であり,身体のポーズや体型の変化とともに衣服が変形し,異なる被験者のアバター間で衣服の移動が成功できることを実証する。
論文 参考訳(メタデータ) (2022-10-04T19:34:05Z) - StylePeople: A Generative Model of Fullbody Human Avatars [59.42166744151461]
パラメトリックメッシュに基づく体モデルとニューラルテクスチャを組み合わせた,新しいタイプのフルボディヒトアバターを提案する。
このようなアバターは衣服や髪型をうまくモデル化できるため、メッシュベースのアプローチでは問題となる。
そこで我々は,画像や映像のデータセットから学習できるアバターの生成モデルを提案する。
論文 参考訳(メタデータ) (2021-04-16T20:43:11Z) - Expressive Telepresence via Modular Codec Avatars [148.212743312768]
VRテレプレゼンス(VR Telepresence)とは、アバターで表される仮想空間において、他の人間と対話することである。
本稿では,VRヘッドセットのカメラによって駆動される超現実的な顔を生成する手法である,Modular Codec Avatars (MCA)を提案する。
MCAは、全体的なモデルを学習されたモジュラー表現に置き換えることで、伝統的なコーデックアバター(CA)を拡張している。
論文 参考訳(メタデータ) (2020-08-26T20:16:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。