論文の概要: 4D Agnostic Real-Time Facial Animation Pipeline for Desktop Scenarios
- arxiv url: http://arxiv.org/abs/2304.02814v1
- Date: Thu, 6 Apr 2023 01:32:58 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-07 15:44:39.491098
- Title: 4D Agnostic Real-Time Facial Animation Pipeline for Desktop Scenarios
- Title(参考訳): デスクトップシナリオのための4次元リアルタイム顔画像パイプライン
- Authors: Wei Chen and HongWei Xu and Jelo Wang
- Abstract要約: アニメーターがデスクトップ上で使用するのに適した,高精度なリアルタイム顔アニメーションパイプラインを提案する。
システムにより、アニメーターは、簡単かつ迅速に高品質な顔アニメーションを作成できる。
われわれのアプローチは、エンターテイメント業界における顔のアニメーションのやり方に革命をもたらす可能性がある。
- 参考スコア(独自算出の注目度): 8.274472944075713
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present a high-precision real-time facial animation pipeline suitable for
animators to use on their desktops. This pipeline is about to be launched in
FACEGOOD's Avatary\footnote{https://www.avatary.com/} software, which will
accelerate animators' productivity. The pipeline differs from professional
head-mounted facial capture solutions in that it only requires the use of a
consumer-grade 3D camera on the desk to achieve high-precision real-time facial
capture. The system enables animators to create high-quality facial animations
with ease and speed, while reducing the cost and complexity of traditional
facial capture solutions. Our approach has the potential to revolutionize the
way facial animation is done in the entertainment industry.
- Abstract(参考訳): アニメーターがデスクトップ上で使用するのに適した,高精度なリアルタイム顔アニメーションパイプラインを提案する。
このパイプラインはFACEGOODのAvatary\footnote{https://www.avatary.com/}ソフトウェアでローンチされ、アニメーターの生産性が向上する。
このパイプラインは、プロのヘッドマウント顔認証ソリューションと異なり、高精度なリアルタイム顔認証を実現するために、デスクに消費者向けの3Dカメラを使用する必要がある。
このシステムにより、アニメーターは、従来の顔キャプチャーソリューションのコストと複雑さを低減しつつ、簡単かつ高速に高品質な顔アニメーションを作成できる。
我々のアプローチは、エンターテイメント業界における顔アニメーションのやり方に革命をもたらす可能性がある。
関連論文リスト
- MMHead: Towards Fine-grained Multi-modal 3D Facial Animation [68.04052669266174]
大規模なマルチモーダル3次元顔アニメーションデータセットMMHeadを構築した。
MMHeadは、49時間の3D顔の動きシーケンス、音声、リッチな階層的なテキストアノテーションで構成されている。
MMHeadデータセットに基づいて,テキストによる3次元対話ヘッドアニメーションとテキストから3次元の顔の動き生成という,2つの新しいタスクのベンチマークを構築した。
論文 参考訳(メタデータ) (2024-10-10T09:37:01Z) - Bring Your Own Character: A Holistic Solution for Automatic Facial
Animation Generation of Customized Characters [24.615066741391125]
仮想顔を自動的にアニメーションする総合的なソリューションを提案する。
深層学習モデルはまず、入力された顔画像から仮想人間の顔への表情の再ターゲティングを訓練した。
Unity 3Dを使った実用的なツールキットが開発され、最も人気のあるVRアプリケーションと互換性がある。
論文 参考訳(メタデータ) (2024-02-21T11:35:20Z) - Attention-Based VR Facial Animation with Visual Mouth Camera Guidance
for Immersive Telepresence Avatars [19.70403947793871]
本稿では,マウスカメラのキーポイントと直接視覚誘導を併用したハイブリッド手法を提案する。
提案手法は,未知の演算子に一般化され,短いビデオ2本をキャプチャして簡単なエンロラメントステップのみを必要とする。
我々は、ANAアバターXPRIZEファイナルでの勝利に顔のアニメーションがどう貢献したかを強調した。
論文 参考訳(メタデータ) (2023-12-15T12:45:11Z) - Versatile Face Animator: Driving Arbitrary 3D Facial Avatar in RGBD
Space [38.940128217895115]
本稿では,顔の動きを終末的にキャプチャーと組み合わせたVersatile Face Animatorを提案する。
1) 階層的な動き辞書を用いて生のRGBDビデオから顔の動きを学習し, 任意の3D文字で表情をアニメーションできるRGBDアニメーションモジュールを提案する。
総合的な実験により,提案手法が印象的な3次元顔画像生成に有効であることを実証した。
論文 参考訳(メタデータ) (2023-08-11T11:29:01Z) - Audio-Driven Talking Face Generation with Diverse yet Realistic Facial
Animations [61.65012981435094]
DIRFAは、異なるが現実的な顔のアニメーションを同一の駆動音声から生成できる新しい方法である。
同一音声に対して妥当な顔のアニメーションの変動に対応するため,トランスフォーマーに基づく確率的マッピングネットワークを設計する。
DIRFAは現実的な顔のアニメーションを効果的に生成できることを示す。
論文 参考訳(メタデータ) (2023-04-18T12:36:15Z) - FNeVR: Neural Volume Rendering for Face Animation [53.92664037596834]
本研究では,2次元モーションワープと3次元ボリュームレンダリングの可能性を探るため,FNeVRネットワークを提案する。
FNeVRでは、画像レンダリングのための顔の詳細を強化するために、FVRモジュールを設計する。
また、軽量なポーズエディタを設計し、FNeVRが簡単にかつ効果的に顔のポーズを編集できるようにする。
論文 参考訳(メタデータ) (2022-09-21T13:18:59Z) - High-Quality Real Time Facial Capture Based on Single Camera [0.0]
我々は畳み込みニューラルネットワークを訓練し、ビデオトレーニングから出力される高品質な連続ブレンドシェープ重みを生成する。
我々は,目や唇などの課題領域において,魅力的なアニメーション推論を示す。
論文 参考訳(メタデータ) (2021-11-15T06:42:27Z) - MeshTalk: 3D Face Animation from Speech using Cross-Modality
Disentanglement [142.9900055577252]
本研究では,顔全体の映像合成を高度に実現するための汎用的な音声駆動顔アニメーション手法を提案する。
このアプローチは、目のまばたきやまばたきなど、音声信号とは無関係な顔の一部のアニメーションを再現すると同時に、高精度な唇の動きを保証します。
論文 参考訳(メタデータ) (2021-04-16T17:05:40Z) - Audio- and Gaze-driven Facial Animation of Codec Avatars [149.0094713268313]
音声および/またはアイトラッキングを用いて,コーデックアバターをリアルタイムにアニメーション化するための最初のアプローチについて述べる。
私たちのゴールは、重要な社会的シグナルを示す個人間の表現力のある会話を表示することです。
論文 参考訳(メタデータ) (2020-08-11T22:28:48Z) - A Robust Interactive Facial Animation Editing System [0.0]
直感的な制御パラメータの集合から顔のアニメーションを簡単に編集するための学習に基づく新しいアプローチを提案する。
我々は、制御パラメータを結合係数列にマップする分解能保存完全畳み込みニューラルネットワークを使用している。
提案システムは頑丈で,非専門ユーザからの粗大で誇張された編集を処理できる。
論文 参考訳(メタデータ) (2020-07-18T08:31:02Z) - DeepFaceFlow: In-the-wild Dense 3D Facial Motion Estimation [56.56575063461169]
DeepFaceFlowは、3D非剛体顔の流れを推定するための堅牢で高速で高精度なフレームワークである。
私たちのフレームワークは、2つの非常に大規模な顔ビデオデータセットでトレーニングされ、テストされました。
登録された画像に対して,60fpsで3次元フローマップを生成する。
論文 参考訳(メタデータ) (2020-05-14T23:56:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。