論文の概要: Towards Fast, Accurate and Stable 3D Dense Face Alignment
- arxiv url: http://arxiv.org/abs/2009.09960v2
- Date: Sun, 7 Feb 2021 16:24:15 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-16 05:07:01.932508
- Title: Towards Fast, Accurate and Stable 3D Dense Face Alignment
- Title(参考訳): 高速で高精度で安定な3次元顔アライメントを目指して
- Authors: Jianzhu Guo, Xiangyu Zhu, Yang Yang, Fan Yang, Zhen Lei and Stan Z. Li
- Abstract要約: 本稿では,速度,精度,安定性のバランスをとる3DDFA-V2という新しい回帰フレームワークを提案する。
本研究では,静止画を平面内と面外の動きを取り入れた映像に変換する仮想合成法を提案する。
- 参考スコア(独自算出の注目度): 73.01620081047336
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Existing methods of 3D dense face alignment mainly concentrate on accuracy,
thus limiting the scope of their practical applications. In this paper, we
propose a novel regression framework named 3DDFA-V2 which makes a balance among
speed, accuracy and stability. Firstly, on the basis of a lightweight backbone,
we propose a meta-joint optimization strategy to dynamically regress a small
set of 3DMM parameters, which greatly enhances speed and accuracy
simultaneously. To further improve the stability on videos, we present a
virtual synthesis method to transform one still image to a short-video which
incorporates in-plane and out-of-plane face moving. On the premise of high
accuracy and stability, 3DDFA-V2 runs at over 50fps on a single CPU core and
outperforms other state-of-the-art heavy models simultaneously. Experiments on
several challenging datasets validate the efficiency of our method. Pre-trained
models and code are available at https://github.com/cleardusk/3DDFA_V2.
- Abstract(参考訳): 既存の3次元密度面アライメントの手法は主に精度に集中しており、実用的応用範囲は限られている。
本稿では,速度,精度,安定性のバランスをとる3DDFA-V2という新しい回帰フレームワークを提案する。
まず、軽量なバックボーンに基づいて、3DMMパラメータの小さなセットを動的に回帰するメタジョイント最適化手法を提案し、同時にスピードと精度を大幅に向上させる。
映像の安定性をさらに向上するため,静止画を平面内および面外移動を取り入れたショートビデオに変換する仮想合成法を提案する。
高い精度と安定性の前提で、3DDFA-V2は1つのCPUコア上で50fps以上で動作し、同時に他の最先端の重モデルより優れている。
いくつかの挑戦的データセットの実験により,本手法の有効性が検証された。
事前トレーニングされたモデルとコードはhttps://github.com/cleardusk/3ddfa_v2で入手できる。
関連論文リスト
- Dual-frame Fluid Motion Estimation with Test-time Optimization and Zero-divergence Loss [9.287932323337163]
3次元粒子追跡速度計(PTV)は乱流解析の鍵となる技術である。
深層学習に基づく手法は、2フレームの流体運動推定において顕著な精度を達成している。
我々は,完全に自己管理された新しい手法を導入し,完全に教師された手法よりも優れていた。
論文 参考訳(メタデータ) (2024-10-15T18:00:00Z) - Look Gauss, No Pose: Novel View Synthesis using Gaussian Splatting without Accurate Pose Initialization [11.418632671254564]
3D Gaussian Splattingは、一連の入力画像から高速で正確なノベルビュー合成のための強力なツールとして登場した。
本稿では, 外部カメラパラメータを測光残差に対して最適化することにより, 3次元ガウス散乱フレームワークの拡張を提案する。
シミュレーション環境を通して実世界のシーンと複雑な軌道について結果を示す。
論文 参考訳(メタデータ) (2024-10-11T12:01:15Z) - UPose3D: Uncertainty-Aware 3D Human Pose Estimation with Cross-View and Temporal Cues [55.69339788566899]
UPose3Dは多視点人間のポーズ推定のための新しいアプローチである。
直接的な3Dアノテーションを必要とせずに、堅牢性と柔軟性を向上させる。
論文 参考訳(メタデータ) (2024-04-23T00:18:00Z) - Minimum Latency Deep Online Video Stabilization [77.68990069996939]
本稿では,オンラインビデオ安定化作業のための新しいカメラパス最適化フレームワークを提案する。
本研究では,近年の市販の高品位深度モーションモデルを用いて動き推定を行い,カメラの軌道を復元する。
我々の手法は、定性的にも量的にも最先端のオンライン手法を大きく上回っている。
論文 参考訳(メタデータ) (2022-12-05T07:37:32Z) - Fast-SNARF: A Fast Deformer for Articulated Neural Fields [92.68788512596254]
本稿では,標準空間とポーズ空間の正確な対応性を求める,ニューラルフィールドのための新しい調音モジュールFast-SNARFを提案する。
Fast-SNARFはこれまでの研究であるSNARFの代替であり、計算効率は大幅に向上した。
変形マップの学習は多くの3次元人間のアバター法において重要な要素であるため、この研究は3次元仮想人間の実現に向けた重要なステップであると考えている。
論文 参考訳(メタデータ) (2022-11-28T17:55:34Z) - Neural Deformable Voxel Grid for Fast Optimization of Dynamic View
Synthesis [63.25919018001152]
動的シーンを扱うための高速な変形可能な放射場法を提案する。
本手法は訓練に20分しかかからないD-NeRFに匹敵する性能を実現する。
論文 参考訳(メタデータ) (2022-06-15T17:49:08Z) - A Real-time Action Representation with Temporal Encoding and Deep
Compression [115.3739774920845]
動作表現のための時間畳み込み3Dネットワーク(T-C3D)と呼ばれる新しいリアルタイム畳み込みアーキテクチャを提案する。
T-C3Dは、高プロセス速度を得ながら、階層的な多粒度でビデオアクション表現を学習する。
提案手法は,5MB未満のストレージモデルを用いて,提案手法の精度5.4%,推論速度2倍の高速化を実現した。
論文 参考訳(メタデータ) (2020-06-17T06:30:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。