論文の概要: Towards Fast, Accurate and Stable 3D Dense Face Alignment
- arxiv url: http://arxiv.org/abs/2009.09960v2
- Date: Sun, 7 Feb 2021 16:24:15 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-16 05:07:01.932508
- Title: Towards Fast, Accurate and Stable 3D Dense Face Alignment
- Title(参考訳): 高速で高精度で安定な3次元顔アライメントを目指して
- Authors: Jianzhu Guo, Xiangyu Zhu, Yang Yang, Fan Yang, Zhen Lei and Stan Z. Li
- Abstract要約: 本稿では,速度,精度,安定性のバランスをとる3DDFA-V2という新しい回帰フレームワークを提案する。
本研究では,静止画を平面内と面外の動きを取り入れた映像に変換する仮想合成法を提案する。
- 参考スコア(独自算出の注目度): 73.01620081047336
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Existing methods of 3D dense face alignment mainly concentrate on accuracy,
thus limiting the scope of their practical applications. In this paper, we
propose a novel regression framework named 3DDFA-V2 which makes a balance among
speed, accuracy and stability. Firstly, on the basis of a lightweight backbone,
we propose a meta-joint optimization strategy to dynamically regress a small
set of 3DMM parameters, which greatly enhances speed and accuracy
simultaneously. To further improve the stability on videos, we present a
virtual synthesis method to transform one still image to a short-video which
incorporates in-plane and out-of-plane face moving. On the premise of high
accuracy and stability, 3DDFA-V2 runs at over 50fps on a single CPU core and
outperforms other state-of-the-art heavy models simultaneously. Experiments on
several challenging datasets validate the efficiency of our method. Pre-trained
models and code are available at https://github.com/cleardusk/3DDFA_V2.
- Abstract(参考訳): 既存の3次元密度面アライメントの手法は主に精度に集中しており、実用的応用範囲は限られている。
本稿では,速度,精度,安定性のバランスをとる3DDFA-V2という新しい回帰フレームワークを提案する。
まず、軽量なバックボーンに基づいて、3DMMパラメータの小さなセットを動的に回帰するメタジョイント最適化手法を提案し、同時にスピードと精度を大幅に向上させる。
映像の安定性をさらに向上するため,静止画を平面内および面外移動を取り入れたショートビデオに変換する仮想合成法を提案する。
高い精度と安定性の前提で、3DDFA-V2は1つのCPUコア上で50fps以上で動作し、同時に他の最先端の重モデルより優れている。
いくつかの挑戦的データセットの実験により,本手法の有効性が検証された。
事前トレーニングされたモデルとコードはhttps://github.com/cleardusk/3ddfa_v2で入手できる。
関連論文リスト
- Minimum Latency Deep Online Video Stabilization [77.68990069996939]
本稿では,オンラインビデオ安定化作業のための新しいカメラパス最適化フレームワークを提案する。
本研究では,近年の市販の高品位深度モーションモデルを用いて動き推定を行い,カメラの軌道を復元する。
我々の手法は、定性的にも量的にも最先端のオンライン手法を大きく上回っている。
論文 参考訳(メタデータ) (2022-12-05T07:37:32Z) - Fast-SNARF: A Fast Deformer for Articulated Neural Fields [92.68788512596254]
本稿では,標準空間とポーズ空間の正確な対応性を求める,ニューラルフィールドのための新しい調音モジュールFast-SNARFを提案する。
Fast-SNARFはこれまでの研究であるSNARFの代替であり、計算効率は大幅に向上した。
変形マップの学習は多くの3次元人間のアバター法において重要な要素であるため、この研究は3次元仮想人間の実現に向けた重要なステップであると考えている。
論文 参考訳(メタデータ) (2022-11-28T17:55:34Z) - Neural Deformable Voxel Grid for Fast Optimization of Dynamic View
Synthesis [63.25919018001152]
動的シーンを扱うための高速な変形可能な放射場法を提案する。
本手法は訓練に20分しかかからないD-NeRFに匹敵する性能を実現する。
論文 参考訳(メタデータ) (2022-06-15T17:49:08Z) - Learning to Fit Morphable Models [12.469605679847085]
学習最適化の最近の進歩の上に構築し、古典的なレバンス・マルカルトアルゴリズムに触発された更新ルールを提案する。
本稿では,頭部装着装置による3次元体表面推定問題と2次元ランドマークによる顔の嵌合性に対するニューラルネットワークの有効性を示す。
論文 参考訳(メタデータ) (2021-11-29T18:59:53Z) - Improved Pillar with Fine-grained Feature for 3D Object Detection [23.348710029787068]
LiDAR点雲を用いた3次元物体検出は、自律走行知覚モジュールにおいて重要な役割を果たす。
既存の点ベースの手法は、生の点が多すぎるため、速度要件に到達するのが困難である。
PointPillarのような2Dグリッドベースの手法は、単純な2D畳み込みに基づいて、安定的で効率的な速度を容易に達成できる。
論文 参考訳(メタデータ) (2021-10-12T14:53:14Z) - A Real-time Action Representation with Temporal Encoding and Deep
Compression [115.3739774920845]
動作表現のための時間畳み込み3Dネットワーク(T-C3D)と呼ばれる新しいリアルタイム畳み込みアーキテクチャを提案する。
T-C3Dは、高プロセス速度を得ながら、階層的な多粒度でビデオアクション表現を学習する。
提案手法は,5MB未満のストレージモデルを用いて,提案手法の精度5.4%,推論速度2倍の高速化を実現した。
論文 参考訳(メタデータ) (2020-06-17T06:30:43Z) - 3DSSD: Point-based 3D Single Stage Object Detector [61.67928229961813]
本稿では,3DSSDと命名された点ベース3次元単段物体検出器を提案し,精度と効率のバランスが良好であることを示す。
提案手法は,最先端のボクセルをベースとした一段法を大差で上回り,二段法に匹敵する性能を有する。
論文 参考訳(メタデータ) (2020-02-24T12:01:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。