論文の概要: Detailed Facial Geometry Recovery from Multi-view Images by Learning an
Implicit Function
- arxiv url: http://arxiv.org/abs/2201.01016v1
- Date: Tue, 4 Jan 2022 07:24:58 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-05 13:46:50.609785
- Title: Detailed Facial Geometry Recovery from Multi-view Images by Learning an
Implicit Function
- Title(参考訳): 暗黙的機能学習による多視点画像からの詳細な顔形状復元
- Authors: Yunze Xiao, Hao Zhu, Haotian Yang, Zhengyu Diao, Xiangju Lu, Xun Cao
- Abstract要約: 約10秒で高精細な3次元顔を復元する新しいアーキテクチャを提案する。
マルチビュー画像から3次元形態素モデルを取り付けることで、複数の画像の特徴を抽出し、メッシュ付きUV空間に集約する。
提案手法は,FaceScape データセットにおいて,SOTA 学習に基づく MVS の精度を高いマージンで向上させる。
- 参考スコア(独自算出の注目度): 12.522283941978722
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recovering detailed facial geometry from a set of calibrated multi-view
images is valuable for its wide range of applications. Traditional multi-view
stereo (MVS) methods adopt optimization methods to regularize the matching
cost. Recently, learning-based methods integrate all these into an end-to-end
neural network and show superiority of efficiency. In this paper, we propose a
novel architecture to recover extremely detailed 3D faces in roughly 10
seconds. Unlike previous learning-based methods that regularize the cost volume
via 3D CNN, we propose to learn an implicit function for regressing the
matching cost. By fitting a 3D morphable model from multi-view images, the
features of multiple images are extracted and aggregated in the mesh-attached
UV space, which makes the implicit function more effective in recovering
detailed facial shape. Our method outperforms SOTA learning-based MVS in
accuracy by a large margin on the FaceScape dataset. The code and data will be
released soon.
- Abstract(参考訳): マルチビュー画像の校正セットから詳細な顔形状を復元することは、その幅広い応用に有用である。
従来のマルチビューステレオ(mvs)法は、マッチングコストを正則化する最適化手法を採用している。
近年、学習に基づく手法がこれらすべてをエンドツーエンドニューラルネットワークに統合し、効率性が向上している。
本稿では,約10秒で極めて詳細な3次元顔の復元を行う新しいアーキテクチャを提案する。
従来の学習に基づく3D CNNによるコストの正規化手法とは異なり,マッチングコストを抑える暗黙の関数を学習することを提案する。
マルチビュー画像から3次元形状モデルを適用することにより、メッシュ付きUV空間において複数の画像の特徴を抽出・集約し、より詳細な顔形状の復元に有効な暗黙的機能を実現する。
提案手法は,FaceScapeデータセットにおいて,SOTA学習に基づくMVSよりも精度が高い。
コードとデータはまもなくリリースされる。
関連論文リスト
- Large Spatial Model: End-to-end Unposed Images to Semantic 3D [79.94479633598102]
大空間モデル(LSM)は、RGB画像を直接意味的放射場に処理する。
LSMは、単一のフィードフォワード操作における幾何学、外観、意味を同時に推定する。
新しい視点で言語と対話することで、多目的ラベルマップを生成することができる。
論文 参考訳(メタデータ) (2024-10-24T17:54:42Z) - 3D Facial Expressions through Analysis-by-Neural-Synthesis [30.2749903946587]
SMIRK(Spatial Modeling for Image-based Reconstruction of Kinesics)は、画像から表現力のある3次元顔を忠実に再構築する。
既存の手法では,自己指導型トレーニングの定式化における欠点と,訓練画像における表現の多様性の欠如の2つの重要な限界を識別する。
我々の質的,定量的,特に知覚的評価は、SMIRKが正確な表現再構成における新しい最先端技術を実現することを証明している。
論文 参考訳(メタデータ) (2024-04-05T14:00:07Z) - Hyper-VolTran: Fast and Generalizable One-Shot Image to 3D Object
Structure via HyperNetworks [53.67497327319569]
画像から3Dまでを1つの視点から解く新しいニューラルレンダリング手法を提案する。
提案手法では, 符号付き距離関数を表面表現として使用し, 幾何エンコードボリュームとハイパーネットワークスによる一般化可能な事前処理を取り入れた。
本実験は,一貫した結果と高速な生成による提案手法の利点を示す。
論文 参考訳(メタデータ) (2023-12-24T08:42:37Z) - HQ3DAvatar: High Quality Controllable 3D Head Avatar [65.70885416855782]
本稿では,高フォトリアリスティックなデジタルヘッドアバターを構築するための新しいアプローチを提案する。
本手法はニューラルネットワークによってパラメータ化された暗黙関数を用いて標準空間を学習する。
テスト時,本手法は単眼のRGBビデオによって駆動される。
論文 参考訳(メタデータ) (2023-03-25T13:56:33Z) - Learning Enriched Features for Fast Image Restoration and Enhancement [166.17296369600774]
本稿では,ネットワーク全体を通して空間的精度の高い高解像度表現を維持することを目的とする。
我々は、高解像度の空間的詳細を同時に保存しながら、複数のスケールからの文脈情報を組み合わせた豊富な特徴集合を学習する。
提案手法は,デフォーカス・デブロアリング,画像デノイング,超解像,画像強調など,さまざまな画像処理タスクに対して,最先端の処理結果を実現する。
論文 参考訳(メタデータ) (2022-04-19T17:59:45Z) - Facial Geometric Detail Recovery via Implicit Representation [147.07961322377685]
そこで本研究では,一眼の顔画像のみを用いて,テクスチャガイドを用いた幾何的細部復元手法を提案する。
提案手法は,高品質なテクスチャ補完と暗黙の面の強力な表現性を組み合わせたものである。
本手法は, 顔の正確な細部を復元するだけでなく, 正常部, アルベド部, シェーディング部を自己監督的に分解する。
論文 参考訳(メタデータ) (2022-03-18T01:42:59Z) - Curvature-guided dynamic scale networks for Multi-view Stereo [10.667165962654996]
本稿では,重み計算を伴わずにマッチングコストの性能を向上させるために,ロバストな特徴抽出ネットワークを学習することに焦点を当てる。
動的スケール特徴抽出ネットワーク,すなわちCDSFNetを提案する。
複数の新しい畳み込み層で構成され、それぞれが画像表面の通常の曲率でガイドされる各画素に対して適切なパッチスケールを選択することができる。
論文 参考訳(メタデータ) (2021-12-11T14:41:05Z) - Implicit Neural Deformation for Multi-View Face Reconstruction [43.88676778013593]
マルチビューRGB画像から新しい3次元顔再構成法を提案する。
従来の3次元形態素モデルに基づく手法とは異なり,本手法は暗黙の表現を利用してリッチな幾何学的特徴を符号化する。
いくつかのベンチマークデータセットに対する実験結果から,提案手法は代替ベースラインよりも優れ,最先端の手法に比べて優れた顔再構成結果が得られることが示された。
論文 参考訳(メタデータ) (2021-12-05T07:02:53Z) - DeepMultiCap: Performance Capture of Multiple Characters Using Sparse
Multiview Cameras [63.186486240525554]
deep multicapは、スパースマルチビューカメラを用いたマルチパーソンパフォーマンスキャプチャのための新しい手法である。
本手法では,事前走査型テンプレートモデルを用いることなく,時間変化した表面の詳細をキャプチャできる。
論文 参考訳(メタデータ) (2021-05-01T14:32:13Z) - MeshMVS: Multi-View Stereo Guided Mesh Reconstruction [35.763452474239955]
深層学習に基づく3次元形状生成法は、一般的に、カラー画像から抽出した潜時特徴を利用して、オブジェクトの意味を符号化する。
本稿では,多視点ステレオの中間深度表現の特徴を利用して,幾何情報を明確に取り入れたマルチビューメッシュ生成手法を提案する。
その結果,シェーファー距離が34%減少し,F1スコアが14%増加し,最先端のマルチビュー形状生成法よりも優れた結果が得られた。
論文 参考訳(メタデータ) (2020-10-17T00:51:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。