論文の概要: Face Animation with Multiple Source Images
- arxiv url: http://arxiv.org/abs/2212.00256v2
- Date: Tue, 11 Apr 2023 22:31:23 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-13 18:27:54.382070
- Title: Face Animation with Multiple Source Images
- Title(参考訳): 複数音源画像による顔アニメーション
- Authors: Zhaoying Pan, Jinge Ma
- Abstract要約: 本稿では,顔アニメーションの性能を向上させるためのフレキシブルで汎用的なアプローチを提案する。
我々は、顔の事前知識の欠如に対する補償として、複数のソースイメージを入力として使用する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Face animation has received a lot of attention from researchers in recent
years due to its wide range of promising applications. Many face animation
models based on optical flow or deep neural networks have achieved great
success. However, these models are likely to fail in animated scenarios with
significant view changes, resulting in unrealistic or distorted faces. One of
the possible reasons is that such models lack prior knowledge of human faces
and are not proficient to imagine facial regions they have never seen before.
In this paper, we propose a flexible and generic approach to improve the
performance of face animation without additional training. We use multiple
source images as input as compensation for the lack of prior knowledge of
faces. The effectiveness of our method is experimentally demonstrated, where
the proposed method successfully supplements the baseline method.
- Abstract(参考訳): 顔アニメーションは、様々な将来性のある応用のために、近年、研究者から多くの注目を集めている。
光フローやディープニューラルネットワークに基づく多くの顔アニメーションモデルは大きな成功を収めている。
しかし、これらのモデルは大きなビュー変更を伴うアニメーションシナリオでは失敗する可能性があり、非現実的あるいは歪んだ顔になる。
考えられる理由の1つは、そのようなモデルが人間の顔に関する事前の知識を欠き、これまで見たことのない顔領域を想像できないためである。
本稿では,新たな学習をすることなく,顔アニメーションの性能を向上させるためのフレキシブルで汎用的な手法を提案する。
顔の事前知識の欠如に対する補償として,複数のソースイメージを入力として使用する。
本手法の有効性を実験的に検証し,提案手法がベースライン法を補うことに成功した。
関連論文リスト
- OSDFace: One-Step Diffusion Model for Face Restoration [72.5045389847792]
拡散モデルは、顔の修復において顕著な性能を示した。
顔復元のための新しいワンステップ拡散モデルOSDFaceを提案する。
その結果,OSDFaceは現状のSOTA(State-of-the-art)手法を視覚的品質と定量的指標の両方で上回っていることがわかった。
論文 参考訳(メタデータ) (2024-11-26T07:07:48Z) - Single Image, Any Face: Generalisable 3D Face Generation [59.9369171926757]
我々は,制約のない単一画像入力を伴う3次元顔を生成する新しいモデルGen3D-Faceを提案する。
私たちの知る限りでは、これは1枚の画像からフォトリアリスティックな3D顔アバターを作るための最初の試みであり、ベンチマークである。
論文 参考訳(メタデータ) (2024-09-25T14:56:37Z) - GaussianHeads: End-to-End Learning of Drivable Gaussian Head Avatars from Coarse-to-fine Representations [54.94362657501809]
マルチビュー画像から高ダイナミックで変形可能な人間の頭部アバターをリアルタイムで生成する手法を提案する。
本手法のコアとなるのは,顔表情と頭部運動の複雑なダイナミクスを捉えることができる頭部モデルの階層的表現である。
我々は、この粗い顔アバターモデルを、エンドツーエンドのフレームワークで学習可能なパラメータとして頭部ポーズとともに訓練する。
論文 参考訳(メタデータ) (2024-09-18T13:05:43Z) - Learning a Generalized Physical Face Model From Data [19.58920251013244]
物理シミュレーションは3次元顔アニメーションの強力なアプローチである。
大規模な3次元顔データセットから学習する,一般化された顔モデルを提案する。
我々のモデルは、目に見えないあらゆるアイデンティティに迅速に適合し、自動的に自己認識可能な物理顔モデルを生成することができる。
論文 参考訳(メタデータ) (2024-02-29T18:59:31Z) - FitDiff: Robust monocular 3D facial shape and reflectance estimation using Diffusion Models [79.65289816077629]
拡散型3次元顔アバター生成モデルFitDiffを提案する。
本モデルでは,「近距離」2次元顔画像から抽出したアイデンティティ埋め込みを利用して,再現性のある顔アバターを高精度に生成する。
FitDiffは、顔認識の埋め込みを前提とした最初の3D LDMであり、一般的なレンダリングエンジンで使用可能な、ライティング可能な人間のアバターを再構築する。
論文 参考訳(メタデータ) (2023-12-07T17:35:49Z) - Effective Adapter for Face Recognition in the Wild [72.75516495170199]
私たちは、画像が低品質で現実世界の歪みに悩まされる、野生の顔認識の課題に取り組みます。
従来のアプローチでは、劣化した画像や、顔の復元技術を使って強化された画像を直接訓練するが、効果がないことが証明された。
高品質な顔データセットで訓練された既存の顔認識モデルを強化するための効果的なアダプタを提案する。
論文 参考訳(メタデータ) (2023-12-04T08:55:46Z) - FaceChain: A Playground for Human-centric Artificial Intelligence
Generated Content [36.48960592782015]
FaceChainは、パーソナライズされたポートレート生成フレームワークで、一連のカスタマイズされた画像生成モデルと、顔に関連する知覚理解モデルの豊富なセットを組み合わせる。
我々は、複数のSOTAフェイスモデルを生成手順に注入し、従来のソリューションと比較して、より効率的なラベルタグ付け、データ処理、モデル後処理を実現する。
FaceChainをベースとして、仮想トライオンや2Dトーキングヘッドなど、その価値をよりよく示すための、より広いグラウンドを構築するためのいくつかのアプリケーションも開発しています。
論文 参考訳(メタデータ) (2023-08-28T02:20:44Z) - SAFA: Structure Aware Face Animation [9.58882272014749]
顔画像の異なる成分をモデル化するために,特定の幾何学的構造を構成する構造認識顔画像(SAFA)手法を提案する。
顔のモデリングには3Dフォーマブルモデル(3DMM)、髪やひげなどの他の前景のコンポーネントをモデル化するための複数のアフィン変換、背景をモデル化するためのアイデンティティ変換を使用します。
3DMMの幾何学的埋め込みは、運転シーンの現実的な構造を生成するだけでなく、生成した画像の隠蔽領域の知覚の向上にも寄与する。
論文 参考訳(メタデータ) (2021-11-09T03:22:38Z) - Image-to-Video Generation via 3D Facial Dynamics [78.01476554323179]
静止画像から様々な映像を生成するために多目的モデルであるFaceAnimeを提案する。
私たちのモデルは、顔ビデオや顔ビデオの予測など、さまざまなAR/VRやエンターテイメントアプリケーションに汎用的です。
論文 参考訳(メタデータ) (2021-05-31T02:30:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。