論文の概要: FaceOff: A Video-to-Video Face Swapping System
- arxiv url: http://arxiv.org/abs/2208.09788v1
- Date: Sun, 21 Aug 2022 03:18:07 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-23 13:24:44.083496
- Title: FaceOff: A Video-to-Video Face Swapping System
- Title(参考訳): FaceOff:ビデオ対ビデオの顔スワップシステム
- Authors: Aditya Agarwal, Bipasha Sen, Rudrabha Mukhopadhyay, Vinay Namboodiri,
C.V. Jawahar
- Abstract要約: ビデオ・トゥ・ビデオ(V2V)のフェイス・スワッピングは、ソース(アクター)のフェイス・ビデオのアイデンティティと表現と、ターゲット(ダブル)のビデオの背景とポーズを保存できる。
本稿では、2つの顔ビデオを統合するために、堅牢なブレンディング操作を学習して動作させるV2VフェイススワッピングシステムであるFaceOffを提案する。
- 参考スコア(独自算出の注目度): 31.848709928693662
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Doubles play an indispensable role in the movie industry. They take the place
of the actors in dangerous stunt scenes or in scenes where the same actor plays
multiple characters. The double's face is later replaced with the actor's face
and expressions manually using expensive CGI technology, costing millions of
dollars and taking months to complete. An automated, inexpensive, and fast way
can be to use face-swapping techniques that aim to swap an identity from a
source face video (or an image) to a target face video. However, such methods
can not preserve the source expressions of the actor important for the scene's
context. % essential for the scene. % that are essential in cinemas. To tackle
this challenge, we introduce video-to-video (V2V) face-swapping, a novel task
of face-swapping that can preserve (1) the identity and expressions of the
source (actor) face video and (2) the background and pose of the target
(double) video. We propose FaceOff, a V2V face-swapping system that operates by
learning a robust blending operation to merge two face videos following the
constraints above. It first reduces the videos to a quantized latent space and
then blends them in the reduced space. FaceOff is trained in a self-supervised
manner and robustly tackles the non-trivial challenges of V2V face-swapping. As
shown in the experimental section, FaceOff significantly outperforms alternate
approaches qualitatively and quantitatively.
- Abstract(参考訳): ダブルスは映画業界で欠かせない役割を演じている。
危険なスタントシーンや、同じ俳優が複数のキャラクターを演じるシーンで、俳優の代わりとなる。
ダブルの顔はその後、高価なCGI技術を使って手動で俳優の顔と表情に置き換わり、数百万ドルを投じて完成までに数ヶ月を要した。
自動化され、安価で、高速な方法は、元の顔ビデオ(または画像)からターゲットの顔ビデオにIDを交換することを目的としたフェイススワッピング技術を使用することができる。
しかし、そのような手法はシーンの文脈において重要なアクターのソース表現を保存できない。
%であった。
%であった。
この課題に対処するために,ビデオ・ツー・ビデオ(V2V)のフェイス・スワッピング,(1)ソース(アクター)の顔映像のアイデンティティと表現,(2)ターゲット(ダブル)映像の背景とポーズを保存できるフェイス・スワッピングの新たなタスクを導入する。
上記の制約に従って2つの顔ビデオを統合するために,ロバストなブレンディング操作を学習して動作するV2VフェイススワッピングシステムであるFaceOffを提案する。
まず、ビデオを量子化された潜在空間に縮小し、その後、縮小された空間にブレンドする。
FaceOffは自己指導型で訓練され、V2Vのフェイススワッピングの非自明な課題にしっかりと取り組みます。
実験セクションで示されるように、FaceOffは、定性的かつ定量的に代替アプローチを著しく上回る。
関連論文リスト
- DynamicFace: High-Quality and Consistent Video Face Swapping using Composable 3D Facial Priors [24.721887093958284]
顔交換は、ターゲット顔の表情、ポーズ、髪、背景などの属性を保持しながら、ソース顔のアイデンティティをターゲット顔に転送する。
本稿では,拡散モデルとプラグイン・アンド・プレイ時層を利用した映像面スワップを実現するDynamicFaceを提案する。
本手法は,顔のスワップ,画像の画質,アイデンティティの保存,表情の正確性を示す。
論文 参考訳(メタデータ) (2025-01-15T03:28:14Z) - Hiding Faces in Plain Sight: Defending DeepFakes by Disrupting Face Detection [56.289631511616975]
本稿では,プロアクティブなディープフェイク防衛フレームワークであるエム・フェイスポージョンの有効性について検討し,個人がディープフェイクビデオの被害者にならないようにした。
FacePoisonをベースとしたEm VideoFacePoisonは、各フレームに個別に適用するのではなく、ビデオフレーム間でFacePoisonを伝搬する戦略である。
本手法は5つの顔検出器で検証され,11種類のDeepFakeモデルに対する広範な実験により,顔検出器を破壊してDeepFakeの発生を妨げる効果が示された。
論文 参考訳(メタデータ) (2024-12-02T04:17:48Z) - Video2StyleGAN: Encoding Video in Latent Space for Manipulation [63.03250800510085]
本稿では,顔映像のセマンティックな操作のために,顔映像をStyleGANの潜在空間に符号化する新しいネットワークを提案する。
提案手法は,リアルタイム(66fps)の高速化を実現しつつ,既存の単一画像手法よりも大幅に優れる。
論文 参考訳(メタデータ) (2022-06-27T06:48:15Z) - Deep Face Video Inpainting via UV Mapping [20.879204880364743]
本稿では,2段階の深層学習手法を提案する。
我々は、画像空間とUV(テクスチャ)空間の間の顔の変換に先立って、3DMMを我々の3次元顔として採用する。
ステージIでは、UV空間における顔の塗り絵を行う。これにより、顔のポーズや表情の影響を大きく取り除き、適切に整列された顔の特徴によって学習作業がより簡単になる。
ステージIIでは、塗布された顔領域を画像空間に戻し、塗布された顔領域をステージIに塗布しない背景領域に塗布し、塗布された顔領域を改質する。
論文 参考訳(メタデータ) (2021-09-02T03:00:08Z) - One Shot Face Swapping on Megapixels [65.47443090320955]
本稿では,顔面スワッピング(略してMegaFS)における最初のメガピクセルレベル法を提案する。
本手法の成功に対する3つの新しい貢献は,顔の完全な表現,安定したトレーニング,限られたメモリ使用量である。
論文 参考訳(メタデータ) (2021-05-11T10:41:47Z) - Face2Face: Real-time Face Capture and Reenactment of RGB Videos [66.38142459175191]
Face2Faceは、モノクラーターゲットビデオシーケンスのリアルタイムな顔再現のための新しいアプローチである。
我々は、高密度光度整合度測定を用いて、音源とターゲット映像の両方の表情を追跡する。
我々は、対応するビデオストリーム上に合成されたターゲット顔を再レンダリングする。
論文 参考訳(メタデータ) (2020-07-29T12:47:16Z) - FaR-GAN for One-Shot Face Reenactment [20.894596219099164]
本稿では,任意の音源の顔画像とターゲット表現のみを入力として用いた一発顔再現モデルFaR-GANを提案する。
提案手法は,音源の同一性,表情,頭部ポーズ,さらには画像背景についても仮定しない。
論文 参考訳(メタデータ) (2020-05-13T16:15:37Z) - Audio-driven Talking Face Video Generation with Learning-based
Personalized Head Pose [67.31838207805573]
本稿では、音源者の音声信号Aと対象者の短いビデオVを入力とするディープニューラルネットワークモデルを提案する。
我々は、パーソナライズされた頭部ポーズで合成された高品質な会話顔映像を出力する。
提案手法は,最先端の手法よりも,頭部運動効果を識別し,高品質な会話顔ビデオを生成する。
論文 参考訳(メタデータ) (2020-02-24T10:02:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。