論文の概要: Introducing Explicit Gaze Constraints to Face Swapping
- arxiv url: http://arxiv.org/abs/2305.16138v1
- Date: Thu, 25 May 2023 15:12:08 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-26 14:31:12.434856
- Title: Introducing Explicit Gaze Constraints to Face Swapping
- Title(参考訳): 顔スワッピングのための明示的なゲイズ制約の導入
- Authors: Ethan Wilson, Frederick Shic, Eakta Jain
- Abstract要約: 顔交換は、一方の顔のアイデンティティと他方の顔の非外観属性を組み合わせることで、合成顔を生成する。
顔全体を考慮した画像に基づく損失測定は、知覚的に重要で空間的に小さい眼領域を効果的に捉えていない。
本稿では、視線予測を利用してトレーニング中に顔スワップモデルに通知し、既存の方法と比較する新しい損失関数を提案する。
- 参考スコア(独自算出の注目度): 1.9386396954290932
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Face swapping combines one face's identity with another face's non-appearance
attributes (expression, head pose, lighting) to generate a synthetic face. This
technology is rapidly improving, but falls flat when reconstructing some
attributes, particularly gaze. Image-based loss metrics that consider the full
face do not effectively capture the perceptually important, yet spatially
small, eye regions. Improving gaze in face swaps can improve naturalness and
realism, benefiting applications in entertainment, human computer interaction,
and more. Improved gaze will also directly improve Deepfake detection efforts,
serving as ideal training data for classifiers that rely on gaze for
classification. We propose a novel loss function that leverages gaze prediction
to inform the face swap model during training and compare against existing
methods. We find all methods to significantly benefit gaze in resulting face
swaps.
- Abstract(参考訳): 顔交換は、ある顔のアイデンティティと別の顔の非外観特性(表現、ポーズ、照明)を組み合わせて合成顔を生成する。
この技術は急速に改善されているが、いくつかの属性、特に視線を再構築すると平坦になる。
顔全体を考慮した画像に基づく損失測定は、知覚的に重要で空間的に小さい眼領域を効果的に捉えていない。
顔スワップでの視線向上は、自然性やリアリズムの向上、エンターテイメント、人間のコンピュータインタラクションなどの応用に寄与する。
視線の改善はまた、ディープフェイク検出の努力を直接改善し、分類のために視線に依存する分類器の理想的なトレーニングデータとなる。
本研究では,学習中の顔スワップモデルに視線予測を適用し,既存の手法との比較を行う新しい損失関数を提案する。
顔スワップの結果の視線を著しく改善するあらゆる方法を見つけました。
関連論文リスト
- OSDFace: One-Step Diffusion Model for Face Restoration [72.5045389847792]
拡散モデルは、顔の修復において顕著な性能を示した。
顔復元のための新しいワンステップ拡散モデルOSDFaceを提案する。
その結果,OSDFaceは現状のSOTA(State-of-the-art)手法を視覚的品質と定量的指標の両方で上回っていることがわかった。
論文 参考訳(メタデータ) (2024-11-26T07:07:48Z) - Towards mitigating uncann(eye)ness in face swaps via gaze-centric loss
terms [4.814908894876767]
顔スワップアルゴリズムは、トレーニングプロセスのガイドとなる顔全体を考えるピクセルや特徴の一致した損失に頼って、目に重点を置いていない。
本稿では,視線推定ネットワークを利用した顔交換モデルのトレーニングのための新しい損失方程式を提案する。
本研究は, デジタルアバター, プライバシ機構など, 特殊効果の顔交換に影響を及ぼす。
論文 参考訳(メタデータ) (2024-02-05T16:53:54Z) - High-Fidelity Face Swapping with Style Blending [16.024260677867076]
高忠実な顔交換のための革新的なエンドツーエンドフレームワークを提案する。
まず、スタイルGANベースの顔属性エンコーダを導入し、顔から重要な特徴を抽出し、潜在スタイルコードに変換する。
第二に、ターゲットからターゲットへFace IDを効果的に転送するアテンションベースのスタイルブレンディングモジュールを導入する。
論文 参考訳(メタデータ) (2023-12-17T23:22:37Z) - ReliableSwap: Boosting General Face Swapping Via Reliable Supervision [9.725105108879717]
本稿では,訓練中に対象とソースの同一性が異なる場合のイメージレベルのガイダンスとして機能する,サイクルトリプレットと呼ばれる信頼性の高い監視機能を構築することを提案する。
具体的には,顔の再現とブレンディング技術を用いて,前もって実際の画像からスワップされた顔の合成を行う。
フェーススワッピングフレームワークであるReliableSwapは、既存のフェースワップネットワークの性能を無視できるオーバーヘッドで向上させることができる。
論文 参考訳(メタデータ) (2023-06-08T17:01:14Z) - Learning Representations for Masked Facial Recovery [8.124282476398843]
近年のパンデミックは 公共の場で 防護マスクを着用している人が 劇的に増えています
この問題に対処する1つの方法は、前処理のステップとして、フェイスリカバリメソッドに戻ることです。
マスクを被った同一人物の画像から顔画像の復元に特有な方法を提案する。
論文 参考訳(メタデータ) (2022-12-28T22:22:15Z) - Restricted Black-box Adversarial Attack Against DeepFake Face Swapping [70.82017781235535]
本稿では,顔画像偽造モデルに対する問い合わせを一切必要としない現実的な敵攻撃を提案する。
本手法は,顔の再構成を行う代用モデルに基づいて構築され,置換モデルから非アクセス可能なブラックボックスDeepFakeモデルへの逆例を直接転送する。
論文 参考訳(メタデータ) (2022-04-26T14:36:06Z) - I Only Have Eyes for You: The Impact of Masks On Convolutional-Based
Facial Expression Recognition [78.07239208222599]
今回提案したFaceChannelがマスクを持つ人からの表情認識にどのように適応するかを評価します。
また、制約された社会的相互作用シナリオにおける顔の特徴の変化を学習し、組み合わせるためのFaceChannelの本質的な能力を示すために、特定の機能レベルの可視化も行います。
論文 参考訳(メタデータ) (2021-04-16T20:03:30Z) - Dual-Attention GAN for Large-Pose Face Frontalization [59.689836951934694]
本稿では,フォトリアリスティック顔フロンダル化のためのDA-GAN(Dual-Attention Generative Adversarial Network)を提案する。
具体的には、ローカル機能と長距離依存関係を統合するために、自己アテンションベースのジェネレータが導入された。
顔領域の局所的特徴を強調するために,新しい顔認識に基づく識別器を適用した。
論文 参考訳(メタデータ) (2020-02-17T20:00:56Z) - Exploiting Semantics for Face Image Deblurring [121.44928934662063]
本稿では,深層畳み込みニューラルネットワークによる意味的手がかりを利用して,効果的かつ効率的な顔分解アルゴリズムを提案する。
顔のセマンティックラベルを入力先として組み込んで,顔の局所構造を正規化するための適応的構造損失を提案する。
提案手法は、より正確な顔の特徴と細部を持つシャープ画像を復元する。
論文 参考訳(メタデータ) (2020-01-19T13:06:27Z) - FaceShifter: Towards High Fidelity And Occlusion Aware Face Swapping [43.236261887752065]
本研究では,顔交換のための2段階フレームワークであるFaceShifterを提案する。
最初の段階では、ターゲット属性を徹底的かつ適応的に利用して、スワップされた顔を高忠実に生成する。
難解な顔合成に対処するために、HEAR-Net(Huristic Err Accnowledging Refinement Network)と呼ばれる新しいヒューリスティック・エラー認識ネットワーク(Heuristic Err Acknowledging Refinement Network)の第2ステージを付加する。
論文 参考訳(メタデータ) (2019-12-31T17:57:46Z) - It's Written All Over Your Face: Full-Face Appearance-Based Gaze
Estimation [82.16380486281108]
顔の全体像のみを入力とする外観に基づく手法を提案する。
本手法は,特徴写像に空間重みを印加した畳み込みニューラルネットワークを用いて顔画像の符号化を行う。
本手法は2次元視線と3次元視線の両方で技量を有意に上回ることを示す。
論文 参考訳(メタデータ) (2016-11-27T15:00:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。