論文の概要: Now You See Me, Now You Don't: A Unified Framework for Expression Consistent Anonymization in Talking Head Videos
- arxiv url: http://arxiv.org/abs/2601.11635v1
- Date: Wed, 14 Jan 2026 09:42:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-21 22:47:22.23491
- Title: Now You See Me, Now You Don't: A Unified Framework for Expression Consistent Anonymization in Talking Head Videos
- Title(参考訳): ヘッドビデオで、表現一貫性のある匿名化のための統一フレームワークが登場
- Authors: Anil Egin, Andrea Tangherloni, Antitza Dantcheva,
- Abstract要約: 顔ビデオの匿名化は、多くのコンピュータビジョンの下流タスクにおけるビデオの分析を可能にしながら、プライバシーの保護を目的としている。
本稿では,顔画像の識別を合理化するための新しい統一フレームワークであるAnon-NETを提案する。
我々は高レベル認識と動き認識属性表現の伝達によって導かれる拡散ベース生成モデルにより顔にペンキを塗る。
- 参考スコア(独自算出の注目度): 8.859607428705846
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Face video anonymization is aimed at privacy preservation while allowing for the analysis of videos in a number of computer vision downstream tasks such as expression recognition, people tracking, and action recognition. We propose here a novel unified framework referred to as Anon-NET, streamlined to de-identify facial videos, while preserving age, gender, race, pose, and expression of the original video. Specifically, we inpaint faces by a diffusion-based generative model guided by high-level attribute recognition and motion-aware expression transfer. We then animate deidentified faces by video-driven animation, which accepts the de-identified face and the original video as input. Extensive experiments on the datasets VoxCeleb2, CelebV-HQ, and HDTF, which include diverse facial dynamics, demonstrate the effectiveness of AnonNET in obfuscating identity while retaining visual realism and temporal consistency. The code of AnonNet will be publicly released.
- Abstract(参考訳): 顔ビデオの匿名化は、表現認識、人物追跡、行動認識など、多くのコンピュータビジョンの下流タスクにおけるビデオの分析を可能にしながら、プライバシーの保護を目的としている。
ここでは、年齢、性別、人種、ポーズ、表現を保ちながら、顔ビデオの識別を合理化するための新しい統合フレームワーク「Anon-NET」を提案する。
具体的には,高レベル属性認識と動き認識による表現伝達によって導かれる拡散モデルを用いて顔にペンキを塗布する。
そして,映像駆動のアニメーションにより,識別された顔と元の映像を入力として受け入れる。
多様な顔力学を含むデータセットVoxCeleb2、CelebV-HQ、HDTFに関する大規模な実験は、視覚リアリズムと時間的一貫性を維持しながら、難読化アイデンティティにおけるAnonNETの有効性を実証している。
AnonNetのコードは一般公開される予定だ。
関連論文リスト
- BLANKET: Anonymizing Faces in Infant Video Recordings [3.049887057143419]
BLANKETは、乳幼児の顔をビデオ録画で匿名化し、重要な顔属性を保存するための新しいアプローチである。
本手法は,乳児の短いビデオ記録のデータセットを用いて評価し,一般的な匿名化手法であるDeepPrivacy2と比較した。
論文 参考訳(メタデータ) (2025-12-17T15:49:56Z) - DirectSwap: Mask-Free Cross-Identity Training and Benchmarking for Expression-Consistent Video Head Swapping [58.2549561389375]
ビデオヘッドスワップは、顔のアイデンティティ、頭の形、ヘアスタイルなど、ビデオ対象の頭部全体を参照画像に置き換えることを目的としている。
地対交換データがないため、従来の手法はビデオ内の同一人物のクロスフレームペアをトレーニングする。
我々は、画像U-Netをビデオ拡散モデルに拡張する、マスクのない直接ビデオヘッドスワッピングフレームワークであるDirectSwapを提案する。
論文 参考訳(メタデータ) (2025-12-10T08:31:28Z) - AdaMesh: Personalized Facial Expressions and Head Poses for Adaptive Speech-Driven 3D Facial Animation [49.4220768835379]
AdaMeshは、適応的な音声駆動の顔アニメーションアプローチである。
約10秒間の参照ビデオから、パーソナライズされた話し方を学ぶ。
鮮やかな表情と頭部のポーズを生成する。
論文 参考訳(メタデータ) (2023-10-11T06:56:08Z) - Identity-Preserving Talking Face Generation with Landmark and Appearance
Priors [106.79923577700345]
既存の人物生成法は、現実的でリップ同期のビデオを生成するのに困難である。
本稿では,ランドマーク生成とランドマーク・ツー・ビデオレンダリングによる2段階のフレームワークを提案する。
提案手法は,既存の対人顔生成法よりも現実的で,リップシンクで,アイデンティティを保ったビデオを生成することができる。
論文 参考訳(メタデータ) (2023-05-15T01:31:32Z) - GANonymization: A GAN-based Face Anonymization Framework for Preserving
Emotional Expressions [43.017036538109274]
GANonymizationは、表情保存能力を持つ新しい顔匿名化フレームワークである。
提案手法は, 顔の高レベル表現をベースとして, GAN(Generative Adversarial Network)に基づく匿名化バージョンに合成する。
論文 参考訳(メタデータ) (2023-05-03T14:22:48Z) - Imitator: Personalized Speech-driven 3D Facial Animation [63.57811510502906]
State-of-the-artメソッドは、ターゲットアクターの顔トポロジを変形させ、ターゲットアクターのアイデンティティ固有の話し方や顔の慣用性を考慮せずに入力オーディオを同期させる。
本稿では,音声による表情合成手法であるImitatorについて述べる。
提案手法は,ターゲットアクターの発話スタイルを保ちながら,入力音声から時間的コヒーレントな表情を生成する。
論文 参考訳(メタデータ) (2022-12-30T19:00:02Z) - Facial Expression Video Generation Based-On Spatio-temporal
Convolutional GAN: FEV-GAN [1.279257604152629]
6つの基本表情の映像を生成するための新しいアプローチを提案する。
提案手法は,同一ネットワークにおけるコンテンツと動作の両方をモデル化することが知られている時空間的コナールGANをベースとしている。
コードと事前訓練されたモデルは間もなく公開される予定だ。
論文 参考訳(メタデータ) (2022-10-20T11:54:32Z) - Temporally coherent video anonymization through GAN inpainting [0.0]
本研究は,自然映像ストリームにおける顔の時間的コヒーレントな匿名化の問題に取り組む。
ビデオの個々のフレームに黒い画像パッチを貼って顔を検出しマスクする2段階のシステムであるJaGANを提案する。
最初の実験では、画像ベースの生成モデルでは、隣接するビデオフレーム間の時間的コヒーレントな出現を示すパッチを塗布できないことが明らかとなった。
論文 参考訳(メタデータ) (2021-06-04T08:19:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。