論文の概要: Is It Really You? Exploring Biometric Verification Scenarios in Photorealistic Talking-Head Avatar Videos
- arxiv url: http://arxiv.org/abs/2508.00748v2
- Date: Mon, 04 Aug 2025 12:27:33 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-05 14:07:57.824427
- Title: Is It Really You? Exploring Biometric Verification Scenarios in Photorealistic Talking-Head Avatar Videos
- Title(参考訳): 本当にあなたなのか?フォトリアリスティックなトーキングヘッドアバタービデオで生体認証シナリオを探る
- Authors: Laura Pedrouzo-Rodriguez, Pedro Delgado-DeRobles, Luis F. Gomez, Ruben Tolosana, Ruben Vera-Rodriguez, Aythami Morales, Julian Fierrez,
- Abstract要約: 攻撃者はユーザーのアバターを盗み、外見や声を保ち、視覚や音だけでその使用を検知することはほぼ不可能である。
我々の主な疑問は、個人の顔の動きパターンが、アバターの視覚的外観が所有者のファクシミリであるときに、自分の身元を確認するための信頼性のある行動バイオメトリックスとして機能するかどうかである。
実験の結果,顔の動きのランドマークは,80%に近づいたAUC値による有意義な識別を可能にすることが示された。
- 参考スコア(独自算出の注目度): 12.12643642515884
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Photorealistic talking-head avatars are becoming increasingly common in virtual meetings, gaming, and social platforms. These avatars allow for more immersive communication, but they also introduce serious security risks. One emerging threat is impersonation: an attacker can steal a user's avatar, preserving his appearance and voice, making it nearly impossible to detect its fraudulent usage by sight or sound alone. In this paper, we explore the challenge of biometric verification in such avatar-mediated scenarios. Our main question is whether an individual's facial motion patterns can serve as reliable behavioral biometrics to verify their identity when the avatar's visual appearance is a facsimile of its owner. To answer this question, we introduce a new dataset of realistic avatar videos created using a state-of-the-art one-shot avatar generation model, GAGAvatar, with genuine and impostor avatar videos. We also propose a lightweight, explainable spatio-temporal Graph Convolutional Network architecture with temporal attention pooling, that uses only facial landmarks to model dynamic facial gestures. Experimental results demonstrate that facial motion cues enable meaningful identity verification with AUC values approaching 80%. The proposed benchmark and biometric system are available for the research community in order to bring attention to the urgent need for more advanced behavioral biometric defenses in avatar-based communication systems.
- Abstract(参考訳): バーチャルミーティング、ゲーム、ソーシャルプラットフォームでは、フォトリアリスティックなトーキングヘッドアバターがますます一般的になりつつある。
これらのアバターはより没入的なコミュニケーションを可能にするが、深刻なセキュリティリスクももたらしている。
攻撃者はユーザーのアバターを盗み、外見や声を保ち、視覚や音声だけで不正使用を検出することはほぼ不可能である。
本稿では,このようなアバターを介するシナリオにおける生体認証の課題について考察する。
我々の主な疑問は、個人の顔の動きパターンが、アバターの視覚的外観が所有者のファクシミリであるときに、自分の身元を確認するための信頼性のある行動バイオメトリックスとして機能するかどうかである。
そこで本研究では,最先端のワンショットアバター生成モデルであるGAGAvatarを用いて,現実的なアバタービデオのデータセットを新たに導入する。
また、動的顔ジェスチャーをモデル化するために顔のランドマークのみを使用する、時間的注意プーリングを備えた軽量で説明可能な時空間グラフ畳み込みネットワークアーキテクチャを提案する。
実験の結果,顔の動きの手がかりは,80%に近づいたAUC値に有意な正当性検証を可能にすることが示された。
提案するベンチマークとバイオメトリックシステムは,アバターベースの通信システムにおいて,より高度なバイオメトリック・ディフェンスの必要性に注意を向けるために,研究コミュニティで利用可能である。
関連論文リスト
- Towards Privacy-preserving Photorealistic Self-avatars in Mixed Reality [8.591721920594441]
フォトリアリスティックな3Dアバター生成は近年急速に改善されており、ユーザの本当の外観にマッチする現実的なアバターは、これまで以上にMR(Mixed Reality)において実現可能である。
しかし、オンラインでの類似性を共有するリスクは知られており、フォトリアリスティックなMRアバターはこれらのリスクを悪化させる可能性がある。
本研究では,より広範なソーシャルMRのための代替アバターレンダリング手法を提案する。顔の生体情報を保護するのに十分な差があると同時に,ユーザの人口統計的アイデンティティを保ちながら,現実的なアバターを合成する。
論文 参考訳(メタデータ) (2025-07-29T18:37:24Z) - FacialMotionID: Identifying Users of Mixed Reality Headsets using Abstract Facial Motion Representations [2.9136421025415213]
複合現実ヘッドセットにおける顔の動きのキャプチャにより、リアルタイムなアバターアニメーションが可能になり、仮想インタラクション中に非言語的な手がかりを伝達することができる。
顔の動きデータが行動のバイオメトリックを構成するため、その使用は新たなプライバシー上の懸念を提起する。
116名の被験者を対象に,3つのセッションで3種類のヘッドセットを用いて,言語・非言語課題における顔・目・頭の動きデータを収集した。
分析の結果、このデータから最大98%の精度で個人を再同定でき、デバイスの種類によっても識別可能であり、感情状態は最大86%の精度で推測可能であることがわかった。
論文 参考訳(メタデータ) (2025-07-15T09:40:49Z) - SmartAvatar: Text- and Image-Guided Human Avatar Generation with VLM AI Agents [91.26239311240873]
SmartAvatarは視覚言語によるアニメーション対応の3Dアバターを生成するためのフレームワークである。
重要なイノベーションは、エージェントがドラフトアバターを描画する自動検証ループである。
生成されたアバターは完全にリグされ、一貫したアイデンティティと外観で操作をサポートする。
論文 参考訳(メタデータ) (2025-06-05T03:49:01Z) - EVA: Expressive Virtual Avatars from Multi-view Videos [51.33851869426057]
本稿では,アクター固有の,完全に制御可能な,表現力のある人間のアバターフレームワークであるExpressive Virtual Avatars (EVA)を紹介する。
EVAは、表情、身体の動き、手の動きの独立的な制御を可能にしながら、高忠実でライフライクなレンダリングをリアルタイムで実現している。
この研究は、完全に乾燥可能なデジタル人間モデルに向けた大きな進歩を示している。
論文 参考訳(メタデータ) (2025-05-21T11:22:52Z) - A multidimensional measurement of photorealistic avatar quality of experience [14.94879852506943]
写真アバターは人間のアバターで、本物の人間のように見え、動き、話す。
10次元のアバター性能を主観的に測定するオープンソースのテストフレームワークを提供する。
ある種の現実主義のレベルを超えるアバターに対して、これらの測定された次元のうち8つは強く相関している。
論文 参考訳(メタデータ) (2024-11-13T22:47:24Z) - Traceable AI-driven Avatars Using Multi-factors of Physical World and Metaverse [7.436039179584676]
Metaverseでは、AIモデルをAIエンジンに委譲して、対応するAI駆動アバターを構築することができる。
本稿では,AI駆動アバターのトレーサビリティを保証するため,多要素認証を用いた認証手法を提案する。
論文 参考訳(メタデータ) (2024-08-30T09:04:11Z) - Avatar Fingerprinting for Authorized Use of Synthetic Talking-Head Videos [16.717930760451996]
これをアバターフィンガープリントと呼ぶ。
まず、ビデオ通話で対話する人々の実・合成ビデオの大規模なデータセットを紹介する。
顔の表情に依存しない動きのシグネチャを学習することにより、合成ビデオで表現を駆動するアイデンティティを検証する。
論文 参考訳(メタデータ) (2023-05-05T17:54:34Z) - OTAvatar: One-shot Talking Face Avatar with Controllable Tri-plane
Rendering [81.55960827071661]
制御性、一般化性、効率性は、ニューラル暗黙の場で表される顔アバターを構成する主要な目的である。
汎用制御可能な3面描画ソリューションにより顔アバターを構成するワンショット面アバター(OTAvatar)を提案する。
論文 参考訳(メタデータ) (2023-03-26T09:12:03Z) - StylePeople: A Generative Model of Fullbody Human Avatars [59.42166744151461]
パラメトリックメッシュに基づく体モデルとニューラルテクスチャを組み合わせた,新しいタイプのフルボディヒトアバターを提案する。
このようなアバターは衣服や髪型をうまくモデル化できるため、メッシュベースのアプローチでは問題となる。
そこで我々は,画像や映像のデータセットから学習できるアバターの生成モデルを提案する。
論文 参考訳(メタデータ) (2021-04-16T20:43:11Z) - High-fidelity Face Tracking for AR/VR via Deep Lighting Adaptation [117.32310997522394]
3Dビデオアバターは、圧縮、プライバシー、エンターテイメント、AR/VRにおける存在感を提供することで、仮想コミュニケーションを強化することができる。
既存の人物固有の3dモデルは照明に頑健ではないため、その結果は通常微妙な顔の振る舞いを見逃し、アバターにアーティファクトを引き起こす。
本論文では,高品質の3D顔追跡アルゴリズムを組み合わせたディープラーニング照明モデルを用いて,通常の映像から3Dフォトリアリズムアバターへの微妙かつ堅牢な顔の動き伝達手法を提案する。
論文 参考訳(メタデータ) (2021-03-29T18:33:49Z) - Towards Face Encryption by Generating Adversarial Identity Masks [53.82211571716117]
敵の識別マスクを生成するためのターゲットID保護反復法(TIP-IM)を提案する。
TIP-IMは、様々な最先端の顔認識モデルに対して95%以上の保護成功率を提供する。
論文 参考訳(メタデータ) (2020-03-15T12:45:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。