論文の概要: Guard Me If You Know Me: Protecting Specific Face-Identity from Deepfakes
- arxiv url: http://arxiv.org/abs/2505.19582v1
- Date: Mon, 26 May 2025 06:55:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-27 16:58:43.223612
- Title: Guard Me If You Know Me: Protecting Specific Face-Identity from Deepfakes
- Title(参考訳): ディープフェイクから顔の特定性を守る
- Authors: Kaiqing Lin, Zhiyuan Yan, Ke-Yue Zhang, Li Hao, Yue Zhou, Yuzhen Lin, Weixiang Li, Taiping Yao, Shouhong Ding, Bin Li,
- Abstract要約: ディープフェイク攻撃に対する個人情報の保護は、デジタル時代においてますます重要になっている。
既存のディープフェイク検出手法の多くは汎用シナリオに重点を置いている。
ディープフェイク検出のための統合マルチモーダルフレームワークである textbfVIPGuard を提案する。
- 参考スコア(独自算出の注目度): 37.12401429882299
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Securing personal identity against deepfake attacks is increasingly critical in the digital age, especially for celebrities and political figures whose faces are easily accessible and frequently targeted. Most existing deepfake detection methods focus on general-purpose scenarios and often ignore the valuable prior knowledge of known facial identities, e.g., "VIP individuals" whose authentic facial data are already available. In this paper, we propose \textbf{VIPGuard}, a unified multimodal framework designed to capture fine-grained and comprehensive facial representations of a given identity, compare them against potentially fake or similar-looking faces, and reason over these comparisons to make accurate and explainable predictions. Specifically, our framework consists of three main stages. First, fine-tune a multimodal large language model (MLLM) to learn detailed and structural facial attributes. Second, we perform identity-level discriminative learning to enable the model to distinguish subtle differences between highly similar faces, including real and fake variations. Finally, we introduce user-specific customization, where we model the unique characteristics of the target face identity and perform semantic reasoning via MLLM to enable personalized and explainable deepfake detection. Our framework shows clear advantages over previous detection works, where traditional detectors mainly rely on low-level visual cues and provide no human-understandable explanations, while other MLLM-based models often lack a detailed understanding of specific face identities. To facilitate the evaluation of our method, we built a comprehensive identity-aware benchmark called \textbf{VIPBench} for personalized deepfake detection, involving the latest 7 face-swapping and 7 entire face synthesis techniques for generation.
- Abstract(参考訳): ディープフェイク攻撃に対する個人的アイデンティティの確保は、デジタル時代にますます重要になっている。
既存のディープフェイク検出手法の多くは汎用シナリオに重点を置いており、顔データがすでに利用可能である「VIP個人」など、既知の顔のアイデンティティに関する貴重な事前知識を無視していることが多い。
本稿では,特定のアイデンティティのきめ細かな包括的顔表現をキャプチャし,偽の顔や類似の顔と比較し,それらの比較を根拠として,正確かつ説明可能な予測を行うために,統一されたマルチモーダルフレームワークである「textbf{VIPGuard}」を提案する。
特に,本フレームワークは3つの主要なステージから構成される。
まず、マルチモーダルな大言語モデル(MLLM)を微調整して、詳細な顔の特徴と構造を学習する。
第2に,実物と偽物を含む非常に類似した顔の微妙な相違を識別するために,識別レベルの識別学習を行う。
最後に、ユーザ固有のカスタマイズを導入し、ターゲットの顔識別の特徴をモデル化し、MLLMを介して意味推論を行い、パーソナライズされた説明可能なディープフェイク検出を可能にする。
我々のフレームワークは、従来の検出器は主に低レベルの視覚的手がかりに依存しており、人間には理解できない説明を提供するが、他のMLLMベースのモデルは、特定の顔のアイデンティティの詳細な理解を欠いている。
提案手法の評価を容易にするため,直近の7面スワッピングと7つの顔合成技術を含む,個別のディープフェイク検出のための包括的アイデンティティ認識ベンチマークである‘textbf{VIPBench} を構築した。
関連論文リスト
- FaceShield: Explainable Face Anti-Spoofing with Multimodal Large Language Models [51.858371492494456]
対面防止(FAS)は、提示攻撃から顔認識システムを保護するために不可欠である。
現在、FASタスク用に特別に設計された、普遍的で包括的なMLLMとデータセットは存在しない。
FASのためのMLLMであるFaceShieldと、それに対応する事前学習および教師付き微調整データセットを提案する。
命令データセット、プロトコル、コードはまもなくリリースされます。
論文 参考訳(メタデータ) (2025-05-14T14:10:43Z) - FaceInsight: A Multimodal Large Language Model for Face Perception [69.06084304620026]
本研究では,顔の詳細な情報を提供する多目的顔認識大言語モデル (MLLM) を提案する。
本手法では, 顔情報間の不確かさと決定論的関係の両方をモデル化するために, 顔知識の視覚的・テキスト的アライメントを導入する。
3つの顔認識タスクに対する総合的な実験と分析により、FaceInsightはMLLMと比較した9つの性能を一貫して上回っていることが示された。
論文 参考訳(メタデータ) (2025-04-22T06:31:57Z) - CLIP Unreasonable Potential in Single-Shot Face Recognition [0.0]
顔認識は、顔のパターンや特徴を分析して個人を識別し、認証するために設計されたコンピュータビジョンの中核的なタスクである。
近年,OpenAIによって開発されたCLIP(Contrastive Language Image Pretraining)モデルが注目されている。
CLIPは自然言語処理と視覚タスクを結びつけることで、モジュール間の一般化を可能にする。
論文 参考訳(メタデータ) (2024-11-19T08:23:52Z) - Face Anonymization Made Simple [44.24233169815565]
現在の顔の匿名化技術は、しばしば、不正確で信頼性の低い顔認識モデルによって計算されたアイデンティティ損失に依存する。
対照的に,本手法では再建損失のみを伴う拡散モデルを用いて,顔のランドマークやマスクの必要性を排除している。
本モデルは,アイデンティティの匿名化,顔の保存,画質の3つの重要な領域において,最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2024-11-01T17:45:21Z) - LAFS: Landmark-based Facial Self-supervised Learning for Face
Recognition [37.4550614524874]
我々は、効果的な顔認識モデルの訓練に適応できる顔表現の学習に焦点をあてる。
本研究では,自己教師付き事前学習による未ラベル顔画像の学習戦略について検討する。
提案手法は,複数の顔認識ベンチマークにおける最先端技術よりも大幅に向上する。
論文 参考訳(メタデータ) (2024-03-13T01:07:55Z) - Diff-Privacy: Diffusion-based Face Privacy Protection [58.1021066224765]
本稿では,Diff-Privacyと呼ばれる拡散モデルに基づく顔のプライバシー保護手法を提案する。
具体的には、提案したマルチスケール画像インバージョンモジュール(MSI)をトレーニングし、元の画像のSDMフォーマット条件付き埋め込みのセットを得る。
本研究は,条件付き埋め込みに基づいて,組込みスケジューリング戦略を設計し,デノナイズプロセス中に異なるエネルギー関数を構築し,匿名化と視覚的アイデンティティ情報隠蔽を実現する。
論文 参考訳(メタデータ) (2023-09-11T09:26:07Z) - OPOM: Customized Invisible Cloak towards Face Privacy Protection [58.07786010689529]
我々は、新しいタイプのカスタマイズクロークに基づく技術の観点から、顔のプライバシ保護について検討する。
本研究では,個人固有の(クラスワイドな)ユニバーサルマスクを生成するために,1人1マスク(OPOM)という新しい手法を提案する。
提案手法の有効性を,共通データセットと有名データセットの両方で評価した。
論文 参考訳(メタデータ) (2022-05-24T11:29:37Z) - Master Face Attacks on Face Recognition Systems [45.090037010778765]
顔認証は、個人認証番号やアンロックパターンを使った認証よりも、特にモバイルデバイスで広く使われている。
これまでの研究は、顔認識システム内の複数の登録テンプレートにマッチするマスターフェイスの存在を証明してきた。
本稿では,マスタ顔の生成によく用いられる潜在変数進化(LVE)について広範な研究を行う。
論文 参考訳(メタデータ) (2021-09-08T02:11:35Z) - A Systematical Solution for Face De-identification [6.244117712209321]
異なるタスクにおいて、人々は顔の特定(De-ID)に様々な要件を持つ
本稿では,これらのDe-ID操作に適合する系統的解を提案する。
本手法は,様々な方法で顔データを柔軟に識別し,画像の画質が向上する。
論文 参考訳(メタデータ) (2021-07-19T02:02:51Z) - Towards Face Encryption by Generating Adversarial Identity Masks [53.82211571716117]
敵の識別マスクを生成するためのターゲットID保護反復法(TIP-IM)を提案する。
TIP-IMは、様々な最先端の顔認識モデルに対して95%以上の保護成功率を提供する。
論文 参考訳(メタデータ) (2020-03-15T12:45:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。