論文の概要: FaceSwapGuard: Safeguarding Facial Privacy from DeepFake Threats through Identity Obfuscation
- arxiv url: http://arxiv.org/abs/2502.10801v1
- Date: Sat, 15 Feb 2025 13:45:19 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-18 14:16:29.638913
- Title: FaceSwapGuard: Safeguarding Facial Privacy from DeepFake Threats through Identity Obfuscation
- Title(参考訳): FaceSwapGuard: アイデンティティの難しさを通じて、ディープフェイクの脅威から顔のプライバシーを守る
- Authors: Li Wang, Zheng Li, Xuhong Zhang, Shouling Ji, Shanqing Guo,
- Abstract要約: FaceSwapGuard(FSG)は、ディープフェイクのフェイススワッピング脅威に対するブラックボックス防御機構である。
FSGはユーザーの顔画像に知覚不能な摂動を導入し、アイデンティティエンコーダによって抽出された特徴を妨害する。
複数のフェイススワッピング技術に対するFSGの有効性を示す大規模な実験を行った。
- 参考スコア(独自算出の注目度): 42.52406793874506
- License:
- Abstract: DeepFakes pose a significant threat to our society. One representative DeepFake application is face-swapping, which replaces the identity in a facial image with that of a victim. Although existing methods partially mitigate these risks by degrading the quality of swapped images, they often fail to disrupt the identity transformation effectively. To fill this gap, we propose FaceSwapGuard (FSG), a novel black-box defense mechanism against deepfake face-swapping threats. Specifically, FSG introduces imperceptible perturbations to a user's facial image, disrupting the features extracted by identity encoders. When shared online, these perturbed images mislead face-swapping techniques, causing them to generate facial images with identities significantly different from the original user. Extensive experiments demonstrate the effectiveness of FSG against multiple face-swapping techniques, reducing the face match rate from 90\% (without defense) to below 10\%. Both qualitative and quantitative studies further confirm its ability to confuse human perception, highlighting its practical utility. Additionally, we investigate key factors that may influence FSG and evaluate its robustness against various adaptive adversaries.
- Abstract(参考訳): DeepFakesは私たちの社会に重大な脅威をもたらす。
DeepFakeの代表的なアプリケーションはフェイススワッピング(face-swapping)で、顔画像のアイデンティティを被害者のIDに置き換える。
既存の手法は、スワップ画像の品質を低下させることによって、これらのリスクを部分的に軽減するが、ID変換を効果的に破壊することができないことが多い。
このギャップを埋めるために、ディープフェイクの対面スワッピング脅威に対する新しいブラックボックス防御機構であるFaceSwapGuard(FSG)を提案する。
具体的には、FSGはユーザーの顔画像に知覚不能な摂動を導入し、アイデンティティエンコーダによって抽出された特徴を妨害する。
オンラインで共有すると、これらの混乱した画像は、顔スワッピングのテクニックを誤解させ、元のユーザーと大きく異なるアイデンティティを持つ顔画像を生成する。
FSGが複数のフェイススワッピング技術に対して有効であることを示し、顔マッチング率を90 %(防御なしで)から10 %未満に下げた。
定性的かつ定量的な研究は、人間の知覚を混乱させる能力をさらに確認し、その実用性を強調している。
さらに,FSGに影響を及ぼす可能性のある重要な要因について検討し,様々な適応的敵に対する堅牢性を評価する。
関連論文リスト
- iFADIT: Invertible Face Anonymization via Disentangled Identity Transform [51.123936665445356]
顔の匿名化は、個人のプライバシーを保護するために顔の視覚的アイデンティティを隠すことを目的としている。
Invertible Face Anonymization の頭字語 iFADIT を Disentangled Identity Transform を用いて提案する。
論文 参考訳(メタデータ) (2025-01-08T10:08:09Z) - FaceTracer: Unveiling Source Identities from Swapped Face Images and Videos for Fraud Prevention [68.07489215110894]
FaceTracerは、元人物の身元を、交換された顔画像やビデオから追跡するように設計されたフレームワークである。
実験では、FaceTracerは元の人物をスワップされたコンテンツで特定し、不正行為に関わる悪意あるアクターの追跡を可能にした。
論文 参考訳(メタデータ) (2024-12-11T04:00:17Z) - ID-Guard: A Universal Framework for Combating Facial Manipulation via Breaking Identification [60.73617868629575]
深層学習に基づく顔操作の誤用は、公民権に対する潜在的な脅威となる。
この不正行為を防ぐため、プロアクティブな防御技術が提案され、操作プロセスを妨害した。
我々は,ID-Guardと呼ばれる,顔操作と戦うための新しい普遍的枠組みを提案する。
論文 参考訳(メタデータ) (2024-09-20T09:30:08Z) - Hierarchical Generative Network for Face Morphing Attacks [7.34597796509503]
顔認識システム(FRS)は、複数のアイデンティティを含む形態画像を作成することで、顔認識システム(FRS)を回避している。
本研究では, 画像の品質向上と寄与するアイデンティティの保存を図るため, 新たなモーフィング攻撃法を提案する。
論文 参考訳(メタデータ) (2024-03-17T06:09:27Z) - FIVA: Facial Image and Video Anonymization and Anonymization Defense [47.941023805223786]
画像やビデオにおける顔の匿名化のための新しいアプローチをFIVAと略して提案する。
提案手法は,同一の顔の匿名化をフレーム上で一定に維持できる。
FIVA は偽の受け入れ率 0.001 に対して 0 true の正を許す。
論文 参考訳(メタデータ) (2023-09-08T09:34:48Z) - Restricted Black-box Adversarial Attack Against DeepFake Face Swapping [70.82017781235535]
本稿では,顔画像偽造モデルに対する問い合わせを一切必要としない現実的な敵攻撃を提案する。
本手法は,顔の再構成を行う代用モデルに基づいて構築され,置換モデルから非アクセス可能なブラックボックスDeepFakeモデルへの逆例を直接転送する。
論文 参考訳(メタデータ) (2022-04-26T14:36:06Z) - Protecting Facial Privacy: Generating Adversarial Identity Masks via
Style-robust Makeup Transfer [24.25863892897547]
対向性化粧品転写GAN(AMT-GAN)は、対向性化粧品の顔画像構築を目的とした新しい顔保護法である。
本稿では,新しい正規化モジュールを導入するとともに,化粧品の移動における対向雑音とサイクル構成損失との矛盾を解消するための共同トレーニング戦略を導入する。
論文 参考訳(メタデータ) (2022-03-07T03:56:17Z) - Towards Face Encryption by Generating Adversarial Identity Masks [53.82211571716117]
敵の識別マスクを生成するためのターゲットID保護反復法(TIP-IM)を提案する。
TIP-IMは、様々な最先端の顔認識モデルに対して95%以上の保護成功率を提供する。
論文 参考訳(メタデータ) (2020-03-15T12:45:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。