論文の概要: ID-Guard: A Universal Framework for Combating Facial Manipulation via Breaking Identification
- arxiv url: http://arxiv.org/abs/2409.13349v2
- Date: Thu, 10 Apr 2025 07:58:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-11 12:23:05.720017
- Title: ID-Guard: A Universal Framework for Combating Facial Manipulation via Breaking Identification
- Title(参考訳): ID-Guard: ブレーキング識別による顔操作のユニバーサルフレームワーク
- Authors: Zuomin Qu, Wei Lu, Xiangyang Luo, Qian Wang, Xiaochun Cao,
- Abstract要約: 深層学習に基づく顔操作の誤用は、公民権に重大な脅威をもたらす。
この不正行為を防止するため、操作過程を妨害する積極的な防御法が提案されている。
本稿では,IDガード(ID-Guard)と呼ばれる顔の操作に対処するための普遍的な枠組みを提案する。
- 参考スコア(独自算出の注目度): 60.73617868629575
- License:
- Abstract: The misuse of deep learning-based facial manipulation poses a significant threat to civil rights. To prevent this fraud at its source, proactive defense has been proposed to disrupt the manipulation process by adding invisible adversarial perturbations into images, making the forged output unconvincing to observers. However, the non-specific disruption against the output may lead to the retention of identifiable facial features, potentially resulting in the stigmatization of the individual. This paper proposes a universal framework for combating facial manipulation, termed ID-Guard. Specifically, this framework operates with a single forward pass of an encoder-decoder network to produce a cross-model transferable adversarial perturbation. A novel Identity Destruction Module (IDM) is introduced to degrade identifiable features in forged faces. We optimize the perturbation generation by framing the disruption of different facial manipulations as a multi-task learning problem, and a dynamic weight strategy is devised to enhance cross-model performance. Experimental results demonstrate that the proposed ID-Guard exhibits strong efficacy in defending against various facial manipulation models, effectively degrading identifiable regions in manipulated images. It also enables disrupted images to evade facial inpainting and image recognition systems. Additionally, ID-Guard can seamlessly function as a plug-and-play component, integrating with other tasks such as adversarial training.
- Abstract(参考訳): 深層学習に基づく顔操作の誤用は、公民権に重大な脅威をもたらす。
この不正を防止するため、画像に見えない敵の摂動を加えて操作過程を妨害し、偽造された出力を観察者に不利にするプロアクティブディフェンスが提案されている。
しかし、アウトプットに対する非特異的な破壊は、識別可能な顔の特徴の保持につながる可能性があり、個人のスティグマティゼーションに繋がる可能性がある。
本稿では,IDガード(ID-Guard)と呼ばれる顔の操作に対処するための普遍的な枠組みを提案する。
具体的には、エンコーダ・デコーダネットワークの1つのフォワードパスで動作し、クロスモデル転送可能な対向摂動を生成する。
新しいIDM(IDM)は、偽造顔の特徴を分解するために導入された。
マルチタスク学習問題として異なる顔操作の中断を考慮し、摂動生成を最適化し、クロスモデル性能を向上させるために動的重み戦略を考案した。
実験の結果,提案したID-Guardは様々な顔操作モデルに対する防御効果が強く,操作画像中の識別可能な領域を効果的に劣化させることがわかった。
また、破壊された画像は顔の塗り絵や画像認識システムを避けることができる。
さらに、ID-Guardはプラグイン・アンド・プレイコンポーネントとしてシームレスに機能し、敵のトレーニングのような他のタスクと統合できる。
関連論文リスト
- iFADIT: Invertible Face Anonymization via Disentangled Identity Transform [51.123936665445356]
顔の匿名化は、個人のプライバシーを保護するために顔の視覚的アイデンティティを隠すことを目的としている。
Invertible Face Anonymization の頭字語 iFADIT を Disentangled Identity Transform を用いて提案する。
論文 参考訳(メタデータ) (2025-01-08T10:08:09Z) - FaceTracer: Unveiling Source Identities from Swapped Face Images and Videos for Fraud Prevention [68.07489215110894]
FaceTracerは、元人物の身元を、交換された顔画像やビデオから追跡するように設計されたフレームワークである。
実験では、FaceTracerは元の人物をスワップされたコンテンツで特定し、不正行為に関わる悪意あるアクターの追跡を可能にした。
論文 参考訳(メタデータ) (2024-12-11T04:00:17Z) - Diff-Privacy: Diffusion-based Face Privacy Protection [58.1021066224765]
本稿では,Diff-Privacyと呼ばれる拡散モデルに基づく顔のプライバシー保護手法を提案する。
具体的には、提案したマルチスケール画像インバージョンモジュール(MSI)をトレーニングし、元の画像のSDMフォーマット条件付き埋め込みのセットを得る。
本研究は,条件付き埋め込みに基づいて,組込みスケジューリング戦略を設計し,デノナイズプロセス中に異なるエネルギー関数を構築し,匿名化と視覚的アイデンティティ情報隠蔽を実現する。
論文 参考訳(メタデータ) (2023-09-11T09:26:07Z) - Information-containing Adversarial Perturbation for Combating Facial
Manipulation Systems [19.259372985094235]
ディープラーニングシステムの悪意ある応用は個人のプライバシーと評判に深刻な脅威をもたらす。
IAP(Information- containing Adversarial Perturbation)と呼ばれる新しい2層保護手法を提案する。
エンコーダを用いて、顔画像とその識別メッセージを、複数の顔操作システムを妨害できるクロスモデル対向例にマッピングする。
論文 参考訳(メタデータ) (2023-03-21T06:48:14Z) - Restricted Black-box Adversarial Attack Against DeepFake Face Swapping [70.82017781235535]
本稿では,顔画像偽造モデルに対する問い合わせを一切必要としない現実的な敵攻撃を提案する。
本手法は,顔の再構成を行う代用モデルに基づいて構築され,置換モデルから非アクセス可能なブラックボックスDeepFakeモデルへの逆例を直接転送する。
論文 参考訳(メタデータ) (2022-04-26T14:36:06Z) - TAFIM: Targeted Adversarial Attacks against Facial Image Manipulations [0.0]
顔画像操作手法は、個人のプライバシーに影響を与えるか、偽情報を広めることによって、懸念を引き起こす可能性がある。
本研究は,顔の操作がそもそも起こらないよう,前向きな防御法を提案する。
原画像に埋め込まれた画像固有の摂動を生成する新しいデータ駆動手法を提案する。
論文 参考訳(メタデータ) (2021-12-16T19:00:43Z) - IdentityDP: Differential Private Identification Protection for Face
Images [17.33916392050051]
顔の非識別、別名顔の匿名化は、実際のアイデンティティが隠されている間、同様の外観と同じ背景を持つ別の画像を生成することを指します。
我々は,データ駆動型ディープニューラルネットワークと差分プライバシー機構を組み合わせた顔匿名化フレームワークであるIdentityDPを提案する。
我々のモデルは、顔の識別関連情報を効果的に難読化し、視覚的類似性を保ち、高品質な画像を生成することができる。
論文 参考訳(メタデータ) (2021-03-02T14:26:00Z) - Towards Face Encryption by Generating Adversarial Identity Masks [53.82211571716117]
敵の識別マスクを生成するためのターゲットID保護反復法(TIP-IM)を提案する。
TIP-IMは、様々な最先端の顔認識モデルに対して95%以上の保護成功率を提供する。
論文 参考訳(メタデータ) (2020-03-15T12:45:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。