論文の概要: Information-containing Adversarial Perturbation for Combating Facial
Manipulation Systems
- arxiv url: http://arxiv.org/abs/2303.11625v1
- Date: Tue, 21 Mar 2023 06:48:14 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-22 16:21:50.934319
- Title: Information-containing Adversarial Perturbation for Combating Facial
Manipulation Systems
- Title(参考訳): 顔面マニピュレーションシステムのための情報を含む対向摂動
- Authors: Yao Zhu, Yuefeng Chen, Xiaodan Li, Rong Zhang, Xiang Tian, Bolun
Zheng, Yaowu Chen
- Abstract要約: ディープラーニングシステムの悪意ある応用は個人のプライバシーと評判に深刻な脅威をもたらす。
IAP(Information- containing Adversarial Perturbation)と呼ばれる新しい2層保護手法を提案する。
エンコーダを用いて、顔画像とその識別メッセージを、複数の顔操作システムを妨害できるクロスモデル対向例にマッピングする。
- 参考スコア(独自算出の注目度): 19.259372985094235
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With the development of deep learning technology, the facial manipulation
system has become powerful and easy to use. Such systems can modify the
attributes of the given facial images, such as hair color, gender, and age.
Malicious applications of such systems pose a serious threat to individuals'
privacy and reputation. Existing studies have proposed various approaches to
protect images against facial manipulations. Passive defense methods aim to
detect whether the face is real or fake, which works for posterior forensics
but can not prevent malicious manipulation. Initiative defense methods protect
images upfront by injecting adversarial perturbations into images to disrupt
facial manipulation systems but can not identify whether the image is fake. To
address the limitation of existing methods, we propose a novel two-tier
protection method named Information-containing Adversarial Perturbation (IAP),
which provides more comprehensive protection for {facial images}. We use an
encoder to map a facial image and its identity message to a cross-model
adversarial example which can disrupt multiple facial manipulation systems to
achieve initiative protection. Recovering the message in adversarial examples
with a decoder serves passive protection, contributing to provenance tracking
and fake image detection. We introduce a feature-level correlation measurement
that is more suitable to measure the difference between the facial images than
the commonly used mean squared error. Moreover, we propose a spectral diffusion
method to spread messages to different frequency channels, thereby improving
the robustness of the message against facial manipulation. Extensive
experimental results demonstrate that our proposed IAP can recover the messages
from the adversarial examples with high average accuracy and effectively
disrupt the facial manipulation systems.
- Abstract(参考訳): ディープラーニング技術の開発により、顔操作システムは強力で使いやすいものになった。
このようなシステムは、髪の色、性別、年齢といった顔画像の属性を変更することができる。
このようなシステムの悪意ある応用は個人のプライバシーと評判に深刻な脅威をもたらす。
既存の研究では、顔の操作から画像を保護する様々なアプローチが提案されている。
パッシブ防御法は、顔が本物か偽物かを検出することを目的としており、これは後方法医学に有効だが、悪意のある操作を防げない。
イニシアティブ防御手法は、顔操作システムを破壊するために画像に逆向きの摂動を注入することで前もって画像を保護するが、その画像が偽物かどうかを識別することはできない。
既存の手法の限界に対処するため,顔画像のより包括的な保護を提供する情報を含む対向摂動(IAP)と呼ばれる新しい2層保護手法を提案する。
我々は、顔画像とその識別メッセージを、複数の顔操作システムを乱してイニシアチブ保護を実現するクロスモデル攻撃例にマッピングするためにエンコーダを使用する。
デコーダで相手の例でメッセージを復元することは受動的保護に役立ち、プロファイランストラッキングと偽の画像検出に寄与する。
一般的な平均二乗誤差よりも,顔画像の差を測定するのに適した特徴レベルの相関測定法を提案する。
さらに、異なる周波数チャネルにメッセージを拡散するスペクトル拡散法を提案し、顔操作に対するメッセージのロバスト性を向上させる。
大規模な実験結果から,提案したIAPは,相手からのメッセージを平均精度で回収し,顔操作システムを効果的に破壊できることが示された。
関連論文リスト
- ID-Guard: A Universal Framework for Combating Facial Manipulation via Breaking Identification [60.73617868629575]
深層学習に基づく顔操作の誤用は、公民権に対する潜在的な脅威となる。
この不正行為を防ぐため、プロアクティブな防御技術が提案され、操作プロセスを妨害した。
我々は,ID-Guardと呼ばれる,顔操作と戦うための新しい普遍的枠組みを提案する。
論文 参考訳(メタデータ) (2024-09-20T09:30:08Z) - Exploring Decision-based Black-box Attacks on Face Forgery Detection [53.181920529225906]
顔の偽造生成技術は鮮明な顔を生み出し、セキュリティとプライバシーに対する世間の懸念を高めている。
顔偽造検出は偽の顔の識別に成功しているが、最近の研究では顔偽造検出は敵の例に対して非常に脆弱であることが示されている。
論文 参考訳(メタデータ) (2023-10-18T14:49:54Z) - Attribute-Guided Encryption with Facial Texture Masking [64.77548539959501]
本稿では,顔認識システムからユーザを保護するために,顔テクスチャマスキングを用いた属性ガイド暗号化を提案する。
提案手法は,最先端の手法よりも自然な画像を生成する。
論文 参考訳(メタデータ) (2023-05-22T23:50:43Z) - Building an Invisible Shield for Your Portrait against Deepfakes [34.65356811439098]
本稿では,画像のプロアクティブな保護を目的とした新しいフレームワーク,Integity Encryptorを提案する。
提案手法では,重要な顔属性と密接な関係を持つメッセージを,秘密に符号化する。
修正された顔属性は、デコードされたメッセージの比較を通じて、操作された画像を検出する手段として機能する。
論文 参考訳(メタデータ) (2023-05-22T10:01:28Z) - Restricted Black-box Adversarial Attack Against DeepFake Face Swapping [70.82017781235535]
本稿では,顔画像偽造モデルに対する問い合わせを一切必要としない現実的な敵攻撃を提案する。
本手法は,顔の再構成を行う代用モデルに基づいて構築され,置換モデルから非アクセス可能なブラックボックスDeepFakeモデルへの逆例を直接転送する。
論文 参考訳(メタデータ) (2022-04-26T14:36:06Z) - Perception Matters: Exploring Imperceptible and Transferable
Anti-forensics for GAN-generated Fake Face Imagery Detection [28.620523463372177]
GAN(Generative Adversarial Network)は、実際の顔写真と知覚的に区別できない、写真リアルな偽の顔画像を生成することができる。
ここでは、敵対的攻撃に基づく偽顔画像検出のための、よりテクスチアンペアブルでテクスティットトランスファーブルなアンチフォレンジックを探索する。
本稿では,視覚的知覚を考慮し,色領域が変化した場合に,画像の反法医学に適する新たな対角攻撃法を提案する。
論文 参考訳(メタデータ) (2020-10-29T18:54:06Z) - Face Anti-Spoofing by Learning Polarization Cues in a Real-World
Scenario [50.36920272392624]
顔の偽造は生体認証アプリケーションにおけるセキュリティ侵害を防ぐ鍵となる。
RGBと赤外線画像を用いたディープラーニング手法は,新たな攻撃に対する大量のトレーニングデータを必要とする。
本研究では,実顔の偏光画像の物理的特徴を自動的に学習することにより,現実のシナリオにおける顔のアンチ・スプーフィング手法を提案する。
論文 参考訳(メタデータ) (2020-03-18T03:04:03Z) - Towards Face Encryption by Generating Adversarial Identity Masks [53.82211571716117]
敵の識別マスクを生成するためのターゲットID保護反復法(TIP-IM)を提案する。
TIP-IMは、様々な最先端の顔認識モデルに対して95%以上の保護成功率を提供する。
論文 参考訳(メタデータ) (2020-03-15T12:45:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。