論文の概要: Perception Matters: Exploring Imperceptible and Transferable
Anti-forensics for GAN-generated Fake Face Imagery Detection
- arxiv url: http://arxiv.org/abs/2010.15886v1
- Date: Thu, 29 Oct 2020 18:54:06 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-01 23:48:14.022668
- Title: Perception Matters: Exploring Imperceptible and Transferable
Anti-forensics for GAN-generated Fake Face Imagery Detection
- Title(参考訳): 知覚問題:gan生成偽顔画像検出のための非知覚的かつ転送可能なアンチフォレンシクスの探索
- Authors: Yongwei Wang, Xin Ding, Li Ding, Rabab Ward, Z. Jane Wang
- Abstract要約: GAN(Generative Adversarial Network)は、実際の顔写真と知覚的に区別できない、写真リアルな偽の顔画像を生成することができる。
ここでは、敵対的攻撃に基づく偽顔画像検出のための、よりテクスチアンペアブルでテクスティットトランスファーブルなアンチフォレンジックを探索する。
本稿では,視覚的知覚を考慮し,色領域が変化した場合に,画像の反法医学に適する新たな対角攻撃法を提案する。
- 参考スコア(独自算出の注目度): 28.620523463372177
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recently, generative adversarial networks (GANs) can generate photo-realistic
fake facial images which are perceptually indistinguishable from real face
photos, promoting research on fake face detection. Though fake face forensics
can achieve high detection accuracy, their anti-forensic counterparts are less
investigated. Here we explore more \textit{imperceptible} and
\textit{transferable} anti-forensics for fake face imagery detection based on
adversarial attacks. Since facial and background regions are often smooth, even
small perturbation could cause noticeable perceptual impairment in fake face
images. Therefore it makes existing adversarial attacks ineffective as an
anti-forensic method. Our perturbation analysis reveals the intuitive reason of
the perceptual degradation issue when directly applying existing attacks. We
then propose a novel adversarial attack method, better suitable for image
anti-forensics, in the transformed color domain by considering visual
perception. Simple yet effective, the proposed method can fool both deep
learning and non-deep learning based forensic detectors, achieving higher
attack success rate and significantly improved visual quality. Specially, when
adversaries consider imperceptibility as a constraint, the proposed
anti-forensic method can improve the average attack success rate by around 30\%
on fake face images over two baseline attacks. \textit{More imperceptible} and
\textit{more transferable}, the proposed method raises new security concerns to
fake face imagery detection. We have released our code for public use, and
hopefully the proposed method can be further explored in related forensic
applications as an anti-forensic benchmark.
- Abstract(参考訳): 近年、GAN(Generative Adversarial Network)は、実際の顔写真と知覚的に区別できない偽の顔画像を生成し、偽顔検出の研究を促進する。
偽の顔鑑定は高い検出精度を達成できるが、その反法学的な研究は少ない。
ここでは,敵の攻撃に基づくフェイク顔画像検出のための,さらに \textit{imperceptible} と \textit{transferable} の反forensicsについて検討する。
顔と背景の領域はしばしば滑らかであるため、小さな摂動であっても偽の顔画像に顕著な知覚障害を引き起こす可能性がある。
したがって、既存の敵攻撃を反法学的な方法として無効にする。
我々の摂動解析は、既存の攻撃を直接適用する際の知覚的劣化問題の直感的な原因を明らかにする。
そこで本研究では,視覚知覚を考慮した色領域変換において,画像アンチフォレンスに適する新しい攻撃法を提案する。
提案手法は, 深層学習と非深層学習に基づく法医学的検出を両立させ, 攻撃成功率を高め, 視覚的品質を著しく向上させる。
特に、敵が非受容性を制約とみなす場合、2つのベースライン攻撃に対する偽顔画像の平均攻撃成功率を約30%向上させることができる。
\textit{more imperceptible} と \textit{more transferable} この提案は、フェイク顔画像検出に新たなセキュリティ上の懸念を提起する。
我々は,公用コードの公開を行い,関連する法医学的応用において,反法学的なベンチマークとして提案手法をさらに探求できることを期待する。
関連論文リスト
- Imperceptible Face Forgery Attack via Adversarial Semantic Mask [59.23247545399068]
本稿では, 対向性, 可視性に優れた対向性例を生成できるASMA(Adversarial Semantic Mask Attack framework)を提案する。
具体的には, 局所的なセマンティック領域の摂動を抑制し, 良好なステルス性を実現する, 対向型セマンティックマスク生成モデルを提案する。
論文 参考訳(メタデータ) (2024-06-16T10:38:11Z) - Semantic Contextualization of Face Forgery: A New Definition, Dataset, and Detection Method [77.65459419417533]
我々は,顔フォージェリを意味的文脈に配置し,意味的顔属性を変更する計算手法が顔フォージェリの源であることを定義した。
階層的なグラフで整理されたラベルの集合に各画像が関連付けられている大規模な顔偽画像データセットを構築した。
本稿では,ラベル関係を捕捉し,その優先課題を優先するセマンティクス指向の顔偽造検出手法を提案する。
論文 参考訳(メタデータ) (2024-05-14T10:24:19Z) - Synthesizing Black-box Anti-forensics DeepFakes with High Visual Quality [11.496745237311456]
そこで本研究では,ブラックボックス・アンチ・フォレスティクス・アタック(英語版)を起動するための新しい対向型シャープニングマスクを生成する手法を提案する。
提案手法が最先端のDeepFake検出器を破壊できることを示す。
既存のディープフェイク法で処理された画像と比較すると,提案法で作成したディープフェイクの視覚的特性は著しく改善されている。
論文 参考訳(メタデータ) (2023-12-17T13:12:34Z) - Exploring Decision-based Black-box Attacks on Face Forgery Detection [53.181920529225906]
顔の偽造生成技術は鮮明な顔を生み出し、セキュリティとプライバシーに対する世間の懸念を高めている。
顔偽造検出は偽の顔の識別に成功しているが、最近の研究では顔偽造検出は敵の例に対して非常に脆弱であることが示されている。
論文 参考訳(メタデータ) (2023-10-18T14:49:54Z) - Turn Fake into Real: Adversarial Head Turn Attacks Against Deepfake
Detection [58.1263969438364]
本稿では,3次元対向顔視によるディープフェイク検出器に対する最初の試みとして,対向頭部旋回(AdvHeat)を提案する。
実験では、現実的なブラックボックスシナリオにおいて、様々な検出器のAdvHeatに対する脆弱性を検証する。
さらなる分析により、AdvHeatは、クロス検出器転送性と防御に対する堅牢性の両方に対する従来の攻撃よりも優れていることが示されている。
論文 参考訳(メタデータ) (2023-09-03T07:01:34Z) - Evading Forensic Classifiers with Attribute-Conditioned Adversarial
Faces [6.105361899083232]
本研究では,特定の属性セットを用いて,敵対的な偽の顔を生成することができることを示す。
本稿では,StyleGANの機能空間内の逆潜時符号を探索するフレームワークを提案する。
また,メタラーニングに基づく最適化手法を提案し,未知のターゲットモデル上でのトランスファー可能な性能を実現する。
論文 参考訳(メタデータ) (2023-06-22T17:59:55Z) - Building an Invisible Shield for Your Portrait against Deepfakes [34.65356811439098]
本稿では,画像のプロアクティブな保護を目的とした新しいフレームワーク,Integity Encryptorを提案する。
提案手法では,重要な顔属性と密接な関係を持つメッセージを,秘密に符号化する。
修正された顔属性は、デコードされたメッセージの比較を通じて、操作された画像を検出する手段として機能する。
論文 参考訳(メタデータ) (2023-05-22T10:01:28Z) - Information-containing Adversarial Perturbation for Combating Facial
Manipulation Systems [19.259372985094235]
ディープラーニングシステムの悪意ある応用は個人のプライバシーと評判に深刻な脅威をもたらす。
IAP(Information- containing Adversarial Perturbation)と呼ばれる新しい2層保護手法を提案する。
エンコーダを用いて、顔画像とその識別メッセージを、複数の顔操作システムを妨害できるクロスモデル対向例にマッピングする。
論文 参考訳(メタデータ) (2023-03-21T06:48:14Z) - Restricted Black-box Adversarial Attack Against DeepFake Face Swapping [70.82017781235535]
本稿では,顔画像偽造モデルに対する問い合わせを一切必要としない現実的な敵攻撃を提案する。
本手法は,顔の再構成を行う代用モデルに基づいて構築され,置換モデルから非アクセス可能なブラックボックスDeepFakeモデルへの逆例を直接転送する。
論文 参考訳(メタデータ) (2022-04-26T14:36:06Z) - Exploring Frequency Adversarial Attacks for Face Forgery Detection [59.10415109589605]
フェースフォージェリ検出器に対する周波数対向攻撃法を提案する。
また,メタラーニングの概念に触発されて,空間領域と周波数領域の両方で攻撃を行うハイブリッド逆攻撃を提案する。
論文 参考訳(メタデータ) (2022-03-29T15:34:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。