論文の概要: Making DeepFakes more spurious: evading deep face forgery detection via
trace removal attack
- arxiv url: http://arxiv.org/abs/2203.11433v1
- Date: Tue, 22 Mar 2022 03:13:33 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-24 06:42:17.182137
- Title: Making DeepFakes more spurious: evading deep face forgery detection via
trace removal attack
- Title(参考訳): DeepFakesをより刺激的: 追跡除去攻撃によるディープフェイスの偽造検出を回避
- Authors: Chi Liu, Huajie Chen, Tianqing Zhu, Jun Zhang, Wanlei Zhou
- Abstract要約: 本稿では,DeepFakeアンチ・フォレスト・フォレストに対する検出非依存的トレース除去攻撃について紹介する。
検出器側を調査する代わりに、私たちの攻撃はオリジナルのDeepFake生成パイプラインを調べます。
実験により、提案された攻撃は6つの最先端のDeepFake検出器の検出精度を著しく損なうことが示された。
- 参考スコア(独自算出の注目度): 16.221725939480084
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: DeepFakes are raising significant social concerns. Although various DeepFake
detectors have been developed as forensic countermeasures, these detectors are
still vulnerable to attacks. Recently, a few attacks, principally adversarial
attacks, have succeeded in cloaking DeepFake images to evade detection.
However, these attacks have typical detector-specific designs, which require
prior knowledge about the detector, leading to poor transferability. Moreover,
these attacks only consider simple security scenarios. Less is known about how
effective they are in high-level scenarios where either the detectors or the
attacker's knowledge varies. In this paper, we solve the above challenges with
presenting a novel detector-agnostic trace removal attack for DeepFake
anti-forensics. Instead of investigating the detector side, our attack looks
into the original DeepFake creation pipeline, attempting to remove all
detectable natural DeepFake traces to render the fake images more "authentic".
To implement this attack, first, we perform a DeepFake trace discovery,
identifying three discernible traces. Then a trace removal network (TR-Net) is
proposed based on an adversarial learning framework involving one generator and
multiple discriminators. Each discriminator is responsible for one individual
trace representation to avoid cross-trace interference. These discriminators
are arranged in parallel, which prompts the generator to remove various traces
simultaneously. To evaluate the attack efficacy, we crafted heterogeneous
security scenarios where the detectors were embedded with different levels of
defense and the attackers' background knowledge of data varies. The
experimental results show that the proposed attack can significantly compromise
the detection accuracy of six state-of-the-art DeepFake detectors while causing
only a negligible loss in visual quality to the original DeepFake samples.
- Abstract(参考訳): DeepFakesは重要な社会的懸念を提起している。
様々なディープフェイク検出器は法医学的な対策として開発されたが、これらの検出器は依然として攻撃に対して脆弱である。
最近、主に敵対的な攻撃を含むいくつかの攻撃は、検出を避けるためにDeepFakeイメージをクロークすることに成功している。
しかし、これらの攻撃は検出器特有の典型的な設計であり、検出器に関する事前の知識を必要とするため、転送性が劣る。
さらに、これらの攻撃は単純なセキュリティシナリオのみを考慮している。
検出器または攻撃者の知識が変化する高レベルのシナリオにおいて、それらがどの程度有効であるかは、あまり分かっていない。
本稿では,ディープフェイク対策のための新しい検出器非依存的トレース除去攻撃を提案することで,上記の課題を解決する。
検出側を調査する代わりに、私たちの攻撃はオリジナルのDeepFake生成パイプラインを調べ、検出可能なすべてのDeepFakeトレースを削除して、偽画像をより「美的」にレンダリングしようとしました。
この攻撃を実装するために、まずDeepFakeトレース発見を行い、3つの識別可能なトレースを識別する。
次に,1つのジェネレータと複数の識別器を含む逆学習フレームワークに基づいて,トレース除去ネットワーク(TR-Net)を提案する。
各識別器は、クロストレース干渉を避けるために、個々のトレース表現に責任を負う。
これらの識別器は並列に配置されており、生成器は様々なトレースを同時に除去する。
攻撃の有効性を評価するため,我々は,異なるレベルの防御と攻撃者のデータに関する背景知識を組み込んだ異種セキュリティシナリオを考案した。
実験の結果,提案した攻撃は6つの最先端のDeepFake検出器の検出精度を著しく損なうとともに,元のDeepFakeサンプルの視覚的品質を損なうことが示唆された。
関連論文リスト
- Real is not True: Backdoor Attacks Against Deepfake Detection [9.572726483706846]
本稿では,Bad-Deepfake(Bad-Deepfake)と命名された先駆的パラダイムを導入する。
我々のアプローチはトレーニングデータのサブセットを戦略的に操作することで、トレーニングされたモデルの運用特性に対する不均等な影響を軽減します。
論文 参考訳(メタデータ) (2024-03-11T10:57:14Z) - AVA: Inconspicuous Attribute Variation-based Adversarial Attack
bypassing DeepFake Detection [9.40828913999459]
近年、DeepFakeアプリケーションの人気が高まっているが、その悪用は深刻なプライバシーの脅威をもたらす。
乱用問題を緩和するための最も関連する検出アルゴリズムは、本質的に敵の攻撃に対して脆弱である。
我々は,ガウス先行識別器と意味識別器の組み合わせにより,潜在空間を乱す属性可変型対向攻撃 (AVA) を新たに同定した。
論文 参考訳(メタデータ) (2023-12-14T06:25:56Z) - Exploring Decision-based Black-box Attacks on Face Forgery Detection [53.181920529225906]
顔の偽造生成技術は鮮明な顔を生み出し、セキュリティとプライバシーに対する世間の懸念を高めている。
顔偽造検出は偽の顔の識別に成功しているが、最近の研究では顔偽造検出は敵の例に対して非常に脆弱であることが示されている。
論文 参考訳(メタデータ) (2023-10-18T14:49:54Z) - Turn Fake into Real: Adversarial Head Turn Attacks Against Deepfake
Detection [58.1263969438364]
本稿では,3次元対向顔視によるディープフェイク検出器に対する最初の試みとして,対向頭部旋回(AdvHeat)を提案する。
実験では、現実的なブラックボックスシナリオにおいて、様々な検出器のAdvHeatに対する脆弱性を検証する。
さらなる分析により、AdvHeatは、クロス検出器転送性と防御に対する堅牢性の両方に対する従来の攻撃よりも優れていることが示されている。
論文 参考訳(メタデータ) (2023-09-03T07:01:34Z) - Towards an Accurate and Secure Detector against Adversarial
Perturbations [58.02078078305753]
敵の摂動に対するディープニューラルネットワークの脆弱性は、コンピュータビジョンコミュニティで広く認識されている。
現在のアルゴリズムは、通常、自然・人工データの識別的分解を通じて、敵対的なパターンを検出する。
本研究では,秘密鍵を用いた空間周波数判別分解に基づく,高精度かつセキュアな対向検波器を提案する。
論文 参考訳(メタデータ) (2023-05-18T10:18:59Z) - Zero-Query Transfer Attacks on Context-Aware Object Detectors [95.18656036716972]
敵は、ディープニューラルネットワークが誤った分類結果を生成するような摂動画像を攻撃する。
自然の多目的シーンに対する敵対的攻撃を防御するための有望なアプローチは、文脈整合性チェックを課すことである。
本稿では,コンテキスト整合性チェックを回避可能な,コンテキスト整合性攻撃を生成するための最初のアプローチを提案する。
論文 参考訳(メタデータ) (2022-03-29T04:33:06Z) - Understanding the Security of Deepfake Detection [23.118012417901078]
本研究では,最先端のディープフェイク検出手法の対向的設定における安全性について検討する。
FaceForensics++やFacebook Deepfake Detection Challengeなど、大規模な公開ディープフェイクデータソースを2つ使用しています。
本研究は, 対戦環境におけるディープフェイク検出手法のセキュリティ上の制約を明らかにした。
論文 参考訳(メタデータ) (2021-07-05T14:18:21Z) - We Can Always Catch You: Detecting Adversarial Patched Objects WITH or
WITHOUT Signature [3.5272597442284104]
本稿では,オブジェクト検出に対する逆パッチ攻撃の検知問題について検討する。
高速シグネチャベース防御法を提案し,有効であることが実証された。
新たに生成された敵パッチは、提案されたシグネチャベースの防御を回避できる。
本稿では,内部コンテンツセマンティクスの整合性に基づく署名に依存しない新しい検出手法を提案する。
論文 参考訳(メタデータ) (2021-06-09T17:58:08Z) - Identity-Driven DeepFake Detection [91.0504621868628]
アイデンティティ駆動のDeepFake Detectionは、被疑者画像/ビデオとターゲットのアイデンティティ情報を入力する。
被疑者画像・映像の同一性は対象人物と同一かという判断を出力する。
本稿では,新たな研究のベースラインとして,簡単な識別ベース検出アルゴリズムであるouterfaceを提案する。
論文 参考訳(メタデータ) (2020-12-07T18:59:08Z) - Adversarial Threats to DeepFake Detection: A Practical Perspective [12.611342984880826]
本稿では,最先端のDeepFake検出手法の脆弱性を実用的観点から検討する。
我々は、非常に現実的な攻撃シナリオを示すUniversal Adversarial Perturbationsを用いて、よりアクセスしやすい攻撃を作成する。
論文 参考訳(メタデータ) (2020-11-19T16:53:38Z) - MixNet for Generalized Face Presentation Attack Detection [63.35297510471997]
我々は、プレゼンテーションアタックを検出するための、TextitMixNetと呼ばれるディープラーニングベースのネットワークを提案している。
提案アルゴリズムは最先端の畳み込みニューラルネットワークアーキテクチャを利用して,各攻撃カテゴリの特徴マッピングを学習する。
論文 参考訳(メタデータ) (2020-10-25T23:01:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。