論文の概要: D4: Detection of Adversarial Diffusion Deepfakes Using Disjoint
Ensembles
- arxiv url: http://arxiv.org/abs/2202.05687v3
- Date: Sun, 6 Aug 2023 03:22:53 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-09 01:27:52.995345
- Title: D4: Detection of Adversarial Diffusion Deepfakes Using Disjoint
Ensembles
- Title(参考訳): D4: Disjoint Ensembles を用いた逆拡散深層波の検出
- Authors: Ashish Hooda, Neal Mangaokar, Ryan Feng, Kassem Fawaz, Somesh Jha,
Atul Prakash
- Abstract要約: ブラックボックスの対向ロバスト性を改善するためにD4(Disjoint Diffusion Deepfake Detection)を提案する。
D4は、周波数スペクトルの非結合部分集合上のモデルのアンサンブルを使用して、対向ロバスト性を大幅に改善する。
我々は,いくつかのブラックボックス攻撃に対してD4法を実証的に検証し,D4が既存の最先端防御よりも著しく優れていることを発見した。
- 参考スコア(独自算出の注目度): 26.905553663353825
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Detecting diffusion-generated deepfake images remains an open problem.
Current detection methods fail against an adversary who adds imperceptible
adversarial perturbations to the deepfake to evade detection. In this work, we
propose Disjoint Diffusion Deepfake Detection (D4), a deepfake detector
designed to improve black-box adversarial robustness beyond de facto solutions
such as adversarial training. D4 uses an ensemble of models over disjoint
subsets of the frequency spectrum to significantly improve adversarial
robustness. Our key insight is to leverage a redundancy in the frequency domain
and apply a saliency partitioning technique to disjointly distribute frequency
components across multiple models. We formally prove that these disjoint
ensembles lead to a reduction in the dimensionality of the input subspace where
adversarial deepfakes lie, thereby making adversarial deepfakes harder to find
for black-box attacks. We then empirically validate the D4 method against
several black-box attacks and find that D4 significantly outperforms existing
state-of-the-art defenses applied to diffusion-generated deepfake detection. We
also demonstrate that D4 provides robustness against adversarial deepfakes from
unseen data distributions as well as unseen generative techniques.
- Abstract(参考訳): 拡散生成ディープフェイク画像の検出は未解決の問題である。
現在の検出方法は、ディープフェイクに不可避な逆向きの摂動を追加して検出を避ける敵に対して失敗する。
本研究では,直交拡散深度検出(Disjoint Diffusion Deepfake Detection, D4)を提案する。
d4 は周波数スペクトルの隣接部分集合上のモデルのアンサンブルを用いて、逆ロバスト性を大幅に改善している。
我々の重要な洞察は、周波数領域の冗長性を生かし、複数のモデルにまたがる周波数成分の分散に相補的分割技術を適用することである。
これらの不一致アンサンブルが、敵のディープフェイクが嘘をついている入力部分空間の次元を減少させ、敵のディープフェイクをブラックボックス攻撃で見つけるのが困難になることを正式に証明する。
そこで我々は,いくつかのブラックボックス攻撃に対してD4法を実証的に検証し,拡散生成深度検出に適用した既存の最先端防御法よりもD4が有意に優れていることを見出した。
また,d4は,非知覚データ分布による敵のディープフェイクに対するロバスト性や,未知の生成技術を提供することを示す。
関連論文リスト
- 2D-Malafide: Adversarial Attacks Against Face Deepfake Detection Systems [8.717726409183175]
2D-Malafideは, 顔深度検出システムに悪影響を与えるように設計された, 新規で軽量な対向攻撃である。
従来の加法ノイズアプローチとは異なり、2D-マラフィドは少数のフィルタ係数を最適化し、頑健な逆方向の摂動を生成する。
FaceForensics++データセットを使用して実施された実験では、2D-Malafideがホワイトボックスとブラックボックスの設定の両方で検出性能を著しく低下させることが示された。
論文 参考訳(メタデータ) (2024-08-26T09:41:40Z) - ED$^4$: Explicit Data-level Debiasing for Deepfake Detection [24.695989108814018]
限られたデータから固有のバイアスを学習することは、一般化可能なディープフェイク検出の失敗の主な原因と考えられている。
データレベルで上記のバイアスに明示的に対処するためのシンプルで効果的な戦略であるED$4$を提示します。
我々は,既存のディープフェイク検出手法よりも有効性と優位性を示すため,広範囲な実験を行った。
論文 参考訳(メタデータ) (2024-08-13T10:05:20Z) - StealthDiffusion: Towards Evading Diffusion Forensic Detection through Diffusion Model [62.25424831998405]
StealthDiffusionは、AI生成した画像を高品質で受け入れがたい敵の例に修正するフレームワークである。
ホワイトボックスとブラックボックスの設定の両方で有効であり、AI生成した画像を高品質な敵の偽造に変換する。
論文 参考訳(メタデータ) (2024-08-11T01:22:29Z) - Diffusion-based Adversarial Purification for Intrusion Detection [0.6990493129893112]
不正な摂動はMLモデルを誤解させ、攻撃者が検出を回避したり、誤った警告をトリガーしたりすることを可能にする。
敵の浄化は、特に有望な結果を示す拡散モデルによって、説得力のある解決策として現れてきた。
本稿では,ネットワーク侵入検出における逆例の浄化における拡散モデルの有効性を示す。
論文 参考訳(メタデータ) (2024-06-25T14:48:28Z) - Adversarially Robust Deepfake Detection via Adversarial Feature Similarity Learning [0.0]
ディープフェイク技術は、デジタルコンテンツの信頼性を懸念し、効果的な検出方法の開発を必要としている。
敵は、検出モデルを騙して誤った出力を生成する、小さくて知覚できない摂動でディープフェイクビデオを操作できる。
本稿では,3つの基本的深い特徴学習パラダイムを統合したAFSL(Adversarial Feature similarity Learning)を紹介する。
論文 参考訳(メタデータ) (2024-02-06T11:35:05Z) - CrossDF: Improving Cross-Domain Deepfake Detection with Deep Information Decomposition [53.860796916196634]
クロスデータセットディープフェイク検出(CrossDF)の性能を高めるためのディープ情報分解(DID)フレームワークを提案する。
既存のディープフェイク検出方法とは異なり、我々のフレームワークは特定の視覚的アーティファクトよりも高いレベルのセマンティック特徴を優先する。
顔の特徴をディープフェイク関連情報と無関係情報に適応的に分解し、本質的なディープフェイク関連情報のみを用いてリアルタイム・フェイク識別を行う。
論文 参考訳(メタデータ) (2023-09-30T12:30:25Z) - Spatial-Frequency Discriminability for Revealing Adversarial Perturbations [53.279716307171604]
敵の摂動に対するディープニューラルネットワークの脆弱性は、コンピュータビジョンコミュニティで広く認識されている。
現在のアルゴリズムは、通常、自然および敵対的なデータの識別的分解を通じて、敵のパターンを検出する。
空間周波数Krawtchouk分解に基づく識別検出器を提案する。
論文 参考訳(メタデータ) (2023-05-18T10:18:59Z) - Dual Spoof Disentanglement Generation for Face Anti-spoofing with Depth
Uncertainty Learning [54.15303628138665]
フェース・アンチ・スプーフィング(FAS)は、顔認識システムが提示攻撃を防ぐ上で重要な役割を担っている。
既存のフェース・アンチ・スプーフィング・データセットは、アイデンティティと重要なばらつきが不十分なため、多様性を欠いている。
我々は「生成によるアンチ・スプーフィング」によりこの問題に対処するデュアル・スポット・ディアンタングメント・ジェネレーション・フレームワークを提案する。
論文 参考訳(メタデータ) (2021-12-01T15:36:59Z) - Towards Adversarial Patch Analysis and Certified Defense against Crowd
Counting [61.99564267735242]
安全クリティカルな監視システムの重要性から、群衆のカウントは多くの注目を集めています。
近年の研究では、ディープニューラルネットワーク(DNN)の手法が敵の攻撃に弱いことが示されている。
群衆カウントモデルのロバスト性を評価するために,Momentumを用いた攻撃戦略としてAdversarial Patch Attackを提案する。
論文 参考訳(メタデータ) (2021-04-22T05:10:55Z) - M2TR: Multi-modal Multi-scale Transformers for Deepfake Detection [74.19291916812921]
Deepfake技術によって生成された鍛造画像は、デジタル情報の信頼性に深刻な脅威をもたらします。
本稿では,Deepfake検出のための微妙な操作アーチファクトを異なるスケールで捉えることを目的とする。
最先端の顔スワッピングと顔の再現方法によって生成された4000のDeepFakeビデオで構成される高品質のDeepFakeデータセットSR-DFを紹介します。
論文 参考訳(メタデータ) (2021-04-20T05:43:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。