論文の概要: Towards Adversarially Robust Deepfake Detection: An Ensemble Approach
- arxiv url: http://arxiv.org/abs/2202.05687v1
- Date: Fri, 11 Feb 2022 15:21:11 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-14 14:45:25.439384
- Title: Towards Adversarially Robust Deepfake Detection: An Ensemble Approach
- Title(参考訳): 逆ロバストディープフェイク検出に向けて:アンサンブルアプローチ
- Authors: Ashish Hooda, Neal Mangaokar, Ryan Feng, Kassem Fawaz, Somesh Jha,
Atul Prakash
- Abstract要約: 検出戦略の変更により、ロバスト性を大幅に改善できることを示す。
このような「直交」アンサンブルが一階の敵を脅かすのに役立つことを示す理論的結果を示す。
- 参考スコア(独自算出の注目度): 26.905553663353825
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Detecting deepfakes is an important problem, but recent work has shown that
DNN-based deepfake detectors are brittle against adversarial deepfakes, in
which an adversary adds imperceptible perturbations to a deepfake to evade
detection. In this work, we show that a modification to the detection strategy
in which we replace a single classifier with a carefully chosen ensemble, in
which input transformations for each model in the ensemble induces pairwise
orthogonal gradients, can significantly improve robustness beyond the de facto
solution of adversarial training. We present theoretical results to show that
such orthogonal gradients can help thwart a first-order adversary by reducing
the dimensionality of the input subspace in which adversarial deepfakes lie. We
validate the results empirically by instantiating and evaluating a randomized
version of such "orthogonal" ensembles for adversarial deepfake detection and
find that these randomized ensembles exhibit significantly higher robustness as
deepfake detectors compared to state-of-the-art deepfake detectors against
adversarial deepfakes, even those created using strong PGD-500 attacks.
- Abstract(参考訳): ディープフェイクの検出は重要な問題であるが、近年の研究により、DNNベースのディープフェイク検出器は敵のディープフェイクに対して脆いことが示されている。
本研究では,単一分類器を慎重に選択したアンサンブルに置き換える検出戦略の修正を行い,アンサンブルの各モデルに対する入力変換が対角勾配を誘導し,対角トレーニングのデファクト解を超えるロバスト性を大幅に向上させることができることを示す。
このような直交勾配は, 直交深度が横たわる入力部分空間の次元を減少させることで, 一階の逆数を抑制することができることを示す理論的結果を示す。
そこで本研究では,このような「オルトゴナル」アンサンブルのランダム化版を,敵対的ディープフェイク検出のためにインスタンス化し評価し,その検証を行い,そのランダム化アンサンブルが,攻撃的ディープフェイクに対して最先端のディープフェイク検出器と比較して,強力なpgd-500攻撃による攻撃であっても,ディープフェイク検出に比較して有意に高い頑健性を示すことを見出した。
関連論文リスト
- 2D-Malafide: Adversarial Attacks Against Face Deepfake Detection Systems [8.717726409183175]
2D-Malafideは, 顔深度検出システムに悪影響を与えるように設計された, 新規で軽量な対向攻撃である。
従来の加法ノイズアプローチとは異なり、2D-マラフィドは少数のフィルタ係数を最適化し、頑健な逆方向の摂動を生成する。
FaceForensics++データセットを使用して実施された実験では、2D-Malafideがホワイトボックスとブラックボックスの設定の両方で検出性能を著しく低下させることが示された。
論文 参考訳(メタデータ) (2024-08-26T09:41:40Z) - ED$^4$: Explicit Data-level Debiasing for Deepfake Detection [24.695989108814018]
限られたデータから固有のバイアスを学習することは、一般化可能なディープフェイク検出の失敗の主な原因と考えられている。
データレベルで上記のバイアスに明示的に対処するためのシンプルで効果的な戦略であるED$4$を提示します。
我々は,既存のディープフェイク検出手法よりも有効性と優位性を示すため,広範囲な実験を行った。
論文 参考訳(メタデータ) (2024-08-13T10:05:20Z) - StealthDiffusion: Towards Evading Diffusion Forensic Detection through Diffusion Model [62.25424831998405]
StealthDiffusionは、AI生成した画像を高品質で受け入れがたい敵の例に修正するフレームワークである。
ホワイトボックスとブラックボックスの設定の両方で有効であり、AI生成した画像を高品質な敵の偽造に変換する。
論文 参考訳(メタデータ) (2024-08-11T01:22:29Z) - Diffusion-based Adversarial Purification for Intrusion Detection [0.6990493129893112]
不正な摂動はMLモデルを誤解させ、攻撃者が検出を回避したり、誤った警告をトリガーしたりすることを可能にする。
敵の浄化は、特に有望な結果を示す拡散モデルによって、説得力のある解決策として現れてきた。
本稿では,ネットワーク侵入検出における逆例の浄化における拡散モデルの有効性を示す。
論文 参考訳(メタデータ) (2024-06-25T14:48:28Z) - Adversarially Robust Deepfake Detection via Adversarial Feature Similarity Learning [0.0]
ディープフェイク技術は、デジタルコンテンツの信頼性を懸念し、効果的な検出方法の開発を必要としている。
敵は、検出モデルを騙して誤った出力を生成する、小さくて知覚できない摂動でディープフェイクビデオを操作できる。
本稿では,3つの基本的深い特徴学習パラダイムを統合したAFSL(Adversarial Feature similarity Learning)を紹介する。
論文 参考訳(メタデータ) (2024-02-06T11:35:05Z) - CrossDF: Improving Cross-Domain Deepfake Detection with Deep Information Decomposition [53.860796916196634]
クロスデータセットディープフェイク検出(CrossDF)の性能を高めるためのディープ情報分解(DID)フレームワークを提案する。
既存のディープフェイク検出方法とは異なり、我々のフレームワークは特定の視覚的アーティファクトよりも高いレベルのセマンティック特徴を優先する。
顔の特徴をディープフェイク関連情報と無関係情報に適応的に分解し、本質的なディープフェイク関連情報のみを用いてリアルタイム・フェイク識別を行う。
論文 参考訳(メタデータ) (2023-09-30T12:30:25Z) - Spatial-Frequency Discriminability for Revealing Adversarial Perturbations [53.279716307171604]
敵の摂動に対するディープニューラルネットワークの脆弱性は、コンピュータビジョンコミュニティで広く認識されている。
現在のアルゴリズムは、通常、自然および敵対的なデータの識別的分解を通じて、敵のパターンを検出する。
空間周波数Krawtchouk分解に基づく識別検出器を提案する。
論文 参考訳(メタデータ) (2023-05-18T10:18:59Z) - Dual Spoof Disentanglement Generation for Face Anti-spoofing with Depth
Uncertainty Learning [54.15303628138665]
フェース・アンチ・スプーフィング(FAS)は、顔認識システムが提示攻撃を防ぐ上で重要な役割を担っている。
既存のフェース・アンチ・スプーフィング・データセットは、アイデンティティと重要なばらつきが不十分なため、多様性を欠いている。
我々は「生成によるアンチ・スプーフィング」によりこの問題に対処するデュアル・スポット・ディアンタングメント・ジェネレーション・フレームワークを提案する。
論文 参考訳(メタデータ) (2021-12-01T15:36:59Z) - Towards Adversarial Patch Analysis and Certified Defense against Crowd
Counting [61.99564267735242]
安全クリティカルな監視システムの重要性から、群衆のカウントは多くの注目を集めています。
近年の研究では、ディープニューラルネットワーク(DNN)の手法が敵の攻撃に弱いことが示されている。
群衆カウントモデルのロバスト性を評価するために,Momentumを用いた攻撃戦略としてAdversarial Patch Attackを提案する。
論文 参考訳(メタデータ) (2021-04-22T05:10:55Z) - M2TR: Multi-modal Multi-scale Transformers for Deepfake Detection [74.19291916812921]
Deepfake技術によって生成された鍛造画像は、デジタル情報の信頼性に深刻な脅威をもたらします。
本稿では,Deepfake検出のための微妙な操作アーチファクトを異なるスケールで捉えることを目的とする。
最先端の顔スワッピングと顔の再現方法によって生成された4000のDeepFakeビデオで構成される高品質のDeepFakeデータセットSR-DFを紹介します。
論文 参考訳(メタデータ) (2021-04-20T05:43:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。