論文の概要: Towards Adversarially Robust Deepfake Detection: An Ensemble Approach
- arxiv url: http://arxiv.org/abs/2202.05687v1
- Date: Fri, 11 Feb 2022 15:21:11 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-14 14:45:25.439384
- Title: Towards Adversarially Robust Deepfake Detection: An Ensemble Approach
- Title(参考訳): 逆ロバストディープフェイク検出に向けて:アンサンブルアプローチ
- Authors: Ashish Hooda, Neal Mangaokar, Ryan Feng, Kassem Fawaz, Somesh Jha,
Atul Prakash
- Abstract要約: 検出戦略の変更により、ロバスト性を大幅に改善できることを示す。
このような「直交」アンサンブルが一階の敵を脅かすのに役立つことを示す理論的結果を示す。
- 参考スコア(独自算出の注目度): 26.905553663353825
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Detecting deepfakes is an important problem, but recent work has shown that
DNN-based deepfake detectors are brittle against adversarial deepfakes, in
which an adversary adds imperceptible perturbations to a deepfake to evade
detection. In this work, we show that a modification to the detection strategy
in which we replace a single classifier with a carefully chosen ensemble, in
which input transformations for each model in the ensemble induces pairwise
orthogonal gradients, can significantly improve robustness beyond the de facto
solution of adversarial training. We present theoretical results to show that
such orthogonal gradients can help thwart a first-order adversary by reducing
the dimensionality of the input subspace in which adversarial deepfakes lie. We
validate the results empirically by instantiating and evaluating a randomized
version of such "orthogonal" ensembles for adversarial deepfake detection and
find that these randomized ensembles exhibit significantly higher robustness as
deepfake detectors compared to state-of-the-art deepfake detectors against
adversarial deepfakes, even those created using strong PGD-500 attacks.
- Abstract(参考訳): ディープフェイクの検出は重要な問題であるが、近年の研究により、DNNベースのディープフェイク検出器は敵のディープフェイクに対して脆いことが示されている。
本研究では,単一分類器を慎重に選択したアンサンブルに置き換える検出戦略の修正を行い,アンサンブルの各モデルに対する入力変換が対角勾配を誘導し,対角トレーニングのデファクト解を超えるロバスト性を大幅に向上させることができることを示す。
このような直交勾配は, 直交深度が横たわる入力部分空間の次元を減少させることで, 一階の逆数を抑制することができることを示す理論的結果を示す。
そこで本研究では,このような「オルトゴナル」アンサンブルのランダム化版を,敵対的ディープフェイク検出のためにインスタンス化し評価し,その検証を行い,そのランダム化アンサンブルが,攻撃的ディープフェイクに対して最先端のディープフェイク検出器と比較して,強力なpgd-500攻撃による攻撃であっても,ディープフェイク検出に比較して有意に高い頑健性を示すことを見出した。
関連論文リスト
- AdvMono3D: Advanced Monocular 3D Object Detection with Depth-Aware
Robust Adversarial Training [64.14759275211115]
そこで本研究では,DART3Dと呼ばれるモノクル3次元物体検出のための,深度対応の頑健な対向学習法を提案する。
我々の敵の訓練アプローチは、本質的な不確実性に乗じて、敵の攻撃に対する堅牢性を大幅に向上させる。
論文 参考訳(メタデータ) (2023-09-03T07:05:32Z) - Towards Generalizable Deepfake Detection by Primary Region
Regularization [52.41801719896089]
本稿では,新しい正規化の観点から一般化能力を高める。
本手法は, 一次領域マップの静的な位置決めと, 一次領域マスクの動的利用の2段階からなる。
5つのバックボーンを持つDFDC,DF-1.0,Celeb-DFの3種類のディープフェイクデータセットについて広範な実験を行った。
論文 参考訳(メタデータ) (2023-07-24T05:43:34Z) - Improving Fairness in Deepfake Detection [38.999205139257164]
ディープフェイク検出器の訓練に使用されるデータのバイアスは、異なる人種や性別で検出精度が異なることにつながる。
本稿では、人口統計情報の入手可能な設定と、この情報が欠落している場合の両方を扱う新しい損失関数を提案する。
論文 参考訳(メタデータ) (2023-06-29T02:19:49Z) - Towards Black-box Adversarial Example Detection: A Data
Reconstruction-based Method [9.857570123016213]
ブラックボックス攻撃はより現実的な脅威であり、様々なブラックボックス敵の訓練ベースの防御方法につながっている。
BAD問題に対処するために,データ再構成に基づく逆例検出手法を提案する。
論文 参考訳(メタデータ) (2023-06-03T06:34:17Z) - Towards an Accurate and Secure Detector against Adversarial
Perturbations [58.02078078305753]
敵の摂動に対するディープニューラルネットワークの脆弱性は、コンピュータビジョンコミュニティで広く認識されている。
現在のアルゴリズムは、通常、自然・人工データの識別的分解を通じて、敵対的なパターンを検出する。
本研究では,秘密鍵を用いた空間周波数判別分解に基づく,高精度かつセキュアな対向検波器を提案する。
論文 参考訳(メタデータ) (2023-05-18T10:18:59Z) - Dual Spoof Disentanglement Generation for Face Anti-spoofing with Depth
Uncertainty Learning [54.15303628138665]
フェース・アンチ・スプーフィング(FAS)は、顔認識システムが提示攻撃を防ぐ上で重要な役割を担っている。
既存のフェース・アンチ・スプーフィング・データセットは、アイデンティティと重要なばらつきが不十分なため、多様性を欠いている。
我々は「生成によるアンチ・スプーフィング」によりこの問題に対処するデュアル・スポット・ディアンタングメント・ジェネレーション・フレームワークを提案する。
論文 参考訳(メタデータ) (2021-12-01T15:36:59Z) - Towards Adversarial Patch Analysis and Certified Defense against Crowd
Counting [61.99564267735242]
安全クリティカルな監視システムの重要性から、群衆のカウントは多くの注目を集めています。
近年の研究では、ディープニューラルネットワーク(DNN)の手法が敵の攻撃に弱いことが示されている。
群衆カウントモデルのロバスト性を評価するために,Momentumを用いた攻撃戦略としてAdversarial Patch Attackを提案する。
論文 参考訳(メタデータ) (2021-04-22T05:10:55Z) - M2TR: Multi-modal Multi-scale Transformers for Deepfake Detection [74.19291916812921]
Deepfake技術によって生成された鍛造画像は、デジタル情報の信頼性に深刻な脅威をもたらします。
本稿では,Deepfake検出のための微妙な操作アーチファクトを異なるスケールで捉えることを目的とする。
最先端の顔スワッピングと顔の再現方法によって生成された4000のDeepFakeビデオで構成される高品質のDeepFakeデータセットSR-DFを紹介します。
論文 参考訳(メタデータ) (2021-04-20T05:43:44Z) - Exploring Vicinal Risk Minimization for Lightweight Out-of-Distribution
Detection [4.833037692738672]
vicinal risk minimization (vrm) を用いたood検出器を開発した。
本手法は,既存のood検出手法と比較して計算量とメモリオーバーヘッドを大幅に削減し,ほぼ競合性能を実現している。
論文 参考訳(メタデータ) (2020-12-15T16:13:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。