論文の概要: Adversarial Perturbations Fool Deepfake Detectors
- arxiv url: http://arxiv.org/abs/2003.10596v2
- Date: Fri, 15 May 2020 05:41:32 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-20 08:06:36.095004
- Title: Adversarial Perturbations Fool Deepfake Detectors
- Title(参考訳): 副次的摂動フールディープフェイク検出器
- Authors: Apurva Gandhi and Shomik Jain
- Abstract要約: この研究は、逆方向の摂動を利用してディープフェイク画像を強化し、一般的なディープフェイク検出器を騙す。
検出器は、摂動しないディープフェイクでは95%以上の精度を達成したが、摂動したディープフェイクでは27%未満の精度であった。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This work uses adversarial perturbations to enhance deepfake images and fool
common deepfake detectors. We created adversarial perturbations using the Fast
Gradient Sign Method and the Carlini and Wagner L2 norm attack in both blackbox
and whitebox settings. Detectors achieved over 95% accuracy on unperturbed
deepfakes, but less than 27% accuracy on perturbed deepfakes. We also explore
two improvements to deepfake detectors: (i) Lipschitz regularization, and (ii)
Deep Image Prior (DIP). Lipschitz regularization constrains the gradient of the
detector with respect to the input in order to increase robustness to input
perturbations. The DIP defense removes perturbations using generative
convolutional neural networks in an unsupervised manner. Regularization
improved the detection of perturbed deepfakes on average, including a 10%
accuracy boost in the blackbox case. The DIP defense achieved 95% accuracy on
perturbed deepfakes that fooled the original detector, while retaining 98%
accuracy in other cases on a 100 image subsample.
- Abstract(参考訳): この研究は、逆方向の摂動を利用してディープフェイク画像を強化し、一般的なディープフェイク検出器を騙す。
我々は,Fast Gradient Sign Method と Carlini と Wagner L2 の標準攻撃をブラックボックスとホワイトボックスの設定の両方で用いた逆方向摂動を作成した。
検出器は、摂動しないディープフェイクでは95%以上の精度を達成したが、摂動したディープフェイクでは27%未満の精度であった。
ディープフェイク検出器の2つの改良点も検討しています。
(i)リプシッツ正則化、及び
(ii)深部画像先行(dip)
リプシッツ正則化は、入力摂動に対するロバスト性を高めるために、入力に対する検出器の勾配を制約する。
DIPディフェンスは、生成的畳み込みニューラルネットワークを用いた摂動を教師なしの方法で除去する。
規則化により、ブラックボックスケースの10%の精度向上を含む、平均して摂動型ディープフェイクの検出が改善された。
DIPディフェンスは、オリジナルの検出器を騙した歪んだディープフェイクに対して95%の精度を達成し、他の100枚のサブサンプルでは98%の精度を維持した。
関連論文リスト
- Learning to Make Keypoints Sub-Pixel Accurate [80.55676599677824]
本研究は,2次元局所特徴の検出におけるサブピクセル精度の課題に対処する。
本稿では,検出された特徴に対するオフセットベクトルを学習することにより,サブピクセル精度で検出器を拡張できる新しいネットワークを提案する。
論文 参考訳(メタデータ) (2024-07-16T12:39:56Z) - In Anticipation of Perfect Deepfake: Identity-anchored Artifact-agnostic Detection under Rebalanced Deepfake Detection Protocol [20.667392938528987]
本研究では,バランスの取れたシナリオ下でのストレステスト検出にRDDP(Re Balanced Deepfake Detection Protocol)を導入する。
ID-Minerは,人工物や外観の動作に焦点をあてることで,変装の背後にある人形を識別する検出器である。
論文 参考訳(メタデータ) (2024-05-01T12:48:13Z) - Simplifying Two-Stage Detectors for On-Device Inference in Remote Sensing [0.7305342793164903]
本研究では,2段階物体検出器のモデル簡易化手法を提案する。
本手法は,DOTAv1.5データセットの2.1%以内の精度で計算コストを61.2%まで削減する。
論文 参考訳(メタデータ) (2024-04-11T00:45:10Z) - DeepFake-Adapter: Dual-Level Adapter for DeepFake Detection [73.66077273888018]
既存のディープフェイク検出方法は、目に見えない、または劣化したサンプルに対してうまく一般化できない。
高レベルのセマンティクスは、一般化可能な偽造検出に必要なレシピである。
DeepFake-Adapterは、DeepFake検出のためのパラメータ効率の高い最初のチューニング手法である。
論文 参考訳(メタデータ) (2023-06-01T16:23:22Z) - UNBUS: Uncertainty-aware Deep Botnet Detection System in Presence of
Perturbed Samples [1.2691047660244335]
ボットネット検出には極めて低い偽陽性率(FPR)が必要であるが、現代のディープラーニングでは一般的に達成できない。
本稿では,98%以上の精度のボットネット分類のためのLSTMに基づく2つの分類アルゴリズムについて述べる。
論文 参考訳(メタデータ) (2022-04-18T21:49:14Z) - Understanding the Security of Deepfake Detection [23.118012417901078]
本研究では,最先端のディープフェイク検出手法の対向的設定における安全性について検討する。
FaceForensics++やFacebook Deepfake Detection Challengeなど、大規模な公開ディープフェイクデータソースを2つ使用しています。
本研究は, 対戦環境におけるディープフェイク検出手法のセキュリティ上の制約を明らかにした。
論文 参考訳(メタデータ) (2021-07-05T14:18:21Z) - Adversarially robust deepfake media detection using fused convolutional
neural network predictions [79.00202519223662]
現在のディープフェイク検出システムは、目に見えないデータと戦っている。
ビデオから抽出した偽画像と実画像の分類には,CNN(Deep Convolutional Neural Network)モデルが3種類採用されている。
提案手法は96.5%の精度で最先端のモデルより優れている。
論文 参考訳(メタデータ) (2021-02-11T11:28:00Z) - D-Unet: A Dual-encoder U-Net for Image Splicing Forgery Detection and
Localization [108.8592577019391]
画像スプライシング偽造検出は、画像指紋によって改ざんされた領域と非改ざんされた領域を区別するグローバルバイナリ分類タスクである。
画像スプライシングフォージェリ検出のためのデュアルエンコーダU-Net(D-Unet)という,固定されていないエンコーダと固定エンコーダを用いた新しいネットワークを提案する。
D-Unetと最先端技術の比較実験において、D-Unetは画像レベルおよび画素レベルの検出において他の手法よりも優れていた。
論文 参考訳(メタデータ) (2020-12-03T10:54:02Z) - Anomaly Detection-Based Unknown Face Presentation Attack Detection [74.4918294453537]
異常検出に基づくスプーフ攻撃検出は、顔提示攻撃検出の最近の進歩である。
本稿では,異常検出に基づくスプーフ攻撃検出のためのディープラーニングソリューションを提案する。
提案手法はCNNの表現学習能力の恩恵を受け,fPADタスクの優れた特徴を学習する。
論文 参考訳(メタデータ) (2020-07-11T21:20:55Z) - Detection as Regression: Certified Object Detection by Median Smoothing [50.89591634725045]
この研究は、ランダム化平滑化による認定分類の最近の進歩によって動機付けられている。
我々は、$ell$-bounded攻撃に対するオブジェクト検出のための、最初のモデル非依存、トレーニング不要、認定された防御条件を得る。
論文 参考訳(メタデータ) (2020-07-07T18:40:19Z) - A Note on Deepfake Detection with Low-Resources [0.0]
ディープフェイク(Deepfakes)とは、ニューラルネットワークを使って顔が違う人物の顔に代わることの多い、変化を含むビデオである。
本稿では,ユーザのDeepfakesを計算能力に乏しく検出する2つの方法を提案する。
論文 参考訳(メタデータ) (2020-06-09T11:07:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。