論文の概要: Adversarial Perturbations Fool Deepfake Detectors
- arxiv url: http://arxiv.org/abs/2003.10596v2
- Date: Fri, 15 May 2020 05:41:32 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-20 08:06:36.095004
- Title: Adversarial Perturbations Fool Deepfake Detectors
- Title(参考訳): 副次的摂動フールディープフェイク検出器
- Authors: Apurva Gandhi and Shomik Jain
- Abstract要約: この研究は、逆方向の摂動を利用してディープフェイク画像を強化し、一般的なディープフェイク検出器を騙す。
検出器は、摂動しないディープフェイクでは95%以上の精度を達成したが、摂動したディープフェイクでは27%未満の精度であった。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This work uses adversarial perturbations to enhance deepfake images and fool
common deepfake detectors. We created adversarial perturbations using the Fast
Gradient Sign Method and the Carlini and Wagner L2 norm attack in both blackbox
and whitebox settings. Detectors achieved over 95% accuracy on unperturbed
deepfakes, but less than 27% accuracy on perturbed deepfakes. We also explore
two improvements to deepfake detectors: (i) Lipschitz regularization, and (ii)
Deep Image Prior (DIP). Lipschitz regularization constrains the gradient of the
detector with respect to the input in order to increase robustness to input
perturbations. The DIP defense removes perturbations using generative
convolutional neural networks in an unsupervised manner. Regularization
improved the detection of perturbed deepfakes on average, including a 10%
accuracy boost in the blackbox case. The DIP defense achieved 95% accuracy on
perturbed deepfakes that fooled the original detector, while retaining 98%
accuracy in other cases on a 100 image subsample.
- Abstract(参考訳): この研究は、逆方向の摂動を利用してディープフェイク画像を強化し、一般的なディープフェイク検出器を騙す。
我々は,Fast Gradient Sign Method と Carlini と Wagner L2 の標準攻撃をブラックボックスとホワイトボックスの設定の両方で用いた逆方向摂動を作成した。
検出器は、摂動しないディープフェイクでは95%以上の精度を達成したが、摂動したディープフェイクでは27%未満の精度であった。
ディープフェイク検出器の2つの改良点も検討しています。
(i)リプシッツ正則化、及び
(ii)深部画像先行(dip)
リプシッツ正則化は、入力摂動に対するロバスト性を高めるために、入力に対する検出器の勾配を制約する。
DIPディフェンスは、生成的畳み込みニューラルネットワークを用いた摂動を教師なしの方法で除去する。
規則化により、ブラックボックスケースの10%の精度向上を含む、平均して摂動型ディープフェイクの検出が改善された。
DIPディフェンスは、オリジナルの検出器を騙した歪んだディープフェイクに対して95%の精度を達成し、他の100枚のサブサンプルでは98%の精度を維持した。
関連論文リスト
- Facial Forgery-based Deepfake Detection using Fine-Grained Features [7.378937711027777]
ディープフェイクによる顔の偽造は、大きなセキュリティリスクを引き起こし、深刻な社会的懸念を引き起こしている。
我々は,詳細な分類問題としてディープフェイク検出を定式化し,それに対する新たなきめ細かな解を提案する。
本手法は, 背景雑音を効果的に抑制し, 様々なスケールの識別特徴を学習することにより, 微妙で一般化可能な特徴を学習し, 深度検出を行う。
論文 参考訳(メタデータ) (2023-10-10T21:30:05Z) - An Unforgeable Publicly Verifiable Watermark for Large Language Models [88.50683534978407]
現在の透かし検出アルゴリズムは、透かし生成プロセスで使用される秘密鍵を必要とする。
本稿では、2つの異なるニューラルネットワークを用いて透かしの生成と検出を行う、偽造不可能な検証可能な透かしアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-07-30T13:43:27Z) - DeepFake-Adapter: Dual-Level Adapter for DeepFake Detection [73.66077273888018]
既存のディープフェイク検出方法は、目に見えない、または劣化したサンプルに対してうまく一般化できない。
高レベルのセマンティクスは、一般化可能な偽造検出に必要なレシピである。
DeepFake-Adapterは、DeepFake検出のためのパラメータ効率の高い最初のチューニング手法である。
論文 参考訳(メタデータ) (2023-06-01T16:23:22Z) - Towards an Accurate and Secure Detector against Adversarial
Perturbations [58.02078078305753]
敵の摂動に対するディープニューラルネットワークの脆弱性は、コンピュータビジョンコミュニティで広く認識されている。
現在のアルゴリズムは、通常、自然・人工データの識別的分解を通じて、敵対的なパターンを検出する。
本研究では,秘密鍵を用いた空間周波数判別分解に基づく,高精度かつセキュアな対向検波器を提案する。
論文 参考訳(メタデータ) (2023-05-18T10:18:59Z) - UNBUS: Uncertainty-aware Deep Botnet Detection System in Presence of
Perturbed Samples [1.2691047660244335]
ボットネット検出には極めて低い偽陽性率(FPR)が必要であるが、現代のディープラーニングでは一般的に達成できない。
本稿では,98%以上の精度のボットネット分類のためのLSTMに基づく2つの分類アルゴリズムについて述べる。
論文 参考訳(メタデータ) (2022-04-18T21:49:14Z) - Frequency Centric Defense Mechanisms against Adversarial Examples [1.0650780147044159]
Adversarial Example (AE) は、入力画像に小さな摂動を導入することで、畳み込みニューラルネットワークを騙すことを目的としている。
対向検知器を訓練し、対向効果を認知させることにより、防御を2つの方法で実証する。
論文 参考訳(メタデータ) (2021-10-26T18:03:38Z) - Understanding the Security of Deepfake Detection [23.118012417901078]
本研究では,最先端のディープフェイク検出手法の対向的設定における安全性について検討する。
FaceForensics++やFacebook Deepfake Detection Challengeなど、大規模な公開ディープフェイクデータソースを2つ使用しています。
本研究は, 対戦環境におけるディープフェイク検出手法のセキュリティ上の制約を明らかにした。
論文 参考訳(メタデータ) (2021-07-05T14:18:21Z) - Adversarially robust deepfake media detection using fused convolutional
neural network predictions [79.00202519223662]
現在のディープフェイク検出システムは、目に見えないデータと戦っている。
ビデオから抽出した偽画像と実画像の分類には,CNN(Deep Convolutional Neural Network)モデルが3種類採用されている。
提案手法は96.5%の精度で最先端のモデルより優れている。
論文 参考訳(メタデータ) (2021-02-11T11:28:00Z) - D-Unet: A Dual-encoder U-Net for Image Splicing Forgery Detection and
Localization [108.8592577019391]
画像スプライシング偽造検出は、画像指紋によって改ざんされた領域と非改ざんされた領域を区別するグローバルバイナリ分類タスクである。
画像スプライシングフォージェリ検出のためのデュアルエンコーダU-Net(D-Unet)という,固定されていないエンコーダと固定エンコーダを用いた新しいネットワークを提案する。
D-Unetと最先端技術の比較実験において、D-Unetは画像レベルおよび画素レベルの検出において他の手法よりも優れていた。
論文 参考訳(メタデータ) (2020-12-03T10:54:02Z) - Anomaly Detection-Based Unknown Face Presentation Attack Detection [74.4918294453537]
異常検出に基づくスプーフ攻撃検出は、顔提示攻撃検出の最近の進歩である。
本稿では,異常検出に基づくスプーフ攻撃検出のためのディープラーニングソリューションを提案する。
提案手法はCNNの表現学習能力の恩恵を受け,fPADタスクの優れた特徴を学習する。
論文 参考訳(メタデータ) (2020-07-11T21:20:55Z) - A Note on Deepfake Detection with Low-Resources [0.0]
ディープフェイク(Deepfakes)とは、ニューラルネットワークを使って顔が違う人物の顔に代わることの多い、変化を含むビデオである。
本稿では,ユーザのDeepfakesを計算能力に乏しく検出する2つの方法を提案する。
論文 参考訳(メタデータ) (2020-06-09T11:07:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。