論文の概要: Adversarially Robust Deepfake Detection via Adversarial Feature Similarity Learning
- arxiv url: http://arxiv.org/abs/2403.08806v1
- Date: Tue, 6 Feb 2024 11:35:05 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-18 05:40:54.646901
- Title: Adversarially Robust Deepfake Detection via Adversarial Feature Similarity Learning
- Title(参考訳): 対向的特徴類似性学習による対向的ロバストディープフェイク検出
- Authors: Sarwar Khan,
- Abstract要約: ディープフェイク技術は、デジタルコンテンツの信頼性を懸念し、効果的な検出方法の開発を必要としている。
敵は、検出モデルを騙して誤った出力を生成する、小さくて知覚できない摂動でディープフェイクビデオを操作できる。
本稿では,3つの基本的深い特徴学習パラダイムを統合したAFSL(Adversarial Feature similarity Learning)を紹介する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deepfake technology has raised concerns about the authenticity of digital content, necessitating the development of effective detection methods. However, the widespread availability of deepfakes has given rise to a new challenge in the form of adversarial attacks. Adversaries can manipulate deepfake videos with small, imperceptible perturbations that can deceive the detection models into producing incorrect outputs. To tackle this critical issue, we introduce Adversarial Feature Similarity Learning (AFSL), which integrates three fundamental deep feature learning paradigms. By optimizing the similarity between samples and weight vectors, our approach aims to distinguish between real and fake instances. Additionally, we aim to maximize the similarity between both adversarially perturbed examples and unperturbed examples, regardless of their real or fake nature. Moreover, we introduce a regularization technique that maximizes the dissimilarity between real and fake samples, ensuring a clear separation between these two categories. With extensive experiments on popular deepfake datasets, including FaceForensics++, FaceShifter, and DeeperForensics, the proposed method outperforms other standard adversarial training-based defense methods significantly. This further demonstrates the effectiveness of our approach to protecting deepfake detectors from adversarial attacks.
- Abstract(参考訳): ディープフェイク技術は、デジタルコンテンツの信頼性を懸念し、効果的な検出方法の開発を必要としている。
しかし、ディープフェイクが普及し、敵の攻撃という形で新たな課題がもたらされた。
敵は、検出モデルを騙して誤った出力を生成する、小さくて知覚できない摂動でディープフェイクビデオを操作できる。
この重要な問題に対処するために,3つの基本的深い特徴学習パラダイムを統合したAdversarial Feature similarity Learning (AFSL)を導入する。
サンプルと重みベクトルの類似性を最適化することにより、本手法は実例と偽例を区別することを目的としている。
さらに,本研究の目的は,実物や偽物によらず,対角的摂動例と非摂動例の類似性を最大化することである。
さらに,本手法では,実検体と偽検体との相違を最大化し,両者の明確な分離を確実にする正則化手法を提案する。
FaceForensics++、FaceShifter、DeeperForensicsなど、人気のあるディープフェイクデータセットに関する広範な実験により、提案手法は、他の標準的な対向トレーニングベースの防御方法よりも大幅に優れている。
さらに, 敵攻撃からディープフェイク検出器を保護するためのアプローチの有効性を示す。
関連論文リスト
- Real is not True: Backdoor Attacks Against Deepfake Detection [9.572726483706846]
本稿では,Bad-Deepfake(Bad-Deepfake)と命名された先駆的パラダイムを導入する。
我々のアプローチはトレーニングデータのサブセットを戦略的に操作することで、トレーニングされたモデルの運用特性に対する不均等な影響を軽減します。
論文 参考訳(メタデータ) (2024-03-11T10:57:14Z) - Improving Cross-dataset Deepfake Detection with Deep Information
Decomposition [57.284370468207214]
ディープフェイク技術は、セキュリティと社会的信頼に重大な脅威をもたらす。
既存の検出方法は、クロスデータセットのシナリオに直面した場合、パフォーマンスの急激な低下に悩まされる。
本稿では,深層情報分解(DID)フレームワークを提案する。
論文 参考訳(メタデータ) (2023-09-30T12:30:25Z) - NPVForensics: Jointing Non-critical Phonemes and Visemes for Deepfake
Detection [50.33525966541906]
既存のマルチモーダル検出手法は、Deepfakeビデオを公開するために、音声と視覚の不整合をキャプチャする。
NPVForensics と呼ばれる非臨界音素とビセムの相関関係を抽出する新しいディープフェイク検出法を提案する。
我々のモデルは、微調整で下流のDeepfakeデータセットに容易に適応できる。
論文 参考訳(メタデータ) (2023-06-12T06:06:05Z) - Real-centric Consistency Learning for Deepfake Detection [8.313889744011933]
両クラスの不変表現を学習することで深度検出問題に取り組む。
本稿では,潜在世代関連特徴を抽出するための,意味論的ペアリング手法を提案する。
特徴レベルでは、表現空間における自然面の中心に基づいて、潜在的な限界特徴をシミュレートする強正のマイニングと合成法を設計する。
論文 参考訳(メタデータ) (2022-05-15T07:01:28Z) - Self-supervised Transformer for Deepfake Detection [112.81127845409002]
現実世界のシナリオにおけるディープフェイク技術は、顔偽造検知器のより強力な一般化能力を必要とする。
転送学習に触発されて、他の大規模な顔関連タスクで事前訓練されたニューラルネットワークは、ディープフェイク検出に有用な機能を提供する可能性がある。
本稿では,自己教師型変換器を用いた音声視覚コントラスト学習手法を提案する。
論文 参考訳(メタデータ) (2022-03-02T17:44:40Z) - Adversarial Robustness of Deep Reinforcement Learning based Dynamic
Recommender Systems [50.758281304737444]
本稿では,強化学習に基づく対話型レコメンデーションシステムにおける敵例の探索と攻撃検出を提案する。
まず、入力に摂動を加え、カジュアルな要因に介入することで、異なる種類の逆例を作成する。
そこで,本研究では,人工データに基づく深層学習に基づく分類器による潜在的攻撃を検出することにより,推薦システムを強化した。
論文 参考訳(メタデータ) (2021-12-02T04:12:24Z) - TREATED:Towards Universal Defense against Textual Adversarial Attacks [28.454310179377302]
本稿では,様々な摂動レベルの攻撃に対して,仮定なしに防御できる汎用的対向検出手法であるTREATEDを提案する。
3つの競合するニューラルネットワークと2つの広く使われているデータセットの大規模な実験により、本手法はベースラインよりも優れた検出性能が得られることが示された。
論文 参考訳(メタデータ) (2021-09-13T03:31:20Z) - Adversarial Examples Detection beyond Image Space [88.7651422751216]
摂動と予測信頼の間にはコンプライアンスが存在することが分かり、予測信頼の面から少数の摂動攻撃を検出するための指針となる。
本研究では,画像ストリームが画素アーティファクトに注目し,勾配ストリームが信頼度アーティファクトに対応する2ストリームアーキテクチャによる画像空間を超えた手法を提案する。
論文 参考訳(メタデータ) (2021-02-23T09:55:03Z) - Adversarial Threats to DeepFake Detection: A Practical Perspective [12.611342984880826]
本稿では,最先端のDeepFake検出手法の脆弱性を実用的観点から検討する。
我々は、非常に現実的な攻撃シナリオを示すUniversal Adversarial Perturbationsを用いて、よりアクセスしやすい攻撃を作成する。
論文 参考訳(メタデータ) (2020-11-19T16:53:38Z) - Towards Transferable Adversarial Attack against Deep Face Recognition [58.07786010689529]
ディープ畳み込みニューラルネットワーク(DCNN)は敵の例に弱いことが判明した。
転送可能な敵の例は、DCNNの堅牢性を著しく妨げます。
DFANetは畳み込み層で使用されるドロップアウトベースの手法であり,サロゲートモデルの多様性を高めることができる。
クエリなしで4つの商用APIをうまく攻撃できる新しい対向顔ペアを生成します。
論文 参考訳(メタデータ) (2020-04-13T06:44:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。