論文の概要: Self-supervised Learning of Adversarial Example: Towards Good
Generalizations for Deepfake Detection
- arxiv url: http://arxiv.org/abs/2203.12208v1
- Date: Wed, 23 Mar 2022 05:52:23 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-25 05:18:22.650359
- Title: Self-supervised Learning of Adversarial Example: Towards Good
Generalizations for Deepfake Detection
- Title(参考訳): 逆例の自己教師型学習:ディープフェイク検出のための優れた一般化を目指して
- Authors: Liang Chen, Yong Zhang, Yibing Song, Lingqiao Liu, and Jue Wang
- Abstract要約: この研究は、単純な原理から一般化可能なディープフェイク検出に対処する。
フォージェリー構成のプールで強化されたフォージェリーを合成することにより、フォージェリーの「多様性」を豊かにすることを提案する。
また,現在のモデルに最も難易度の高いフォージェリーを動的に合成するために,敵のトレーニング戦略を用いることを提案する。
- 参考スコア(独自算出の注目度): 41.27496491339225
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent studies in deepfake detection have yielded promising results when the
training and testing face forgeries are from the same dataset. However, the
problem remains challenging when one tries to generalize the detector to
forgeries created by unseen methods in the training dataset. This work
addresses the generalizable deepfake detection from a simple principle: a
generalizable representation should be sensitive to diverse types of forgeries.
Following this principle, we propose to enrich the "diversity" of forgeries by
synthesizing augmented forgeries with a pool of forgery configurations and
strengthen the "sensitivity" to the forgeries by enforcing the model to predict
the forgery configurations. To effectively explore the large forgery
augmentation space, we further propose to use the adversarial training strategy
to dynamically synthesize the most challenging forgeries to the current model.
Through extensive experiments, we show that the proposed strategies are
surprisingly effective (see Figure 1), and they could achieve superior
performance than the current state-of-the-art methods. Code is available at
\url{https://github.com/liangchen527/SLADD}.
- Abstract(参考訳): 近年のディープフェイク検出の研究は、トレーニングとテストの顔偽造が同じデータセットである場合に有望な結果をもたらしている。
しかし、トレーニングデータセットで見当たらないメソッドによって作成された偽造に検出器を一般化しようとすると、問題は依然として困難である。
この研究は、単純な原理から一般化可能なディープフェイク検出に対処する: 一般化可能な表現は様々な種類の偽造に敏感でなければならない。
本稿では, フォージェリ構成のプールで強化されたフォージェリを合成し, モデルにフォージェリ構成の予測を強制することで, フォージェリに対する「感度」を高めることにより, フォージェリの多様性を高めることを提案する。
大規模偽造増補空間を効果的に探究するため,本モデルに最も挑戦する偽造を動的に合成するために,敵対的訓練戦略を用いることを更に提案する。
広範な実験を通して,提案手法が驚くほど効果的であることを示し(第1図参照),現在の最先端手法よりも優れた性能が得られることを示した。
コードは \url{https://github.com/liangchen527/sladd} で入手できる。
関連論文リスト
- Fake It till You Make It: Curricular Dynamic Forgery Augmentations towards General Deepfake Detection [15.857961926916465]
我々は,textbfCurricular textbfDynamic textbfForgery textbfAugmentation (CDFA)と呼ばれる新しいディープフェイク検出法を提案する。
CDFAは、偽造拡張ポリシーネットワークでディープフェイク検出器を共同で訓練する。
そこで本研究では,CDFAが各種難燃性ディープフェイク検出器のクロスデータセットおよびクロスマニピュレーション性能を著しく向上できることを示す。
論文 参考訳(メタデータ) (2024-09-22T13:51:22Z) - Open-Set Deepfake Detection: A Parameter-Efficient Adaptation Method with Forgery Style Mixture [58.60915132222421]
本稿では,顔偽造検出に汎用的かつパラメータ効率の高い手法を提案する。
フォージェリー・ソース・ドメインの多様性を増大させるフォージェリー・ミックス・フォーミュレーションを設計する。
設計したモデルは、トレーニング可能なパラメータを著しく減らし、最先端の一般化性を実現する。
論文 参考訳(メタデータ) (2024-08-23T01:53:36Z) - READ: Improving Relation Extraction from an ADversarial Perspective [33.44949503459933]
関係抽出(RE)に特化して設計された対角的学習法を提案する。
提案手法では,シーケンスレベルの摂動とトークンレベルの摂動の両方をサンプルに導入し,個別の摂動語彙を用いてエンティティとコンテキストの摂動の探索を改善する。
論文 参考訳(メタデータ) (2024-04-02T16:42:44Z) - Diffusion Deepfake [41.59597965760673]
生成AIの最近の進歩は、主に拡散モデルを通じて、現実世界のディープフェイク検出において大きな課題を呈している。
画像の詳細、多様なコンテンツ、そして一般大衆への幅広いアクセス性におけるリアリズムの増加は、これらの洗練されたディープフェイクの識別を複雑にしている。
本稿では,最先端拡散モデルにより生成された2つの広範囲なディープフェイクデータセットを紹介する。
論文 参考訳(メタデータ) (2024-04-02T02:17:50Z) - Transcending Forgery Specificity with Latent Space Augmentation for Generalizable Deepfake Detection [57.646582245834324]
LSDAと呼ばれる簡易で効果的なディープフェイク検出器を提案する。
より多様な偽の表現は、より一般化可能な決定境界を学べるべきである。
提案手法は驚くほど有効であり, 広く使用されている複数のベンチマークで最先端の検出器を超越することを示す。
論文 参考訳(メタデータ) (2023-11-19T09:41:10Z) - Towards General Visual-Linguistic Face Forgery Detection [95.73987327101143]
ディープフェイクは現実的な顔操作であり、セキュリティ、プライバシー、信頼に深刻な脅威をもたらす可能性がある。
既存の方法は、このタスクを、デジタルラベルまたはマスク信号を使用して検出モデルをトレーニングするバイナリ分類として扱う。
本稿では, 微粒な文レベルのプロンプトをアノテーションとして用いた, VLFFD (Visual-Linguistic Face Forgery Detection) という新しいパラダイムを提案する。
論文 参考訳(メタデータ) (2023-07-31T10:22:33Z) - On the Universal Adversarial Perturbations for Efficient Data-free
Adversarial Detection [55.73320979733527]
本稿では,UAPに対して正常サンプルと逆サンプルの異なる応答を誘導する,データに依存しない逆検出フレームワークを提案する。
実験結果から,本手法は様々なテキスト分類タスクにおいて,競合検出性能を実現することが示された。
論文 参考訳(メタデータ) (2023-06-27T02:54:07Z) - SeeABLE: Soft Discrepancies and Bounded Contrastive Learning for
Exposing Deepfakes [7.553507857251396]
本研究では,検出問題を(一級)アウト・オブ・ディストリビューション検出タスクとして形式化する,SeeABLEと呼ばれる新しいディープフェイク検出器を提案する。
SeeABLEは、新しい回帰ベースの有界コントラスト損失を使用して、乱れた顔を事前定義されたプロトタイプにプッシュする。
我々のモデルは競合する最先端の検出器よりも高い性能を示しながら、高度に一般化能力を示す。
論文 参考訳(メタデータ) (2022-11-21T09:38:30Z) - Improving robustness of jet tagging algorithms with adversarial training [56.79800815519762]
本研究では,フレーバータグ付けアルゴリズムの脆弱性について,敵攻撃による検証を行った。
シミュレーション攻撃の影響を緩和する対人訓練戦略を提案する。
論文 参考訳(メタデータ) (2022-03-25T19:57:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。