論文の概要: Self-supervised Learning of Adversarial Example: Towards Good
Generalizations for Deepfake Detection
- arxiv url: http://arxiv.org/abs/2203.12208v1
- Date: Wed, 23 Mar 2022 05:52:23 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-25 05:18:22.650359
- Title: Self-supervised Learning of Adversarial Example: Towards Good
Generalizations for Deepfake Detection
- Title(参考訳): 逆例の自己教師型学習:ディープフェイク検出のための優れた一般化を目指して
- Authors: Liang Chen, Yong Zhang, Yibing Song, Lingqiao Liu, and Jue Wang
- Abstract要約: この研究は、単純な原理から一般化可能なディープフェイク検出に対処する。
フォージェリー構成のプールで強化されたフォージェリーを合成することにより、フォージェリーの「多様性」を豊かにすることを提案する。
また,現在のモデルに最も難易度の高いフォージェリーを動的に合成するために,敵のトレーニング戦略を用いることを提案する。
- 参考スコア(独自算出の注目度): 41.27496491339225
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent studies in deepfake detection have yielded promising results when the
training and testing face forgeries are from the same dataset. However, the
problem remains challenging when one tries to generalize the detector to
forgeries created by unseen methods in the training dataset. This work
addresses the generalizable deepfake detection from a simple principle: a
generalizable representation should be sensitive to diverse types of forgeries.
Following this principle, we propose to enrich the "diversity" of forgeries by
synthesizing augmented forgeries with a pool of forgery configurations and
strengthen the "sensitivity" to the forgeries by enforcing the model to predict
the forgery configurations. To effectively explore the large forgery
augmentation space, we further propose to use the adversarial training strategy
to dynamically synthesize the most challenging forgeries to the current model.
Through extensive experiments, we show that the proposed strategies are
surprisingly effective (see Figure 1), and they could achieve superior
performance than the current state-of-the-art methods. Code is available at
\url{https://github.com/liangchen527/SLADD}.
- Abstract(参考訳): 近年のディープフェイク検出の研究は、トレーニングとテストの顔偽造が同じデータセットである場合に有望な結果をもたらしている。
しかし、トレーニングデータセットで見当たらないメソッドによって作成された偽造に検出器を一般化しようとすると、問題は依然として困難である。
この研究は、単純な原理から一般化可能なディープフェイク検出に対処する: 一般化可能な表現は様々な種類の偽造に敏感でなければならない。
本稿では, フォージェリ構成のプールで強化されたフォージェリを合成し, モデルにフォージェリ構成の予測を強制することで, フォージェリに対する「感度」を高めることにより, フォージェリの多様性を高めることを提案する。
大規模偽造増補空間を効果的に探究するため,本モデルに最も挑戦する偽造を動的に合成するために,敵対的訓練戦略を用いることを更に提案する。
広範な実験を通して,提案手法が驚くほど効果的であることを示し(第1図参照),現在の最先端手法よりも優れた性能が得られることを示した。
コードは \url{https://github.com/liangchen527/sladd} で入手できる。
関連論文リスト
- Transcending Forgery Specificity with Latent Space Augmentation for
Generalizable Deepfake Detection [61.845902530915325]
LSDAと呼ばれる簡易で効果的なディープフェイク検出器を提案する。
それは偽りの考えに基づいており、より多様な偽の表現はより一般化可能な決定境界を学べるべきである。
提案手法は驚くほど有効であり, 広く使用されている複数のベンチマークで最先端の検出器を超越することを示す。
論文 参考訳(メタデータ) (2023-11-19T09:41:10Z) - Characterizing the temporal dynamics of universal speech representations
for generalizable deepfake detection [14.449940985934388]
既存のディープフェイク音声検出システムは、目に見えない攻撃に対する一般化性に欠ける。
近年,この問題に対処するための普遍的な音声表現の活用が検討されている。
これらの表現の長期的時間的ダイナミクスを特徴付けることは、一般化可能性に不可欠である。
論文 参考訳(メタデータ) (2023-09-15T01:37:45Z) - Towards General Visual-Linguistic Face Forgery Detection [95.73987327101143]
ディープフェイクは現実的な顔操作であり、セキュリティ、プライバシー、信頼に深刻な脅威をもたらす可能性がある。
既存の方法は、このタスクを、デジタルラベルまたはマスク信号を使用して検出モデルをトレーニングするバイナリ分類として扱う。
本稿では, 微粒な文レベルのプロンプトをアノテーションとして用いた, VLFFD (Visual-Linguistic Face Forgery Detection) という新しいパラダイムを提案する。
論文 参考訳(メタデータ) (2023-07-31T10:22:33Z) - On the Universal Adversarial Perturbations for Efficient Data-free
Adversarial Detection [55.73320979733527]
本稿では,UAPに対して正常サンプルと逆サンプルの異なる応答を誘導する,データに依存しない逆検出フレームワークを提案する。
実験結果から,本手法は様々なテキスト分類タスクにおいて,競合検出性能を実現することが示された。
論文 参考訳(メタデータ) (2023-06-27T02:54:07Z) - SeeABLE: Soft Discrepancies and Bounded Contrastive Learning for
Exposing Deepfakes [7.553507857251396]
本研究では,検出問題を(一級)アウト・オブ・ディストリビューション検出タスクとして形式化する,SeeABLEと呼ばれる新しいディープフェイク検出器を提案する。
SeeABLEは、新しい回帰ベースの有界コントラスト損失を使用して、乱れた顔を事前定義されたプロトタイプにプッシュする。
我々のモデルは競合する最先端の検出器よりも高い性能を示しながら、高度に一般化能力を示す。
論文 参考訳(メタデータ) (2022-11-21T09:38:30Z) - Improving robustness of jet tagging algorithms with adversarial training [56.79800815519762]
本研究では,フレーバータグ付けアルゴリズムの脆弱性について,敵攻撃による検証を行った。
シミュレーション攻撃の影響を緩和する対人訓練戦略を提案する。
論文 参考訳(メタデータ) (2022-03-25T19:57:19Z) - Self-supervised Transformer for Deepfake Detection [112.81127845409002]
現実世界のシナリオにおけるディープフェイク技術は、顔偽造検知器のより強力な一般化能力を必要とする。
転送学習に触発されて、他の大規模な顔関連タスクで事前訓練されたニューラルネットワークは、ディープフェイク検出に有用な機能を提供する可能性がある。
本稿では,自己教師型変換器を用いた音声視覚コントラスト学習手法を提案する。
論文 参考訳(メタデータ) (2022-03-02T17:44:40Z) - An Effective Baseline for Robustness to Distributional Shift [5.627346969563955]
ディープラーニングシステムの安全なデプロイには,トレーニング中に見られるものと異なる入力のカテゴリに直面した場合,確実な予測を控えることが重要な要件である。
本論文では, 吸収の原理を用いた分布異常検出の簡便かつ高効率な手法を提案する。
論文 参考訳(メタデータ) (2021-05-15T00:46:11Z) - Improving Adversarial Robustness by Enforcing Local and Global
Compactness [19.8818435601131]
敵の訓練は、広範囲の攻撃に一貫して抵抗する最も成功した方法である。
本稿では,局所的・言語的コンパクト性とクラスタリングの仮定を強制する分散分散化ネットワークを提案する。
実験の結果,提案するコンポーネントによる対人訓練の強化は,ネットワークの堅牢性をさらに向上させる可能性が示唆された。
論文 参考訳(メタデータ) (2020-07-10T00:43:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。